Posts etiquetados ‘Pierre Simon Laplace’

Stephen Wolfram

Parece de sentido común pensar que reglas sencillas y determinadas, solo pueden dar lugar a comportamientos regulares y predecibles. Ha sido además, una constante en la historia de la filosofía y de la ciencia: de lo sencillo no puede surgir lo complejo sino al contrario, solo de lo complejo puede salir lo sencillo. Esta idea llevó a Hegel, el filósofo del dinamismo por excelencia, a renegar de la evolución. Era imposible que se genere complejidad «de la nada». Error colosal.

El físico británico Stephen Wolfram ha pasado gran parte de su vida como científico estudiando el comportamiento de autómatas celulares, e intentando demostrar que el universo está regido por una serie de reglas sencillas y absolutamente deterministas que producen toda la inconmensurable complejidad que nos rodea. Un autómata celular es algo bastante sencillo: es un sistema dinámico que evoluciona en pasos discretos que, básicamente, consiste en una malla de celdas (o células) de dimensiones infinitas en las cuales introducimos colores (en principio, solo dos: blanco o negro, aunque se puede aumentar su complejidad introduciendo más). Coloreamos las celdas que nos plazcan y después aplicamos una serie de reglas que determinen qué celdas estarán coloreadas y cuáles no en el siguiente paso. Por ejemplo, una regla muy simple sería: si tenemos una celda negra, en el siguiente paso, seguirá siendo negra si tiene otra casilla negra en cualquiera de sus ocho celdas adyacentes; si no tiene ninguna, se volverá blanca. El color de una celda siempre va a estar determinado por la situación de sus compañeras. Por así decirlo, los autómatas celulares son «sociales». Así vamos dando pasos y pasos y contemplamos cómo evoluciona la malla con la esperanza de ver si se genera alguna configuración de celdas interesante.

Wolfram estudia los autómatas celulares más simples posibles: los unidimensionales. Se trata de una celda (blanca o negra) que solo puede tener dos casillas adyacentes (tenemos entonces 8 configuraciones posibles de estas tres celdas). Con estas 8 configuraciones iniciales podemos establecer el máximo de 256 tipos diferentes de autómatas celulares. Wolfran va estudiando uno a uno cada tipo (los llama reglas) y los va clasificando en clases: la 1 da autómatas que crean patrones repetitivos sin interés; los de la 2 crean rayas arbitrariamente espaciadas que permanecen estables; los de clase 3 son más interesantes porque crean formas reconocibles (se genera el conocido triángulo de Sierpinski, un fractal); pero los más interesantes con diferencia son los de clase 4, ya que dan patrones complejos que no se repiten, parecen ordenados pero son absolutamente impredecibles. La regla 110 genera la malla de la imagen.
rule11047926La importancia de esta regla es capital: un proceso basado en unas reglas sencillísimas y completamente determinista da lugar a una gran complejidad y a un comportamiento que superaría sin problemas tests de aleatoriedad, mostrándose completamente impredecible. Pero es más, es que la regla 110 es Turing completa, es decir, es equivalente a una máquina universal de Turing, es decir, que, si la tesis Church-Turing es cierta, puede realizar cualquier cálculo posible (es equivalente al ordenador desde el que escribo ésto). Wolfram demostró que un autómata de 2 estados y 5 colores basado en la regla 110 era Turing completo (más adelante, un estudiante de la Universidad de Birmingham llamado Alex Smith demostró que un autómata aún más simple, de 2 estados y 3 colores, también era Turing completo, si bien está demostración ha traído controversia y no ha quedado claro si es correcta).

Tres conclusiones:

1. Es posible generar una enorme complejidad a partir de reglas sencillas sin introducir ningún elemento aleatorio. El Universo en su inconmensurable diversidad puede, a fin de cuentas, estar regido por una pequeña serie de reglas simples.

2. El Universo puede ser determinista ya que la aleatoriedad podría solo ser aparente. Si podemos construir un autómata determinista que supere tests de aleatoriedad, es decir, que a fin de cuentas tiene un comportamiento indistinguible de un autómata probabilista, ¿no podría ser que la aleatoridad fuera solo una ficción?

3. Tenemos un sistema determinista imposible de predecir… ¡Esto hace saltar en pedazos el diablillo de Laplace!

Una dura crítica: si observamos detenidamente como evolucionan los autómatas de Wolfram vemos que, a pesar de que muestran estas formas tan interesantes, no llegan a más. No evolucionan hacia diseños nuevos ni más complejos. Si pretendiéramos que estos algoritmos dieran lugar a toda la complejidad del Universo, están ciertamente muy lejos de conseguirlo. Wolfram pone muchos ejemplos de organismos y fenómenos naturales que siguen estos patrones, pero aún así, distan mucho de ser una muestra representativa de todo lo que existe. Por decirlo de modo brusco, estos autómatas no dan lugar a células eucariotas, a peces, a dinosaurios o a mamíferos. Es más, ni siquiera si aumentamos su complejidad con más colores y reglas conseguimos resultados muy diferentes. Se terminan por estancar.

Una posible salida: podemos aumentar su alcance añadiendo aleatorizadores, implementándolos dentro de algoritmos genéticos (básicamente, imitando la evolución darwiniana). Sí, pero al añadir azar estamos rompiendo con la idea clave de que el Universo funciona de modo determinista. No, porque los aleatorizadores que podemos diseñar no generan números aleatorios reales, sino únicamente pseudoaleatorios, es decir, que son generados de modo totalmente determinista pero que dan la apariencia de ser azarosos al superar tests de aleatoriedad. Cualquier generador de números aleatorios que podemos utilizar en cualquier lenguaje de programación es una farsa. De hecho, nunca hemos podido generar números realmente aleatorios pues no sabemos cómo se puede hacer algo así. En una próxima entrada hablaremos de cómo funcionan estos aparentes creadores de azar.

Aquí tenéis un generador de autómatas con el que podéis ver las configuraciones de todas las reglas estudiadas por Wolfram.

tumblr_lc6zj3JE3x1qdogv5o1_1280

En línea con otra entrada que escribí, continuo leyendo en muchos lugares de Internet opiniones muy negativas sobre lo que significa la metafísica, sobre todo por parte de científicos o de defensores del conocimiento científico que critican diversos aspectos de las religiones. Parece que muchas veces se tiende a identificar metafísica o filosofía con religión o esoterismo y ya que religión se identifica con charlatanería, la metafísica no suele salir muy bien parada. Esta visión, si bien tiene algo de razón, es, en términos generales, bastante errónea.

Es cierto que la metafísica ha cometido errores y abusos de diversa índole (que ya comenzaron a denunciarse desde hace muchos años. Véase la crítica de Hume). Pongamos un ejemplo. El concepto de infinito (concepto metafísico tradicional) parece tener sentido únicamente si lo aplicamos a cantidades. Sabemos que los números naturales son infinitos y, gracias a las geniales demostraciones de Cantor, sabemos que hay infinitos más grandes que otros. Pero, ¿qué pasa cuando aplicamos el concepto de infinito a entidades no matemáticas, es decir, a objetos reales? Nadie ha percibido nunca ningún objeto que tenga alguna de sus propiedades en cantidad infinita. A lo sumo podemos hablar de la posibilidad de que nuestro universo sea infinito o de que existan infinitos universos, pero no dejan de ser hipótesis muy arriesgadas con más o menos fundamento científico. Sin embargo, muchos metafísicos se han atrevido a postular infinitos referidos a cualidades. Es muy común oír hablar de los atributos de Dios en esos términos: Dios tiene infinito poder, sabiduría, bondad, etc. Con total evidencia hacer esto lleva a absurdos y a paradojas sin solución.

Pensemos en el concepto «estar casado». Según la teoría de universos múltiples si el tiempo es infinito y hay infinitas personas en los infinitos universos que son exactamente iguales a mí, yo puedo estar casado infinitas veces. Sin embargo, si aplicamos el concepto de infinito a la cualidad de «estar casado» llegamos al absurdo: una vez que estás casado, ¿lo estás mucho o poco? Es absurdo aplicar el concepto de infinito a la cualidad de «estar casado» como también lo es aplicarlo a «ser jugador del Real Madrid» o a «haber nacido en Cuenca».

Sin embargo, podría objetar el agudo metafísico, categorías como «estar casado» solo admiten todo o nada, pero existen otras que sí admiten muchas gradaciones. Por ejemplo, «ser guapo», uno puede serlo mucho o poco en muy diferentes grados, por lo que quizá cabría hablar de «belleza en grado infinito». No, porque todas las cualidades tienen un techo, tanto por arriba como por abajo. Cabría encontrar a la persona más guapa del mundo a partir de la cual ya no cabe ser más guapo o, por el contrario, la más fea. No, de nuevo diría el metafísico, siempre podríamos añadirle algo más de modo que fuera un poquito más guapo o un poquito más feo. Al feo siempre podríamos añadirle una verruga más, un diente algo más torcido o una oreja algo más asimétrica con respecto a la otra. No, querido metafísico, a pesar de tener mucho rango de acción, habría un límite a partir del cual ya solo se podría añadir cualidades en un grado infinitesimal cada vez más pequeño (el límite tendería a quedarse en una cantidad fija que no llegaría nunca al infinito). No hay ninguna cualidad que pueda existir en grado infinito. Por lo tanto, aplicar la infinitud a las cualidades de Dios es un absurdo, error clásico de la metafísica tradicional.

Hasta aquí vale, los científicos tienen razón en criticar estos absurdos metafísicos. Pero giremos ahora la tortilla para ver toda la metafísica que hay en la ciencia tradicional. Vamos a poner el ejemplo de la probabilidad. Como todos sabemos la probabilidad es una de las ramas más fértiles e interesantes de las matemáticas, un poderoso instrumento utilizado por los científicos en gran cantidad de sus quehaceres profesionales cotidianos. Ningún científico osaría decir que la probabilidad es charlatanería metafísica. Pensemos en el simple cálculo de la probabilidad de sacar un seis al tirar un dado de seis caras. Un sexto, ya está. Pues detrás de este sencillísimo cálculo hay una serie de presunciones metafísicas muy claras. Citaremos la más evidente: el concepto puramente metafísico de «azar». El matemático probabilista presupone la posibilidad de que el dado puede tener seis comportamientos diferentes cuando, realmente, jamás se ha observado eso. En nuestra vida nunca observamos las posibilidades, observamos únicamente los hechos, lo que ocurre (las posibilidades solo podemos imaginarlas). Afirmar que «podría haber ocurrido otra cosa diferente a lo que ha ocurrido» es un juicio inobservable, indemostrable e inverificable, impropio de un científico que presume de solo obedecer la observación empírica. ¿Y si el universo es esa gran maquinaria mecanicista en la que creían Laplace o Spinoza y, por lo tanto, se mueve según leyes deterministas de modo que solo puede ocurrir lo que ocurre? Es decir, nuestro matemático no solo presupone, contra la observación, que pueden darse diferentes posibilidades a un hecho dado sino que, además, presupone que el universo funciona de manera indeterminada (otro postulado metafísico no demostrable empíricamente).

La ciencia está infectada de metafísica de forma que no puede establecerse una frontera clara entre la una y la otra. Pero es que eso no es malo. Hay tanto «buena metafísica» como «mala metafísica» al igual que hay «buena ciencia» y «mala ciencia». Muchos científicos tienen el prejuicio de entender que la metafísica siempre es mala y que hay que huir de ella como de la peste, sin darse cuenta tanto de que eso es imposible como de que no es tan malo.

Desde que Libet publicara sus controvertidos experimentos sobre el libre albedrío se han vertido ríos de tinta sobre el tema. ¿Qué tomemos consciencia de nuestra decisión medio segundo después de que nuestro cerebro se active para realizar la acción es signo inequívoco de que nuestra acción no es libre? De primeras, los deterministas se frotaban las manos pues parece que sí: una decisión libre ha de ser fruto de un proceso consciente pues… ¿no parece absurdo pensar en una decisión inconsciente como auténticamente libre? Pero, de segundas, revisiones de los supuestos del experimento y pruebas posteriores pusieron en tela de juicio tan clarividentes resultados. Christoph Hermann, catedrático de psicología general de la Universidad de Carl von Ossietzky, critica las conclusiones de Libet y aporta nuevas e interesantes perspectivas desde las que afrontar el problema.

El equipo de Hermann realizó nuevos experimentos en los que a los sujetos se les daba la opción de pulsar dos teclas en función de una serie de estímulos visuales. Cuando vieran una determinada imagen debían pulsar la tecla de la izquierda y si veían otra, la de la derecha. Entretanto, podrían aparecer otras imágenes que no obligaban a pulsar tecla alguna y se monitorizaba la actividad cerebral mediante magnetoencefalografía. Lo que se probó es que la actividad cerebral preparatoria para pulsar cualquiera de las dos teclas aparecía, no sólo cuando se visualizaban las imágenes que señalizaban que había que pulsarlas, sino en las otras también. El cerebro no sólo se activaba en señal de tomar la decisión antes de ser consciente de tomarla, sino en señal de estar preparado para tomar cualquier decisión. La actividad cerebral refleja la expectativa genérica de tener que hacer algo, no la causación que precede a la decisión libre. Los experimentos de Libet quedan así invalidados.

Pero lo interesante del planteamiento de Hermann no está solamente en estos nuevos datos, sino en el horizonte conceptual en el que plantea todo: para que consideremos que una acción es libre han de darse tres condiciones:

1. Principio de autoría: para que una elección sea libre ésta ha de estar en consonancia con las creencias y convicciones del sujeto que la toma. Este principio es sumamente interesante pues permite que una acción sea libre sin que sea consciente. Por ejemplo, cuando yo voy conduciendo y piso el embrague para cambiar de marcha, seguramente, no soy consciente de que lo piso. Podría estar manteniendo una conversación por el móvil mientras lo hago (y atento a que la policía no me vea hacerla) y nadie diría que mi acción de pisar el embrague es una acción no libre. En nuestra vida cotidiana realizamos miles de acciones de modo automático y eso no debería ser incompatible con nuestro libre albedrío. Además, la posibilidad de una acción libre inconsciente invalida por completo las conclusiones de Libet.

2. Principio de autonomía: la decisión libre ha de tomarse en ausencia de coacción externa. Esto es lo que entendemos por libertad pública o política: que nadie nos obligue a hacer nada. Sin embargo, este tipo de libertad no soluciona nada a nivel filosófico. Podrían existir elementos «internos» que me obligaran a actuar de forma no libre. Por ejemplo, pensemos en que hemos tenido un padre muy autoritario que nos educó en la prohibición y la renuncia. Entonces diríamos que somos menos libres a la hora de elegir que otra persona educada de forma más liberal, aun cuando nuestras «determinaciones» vinieran de «dentro» y no de «fuera».  O pensemos también en alguien que no puede hacer algo debido a una enfermedad mental como una fobia, por ejemplo. Si yo soy incapaz de entrar en una habitación llena de arañas de ningún modo soy libre para hacerlo. A mí nunca me ha gustado demasiado pensar las cosas en términos «espaciales».

3. Principio de poder actuar de otra manera: para que una elección sea libre han de existir dos o más alternativas que puedan seleccionarse en igualdad de condiciones. Esta es, sin duda, la más problemática, y la clave del dilema. Los deterministas, de la mano de Laplace, dirían que no existe tal posibilidad, no se puede actuar de ninguna manera más que de la que se actúa. El hecho de que no podamos predecir las elecciones únicamente es resultado de nuestras insuficiencias metodológicas, aunque éstas sean totalmente insuperables (por ejemplo, cuando hablamos de sistemas caóticos o si llegáramos a aceptar la incapacidad absoluta de nuestras herramientas de predicción reducidas quizá para siempre a cálculos probabilísticos). Que no podamos predecir algo, aunque sea por definición, no implica que sea algo indeterminado. Los indeterministas, más amigos de la física cuántica que de la clásica, argumentarían, exactamente desde el mismo punto de partida, que del hecho de que no podamos predecir la conducta, lo no  se sigue de ninguna manera es que ésta esté determinada de antemano. Además, añadirían pruebas desde los extraños sucesos aparentemente aleatorios que parecen reinar en el mundo subatómico.

Pero ambas posturas se equivocan en afirmar nada, cayendo en la típica falacia ad ignorantiam.  Desde la ignorancia no se puede afirmar ni negar nada. No podemos predecir totalmente el mundo natural ni la conducta humana, ese es el único hecho. De aquí no puede deducirse lícitamente que la realidad está determinada o no. Hasta que no sepamos algo más, toda discusión será baldía. Escoger entre determinismo y libre albedrío será más una decisión personal basada en nuestras creencias y preferencias que una teoría basada en pruebas. Paradójicamente, será una decisión que cumplirá las tres condiciones de Hermann, una decisión libre.

P.D.: Otra reflexión colateral es pensar en que muchas máquinas toman decisiones cumpliendo las tres condiciones… ¿están nuestras computadoras actuando ahora mismo con libre arbitrio?

Véase Instrucciones para realizar un acto libre o si os gustan los zombis

El ojo humano es lo bastante sensible como para permitir la la detección consciente de la llegada a la retina de un único cuanto de luz; y que se emita o no un único cuanto desde su fuente en un momento particular es aleatorio según la física moderna. Una forma efectiva de «desatar» nuestro futuro sería colocarnos en el aparato que Sakitt empleó para demostrar esta notable sensibilidad del ojo y hacer con nosotros mismos un contrato del tenor siguiente: «Si durante los próximos tres segundos detecto una emisión de un fotón, dejo todo y me voy a la India en autostop».

Jack Copeland, Inteligencia Artificial

La historia es la siguiente: el mundo a escala macroscópica parece estar gobernado por el mecanicismo laplaciando. El universo se asemeja a una gran máquina en la que todos sus engranajes funcionan según la fuerte necesidad que tanto gustaba a Spinoza. Aquí no hay sitio para actos libres pues las causas del pasado determinan los efectos del futuro: somos autómatas. Sin embargo, llega el Siglo XX y con él una nueva generación de científicos que rompen con esta concepción: en el mundo de la cuántica ocurren fenómenos extraños, se dan hechos sin causa alguna, impredecibles a todas luces, hechos auténticamente aleatorios. Entonces para realizar una acción que rompa con el determinismo laplaciano bastaría con determinar la conducta con un fenómeno aleatorio, con un «aleatorizador cuántico», de tal modo que el diablillo de Laplace nunca pudiera predecir mi decisión. Sería el acto revolucionario por excelencia: romper con el orden del cosmos, con su rígida necesidad causal. Copeland nos da unas instrucciones para ello. Pero la cuestión no se acaba: ¿es un acto aleatorio verdaderamente un acto libre?

PD: he utilizado la máquina de Sakitt y… el próximo post lo tendré que hacer desde la India.

Durante mucho tiempo habíamos pensado que todo el desarrollo de nuestro organismo (ontogénesis) estaba determinado por un programa «a priori» inscrito en nuestro código genético. Yo heredaba mis 23 pares de cromosomas y allí había unas instrucciones muy claras. El ADN mandaba y todo el crecimiento estaba marcado de antemano sin que nada exterior pudiera cambiar la dirección del proceso. De este modo, si tuviésemos un diablillo de Laplace que conociera todos mis genes, podría predecir todo mi desarrollo hasta el momento de mi muerte. Los aspectos ambientales no tenían importancia más que como agentes mutágenos. Alguno de mis genes podría mutar y su expresión fenotípica era toda la influencia del entorno que yo podría esperar en mi ontogénesis.

Sin embargo, pronto descubrimos lo que Waddington llamó epigenética: existen factores no genéticos en el desarrollo ontogénico, desde mecanismos que regulan la propia expresión génica (de los que hablaremos ahora) hasta factores hereditarios no genéticos (¡tócate las narices Mendel que vuelve Lamarck! Esto es tan importante que se merece otro post aparte de próxima aparición). Y es que una cosa parecía muy extraña: si entre los genes encargados de la codificación de proteínas del chimpancé y del humano sólo hay un 1,06% de diferencia… ¿cómo es posible que nuestros fenotipos sean tan diferentes? Porque la diferencia reside en los patrones de expresión génica implicados en el desarrollo.

Un ejemplo de influencia del entorno en la expresión génica es el ranúnculo de agua (Ranunculus peltatus). Esta curiosa planta acuática tiene todos los genes de sus hojas exactamente iguales, pero las hojas que están por encima del agua son anchas, planas y lobuladas mientras que las que crecen por debajo son delgadas y finamente divididas. El contacto con el agua (un agente externo) cambia el fenotipo. Otro es del conejo Himalaya, que nace blanco cuando hay temperaturas muy altas y negro a temperaturas bajas. Aquí, la temperatura cambia la expresión génica. Y es que el fenotipo es el resultado de la interacción de los genes y el medio ambiente.

El conejo Himalaya nace negro si hace frío y blanco si hace calor

Pero es que la cosa se ha complicado mucho desde Mendel. Existe la dominancia incompleta (cuando el gen dominante no llega a vencer al recesivo y ambos se expresan), hay genes que modifican el efecto de otros genes (epistasis), genes que afectan a muchas características (pleiotropía), rasgos que son fruto de la interacción acumulada de muchos genes (herencia poligénica), genes que se expresan en diverso grado (expresividad variable) o, haciendo el cálculo en poblaciones, genes que aparecen mucho menos de lo que deberían (penetrancia incompleta). Y además, el fenotipo puede verse afectado por alteraciones no ya en los genes sino en los cromosomas (no sólo afectando a fragmentos o a un cromosoma como en el Síndrome de Down o en el de Turner, sino a dotaciones completas).

La biología evolutiva del desarrollo (perspectiva Evo-Devo) se ha postulado como la nueva síntesis multidisciplinar que aúna la selección natural propia del neodarwinismo con la genética del desarrollo (que introduciría los elementos epigenéticos).  Pero, centrar la atención en el desarrollo del individuo… ¿no pondrá en peligro el viejo darwinismo? Según Michael Ruse no, todo lo contrario: lo completa. Ruse subraya que en los próximos años este nuevo enfoque traerá grandes descubrimientos. Textualmente:

«Yo soy un darvinista de línea dura. Pero los puros darvinistas conocen que las nuevas ideas son desafíos y oportunidades, no barreras o impedimentos»

Dice Richard Dawkins:

«La esencia de la vida es la improbabilidad estadística a escala colosal»

Bonita cita que hace referencia al proceso ateleológico, sin dirección marcada o azaroso que ha sido la evolución hasta llegar al hombre. Se repite constantemente que los errores de réplica en las cadenas de ADN son  aleatorios, fortuitos, para luego ser filtrados por la dura criba de la selección natural (la cual sí parece actuar de modo determinista o no azaroso). Pero, ¿qué quiere decir que las mutaciones son azarosas o fortuitas?

Lo que habitualmente se entiende por ello es que cuando ocurre una mutación, no hay una causa final que la provoque, no hay un «para ésto», al contrario que la mayoría de eventos que contemplamos en el mundo vivo, los cuales tienen finalidades claras (el ojo ve, la pata corre, el ala vuela). De acuerdo, pero aquí puede haber confusión. Que algo no tenga una finalidad evidente (aparte de que podría tener alguna finalidad que no supiéramos) no quiere decir que sea azaroso. Es más, la mecánica clásica, parte de un determinismo absoluto a todos los niveles de la realidad. Veamos el texto  determinista por antonomasia.

«Todos los eventos, incluso aquellos que por su pequeñez parecen no seguir las grandes leyes de la naturaleza, las siguen de una manera tan necesaria como las revoluciones celestes. Una inteligencia que en cada instante dado conociera todas las fuerzas que animan a la materia, así como la posición y la velocidad de cada una de sus moléculas, si, por otra parte, fuera tan vasta como para someter todos estos datos al análisis, abrazaría en la misma fórmula los movimientos de los más grandes cuerpos del universos y los del más ligero átomo. Para una inteligencia tal, nada sería irregular y la curva descrita por una simple molécula de aire o de vapores parecería regulada de una manera tan cierta como lo es para nosotros el orbe del sol»

Esto nos escribía Laplace en su Teoría analítica de la probabilidad. Si tuviéramos un diablillo que, a cada instante, conociera el estado total del sistema, debido a que este estado se conecta con los que le suceden por estrictas leyes, podría predecir con certeza absoluta todos sus posteriores estados, todo el futuro. Y esta es la concepción que suelen tener la mayoría de los científicos representada muy bien por Einstein y su «Dios no juega a los dados».

¿Máquinas o dados?

Sin embargo, una divertida objeción a Laplace es la siguiente: supongamos que construimos un superordenador que, efectivamente, sepa el estado actual completo del Universo y todas las leyes que lo conectan con estados futuros. El ordenador sabría entonces qué es lo que yo voy a hacer en el siguiente momento. Entonces yo se lo pregunto: «HAL, ¿ahora voy a decir A o B?» Si HAL contestara A, yo diría B y viceversa, contradiciendo su gran poder de predicción. Supongo que el superordenador se volvería loco e intentaría asesinarme cada vez que me acercara a preguntarle algo (además no fallaría pues predeciría todos mis actos defensivos).

No obstante, pasemos por alto esta tonta objeción (quizá no tan tonta claro). Si las leyes de la física dominan estrictamente la naturaleza, también la dominarán a nivel génico. Parece artificioso diferenciar que, a nivel de ecosistema, la selección natural opera determinísticamente mientras que a nivel génico o cromosómico reina el más puro azar… ¿por qué en unos sitios sí y en otros no? ¿Por qué esa separación? Además, una naturaleza determinista abre las puertas a una evolución direccionada hacia la aparición del hombre. Dios, podría conocer todas las mutaciones de tal modo que podría haber preparado el estado inicial del Universo de forma que, al final, apareciera el hombre. Además, esto estaría respaldado por las polémicas y ajustadas constantes cosmológicas. Dios habría afinado el piano del Cosmos para que sonaran las teclas que él quisiera.

Pero, ¿qué es el azar? Habría que diferenciar que azaroso no equivale a libre. Si lanzo una moneda al aire hay un cincuenta por ciento de que salga cara o cruz. Suponiendo que Laplace se equivoca y el lanzamiento es un fenómeno aleatorio, al hecho de que salga cara o cruz no lo consideraríamos fruto de una decisión libre. La naturaleza podría ser absolutamente azarosa y nosotros seguir siendo igual de libres que nuestro reloj marcando las horas. Azaroso, tampoco es sinónimo de caótico, en el sentido de desordenado o confuso. Algo puede ser desordenado y funcionar de un modo absolutamente determinista. Habría que distinguir entre azar ontológico (que es el que aquí trato) de azar epistemológico. El segundo es, simplemente, la muestra de la insuficiencia de nuestro conocimiento sobre algo. Como no soy el diablillo de Laplace y no conozco completamente el estado inicial, con lo poco que sé hago mis predicciones, cual hombre del tiempo entre borrascas y anticiclones. Sin embargo podría darse el caso de que sé todo lo que se puede saber (no obstante, eso nunca se puede decir) y aún así, mi fenómeno es aleatorio, es decir, en unos casos hace una cosa y en otros otra sin que exista causa para ello. Aquí tendríamos un fenómeno incausado, pues azaroso significa sin causa que lo determine.

Azaroso significa aislado, sin relación con lo demás. El fenómeno aleatorio actuará con autonomía absoluta de su entorno. Sus únicas determinaciónes o limitaciones serían las que se salen de su conjunto de posibilidades y su probabilidad estadística. Cara o cruz al cincuenta por ciento, nada más, pero no  hay causa ni contexto que incite de ningún modo a que sea cara o a que sea cruz. Ambas posibilidades serían incausadas y autónomas, substancias en sí mismas. Pero el problema sigue estando aquí: ¿Existen realmente fenómenos aleatorios? Sólo si es así, y si esos fenómenos aleatorios tienen algo que ver con las variaciones hereditarias, sólo así, Darwin tendría razón y la evolución obedece al azar.