Posts etiquetados ‘Diablillo de Laplace’

Stephen Wolfram

Parece de sentido común pensar que reglas sencillas y determinadas, solo pueden dar lugar a comportamientos regulares y predecibles. Ha sido además, una constante en la historia de la filosofía y de la ciencia: de lo sencillo no puede surgir lo complejo sino al contrario, solo de lo complejo puede salir lo sencillo. Esta idea llevó a Hegel, el filósofo del dinamismo por excelencia, a renegar de la evolución. Era imposible que se genere complejidad “de la nada”. Error colosal.

El físico británico Stephen Wolfram ha pasado gran parte de su vida como científico estudiando el comportamiento de autómatas celulares, e intentando demostrar que el universo está regido por una serie de reglas sencillas y absolutamente deterministas que producen toda la inconmensurable complejidad que nos rodea. Un autómata celular es algo bastante sencillo: es un sistema dinámico que evoluciona en pasos discretos que, básicamente, consiste en una malla de celdas (o células) de dimensiones infinitas en las cuales introducimos colores (en principio, solo dos: blanco o negro, aunque se puede aumentar su complejidad introduciendo más). Coloreamos las celdas que nos plazcan y después aplicamos una serie de reglas que determinen qué celdas estarán coloreadas y cuáles no en el siguiente paso. Por ejemplo, una regla muy simple sería: si tenemos una celda negra, en el siguiente paso, seguirá siendo negra si tiene otra casilla negra en cualquiera de sus ocho celdas adyacentes; si no tiene ninguna, se volverá blanca. El color de una celda siempre va a estar determinado por la situación de sus compañeras. Por así decirlo, los autómatas celulares son “sociales”. Así vamos dando pasos y pasos y contemplamos cómo evoluciona la malla con la esperanza de ver si se genera alguna configuración de celdas interesante.

Wolfram estudia los autómatas celulares más simples posibles: los unidimensionales. Se trata de una celda (blanca o negra) que solo puede tener dos casillas adyacentes (tenemos entonces 8 configuraciones posibles de estas tres celdas). Con estas 8 configuraciones iniciales podemos establecer el máximo de 256 tipos diferentes de autómatas celulares. Wolfran va estudiando uno a uno cada tipo (los llama reglas) y los va clasificando en clases: la 1 da autómatas que crean patrones repetitivos sin interés; los de la 2 crean rayas arbitrariamente espaciadas que permanecen estables; los de clase 3 son más interesantes porque crean formas reconocibles (se genera el conocido triángulo de Sierpinski, un fractal); pero los más interesantes con diferencia son los de clase 4, ya que dan patrones complejos que no se repiten, parecen ordenados pero son absolutamente impredecibles. La regla 110 genera la malla de la imagen.
rule11047926La importancia de esta regla es capital: un proceso basado en unas reglas sencillísimas y completamente determinista da lugar a una gran complejidad y a un comportamiento que superaría sin problemas tests de aleatoriedad, mostrándose completamente impredecible. Pero es más, es que la regla 110 es Turing completa, es decir, es equivalente a una máquina universal de Turing, es decir, que, si la tesis Church-Turing es cierta, puede realizar cualquier cálculo posible (es equivalente al ordenador desde el que escribo ésto). Wolfram demostró que un autómata de 2 estados y 5 colores basado en la regla 110 era Turing completo (más adelante, un estudiante de la Universidad de Birmingham llamado Alex Smith demostró que un autómata aún más simple, de 2 estados y 3 colores, también era Turing completo, si bien está demostración ha traído controversia y no ha quedado claro si es correcta).

Tres conclusiones:

1. Es posible generar una enorme complejidad a partir de reglas sencillas sin introducir ningún elemento aleatorio. El Universo en su inconmensurable diversidad puede, a fin de cuentas, estar regido por una pequeña serie de reglas simples.

2. El Universo puede ser determinista ya que la aleatoriedad podría solo ser aparente. Si podemos construir un autómata determinista que supere tests de aleatoriedad, es decir, que a fin de cuentas tiene un comportamiento indistinguible de un autómata probabilista, ¿no podría ser que la aleatoridad fuera solo una ficción?

3. Tenemos un sistema determinista imposible de predecir… ¡Esto hace saltar en pedazos el diablillo de Laplace!

Una dura crítica: si observamos detenidamente como evolucionan los autómatas de Wolfram vemos que, a pesar de que muestran estas formas tan interesantes, no llegan a más. No evolucionan hacia diseños nuevos ni más complejos. Si pretendiéramos que estos algoritmos dieran lugar a toda la complejidad del Universo, están ciertamente muy lejos de conseguirlo. Wolfram pone muchos ejemplos de organismos y fenómenos naturales que siguen estos patrones, pero aún así, distan mucho de ser una muestra representativa de todo lo que existe. Por decirlo de modo brusco, estos autómatas no dan lugar a células eucariotas, a peces, a dinosaurios o a mamíferos. Es más, ni siquiera si aumentamos su complejidad con más colores y reglas conseguimos resultados muy diferentes. Se terminan por estancar.

Una posible salida: podemos aumentar su alcance añadiendo aleatorizadores, implementándolos dentro de algoritmos genéticos (básicamente, imitando la evolución darwiniana). Sí, pero al añadir azar estamos rompiendo con la idea clave de que el Universo funciona de modo determinista. No, porque los aleatorizadores que podemos diseñar no generan números aleatorios reales, sino únicamente pseudoaleatorios, es decir, que son generados de modo totalmente determinista pero que dan la apariencia de ser azarosos al superar tests de aleatoriedad. Cualquier generador de números aleatorios que podemos utilizar en cualquier lenguaje de programación es una farsa. De hecho, nunca hemos podido generar números realmente aleatorios pues no sabemos cómo se puede hacer algo así. En una próxima entrada hablaremos de cómo funcionan estos aparentes creadores de azar.

Aquí tenéis un generador de autómatas con el que podéis ver las configuraciones de todas las reglas estudiadas por Wolfram.

Durante mucho tiempo habíamos pensado que todo el desarrollo de nuestro organismo (ontogénesis) estaba determinado por un programa “a priori” inscrito en nuestro código genético. Yo heredaba mis 23 pares de cromosomas y allí había unas instrucciones muy claras. El ADN mandaba y todo el crecimiento estaba marcado de antemano sin que nada exterior pudiera cambiar la dirección del proceso. De este modo, si tuviésemos un diablillo de Laplace que conociera todos mis genes, podría predecir todo mi desarrollo hasta el momento de mi muerte. Los aspectos ambientales no tenían importancia más que como agentes mutágenos. Alguno de mis genes podría mutar y su expresión fenotípica era toda la influencia del entorno que yo podría esperar en mi ontogénesis.

Sin embargo, pronto descubrimos lo que Waddington llamó epigenética: existen factores no genéticos en el desarrollo ontogénico, desde mecanismos que regulan la propia expresión génica (de los que hablaremos ahora) hasta factores hereditarios no genéticos (¡tócate las narices Mendel que vuelve Lamarck! Esto es tan importante que se merece otro post aparte de próxima aparición). Y es que una cosa parecía muy extraña: si entre los genes encargados de la codificación de proteínas del chimpancé y del humano sólo hay un 1,06% de diferencia… ¿cómo es posible que nuestros fenotipos sean tan diferentes? Porque la diferencia reside en los patrones de expresión génica implicados en el desarrollo.

Un ejemplo de influencia del entorno en la expresión génica es el ranúnculo de agua (Ranunculus peltatus). Esta curiosa planta acuática tiene todos los genes de sus hojas exactamente iguales, pero las hojas que están por encima del agua son anchas, planas y lobuladas mientras que las que crecen por debajo son delgadas y finamente divididas. El contacto con el agua (un agente externo) cambia el fenotipo. Otro es del conejo Himalaya, que nace blanco cuando hay temperaturas muy altas y negro a temperaturas bajas. Aquí, la temperatura cambia la expresión génica. Y es que el fenotipo es el resultado de la interacción de los genes y el medio ambiente.

El conejo Himalaya nace negro si hace frío y blanco si hace calor

Pero es que la cosa se ha complicado mucho desde Mendel. Existe la dominancia incompleta (cuando el gen dominante no llega a vencer al recesivo y ambos se expresan), hay genes que modifican el efecto de otros genes (epistasis), genes que afectan a muchas características (pleiotropía), rasgos que son fruto de la interacción acumulada de muchos genes (herencia poligénica), genes que se expresan en diverso grado (expresividad variable) o, haciendo el cálculo en poblaciones, genes que aparecen mucho menos de lo que deberían (penetrancia incompleta). Y además, el fenotipo puede verse afectado por alteraciones no ya en los genes sino en los cromosomas (no sólo afectando a fragmentos o a un cromosoma como en el Síndrome de Down o en el de Turner, sino a dotaciones completas).

La biología evolutiva del desarrollo (perspectiva Evo-Devo) se ha postulado como la nueva síntesis multidisciplinar que aúna la selección natural propia del neodarwinismo con la genética del desarrollo (que introduciría los elementos epigenéticos).  Pero, centrar la atención en el desarrollo del individuo… ¿no pondrá en peligro el viejo darwinismo? Según Michael Ruse no, todo lo contrario: lo completa. Ruse subraya que en los próximos años este nuevo enfoque traerá grandes descubrimientos. Textualmente:

“Yo soy un darvinista de línea dura. Pero los puros darvinistas conocen que las nuevas ideas son desafíos y oportunidades, no barreras o impedimentos”

Dice Richard Dawkins:

“La esencia de la vida es la improbabilidad estadística a escala colosal”

Bonita cita que hace referencia al proceso ateleológico, sin dirección marcada o azaroso que ha sido la evolución hasta llegar al hombre. Se repite constantemente que los errores de réplica en las cadenas de ADN son  aleatorios, fortuitos, para luego ser filtrados por la dura criba de la selección natural (la cual sí parece actuar de modo determinista o no azaroso). Pero, ¿qué quiere decir que las mutaciones son azarosas o fortuitas?

Lo que habitualmente se entiende por ello es que cuando ocurre una mutación, no hay una causa final que la provoque, no hay un “para ésto”, al contrario que la mayoría de eventos que contemplamos en el mundo vivo, los cuales tienen finalidades claras (el ojo ve, la pata corre, el ala vuela). De acuerdo, pero aquí puede haber confusión. Que algo no tenga una finalidad evidente (aparte de que podría tener alguna finalidad que no supiéramos) no quiere decir que sea azaroso. Es más, la mecánica clásica, parte de un determinismo absoluto a todos los niveles de la realidad. Veamos el texto  determinista por antonomasia.

“Todos los eventos, incluso aquellos que por su pequeñez parecen no seguir las grandes leyes de la naturaleza, las siguen de una manera tan necesaria como las revoluciones celestes. Una inteligencia que en cada instante dado conociera todas las fuerzas que animan a la materia, así como la posición y la velocidad de cada una de sus moléculas, si, por otra parte, fuera tan vasta como para someter todos estos datos al análisis, abrazaría en la misma fórmula los movimientos de los más grandes cuerpos del universos y los del más ligero átomo. Para una inteligencia tal, nada sería irregular y la curva descrita por una simple molécula de aire o de vapores parecería regulada de una manera tan cierta como lo es para nosotros el orbe del sol”

Esto nos escribía Laplace en su Teoría analítica de la probabilidad. Si tuviéramos un diablillo que, a cada instante, conociera el estado total del sistema, debido a que este estado se conecta con los que le suceden por estrictas leyes, podría predecir con certeza absoluta todos sus posteriores estados, todo el futuro. Y esta es la concepción que suelen tener la mayoría de los científicos representada muy bien por Einstein y su “Dios no juega a los dados”.

¿Máquinas o dados?

Sin embargo, una divertida objeción a Laplace es la siguiente: supongamos que construimos un superordenador que, efectivamente, sepa el estado actual completo del Universo y todas las leyes que lo conectan con estados futuros. El ordenador sabría entonces qué es lo que yo voy a hacer en el siguiente momento. Entonces yo se lo pregunto: “HAL, ¿ahora voy a decir A o B?” Si HAL contestara A, yo diría B y viceversa, contradiciendo su gran poder de predicción. Supongo que el superordenador se volvería loco e intentaría asesinarme cada vez que me acercara a preguntarle algo (además no fallaría pues predeciría todos mis actos defensivos).

No obstante, pasemos por alto esta tonta objeción (quizá no tan tonta claro). Si las leyes de la física dominan estrictamente la naturaleza, también la dominarán a nivel génico. Parece artificioso diferenciar que, a nivel de ecosistema, la selección natural opera determinísticamente mientras que a nivel génico o cromosómico reina el más puro azar… ¿por qué en unos sitios sí y en otros no? ¿Por qué esa separación? Además, una naturaleza determinista abre las puertas a una evolución direccionada hacia la aparición del hombre. Dios, podría conocer todas las mutaciones de tal modo que podría haber preparado el estado inicial del Universo de forma que, al final, apareciera el hombre. Además, esto estaría respaldado por las polémicas y ajustadas constantes cosmológicas. Dios habría afinado el piano del Cosmos para que sonaran las teclas que él quisiera.

Pero, ¿qué es el azar? Habría que diferenciar que azaroso no equivale a libre. Si lanzo una moneda al aire hay un cincuenta por ciento de que salga cara o cruz. Suponiendo que Laplace se equivoca y el lanzamiento es un fenómeno aleatorio, al hecho de que salga cara o cruz no lo consideraríamos fruto de una decisión libre. La naturaleza podría ser absolutamente azarosa y nosotros seguir siendo igual de libres que nuestro reloj marcando las horas. Azaroso, tampoco es sinónimo de caótico, en el sentido de desordenado o confuso. Algo puede ser desordenado y funcionar de un modo absolutamente determinista. Habría que distinguir entre azar ontológico (que es el que aquí trato) de azar epistemológico. El segundo es, simplemente, la muestra de la insuficiencia de nuestro conocimiento sobre algo. Como no soy el diablillo de Laplace y no conozco completamente el estado inicial, con lo poco que sé hago mis predicciones, cual hombre del tiempo entre borrascas y anticiclones. Sin embargo podría darse el caso de que sé todo lo que se puede saber (no obstante, eso nunca se puede decir) y aún así, mi fenómeno es aleatorio, es decir, en unos casos hace una cosa y en otros otra sin que exista causa para ello. Aquí tendríamos un fenómeno incausado, pues azaroso significa sin causa que lo determine.

Azaroso significa aislado, sin relación con lo demás. El fenómeno aleatorio actuará con autonomía absoluta de su entorno. Sus únicas determinaciónes o limitaciones serían las que se salen de su conjunto de posibilidades y su probabilidad estadística. Cara o cruz al cincuenta por ciento, nada más, pero no  hay causa ni contexto que incite de ningún modo a que sea cara o a que sea cruz. Ambas posibilidades serían incausadas y autónomas, substancias en sí mismas. Pero el problema sigue estando aquí: ¿Existen realmente fenómenos aleatorios? Sólo si es así, y si esos fenómenos aleatorios tienen algo que ver con las variaciones hereditarias, sólo así, Darwin tendría razón y la evolución obedece al azar.