Posts etiquetados ‘Principio Antrópico’

Cuando hablamos del proceso evolutivo siempre decimos que es ateleológico, es decir, que no persigue ninguna finalidad u objetivo predefinido. Las reglas que lo regulan parecen obedecer, en último término, al azar. De ese modo si pudiésemos dar marcha atrás en el tiempo hasta los orígenes de la vida hace unos 2.700 millones de años y hacer de nuevo funcionar el motor evolutivo parece que los seres vivos que hoy conocemos no habrían aparecido, existiendo quizá una diversidad de especies muy diferentes. Y aquí surge la cuestión más polémica: ¿hubiera existido el hombre tal y como lo conocemos? La respuesta, a priori, parece ser negativa y da un fuerte golpe al llamado principio antrópico (pensar que el Universo fue creado para que, al final, el hombre apareciera en él).

No obstante, nada es tan sencillo y algunos estudios recientes parecen apoyar, de nuevo, dicho principio. Y es que lo que hay que tener muy en cuenta es que, a pesar de que la generación de rasgos fenotípicos parece seguir un patrón aleatorio, la selección natural juzga que fenotipos son los que sobreviven y la selección natural no es otra cosa que la presión ambiental, es decir, las características del entorno en el que una especie se desarrolla. Y dado un entorno determinado hay muy pocos fenotipos que sean, objetivamente, los más eficaces, limitando este hecho mucho la creatividad de la evolución. Solo un cierto tipo de seres vivos sobrevivirán y no una indefinida cantidad de ellos. Ejemplos los tenemos por doquier en lo que los biólogos llaman evolución convergente: estructuras biológicas que han evolucionado por caminos diferentes para llegar a una misma solución o función biológica. Hay fórmulas que se repiten constantemente: ojos (aunque últimamente se ha dudado de su divergencia), patas, aletas, esqueletos, sistemas nerviosos, simetría bilateral (algo que me parece alucinante: ¿por qué habrá sido tan rentable ser simétrico?) o, yendo a los orígenes, la célula eucariota como componente esencial de los dos grandes reinos: animal y vegetal. La evolución se parece más a un proceso ingenieril de búsqueda de soluciones con los medios disponibles que a una obra de arte en el que el pintor dibuja a capricho.

El paleo-biólogo inglés Simon Conway Morris escribió una obra titulada Life’s Solution: inevitable Humans in a Lonely Universe en la que defendía vehementemente la existencia de múltiples caminos convergentes en la historia de la vida. Su argumento principal es la similitud que se da entre especies que viven en entornos separados y muy diferentes.  Si pensamos en la fauna y flora de continentes separados por océanos como Europa, América u Oceanía, deberíamos encontrar especies muy distintas pero, por el contrario, encontramos una y otra vez los mismos diseños. Comway hace hincapié en las similitudes de los sistemas sensoriales o de la inteligencia de primates y cetáceos. Karl Niklas, profesor de botánica de la Universidad de Cornell, realizó una serie de simulaciones computerizadas de la evolución de las plantas en las que ensayaba los diferentes diseños vegetales en virtud de varios parámetros de optimización: obtención de luz, distribución de semillas y estructura robusta. Sus resultados fueron claros: los diseños de las plantas que observamos en cualquier parque son diseños óptimos. La naturaleza no puede diseñar vegetales de formas muy diferentes, no caben demasiados diseños más que tengan opciones de sobrevivir.

Thomas Ray, de la Universidad de Oklahoma, fue pionero en los trabajos de simulación de entornos evolutivos (vida artificial), creando en 1990 el programa Tierra. En él, un número indefinido de pequeños programas tenían las propiedades de mutar (cambiar una pequeña parte de su programa) y autorreplicarse, y competían para sobrevivir en un entorno virtual. Era todavía una simulación extremadamente simple de la evolución pero, para sorpresa de Ray, enseguida comenzaron a pasar cosas fabulosas:

Al principio, se desarrollaron programas  que se replicaban con mayor rapidez por un motivo muy simple: su menor tamaño. Alguno de los programas mutados habían perdido una pequeña parte de sus instrucciones, de forma que ocupaban menos espacio de memoria y requerían un tiempo inferior para completar su ciclo. A continuación, ocurrió algo más interesante: aparecieron programas aún más cortos, que se replicaban muy eficientemente, pero que eran incapaces de hacerlo por sí mismos. Su ciclo vital requería emplear las instrucciones de otros programas o, dicho de otra forma, eran parásitos de los segundos. Surgieron entonces parásitos de los parásitos (o hiperparásitos) igual que ocurre en los ecosistemas reales. Más tarde, la simulación generó estrategias nuevas en las que algunos programas intercambiaban partes con otros.  Ésta es la base de la reproducción sexual, que fundamentalmente consiste en mezclar información procedente de dos organismos distintos. En el caso de la Tierra, la invención del sexo resultaba conveniente para escapar al efecto de los parásitos. Un parásito reconoce a su huésped identificando una parte específica de éste, así que una forma de escapar de los parásitos es cambiar con la suficiente rapidez. Finalmente, aparecieron grupos de programas que cooperaban entre sí, de tal forma que aunque aisladamente no eran muy eficientes, el grupo cooperador no tenía rival. En esta caso lo que emerge es una pequeña red de programas de interacción en la que cada programa facilita la replicación de al menos otro, a la vez que es ayudado por otros.

Ricard Solé, Vidas Sintéticas

Tenemos en una simulación infinitamente menos compleja que la realidad natural elementos como el parasitismo, la reproducción sexual o la simbiosis. De nuevo pruebas a favor de la necesaria aparición de ciertos diseños dado el entorno terrestre. Y es que quizá habría que entender la evolución como esos juegos en los que hay un laberinto en el que hay que intentar meter una bola de metal en un agujero. Supongamos que la bola no sigue la ley de la gravedad ni ninguna influencia del jugador sino que su movimiento es completamente aleatorio. Aún así, las paredes del laberinto limitarán mucho su recorrido y, al final, habrá altas probabilidades de que entre en el agujero.

¿Esto quiere decir que la aparición del hombre era algo necesario, algo que, tarde o temprano, tenía que suceder? Un dato en contra lo tenemos en que nuestra inteligencia (en el grado propio del hombre) no es un diseño que se haya repetido muchas veces en la historia natural, por lo que podría tratarse de algo así como un breve accidente o una solución no demasiado óptima, viendo además que nuestros parientes evolutivos más cercanos se extinguieron. Supongo que tendremos que esperar unos cientos de miles de años para ver si el diseño sapiens era bueno y, a la postre, inevitable.

timthumb

Miramos por la ventana este hermoso paisaje: una insondable complejidad se muestra ante nuestros ojos. Una gama cromática radicalmente inabarcable para nuestro pobre lenguaje pictórico. Miles de tonalidades de azules, de blancos, de verdes…  que no podemos nombrar. Miles de formas igualmente indefinibles por nuestros pobres conceptos geométricos… ¿Cuál es la forma de aquel arbusto, de aquella entrecortada cima de ladera, de esa nube…? Imposible. Sólo los escritores más talentosos, y sólo tras años de costosa formación, pueden dar descripciones más o menos fidedignas de un simple vistazo por la ventana. Existe un marcado desajuste entre la complejidad de lo que percibimos y el simplón lenguaje que tenemos para describirla.

¿Por qué? ¿Acaso no es nuestro lenguaje la cima de la evolución, lo que nos distingue de los primitivos animales? ¿Acaso no es lo que hacen Quevedo o Cervantes lo más elevado a lo que puede aspirar un ser vivo? Es un error antropocéntrico pensar que porque una facultad sea exclusivamente nuestra tenga que tener una mayor complejidad y sofisticación que otras facultades que compartimos con los animales. También lo es pensar que porque algo ha llegado después en la carrera evolutiva ya tiene que ser mejor o más perfecto, como si la evolución siguiera una línea direccionada hacia producir seres superiores a los anteriores. Nuestro sistema visual tiene una antigüedad de unos 1.000 millones de años en los que ha estado gradualmente puliéndose y mejorando para servir de poderoso medio de adaptación. Sin embargo, nuestro lenguaje puede tener tan sólo  unos tres millones aproximadamente. La visión ha tenido muchísimo más tiempo que el lenguaje para aumentar su complejidad. No hay más que ver que casi un tercio del cerebro humano está ocupado por el córtex visual. Y pensemos en el esfuerzo que nos cuesta mirar por la ventana en comparación con escribir un soneto. Abro los ojos y, de forma totalmente automática, sin tener que pensar, sin tener que seguir proceso mental consciente alguno, veo instantáneamente toda esa ingente cantidad de formas y gamas cromáticas. Pero si volvemos al soneto puedo tardar días, semanas, en encontrar la palabra correcta, en conseguir una buena rima, en lograr una forma gramatical elegante. Decir una simple frase, amontonar un pequeño grupo de letras, requiere un esfuerzo. Mirar por la ventana y ver decenas de miles de colores y formas es instantáneo. Con toda evidencia, somos animales más visuales que lingüísticos.

Paul Churchland nos ofrece un ilustrativo ejemplo para evidenciar la enorme cantidad de datos sensoriales de los que podemos ser conscientes. Pensemos en el superdesarrollado olfato de un perro. Supongamos que tiene unas siete clases de receptores olfativos diferentes (el ser humano tiene siete o quizá más) y que puede percibir treinta niveles de estimulación distintos con cada tipo de receptor, desde un leve matiz olfativo hasta un olor de una intensidad insoportable. El cálculo es sencillo: elevamos 30 a la séptima potencia para conseguir un resultado espectacular: ¡Unas 22 mil millones de percepciones sensoriales diferentes! Esto explicaría por qué un perro puede distinguir el olor de una persona entre millones o descubrir unos gramos de cocaína en una maleta escondida en la bodega de un avión de pasajeros. Sin lugar a dudas, el olfato del perro es algo mucho más sofisticado que nuestro sistema lingüístico.

Véase también: ¿Es más difícil caminar que realizar ecuaciones?

En filosofía de la mente el epifenomenalismo sostiene que la mente es un fenómeno secundario, un efecto colateral de la materia, un residuo sin importancia para el fenómeno principal. El ejemplo clásico es pensar en el ruido que hace el motor de un automóvil: es un efecto secundario de la explosión dentro del cilindro que no tiene una influencia significativa en el funcionamiento global del motor. Siguiendo esta analogía, las facultades mentales no serían más que el ruido de la materia. Los defensores del epifenomenalismo suelen hacer hincapié, además, de que si bien la materia genera la mente, no hay retroalimentación, es decir, la mente no tiene influencia alguna en la materia. Esta tesis es problemática: ¿cómo que la mente no puede influir en la materia? ¿Acaso cuando pienso en golpear una piedra con un martillo mi mente no está modificando su entorno material?

Revisemos el tema: ¿qué es la mente? ¿cuál es su origen? La mejor respuesta que puede darse acorde con la ciencia actual y sin recurrir a ningún sobrenaturalismo es decir que la mente es fruto de la evolución biológica. Esto explica muy bien muchas de nuestras facultades mentales. Una buena memoria hace que recuerde donde vive el depredador o cuando maduran los frutos de tal o cual arbusto, o una competente facultad lingüística hace que pueda comunicarme bien y cazar en grupo. La mente es una magnífica herramienta de adaptación. Pero, ¿qué pasa con las características de mi mente que no tienen una clara función adaptativa? ¿Por qué escribo poesías? ¿Por qué la filosofía, el arte, la religión? Aunque últimamente hay muchos estudios que pretenden ver un fin evolutivo a estas cualidades estrictamente humanas, parece que no tienen una directa y clara función en la supervivencia de los genes del individuo. ¿Por qué están allí entonces?

Aquí es donde entra el epifenomenalismo: estas cualidades son epifenómenos, consecuencias indirectas del devenir evolutivo. Por ejemplo, el arte puede ser una consecuencia secundaria de la creatividad necesaria para fabricar herramientas o planificar una cacería. La religión podría ser un subproducto de aspectos como la necesaria cohesión del grupo, jerarquía social y autoridad. Pensar en entes sobrenaturales puede entenderse como un efecto colateral de la natural búsqueda de causas para los fenómenos necesaria para interactuar con eficacia en el entorno natural.

Sabemos que la evolución es chapucera, que, como un chatarrero, reutiliza, mezcla, repara… ¡Y lo hace todo sobre la marcha! Así, hay órganos que quedan olvidados y que pasan a reutilizarse para otra función cientos de miles de años después, o partes que no servían para nada y que luego tuvieron una función vital. Nuestra mente ha de ser un conjunto de todas estas cosas: funciones evolutivas claras, vestigios otrora vitales y ahora inservibles pero que siguen funcionando, parches, apaños, arreglos… epifenómenos.

Esta idea encaja muy bien con la tesis del accidente: estamos aquí por mera casualidad. Somos como somos por una casual conjunción de azar y necesidad. El mundo no está aquí para que nosotros lo gobernemos, nuestra mente no ha sido diseñada para descubrir unos misterios preexistentes o unas verdades ancestrales. Somos el ruido del motor de la evolución. Eso sí, un ruido que puede modificar el mismo motor, un epifenómeno que puede volverse contra el fenómeno originario. Nuestra dignidad consistirá en ser un poderoso accidente.

Veáse toda la saga:

El salto que es el hombre (IV): entre caballos y cocodrilos.

El salto que es el hombre (III): la diferencia de grado y el origen del lenguaje.

El salto que es el hombre (II).

El salto que es el hombre.

«[…] Lee Smolin ha propuesto una interesante adaptación de la teoría de universos múltiples que evita alguna de las objeciones que afectan a las demás teorías de ese tipo, estableciendo un vínculo curioso entre las necesidades de los organismos y la multiplicidad de universos. En el capítulo 2 expliqué cómo las investigaciones de la cosmología cuántica sugieren que las fluctuaciones cuánticas pueden dar lugar a «universos hijos» de manera espontánea, y uno puede imaginar un «universo madre» que produce de ese modo una descendencia. Una circunstancia que puede abrigar el nacimiento de universos nuevos es la formación de un agujero negro. De acuerdo con la teoría gravitatoria clásica (precuántica) un agujero negro encubre una singularidad, que puede visualizarse como una especie de borde del espacio-tiempo. En la versión cuántica, la singularidad se difumina de alguna manera. No sabemos cómo, pero es posible que el borde afilado del espacio-tiempo sea reemplazado por una especie de túnel, o garganta, o cordón umbilical, que conectaría nuestro universo con el nuevo universo hijo. […] los efectos cuánticos harían que el agujero negro se evaporase eventualmente, cortando el cordón umbilical y enviando al universo hijo a un devenir independiente.

El refinamiento introducido por Smolin en esta especulación consiste consiste en afirmar que las extremas condiciones en las proximidades de la singularidad tendría por efecto producir pequeñas variaciones aleatorias en las leyes de la física. En particular, los valores de algunas constantes de la naturaleza, tales como masas de partículas, cargas, etc., podrían ser diferentes en el universo hijo de lo que eran en el universo madre. Así pues, el hijo podría evolucionar de manera algo diferente también. Tras suficientes generaciones, podría haber grandes variaciones entre los diversos universos. Cabe esperar, sin embargo, que aquellos que difieran sustancialmente del nuestro no formarían en su evolución estrellas como las nuestras (recordemos que las condiciones bajo las cuales la formación de estrellas es factible son más bien especiales). Puesto que normalmente los agujeros negros se forman a partir de estrellas muertas, tales universos no producirían muchos agujeros negros y, en consecuencia, no darían lugar a muchos universos hijos. Por el contrario, aquellos universos con parámetros físicos apropiados para la formación de muchos agujeros negros y, por ende, a muchos universos hijos que poseerían valores similares de dichos parámetros. Esta diferencia en fecundidad cósmica actúa como una especie de proceso de selección darwiniana. Aunque los universos no están en competencia, hay universos «eficientes» y otros «menos eficientes», de manera que la proporción de universos «eficientes» (en este caso, universos fabricantes de estrellas) en la población total sería grande. Llegado a este punto, Smolin argumenta que también la existencia de estrellas es una condición esencial para la vida. Así, las mismas condiciones que favorecen la vida, favorecen también el nacimiento de otros universos con capacidad de vida. En el esquema de Smolin, la vida no es algo extremadamente raro, como lo es en otras teorías de universos múltiples. Bien al contrario, la mayoría de sus universos son habitables»

Leído en La mente de Dios de Paul Davies

La teoría de la evolución por selección natural  tiene la virtud, y también el defecto, que constituye un modelo que puede aplicarse a un montón de disciplinas diferentes. Se la ha aplicado economía, sociología, Inteligencia Artificial, historia… ¡incluso en la historia de las mismas ideas o de la propia ciencia! Era cuestión de tiempo que se la aplicara a la cosmología.

La propuesta de Smolin es interesante en que ofrece una solución al hecho de la improbabilidad de la vida sin tener que apelar al principio antrópico en el que caíamos irremediablemente al observar el fino ajuste de las constantes cosmológicas. Por contra, tiene de poco interesante el hecho de ser bastante más ciencia-ficción que ciencia: es especulación de la más salvaje.

Los compiladores de los diferentes lenguajes de programación suelen tener una función (RAND) para generar números aleatorios. Verdaderamente, los números que generan no son aleatorios sino que sólo lo parecen. Simplemente siguen un algoritmo congruencial que produce que no nos demos cuenta de que, realmente, los números son tan determinados como los que genera la cadena «12345678…». Y es que el problema es difícil. Los algoritmos o programas, por definición, son pautas para generar cadenas de código, es decir, son reglas para determinar la salida de números determinados por esas mismas reglas. ¿Cómo hacer unas reglas para generar números que, precisamente, se definen por no sujetarse a regla alguna?

Por eso me he quedado atónito cuando leo aquí que han conseguido generar números verdaderamente aleatorios (42 nada menos), pero claro, a partir del mundo cuántico, sección de la realidad que tengo prohibida por receta médica. No obstante, invito a los físicos que envíen entradas explicándome el asunto. Una idea interesante que aporta el artículo es que si un número es aleatorio de verdad, ni Dios mismo puede anticipar su valor, por lo que si realmente existen números fruto del azar, Dios no puede ser omnisciente.

Pero, ¿qué es realmente un número aleatorio? Una definición  muy atractiva es la que da el ruso Kolmogorov en una magistral fusión entre computación y teoría de la información. Un algoritmo es un programa que en un número preciso y finito de pasos genera un código, una cadena de símbolos. Habitualmente, los programas son más cortos que las cadenas que producen (esta propiedad se llama compresividad y posibilita, desde una perspectiva computacional, las  leyes científicas).  Un programa mucho más largo que el código que produce sería un absurdo, ya que siempre podríamos generar un programa más corto que estableciera una función biyectiva («uno a uno») entre el programa y el código a generar de modo que tendría su misma longitud. Es decir, el programa más largo posible tiene la misma longitud que el código que genera. Y, sin casi quererlo, ese código es un número aleatorio.

Si tenemos un número que genera nuestro programa y conocemos el algoritmo que lo genera, estamos ante un número no aleatorio. Tenemos pautas para determinarlo, para crearlo. Sin embargo, si no disponemos de ningún algoritmo para generar ese número más que uno de similar longitud a él mismo, es porque no hay reglas que lo determinen.

Otro punto interesante del planteamiento de Kolmogorov es que su comparación entre la longitud del programa y la de la cadena que genera nos vale para medir la complejidad de los sistemas. Así, un sistema será más complejo que otro cuanto más largo sea el programa mínimo que lo computa. Entonces, cuanto más aleatorio seas, tanto más complejo serás. Aleatorio y complejo se hacen sinónimos ¿Cómo de complejos somos los seres vivos? Veámoslo en un texto de Mosterín:

«Uno podría pensar, por ejemplo, en medir la complejidad de un organismo por la longitud de su genoma (es decir, por la longitud de la secuencia de bases o letras que codifican su información genética), pero los resultados de esta medida no siempre corresponden a nuestras intuiciones. Algunos anfibios tienen más DNA por célula que los mamíferos (incluidos nosotros). Las cebollas tienen cinco veces más DNA por célula que los humanes, ¡Y los tulipanes, diez veces más!

Desde luego, la mera longitud del DNA es un indicador muy tosco de la complejidad. La medida matemáticamente más refinada es la de Komogorov: la complejidad de una secuencia es la longitud del mínimo programa que la genera (en cierta máquina universal de Turing estandarizada). Así, las numerosas partes repetitivas del llamado «DNA basura» que comprende la mayor parte del genoma de muchos organismos pueden ser en gran medida descontadas, pues pueden ser generadas por un programa relativamente corto. La reciente secuenciación de los genomas de varios organismos nos podría permitir intentar medir su complejidad de Kolmogorov, pero la tarea no tiene nada de trivial, pues se trata de una función no computable en general. En cualquier caso, esta medida no se ha computado todavía, y, si llegara a hacerse, nada nos asegura que vaya a corresponder a nuestras expectativas. Según la medida de Kolmogorov, los sistemas más complejos no son seres vivos (parcialmente simétricos y repetitivos), sino los completamente caóticos, como la «nieve» de la pantalla del televisor no sintonizado»

Los seres vivos estamos muy ordenados, tenemos múltiples repeticiones. Sin embargo, el comportamiento de un gas o de la misma nieve de la tele… ¡requiere un programa más largo! ¡Soy menos complejo que un canal mal sintonizado de mi tele! O sea, que si Dios fuera un superprogramador informático, los seres humanos no seríamos, ni de lejos, lo más difícil de programar… ¡Toma golpe al Principio Antrópico!

En esta página dicen que generan números verdaderamente aleatorios utilizando el tiempo atmosférico como sistema caótico. ¿Realmente son aleatorios esos números?