Posts etiquetados ‘ADN’

Dos dificultades esenciales:

1. ¿Cómo es posible que desde la relativamente poca información codificada por nuestro ADN se generen organismos de una complejidad tan alta? ¿Cómo es posible que con unos escasos menos de 30.000 genes del homo sapiens pueda generarse algo tan complejo como un cerebro? ¿Cómo con 30.000 instrucciones puedes construir la exponencial complejidad de las interconexiones neuronales, algo que supera con mucho la potencia de nuestros más avanzados supercomputadores?

2. Al analizar los genomas de diversas especies y compararlas con el humano vemos que compartimos una altísima cantidad de genes con ellas. Si con la levadura compartimos un 40% del genoma o si entre el ratón o el chimpancé y el hombre, sólo existe la diferencia de unos escasos percentiles, ¿cómo es posible que tengamos diferencias fenotípicas tan obviamente abrumadoras?

Apliquemos la teoría de la información a la biología (es maravilloso mezclar disciplinas). Hasta el fabuloso descubrimiento de Watson y Crick, la comunidad científica pensaba que los genes debían de estar codificados en las proteínas ya que éstas muestran una capacidad de combinación más alta que la del ADN. Sin embargo, y esto es una muestra más de que Darwin tenía toda la razón, descubrimos que el código estaba escrito en las bases del ácido desoxirribonucleico. La evolución es chapucera. Pero la selección natural comienza a funcionar y, con total seguridad, empezó a optimizar este, en principio ineficiente, sistema de codificación de la información. Seguramente, la codificación de la información también evolucionó. La evolución es chapucera, pero no tanto: trabaja con lo que tiene (ADN) pero pronto lo optimiza. ¿Cómo puede mejorarse el almacenamiento de información?

1. Compresión: ¿Cómo funcionan los compresores de información típicos de nuestros ordenadores? Sencillamente, buscan patrones que se repiten. Si, por ejemplo, queremos comprimir una imagen de 100×100 píxeles que representa un sencillo cuadrado rojo, solo hace falta un algoritmo que diga: “proyecta un píxel rojo 100 veces de abajo a arriba y hazlo 100 veces en horizontal”, en vez de uno, bastante poco eficiente, que vaya yendo píxel por píxel indicando el color de cada uno. Con dos instrucciones conseguimos hacer lo mismo que, siguiendo el segundo algoritmo, con 10.000. Entonces podemos tener genes que codifiquen instrucciones de muy amplio calado con muy poca información.

2. Iteración de las mismas propiedades fenotípicas. Somos repetitivos: las fibras musculares lisas, los linfocitos B, los hematíes, las células de la piel, etc. son todas iguales. De la misma forma, hay un montón de diseños que se repiten por doquier en el mundo natural: patas, aletas, ojos, sistemas nerviosos y basculares, etc. Así se explica muy bien por qué la mayor parte de los organismos del reino animal son simétricos: nos ahorramos la mitad de la información. Las instrucciones genéticas para fabricar un animal simétrico pueden ser muchas para hacer un lado del individuo, pero solo una para hacer el otro: “Repite lo mismo que has hecho antes”. También explicamos muy bien por qué los organismos son tan poco irregulares. Cada nueva forma que no sea una repetición requiere nueva información: un organismo muy irregular requiere muchas más instrucciones para su desarrollo que uno más regular y simétrico.

Tenemos un tipo de algoritmos que son una perfecta expresión de los dos principios anteriores (compresión e iteración fenotípica) y que, además, se encuentran por doquier en el mundo vivo: los fractales probabilísticos (los alvéolos pulmonares o las redes neuronales son claros ejemplos).

Un fractal probabilístico añade un elemento de incertidumbre. Mientras que un fractal determinista tiene el mismo aspecto cada vez que se presenta, un fractal probabilístico cambia de aspecto (aunque mantiene características similares). En un fractal probabilístico, la probabilidad de que cada elemento generador sea utilizado es menor que 1. De esa manera, los diseños resultantes poseen una apariencia más orgánica. Los fractales probabilísticos son utilizados en programas de gráficos para generar imágenes realistas de montañas, nubes, orillas, follajes y otros parajes naturales. Un aspecto esencial de un fractal probabilístico es que permite la generación de una gran cantidad de complejidad aparente, incluyendo abundantes variaciones en los detalles, partiendo de una cantidad de información sobre el diseño relativamente pequeña. La biología utiliza el mismo principio. Los genes proporcionan la información sobre el diseño, pero los detalles de un organismo exceden en mucho la información genética sobre el diseño.

Ray Kurzweil, La singularidad está cerca

fractales-660x350

 3. Reutilización: tenemos la idea de que un fragmento de información solo realiza una función. Por ejemplo, solemos pensar que para el color de los ojos de un individuo hay un trozo de ADN que codifica exclusivamente esta información. Así, establecemos una función biyectiva entre cada gen y una propiedad fenotípica. Al hacerlo nos quedamos muy cortos: ¿cómo es posible que con la poca información que contiene el ADN los organismos muestren diferencias fenotípicas tan inmensas? La solución consiste en que podemos utilizar cada fragmento de información para varias funciones diferentes. Veamos un ejemplo: supongamos que tenemos una célula madre capaz de generar una serie de organismos diferentes. La información tiene que codificarse en una matriz de 7×7 bits de información, es decir, que tenemos 49 casillas en donde poner un único bit (en este caso una letra del abecedario). La instrucción que debe darse es el nombre del animal que queremos conseguir, siendo los animales posibles los siguientes: humano, perro, asno, alacrán, hormiga, pulpo, medusa, araña, foca y pavo. ¿Cómo guardamos todos esos nombres en la matriz? Aceptando que podemos colocar las palabras en horizontal y en vertical es imposible. Si, por ejemplo, las colocamos así:

A

L A C R A N

H

O R M I G A

M

E D U S A P

H

U M A N 0

E

P U L P O  

R

A R A Ñ A  

R

F O C A    

0

 

nos quedan fuera sapo, asno y pavo. Pero si, colocando igualmente las palabras en horizontal y vertical, reutilizamos algunas letras para varias palabras, como en una vulgar sopa de letras, sí que nos cabe toda la información.

H

U M A N O  

O

P E R R O  

R

U D A S N O

M

L U Ñ   F

V

I P S A P O

A

G 0 A N   C

P

A L A C R A

N

Como vemos la “h” de humano puede usarse también para hormiga, la “p” de perro para pulpo, o varias letras de medusa para humano, perro, sapo y alacrán. Usando los mismos bits para diferentes instrucciones podemos conseguir hacer más cosas con la misma cantidad de información. Y en este ejemplo porque las instrucciones tenían que ser una serie de palabras concretas con sentido. Si partimos de que las instrucciones pueden ser cualquier conjunto de letras sin significado alguno (como ocurre realmente con el ADN, cuyas combinaciones de bases son totalmente convencionales), volvemos a optimizar el sistema. Si, otro ejemplo, cada conjunto de siete letras en horizontal o vertical  constituye una instrucción (“IPSAPOA”=construye un humano), en esa misma matriz de 7×7 bits, el número total de instrucciones posibles sube a 14 (en vez de las 10 del ejemplo inicial): 7 horizontales y 7 verticales. Si además, la instrucción es diferente si la leemos de derecha a izquierda que de izquierda a derecha y de arriba a abajo que de abajo a arriba (“IPSAPOA” es diferente que “AOPASPI”), tenemos ahora 28 instrucciones posibles. Hay muchísimas formas de aumentar la cantidad de información contenida en un código si podemos reutilizarla. Y es que hay muchos tipos de genes cuya información actúa de diversas formas. Escribíamos hace unos cuatro años en el blog:

Pero es que la cosa se ha complicado mucho desde Mendel. Existe la dominancia incompleta (cuando el gen dominante no llega a vencer al recesivo y ambos se expresan), hay genes que modifican el efecto de otros genes (epistasis), genes que afectan a muchas características (pleiotropía), rasgos que son fruto de la interacción acumulada de muchos genes (herencia poligénica), genes que se expresan en diverso grado (expresividad variable) o, haciendo el cálculo en poblaciones, genes que aparecen mucho menos de lo que deberían (penetrancia incompleta). Y además, el fenotipo puede verse afectado por alteraciones no ya en los genes sino en los cromosomas (no sólo afectando a fragmentos o a un cromosoma como en el Síndrome de Down o en el de Turner, sino a dotaciones completas).

El descubrimiento y decodificación del genoma humano ha sido un gran paso, pero solo es el comienzo de una historia mucho más interesante.

Anuncios

El código

Publicado: 20 julio 2010 en Evolución, Humor
Etiquetas:, ,

El trabajo cotidiano de cualquier criptógrafo consiste en intentar descifrar, dar sentido a un código que, aparentemente, no lo tiene. Si se encuentra, por ejemplo, con el siguiente número:

011011011011011011011011011

el algoritmo que lo genera es muy fácil: “Escribe dos unos tras cada cero”. Sin embargo, en otras ocasiones el asunto es más complicado. Si nos fijamos en el siguiente:

010001110111010010011100110101101011101110101000010

pasaría por todos los test normales de alatoriedad, pareciendo que no tiene orden, que no traduce nada, no existiendo algoritmo alguno que lo genere. Sin embargo, es la traducción a binario de un fragmento del genoma del virus MS2 (traducido cada nucleotido de la forma Adenina=00, Uracilo=11, Guanina=01 y Citosina=10). El lenguaje en el que están escritas  las instrucciones para generar cualquier ser vivo puede ser traducido a lenguaje informático y tratado como si de un mensaje encriptado se tratara. Durante muchos siglos la cábala y las diversas escuelas de numerología buscaron códigos numéricos en los textos bíblicos, pretendiendo encontrar el auténtico sentido del texto en otro lenguaje distinto al propiamente escrito. ¿Tendrá la cábala moderna que buscar ese código en el lenguaje de la vida, en nuestras largas y enrolladas cadenas de ADN? ¿Es nuestro genoma un lenguaje arbitrario o esconde algún sentido secreto?

Por lo que sabemos, el lenguaje mediante el que ADN se expresa es plenamente convencional, perfectamente aleatorio. Lo sentimos por nuestros queridos pitagóricos.  Si bien, como no hay forma de saber si, dado un código cualquiera, es aleatorio o no, animamos a que busquen ese improbable  código del código.

Me pregunto que pasaría si encontráramos algún mensaje como “Made by god” o, mucho mejor, “Made by natural selection”, o mejor aún, “Adán was here” o “Fool who reads it”. ¿Se imaginan las caras de Watson y Crick?

Una definición clásica de gen es entenderlo como la unidad mínima de información biológica. Un gen es una instrucción para hacer algo, habitualmente para codificar una proteína o hacer que otro gen se exprese. Si tenemos genes como unidades discretas podemos cuantificar la información de todo el genoma de un individuo en bits. Eso es lo que hizo el bioquímico alemán Manfred Eigen, llegando a una interesante observación. Sabemos que la evolución funciona cuando hay errores en la réplica de las cadenas de ADN. Normalmente cualquier error tiene consecuencias fatales para el individuo como lo tendría un fallo en las instrucciones de una cadena de montaje para fabricar un coche, pero hay fallos más graves que otros. Un automóvil puede funcionar con una tuerca menos o sin espejo retrovisor mientras que un fallo en un cilindro será letal. Eigen mostró una relación entre el número de genes de un individuo y la tasa de error en la réplica necesaria para que el individuo o su linaje acaben por extinguirse, es decir, para llegar a lo que Eigen llama catástrofe de errores.

La relación dice que cuanto mayor sea el número de genes que tiene un organismo menor será la tasa de error necesaria para llegar a la catástrofe de errores. Así, los seres humanos, con un largo genoma, soportamos menos errores que individuos mucho más sencillos como las bacterias, que pueden soportar genomas muy dañados. Si hablamos en términos metaevolutivos, eso permite a los organismos más simples evolucionar más rápido que los más complejos. Más cuando los seres complejos hemos desarrollado un montón de dispositivos para corregir los errores de copias. La tasa de mutación de una bacteria es de un error por cada millón mientras que la del humano es de uno por cada mil millones, es decir, mil veces menor. Esto explica lo resistente que es la gripe a nuestras vacunas y por qué los seres humanos llevamos siendo casi iguales desde el Paleolítico.

Pero esta regla lleva a una insondable paradoja.  Si nos vamos a la primeros organismos capaces de replicación en los albores de la vida, debían tener genomas muy cortos para evitar la catástrofe de errores ya que no dispondrían de ningún mecanismo para evitar fallos de réplica, pero lo suficientemente largos para contener la información necesaria para replicarse… y según Eigen hace falta un genoma bastante complejo para que contenga las instrucciones mínimas que permitan una copia…

Entonces, ¿qué fue antes? ¿Un genoma complejo que se replica o un genoma corto y protegido de la catástrofe de errores? Ambas posibilidades son excluyentes. ¿Quién dijo que el problema del origen de la vida estaba solucionado?

El inglés de Blackmore es perfecto aunque habla muy deprisa. Para escuchar con subtítulos en castellano clic aquí.

La historia comenzó con el exitoso best-seller de Richard Dawkins: El gen egoísta. Allí se defendían una serie de polémicas tesis. La primera es que la unidad de selección natural era el gen, entidad en torno a la cual “todo lo demás” (la biosfera al completo) no era más que su transporte, su taxi hacia la siguiente generación. Todo el fenotipo no era más que un epifenómeno del gen, auténtico protagonista de la historia natural. Todas nuestras características no eran más que los medios, las herramientas a través de las cuales los genes “egoístas” se perpetuaban generación tras generación.

Esta carrera armamentística entre genes comenzó con una entidad hipotética: el replicador, un antecedente remoto del ADN, el cual sería un tipo de molécula con la capacidad de replicarse a sí misma. Aplicando la selección natural darwiniana, esas moléculas habrían de ser mayoritarias en la sopa primitiva. Y pronto, de entre estas moléculas mayoritarias, habría otras con nuevas capacidades: quizá la de hacer réplicas más duraderas o la de replicarse a una mayor velocidad. La lucha por la existencia comenzó y los seres vivos fueron haciéndose más y más eficaces en proteger su “secreto interior”. Complejos sistemas de depredación, parasitismo, reproducción… fueron proliferando mientras pasaban los milenios.

La siguiente etapa aparece con la llegada de un nuevo tipo de replicador: el meme. Los seres humanos y algunas otras especies de mamíferos superiores tenemos la capacidad de transmisión cultural, de copiar unos de otros, de aprender, recordar y transmitir. Ya no hace falta de que se de una mutación genética que sea seleccionada por la naturaleza, sólo hace falta que algo merezca la pena ser copiado por otro. Nace la evolución cultural en la cual rigen las mismas normas que en la natural: se seleccionan determinados memes, pero ya no por ser más eficientes a la hora de adaptarse al medio, sino por ser más útiles, bellos, placenteros…

Blackmore nos propone un tercer replicador: el teme, que sería un meme tecnológico, una máquina de Von Neumann, es decir, un artefacto que puede replicarse a sí mismo de modo que ya no necesita fabricantes humanos. Para Blackmore esto es un peligro (la llegada de cada nuevo tipo de replicador es peligrosa), ya que los temes actúan de forma egoísta, es decir que, aunque no hay intencionalidad en sus acciones, harían todo lo que fuera para seguir perpetuándose, donde cabe “quitar de en medio” a todo ser, incluidos los humanos, que entorpezca su labor. Al igual que los memes (los hombres) están cerca de exterminar a los genes (los demás seres vivos), los temes podrían eliminar a los memes. En principio la lucha parece desigual. Genes y memes llevan muchos millones de años perfeccionando sus mecanismos de perpetuación por lo que es improbable que los novedosos temes pudieran eliminarlos fácilmente, pero pensemos en lo rápido que evoluciona la tecnología. Por ejemplo, una herramienta poderosa de los temes serían las distintas dependencias y adicciones que nos crean. Cuando hay un apagón eléctrico comprobamos lo que nos costaría vivir sin Internet, sin televisión, sin las redes sociales, sin adictivos videojuegos… ¿Controlamos la tecnología o ésta nos controla a nosotros? A ninguno de nosotros nos parece apetecible una vuelta al hombre natural, renunciando a nuestras comodidades…

Hace tiempo escribí una entrada criticando esta teoría. Me basaba en que la evolución independiente de las máquinas menospreciaba la voluntad humana, nuestra libre capacidad de elección, de desenchufar la máquina. Sin embargo, si eliminamos el libre albedrío tenemos que estar abiertos a aceptar estructuras que determinen nuestra historia. La de Blackmore es una alternativa. ¿Que os parece?

“Un día Wheeler se vio involuntariamente mezclado en una variante del juego de las veinte preguntas. Como se recordará, en la versión convencional los jugadores acuerdan una palabra y el sujeto intenta adivinarla preguntando veinte cuestiones. Sólo se permiten como respuestas sí o no. En la variante, Wheeler comenzó preguntando las cuestiones usuales: ¿Es grande? ¿Está vivo?, etc. Al principio las respuestas surgían con celeridad, pero conforme el juego avanzaba las respuestas se fueron haciendo más lentas y duditativas. En un momento dado, él tentó la suerte: “¿Es una nube?” La respuesta no se hizo esperar: “¡Sí!”. Entonces alguien rompió a reír. Los jugadores revelaron a Wheeler que no habían elegido ninguna palabra de antemano. En lugar de eso, decidieron contestar sus preguntas al azar, sometidos tan sólo a la condición de respetar las respuestas precedentes. Sin embargo, se había llegado a una respuesta. Esta respuesta, obviamente contingente, no estaba determinada de antemano, pero no era arbitraria: su naturaleza fue decidida en parte por las preguntas que Wheeler escogió y en parte por puro azar. Del mismo modo, la realidad expuesta en una medida cuántica es decidida en parte por las preguntas que el experimentador plantea a la naturaleza (por ejemplo, si pregunta por una posición o por un momento) y en parte por el azar (o sea, la naturaleza incierta de los valores obtenidos para esas magnitudes)”

Leído en La mente de Dios de Paul Davies

El eminente astrofísico Fred Hoyle afirmaba que la probabilidad de que grandes moléculas como las de ADN o las proteínas se generaran por azar, era similar a la de que un huracán pasara por un desguace en el que hubiera desarmado completamente un Boeing 747 y ensamblara todas sus piezas hasta dejarlo perfectamente construido. Vista así, y  si además nos fijamos en la enorme complejidad de los seres vivos (con muchísimas más piezas que un Boeing), la probabilidad de que la vida surja por azar es casi nula.

Richard Dawkins respondió elocuentemente a Hoyle con el famoso argumento de la cerradura. Hoyle tendría razón si toda la biosfera se hubiera creado de una sola vez y de un desorden primordial tuviéramos, en un segundo, los seres vivos “terminados”. Pero es que los seres vivos evolucionan, y dentro de esa evolución no todos los ensamblajes de piezas tienen la misma probabilidad. Supongamos que tenemos una cerradura que se abre con una combinación dada de letras, por ejemplo “DAWKINS”. La probabilidad de que, de primeras, la abramos es muy baja: 7 elevado a 28 (¡Por eso las cajas fuertes son seguras!). Sin embargo, la evolución de los seres vivos no funciona así. Supongamos que para la primera letra, una D, tenemos 1/28 posibilidades. Es difícil conseguir una D pero no imposible. Supongamos que tenemos suerte y sale. Ahora necesitamos una A, pero introducimos la selección natural. Pensemos que una vez que tenemos la D, esta letra no se puede ensamblar con todas las demás letras con las misma probabilidad (la selección natural premiará unas combinaciones de letras y no otras). Supongamos que la D sólo puede ensamblarse con la A, con la P y con la S. Todas las demás combinaciones de seres vivos morirían en la lucha por la vida. Entonces no es tan improbable formar DA. Así sucesivamente podemos ver como conseguir “DAWKINS” en la cerradura no es tan raro (un ladrón con algo de paciencia nos robaría sin problemas), más cuando contamos con millones de años de ensayos para conseguirlo (la historia de la vida en la Tierra).

Pero la falacia de Hoyle se hace más evidente cuando aceptamos que la evolución es ateleológica, es decir, llega a resultados que no están prefijados de antemano. Si lanzamos una pelota de golf en un campo, podemos sorprendernos de la improbabilidad estadística de que nuestra pelota caiga exactamente en donde ha caído. Si nuestro campo de golf tiene unas quinientas hectáreas, es un gran milagro que nuestra pelota haya caído en una extensión precisa de unos pocos centímetros pudiendo haber caído en cualquier otro lugar. La falacia de esta afirmación consiste en pensar restrospectivamente. El único “milagro” aquí es que la pelota tenía que caer en algún punto del campo y así ha sucedido, mientras que lo realmente milagroso hubiera sido apostar a que la pelota va a caer exactamente en ese punto antes del lanzamiento y que así sucediera (cosa que no se puede hacer si aceptamos la ateleología de la evolución). Hoyle ve la pelota ya lanzada y se maravilla ante que, precisamente, haya caído en un lugar concreto.

El texto de Davies que traemos al principio es otro buen ejemplo de desarrollo ateleológico parecido a la cerradura de Dawkins. Por un lado, el azar de las preguntas de Wheeler se mezcla con la necesidad de  las respuestas de los demás jugadores, dando lugar a un resultado absolutamente impredecible. Si aceptamos la posibilidad de lo aleatorio, Hoyle no tiene razón, podemos explicar la “improbabilidad” de los seres vivos. Sin embargo, aquí reside el problema: la posibilidad de lo aleatorio.

Y es realmente curioso que la teoría de la evolución darwiniana se sostenga en ello. La teoría más poderosa para explicar el cambio evolutivo se basa en aceptar la existencia del azar, la existencia de eventos incausados, sin razón alguna que los explique, que violan el principio de razón suficiente, “sucesos mágicos”, inexplicables e indefinibles por definición. Aceptar el azar consiste en introducir lo irracional en la naturaleza… ¡y nuestras mejores teorías lo hacen cada vez más!

Véase El azar como esencia del hombre y Lo aleatorio y lo complejo

Los compiladores de los diferentes lenguajes de programación suelen tener una función (RAND) para generar números aleatorios. Verdaderamente, los números que generan no son aleatorios sino que sólo lo parecen. Simplemente siguen un algoritmo congruencial que produce que no nos demos cuenta de que, realmente, los números son tan determinados como los que genera la cadena “12345678…”. Y es que el problema es difícil. Los algoritmos o programas, por definición, son pautas para generar cadenas de código, es decir, son reglas para determinar la salida de números determinados por esas mismas reglas. ¿Cómo hacer unas reglas para generar números que, precisamente, se definen por no sujetarse a regla alguna?

Por eso me he quedado atónito cuando leo aquí que han conseguido generar números verdaderamente aleatorios (42 nada menos), pero claro, a partir del mundo cuántico, sección de la realidad que tengo prohibida por receta médica. No obstante, invito a los físicos que envíen entradas explicándome el asunto. Una idea interesante que aporta el artículo es que si un número es aleatorio de verdad, ni Dios mismo puede anticipar su valor, por lo que si realmente existen números fruto del azar, Dios no puede ser omnisciente.

Pero, ¿qué es realmente un número aleatorio? Una definición  muy atractiva es la que da el ruso Kolmogorov en una magistral fusión entre computación y teoría de la información. Un algoritmo es un programa que en un número preciso y finito de pasos genera un código, una cadena de símbolos. Habitualmente, los programas son más cortos que las cadenas que producen (esta propiedad se llama compresividad y posibilita, desde una perspectiva computacional, las  leyes científicas).  Un programa mucho más largo que el código que produce sería un absurdo, ya que siempre podríamos generar un programa más corto que estableciera una función biyectiva (“uno a uno”) entre el programa y el código a generar de modo que tendría su misma longitud. Es decir, el programa más largo posible tiene la misma longitud que el código que genera. Y, sin casi quererlo, ese código es un número aleatorio.

Si tenemos un número que genera nuestro programa y conocemos el algoritmo que lo genera, estamos ante un número no aleatorio. Tenemos pautas para determinarlo, para crearlo. Sin embargo, si no disponemos de ningún algoritmo para generar ese número más que uno de similar longitud a él mismo, es porque no hay reglas que lo determinen.

Otro punto interesante del planteamiento de Kolmogorov es que su comparación entre la longitud del programa y la de la cadena que genera nos vale para medir la complejidad de los sistemas. Así, un sistema será más complejo que otro cuanto más largo sea el programa mínimo que lo computa. Entonces, cuanto más aleatorio seas, tanto más complejo serás. Aleatorio y complejo se hacen sinónimos ¿Cómo de complejos somos los seres vivos? Veámoslo en un texto de Mosterín:

“Uno podría pensar, por ejemplo, en medir la complejidad de un organismo por la longitud de su genoma (es decir, por la longitud de la secuencia de bases o letras que codifican su información genética), pero los resultados de esta medida no siempre corresponden a nuestras intuiciones. Algunos anfibios tienen más DNA por célula que los mamíferos (incluidos nosotros). Las cebollas tienen cinco veces más DNA por célula que los humanes, ¡Y los tulipanes, diez veces más!

Desde luego, la mera longitud del DNA es un indicador muy tosco de la complejidad. La medida matemáticamente más refinada es la de Komogorov: la complejidad de una secuencia es la longitud del mínimo programa que la genera (en cierta máquina universal de Turing estandarizada). Así, las numerosas partes repetitivas del llamado “DNA basura” que comprende la mayor parte del genoma de muchos organismos pueden ser en gran medida descontadas, pues pueden ser generadas por un programa relativamente corto. La reciente secuenciación de los genomas de varios organismos nos podría permitir intentar medir su complejidad de Kolmogorov, pero la tarea no tiene nada de trivial, pues se trata de una función no computable en general. En cualquier caso, esta medida no se ha computado todavía, y, si llegara a hacerse, nada nos asegura que vaya a corresponder a nuestras expectativas. Según la medida de Kolmogorov, los sistemas más complejos no son seres vivos (parcialmente simétricos y repetitivos), sino los completamente caóticos, como la “nieve” de la pantalla del televisor no sintonizado”

Los seres vivos estamos muy ordenados, tenemos múltiples repeticiones. Sin embargo, el comportamiento de un gas o de la misma nieve de la tele… ¡requiere un programa más largo! ¡Soy menos complejo que un canal mal sintonizado de mi tele! O sea, que si Dios fuera un superprogramador informático, los seres humanos no seríamos, ni de lejos, lo más difícil de programar… ¡Toma golpe al Principio Antrópico!

En esta página dicen que generan números verdaderamente aleatorios utilizando el tiempo atmosférico como sistema caótico. ¿Realmente son aleatorios esos números?

Durante mucho tiempo habíamos pensado que todo el desarrollo de nuestro organismo (ontogénesis) estaba determinado por un programa “a priori” inscrito en nuestro código genético. Yo heredaba mis 23 pares de cromosomas y allí había unas instrucciones muy claras. El ADN mandaba y todo el crecimiento estaba marcado de antemano sin que nada exterior pudiera cambiar la dirección del proceso. De este modo, si tuviésemos un diablillo de Laplace que conociera todos mis genes, podría predecir todo mi desarrollo hasta el momento de mi muerte. Los aspectos ambientales no tenían importancia más que como agentes mutágenos. Alguno de mis genes podría mutar y su expresión fenotípica era toda la influencia del entorno que yo podría esperar en mi ontogénesis.

Sin embargo, pronto descubrimos lo que Waddington llamó epigenética: existen factores no genéticos en el desarrollo ontogénico, desde mecanismos que regulan la propia expresión génica (de los que hablaremos ahora) hasta factores hereditarios no genéticos (¡tócate las narices Mendel que vuelve Lamarck! Esto es tan importante que se merece otro post aparte de próxima aparición). Y es que una cosa parecía muy extraña: si entre los genes encargados de la codificación de proteínas del chimpancé y del humano sólo hay un 1,06% de diferencia… ¿cómo es posible que nuestros fenotipos sean tan diferentes? Porque la diferencia reside en los patrones de expresión génica implicados en el desarrollo.

Un ejemplo de influencia del entorno en la expresión génica es el ranúnculo de agua (Ranunculus peltatus). Esta curiosa planta acuática tiene todos los genes de sus hojas exactamente iguales, pero las hojas que están por encima del agua son anchas, planas y lobuladas mientras que las que crecen por debajo son delgadas y finamente divididas. El contacto con el agua (un agente externo) cambia el fenotipo. Otro es del conejo Himalaya, que nace blanco cuando hay temperaturas muy altas y negro a temperaturas bajas. Aquí, la temperatura cambia la expresión génica. Y es que el fenotipo es el resultado de la interacción de los genes y el medio ambiente.

El conejo Himalaya nace negro si hace frío y blanco si hace calor

Pero es que la cosa se ha complicado mucho desde Mendel. Existe la dominancia incompleta (cuando el gen dominante no llega a vencer al recesivo y ambos se expresan), hay genes que modifican el efecto de otros genes (epistasis), genes que afectan a muchas características (pleiotropía), rasgos que son fruto de la interacción acumulada de muchos genes (herencia poligénica), genes que se expresan en diverso grado (expresividad variable) o, haciendo el cálculo en poblaciones, genes que aparecen mucho menos de lo que deberían (penetrancia incompleta). Y además, el fenotipo puede verse afectado por alteraciones no ya en los genes sino en los cromosomas (no sólo afectando a fragmentos o a un cromosoma como en el Síndrome de Down o en el de Turner, sino a dotaciones completas).

La biología evolutiva del desarrollo (perspectiva Evo-Devo) se ha postulado como la nueva síntesis multidisciplinar que aúna la selección natural propia del neodarwinismo con la genética del desarrollo (que introduciría los elementos epigenéticos).  Pero, centrar la atención en el desarrollo del individuo… ¿no pondrá en peligro el viejo darwinismo? Según Michael Ruse no, todo lo contrario: lo completa. Ruse subraya que en los próximos años este nuevo enfoque traerá grandes descubrimientos. Textualmente:

“Yo soy un darvinista de línea dura. Pero los puros darvinistas conocen que las nuevas ideas son desafíos y oportunidades, no barreras o impedimentos”

Dice Nolasc Acarín Tusell en El Cerebro del Rey que nuestra especie tiene lo que llama memoria filética:

“Es la memoria innata que contiene el sistema nervioso, no tan sólo el cerebro y también heredada mediante el DNA transmitido por los progenitores. Contiene la información propia de nuestra especie, e incluso de especies que nos precedieron en la escala evolutiva. Gracias a estra memoria nuestro organismo nace con la capacidad para aprender a andar sobre los pies, aprender el lenguaje, huir de los estímulos dolorosos, encontrar sabrosas la carne y las grasas, tener tendencas altruistas-cooperativas, apreciar determinados cánones de belleza o a tener apetencia para la actividad sexual, por poner tan sólo unos ejemplos. Son todos ellos caracteres iguales para toda la especie humana, no debemos aprenderlos aunque sí desarrollarlos y cultivarlos para que lleguen a su máxima expansión. Componen unidades de información que nos llegan de muy antiguo y están estrechamente relacionados con las estrategias humanas de desarrollo y supervivencia. La maduración y conmutación de los circuitos neurales es precoz en las áreas del córtex cerebral implicadas en las actividades de mayor programación genética. Los núcleos de la base del cerebro  y del tronco cerebral que regulan el funcionamiento metabólico y visceral son activos desde el nacimiento. Las áreas del córtex que tienen relación con la motricidad y la recepción de percepciones son las siguientes en conmutarse y expresan, por ejemplo, la capacidad innata para el movimiento. En cambio, las áreas que se vinculan al aprendizaje maduran más tarde, a lo largo de los primeros meses de vida y son las que permitirán acumular la memoria de nadar con habilidad, hablar y, finalmente, acumular la experiencia y conocimientos. Hay una intencionalidad genética en la maduración nerviosa: cuanto más innata es la función antes está preparado el cerebro para acometerla. En sentido inverso, las funciones y capacidades adquiridas por aprendizaje implican áreas más lentas en madurar, donda la actividad neuroplástica será determinante. A principios del siglo XX ya se conocia que la mielinización era más precoz en las neuronas que forman las áreas primarias, que no son las que tienen una mayor contingencia innata”.

Véase Las memorias del Cosmos

Durante mucho tiempo se pensó que la información genética estaba en las proteínas. El ADN fue aislado por primera vez en 1869 por el suizo Friedrich Miescher. Era una sustancia blanca y azucarada, algo ácida y rica en fósforo. Al encontrarla en el núcleo celular, la llamó “nucleína”.  En 1885, Albrect Kossel obtuvo las diferentes bases nitrogenadas. Análisis posteriores demostraron que en los cromosomas de las células eucariotas había una cantidad similar de proteínas que de ADN. ¿Dónde estaría la información genética? Por sentido común parecía que en las proteínas, ya que éstas están compuestas por 20 aminoácidos y el ADN sólo tiene cuatro bases que, además, sólo se pueden conectar de dos formas diferentes. Las posibilidades de combinatoria de los aminoácidos eran mucho mayores.

No fue hasta los experimentos con virus de Luria, Delbrück, Alfred D. Hershey o Martha Chase, cuando se descubrió que el ADN era el auténtico testaferro de la información. Y es que, a pesar de la compleja belleza de la doble hélice, no hace falta ser matemático para darse cuenta que con dos pares de bases nitrogenadas que sólo se conectan con su par correspondiente dando lugar a sólo cuatro combinaciones posibles no tenemos un sistema demasado eficiente de codificación de la información. Simplemente, si se pudieran conectar entre ellas ya tendríamos dieciséis y ocupamos cuatro veces menos cadena para transmitir la misma información. El ADN como almacén de información es otra chapuza evolutiva.

Cuando hablamos de memoria siempre pensamos en el cerebro. Tenemos la idea de que el único almacén donde se guardan datos es en nuestro cerebro. No obstante, no es muy difícil pensar que otro almacén de información es el ADN, a pesar de que el genoma es un almacén muy rígido y tonto. No aprende, sólo cambia accidentalmente y esos cambios rara vez perduran. Por ello se adapta mal al medio. Un gran cambio en el ecosistema y las especies se extinguen. ¿Cómo se las arregló está memoria lenta y monolítica para sobrevivir? Generando una memoria más flexible y rápida, una capaz de aprender y cambiar rápidamente. ¿La memoria humana? Sí, pero antes generó otras. ¿Es que hay otras memorias a parte del ADN y la memoria humana?

No somos el único ser con memoria

Todas las células que existen en nuestro cuerpo, así como todos los seres vivos, actúan siguiendo funciones muy especializadas, interactuando con el medio de una forma muy concreta. Para ello, las células intercambian información y, lógicamente, la información que obtienen han de mantenerla. Hay muchas formas de guardar información. Al igual que nosotros creamos discos duros magnetizando silicio, los seres orgánicos guardan información de modo químico. Mis leucocitos “saben” que deben atacar a un tipo determinado de organismos y no a otros, mi pupila “sabe” que ha de dilatarse para que entre mucha luz y contraerse para que entre poca, mi cuerpo “sabe” auto-equilibrarse constantemente mientras yo voy caminando. En la naturaleza hay conocimiento sin sujeto cognoscente ni autoconciencia.

Y es que para que exista conocimiento, para que exista memoria, no hace falta ni ser consciente de que se tiene ni que exista un “yo” que se pregunte por sí mismo. Al igual que para los ingenieros  en informática, cualquier cosa puede ser una puerta lógica siempre que tenga un mínimo de dos estados posibles. Allá donde algo pueda tener dos posiciones y en función de ellas se actúe de una determinada forma, allí habrá una memoria. Por ello, la memoria humana es un tipo de memoria más, es una entre millones de puertas lógicas, de almacenes naturales. La historia natural es la historia de múltiples flujos de información que han atravesado el tiempo.

¿Qué peculiaridad tiene la memoria humana? Tendría bastantes, pero la principal es que puede crecer. La mayoría de las memorias naturales son, al igual que el ADN, rígidas. No cambian, ni crecen ni decrecen. Mi leucocito no aprende, está “cableado” desde su nacimiento, su conducta es buena para su entorno, pero si su entorno cambia, morirá irremediablemente si no muta.

Las memorias capaces de aprender son mucho más adaptativas porque pueden atesorar nueva información, son capaces de crecer y de actuar en función de su novedad adquirida. No se me ocurre estrategia evolutiva más genial: si la gran lacra para la supervivencia son los cambios en el ecosistema, genera individuos que sean capaces de aprender cómo sobrevivir al nuevo ecosistema, un promedio entre especialización y versatilidad. Sin embargo las memorias cambiantes tienen un grave defecto: la nueva información no se transmite a los descendientes biológicamente (o sólo muy poca. Veremos lo que nos dice la epigenética). Lo que se graba en el cerebro se pierde cuando éste muere. La nueva información requerirá de la educación para transmitirse, siendo este mecanismo mucho menos seguro que la totémica quietud genética. Este defecto ha sido subsanado en nuestros bancos de memoria artificiales. Partiendo desde las representaciones pictóricas del paleolítico, pasando por el papel, hasta los inmensos centros de datos de los servidores de Internet, hemos creado  memorías que subsanan tanto nuestras limitaciones de almacenaje y recuperación como de duración (superan la vida del individuo que la generó): hemos creado memorias modificables de rápido crecimiento y de larga duración, algo inaudito hasta el sapiens.

Dice Richard Dawkins:

“La esencia de la vida es la improbabilidad estadística a escala colosal”

Bonita cita que hace referencia al proceso ateleológico, sin dirección marcada o azaroso que ha sido la evolución hasta llegar al hombre. Se repite constantemente que los errores de réplica en las cadenas de ADN son  aleatorios, fortuitos, para luego ser filtrados por la dura criba de la selección natural (la cual sí parece actuar de modo determinista o no azaroso). Pero, ¿qué quiere decir que las mutaciones son azarosas o fortuitas?

Lo que habitualmente se entiende por ello es que cuando ocurre una mutación, no hay una causa final que la provoque, no hay un “para ésto”, al contrario que la mayoría de eventos que contemplamos en el mundo vivo, los cuales tienen finalidades claras (el ojo ve, la pata corre, el ala vuela). De acuerdo, pero aquí puede haber confusión. Que algo no tenga una finalidad evidente (aparte de que podría tener alguna finalidad que no supiéramos) no quiere decir que sea azaroso. Es más, la mecánica clásica, parte de un determinismo absoluto a todos los niveles de la realidad. Veamos el texto  determinista por antonomasia.

“Todos los eventos, incluso aquellos que por su pequeñez parecen no seguir las grandes leyes de la naturaleza, las siguen de una manera tan necesaria como las revoluciones celestes. Una inteligencia que en cada instante dado conociera todas las fuerzas que animan a la materia, así como la posición y la velocidad de cada una de sus moléculas, si, por otra parte, fuera tan vasta como para someter todos estos datos al análisis, abrazaría en la misma fórmula los movimientos de los más grandes cuerpos del universos y los del más ligero átomo. Para una inteligencia tal, nada sería irregular y la curva descrita por una simple molécula de aire o de vapores parecería regulada de una manera tan cierta como lo es para nosotros el orbe del sol”

Esto nos escribía Laplace en su Teoría analítica de la probabilidad. Si tuviéramos un diablillo que, a cada instante, conociera el estado total del sistema, debido a que este estado se conecta con los que le suceden por estrictas leyes, podría predecir con certeza absoluta todos sus posteriores estados, todo el futuro. Y esta es la concepción que suelen tener la mayoría de los científicos representada muy bien por Einstein y su “Dios no juega a los dados”.

¿Máquinas o dados?

Sin embargo, una divertida objeción a Laplace es la siguiente: supongamos que construimos un superordenador que, efectivamente, sepa el estado actual completo del Universo y todas las leyes que lo conectan con estados futuros. El ordenador sabría entonces qué es lo que yo voy a hacer en el siguiente momento. Entonces yo se lo pregunto: “HAL, ¿ahora voy a decir A o B?” Si HAL contestara A, yo diría B y viceversa, contradiciendo su gran poder de predicción. Supongo que el superordenador se volvería loco e intentaría asesinarme cada vez que me acercara a preguntarle algo (además no fallaría pues predeciría todos mis actos defensivos).

No obstante, pasemos por alto esta tonta objeción (quizá no tan tonta claro). Si las leyes de la física dominan estrictamente la naturaleza, también la dominarán a nivel génico. Parece artificioso diferenciar que, a nivel de ecosistema, la selección natural opera determinísticamente mientras que a nivel génico o cromosómico reina el más puro azar… ¿por qué en unos sitios sí y en otros no? ¿Por qué esa separación? Además, una naturaleza determinista abre las puertas a una evolución direccionada hacia la aparición del hombre. Dios, podría conocer todas las mutaciones de tal modo que podría haber preparado el estado inicial del Universo de forma que, al final, apareciera el hombre. Además, esto estaría respaldado por las polémicas y ajustadas constantes cosmológicas. Dios habría afinado el piano del Cosmos para que sonaran las teclas que él quisiera.

Pero, ¿qué es el azar? Habría que diferenciar que azaroso no equivale a libre. Si lanzo una moneda al aire hay un cincuenta por ciento de que salga cara o cruz. Suponiendo que Laplace se equivoca y el lanzamiento es un fenómeno aleatorio, al hecho de que salga cara o cruz no lo consideraríamos fruto de una decisión libre. La naturaleza podría ser absolutamente azarosa y nosotros seguir siendo igual de libres que nuestro reloj marcando las horas. Azaroso, tampoco es sinónimo de caótico, en el sentido de desordenado o confuso. Algo puede ser desordenado y funcionar de un modo absolutamente determinista. Habría que distinguir entre azar ontológico (que es el que aquí trato) de azar epistemológico. El segundo es, simplemente, la muestra de la insuficiencia de nuestro conocimiento sobre algo. Como no soy el diablillo de Laplace y no conozco completamente el estado inicial, con lo poco que sé hago mis predicciones, cual hombre del tiempo entre borrascas y anticiclones. Sin embargo podría darse el caso de que sé todo lo que se puede saber (no obstante, eso nunca se puede decir) y aún así, mi fenómeno es aleatorio, es decir, en unos casos hace una cosa y en otros otra sin que exista causa para ello. Aquí tendríamos un fenómeno incausado, pues azaroso significa sin causa que lo determine.

Azaroso significa aislado, sin relación con lo demás. El fenómeno aleatorio actuará con autonomía absoluta de su entorno. Sus únicas determinaciónes o limitaciones serían las que se salen de su conjunto de posibilidades y su probabilidad estadística. Cara o cruz al cincuenta por ciento, nada más, pero no  hay causa ni contexto que incite de ningún modo a que sea cara o a que sea cruz. Ambas posibilidades serían incausadas y autónomas, substancias en sí mismas. Pero el problema sigue estando aquí: ¿Existen realmente fenómenos aleatorios? Sólo si es así, y si esos fenómenos aleatorios tienen algo que ver con las variaciones hereditarias, sólo así, Darwin tendría razón y la evolución obedece al azar.