Posts etiquetados ‘Francis Crick’

Cuando comienzas una discusión con un buen filósofo sobre, pongamos por ejemplo algo que está muy de moda en estos días como es la libertad, más pronto que tarde, te pedirá que se la definas. Y es que los filósofos saben que gran parte de los malentendidos vienen de no tener clara la definición del concepto en liza ¿Libertad de qué? ¿De poder tomarnos unas cañas, de poder cambiarnos de sexo o de poder pagar a nuestros empleados el sueldo que se nos antoje?

Sin embargo, es muy curioso, cuando no un total escándalo, que si nos adentramos en las principales disciplinas académicas, nos encontramos con que en, prácticamente ningún concepto fundamental, hay acuerdo alguno. Si nos vamos a la biología no hay definiciones consensuadas de vida, adaptación, gen, especie, raza… ¡Conceptos cruciales sobre los que se sustenta toda la biología! En la física igual: materia, tiempo, espacio, partícula, energía… Puede haber modelos matemáticos que permiten precisas predicciones, pero definiciones en román paladino no hay en las que todos confluyan. Y si ya nos vamos a disciplinas cuyo objeto es menos tangible como la psicología, la disparidad se multiplica: ¿Qué es la mente, la inteligencia, la personalidad? ¿Qué es enfermedad mental y qué no lo es? Nos encontraremos con tantas definiciones como escuelas, corrientes o incluso psicólogos particulares. Imagine el lector en el campo en el que yo ahora investigo, la consciencia, el número de definiciones distintas y la confusión que generan.

Desde luego, esto daría para caer en un escepticismo duro, concluyendo que nuestras ciencias son un desastre mayúsculo y que jamás llegaremos a ningún conocimiento certero sobre la realidad ¿Cómo los científicos pueden decirnos algo con sentido si no pueden definir de lo que nos hablan? No tan rápido. Me gusta citar una anécdota que no recuerdo donde leí pero que dice así: estaba Francis Crick dando una larga conferencia sobre el ADN cuando un oyente le espetó: «Profesor Crick, lleva usted varias horas hablando de seres vivos pero no nos ha definido en ningún momento qué es la vida». Crick respondió: «Dejemos las cuestiones de higiene semántica para los filósofos». Moraleja: un eminente científico podía hacer avanzar la ciencia, tanto como para descubrir la estructura del ADN, sin tener una definición clara y precisa de su objeto de estudio.

Vamos a aproximarnos un poco a lo que entendemos por definición. Definir algo no consiste en captar su esencia, en descubrir un «secreto» que el objeto a definir guardaba «dentro». Definir algo es, sencillamente, distinguirlo de cualquier otra cosa. Así, cuando defino «silla» lo que pretendo es que mi interlocutor no confunda en su mente una silla con una mesa o con un sofá. La RAE la define como «Asiento con respaldo, generalmente de cuatro patas, en el que solo cabe una persona». A bote pronto, parece una definición bastante aceptable. Al decir que «generalmente tiene cuatro patas» seguimos entendiendo como sillas aquellas de diseño que puedan tener, por ejemplo, solo tres patas. Sin embargo, me parece que el punto débil de la definición está en la parte final: «…en el que solo cabe una persona». Si en una supuesta silla se sientan dos niños… ¿deja de ser una silla? O si en ella no cabe una persona obesa… También podemos pensar en una silla en miniatura de una maqueta… ¿no es una silla?

Aquí entran las tareas de «higiene semántica» de los filósofos a las que se refería Crick. Estos tipos raros dedicarán horas y horas a intentar encontrar definiciones más precisas. Sin embargo, pensemos que aunque nuestra definición de silla no sea perfecta, la mayoría de la gente comprende perfectamente qué es una silla y la distingue muy bien de cualquier otro objeto. Solo en poquísimos casos limítrofes nos encontraríamos con objetos que no sabríamos decir si son sillas o no. Incluso en el caso de una silla en miniatura, cuando se incumple claramente la tercera cláusula de la definición, todo el mundo la sigue llamando silla sin ningún atisbo de duda. Las definiciones funcionan muy bien aunque no sean perfectas. Incluso solemos saber identificar y distinguir muy bien los objetos sin tener siquiera una definición elaborada lingüísticamente en nuestra mente. Por ejemplo, si me preguntan ahora qué es un tigre, tendré que estar un rato pensando qué cualidades lo distinguen de otros seres, y quizá no llegue a ninguna buena definición; empero, habitualmente, puedo diferenciar a un tigre de cualquier otro ser con bastante competencia.

Además, y esto es lo importante, las definiciones evolucionan a lo largo de la investigación. Si, antes de comenzar a investigar, ya tenemos una definición definitiva… ¿Qué sentido tiene entonces la investigación? Pensemos en la historia de los átomos. Desde que los atomistas griegos los definieran como los últimos componentes de la materia (ἄτομος : «indivisible»), hasta la actualidad, su definición ha variado enormemente. Desde que Platón entendiera los átomos como sólidos regulares, pasando por Dalton, Thomson, Rutherford, Bohr o Schrödinger, ha llovido muchísimo. De hecho, la definición inicial ya no nos sirve para nada: los átomos no son los componentes últimos de la materia, ya que están divididos en muchas otras partículas más pequeñas. Ahora sabemos que los átomos y sus componentes tienen propiedades que antes desconocíamos y que podemos incluir en su definición. Sabemos que hay muchos tipos, tamaños, de diferente composición… Hablamos de masas, cargas, spines, fuerzas, enlaces… Nuestro conocimiento se ha ampliado con una gran riqueza de nuevas notas, y también de nuevos interrogantes ¡Eso es progreso científico!

Durante algún tiempo me preocupó mucho la ausencia de definiciones. Cuando analizaba el estado de las variadas ciencias y solo encontraba en ellas un maremágnum de discusiones, sin un atisbo de lo que Kuhn llamó «ciencia normal», entendía muy bien las razones del relativismo y del escepticismo. Si bien, por otro lado, me congratulaba maliciosamente de que las ciencias naturales se encontraran en dificultades no muy distintas a las clásicas de las ciencias humanas o sociales. Durante mucho tiempo también pensaba que la precisión y el rigor eran cualidades de las ciencias empíricas, mientras que las humanidades eran más chapuceras en este sentido… ¡Nada más lejos de la realidad! En ciencia hay tanto torticero como en cualquier otro lugar del mundo. El rigor está en manos del investigador en cuestión, no dependiendo, para nada, del campo en el que trabaje. Superados estos complejos, ahora ya no me preocupa tanto el problema de carecer de definiciones precisas. Las ciencias avanzan igualmente y estos desacuerdos enriquecen mucho más que oscurecen ¡Qué aburrido sería todo si el conocimiento fuera uniforme y estandarizado!

Otro apunte interesante con respecto a las definiciones es la problemática que aparece cuando queremos definir la totalidad de lo que existe. Por ejemplo, cuando defendemos el materialismo, entendiendo que todo lo que existe es materia, tenemos un serio problema: las definiciones distinguen nuestro objeto a definir de todos los demás objetos, pero si lo que pretendemos definir es el todo… ¿de qué distinguimos el objeto? Así, cuando decimos que todo es materia… ¿Cómo definimos materia si no podemos oponer la definición a otra cosa diferente, ya que no hay nada diferente? De hecho, aquí la definición de definición que hemos utilizado, valga la redundancia, perdería su sentido: definir como distinguir de otra cosa aquí no funciona ¡Tenemos que redefinir definir! Y es que de definición… ¡también hay muchas definiciones!

Dos dificultades esenciales:

1. ¿Cómo es posible que desde la relativamente poca información codificada por nuestro ADN se generen organismos de una complejidad tan alta? ¿Cómo es posible que con unos escasos menos de 30.000 genes del homo sapiens pueda generarse algo tan complejo como un cerebro? ¿Cómo con 30.000 instrucciones puedes construir la exponencial complejidad de las interconexiones neuronales, algo que supera con mucho la potencia de nuestros más avanzados supercomputadores?

2. Al analizar los genomas de diversas especies y compararlas con el humano vemos que compartimos una altísima cantidad de genes con ellas. Si con la levadura compartimos un 40% del genoma o si entre el ratón o el chimpancé y el hombre, sólo existe la diferencia de unos escasos percentiles, ¿cómo es posible que tengamos diferencias fenotípicas tan obviamente abrumadoras?

Apliquemos la teoría de la información a la biología (es maravilloso mezclar disciplinas). Hasta el fabuloso descubrimiento de Watson y Crick, la comunidad científica pensaba que los genes debían de estar codificados en las proteínas ya que éstas muestran una capacidad de combinación más alta que la del ADN. Sin embargo, y esto es una muestra más de que Darwin tenía toda la razón, descubrimos que el código estaba escrito en las bases del ácido desoxirribonucleico. La evolución es chapucera. Pero la selección natural comienza a funcionar y, con total seguridad, empezó a optimizar este, en principio ineficiente, sistema de codificación de la información. Seguramente, la codificación de la información también evolucionó. La evolución es chapucera, pero no tanto: trabaja con lo que tiene (ADN) pero pronto lo optimiza. ¿Cómo puede mejorarse el almacenamiento de información?

1. Compresión: ¿Cómo funcionan los compresores de información típicos de nuestros ordenadores? Sencillamente, buscan patrones que se repiten. Si, por ejemplo, queremos comprimir una imagen de 100×100 píxeles que representa un sencillo cuadrado rojo, solo hace falta un algoritmo que diga: «proyecta un píxel rojo 100 veces de abajo a arriba y hazlo 100 veces en horizontal», en vez de uno, bastante poco eficiente, que vaya yendo píxel por píxel indicando el color de cada uno. Con dos instrucciones conseguimos hacer lo mismo que, siguiendo el segundo algoritmo, con 10.000. Entonces podemos tener genes que codifiquen instrucciones de muy amplio calado con muy poca información.

2. Iteración de las mismas propiedades fenotípicas. Somos repetitivos: las fibras musculares lisas, los linfocitos B, los hematíes, las células de la piel, etc. son todas iguales. De la misma forma, hay un montón de diseños que se repiten por doquier en el mundo natural: patas, aletas, ojos, sistemas nerviosos y basculares, etc. Así se explica muy bien por qué la mayor parte de los organismos del reino animal son simétricos: nos ahorramos la mitad de la información. Las instrucciones genéticas para fabricar un animal simétrico pueden ser muchas para hacer un lado del individuo, pero solo una para hacer el otro: «Repite lo mismo que has hecho antes». También explicamos muy bien por qué los organismos son tan poco irregulares. Cada nueva forma que no sea una repetición requiere nueva información: un organismo muy irregular requiere muchas más instrucciones para su desarrollo que uno más regular y simétrico.

Tenemos un tipo de algoritmos que son una perfecta expresión de los dos principios anteriores (compresión e iteración fenotípica) y que, además, se encuentran por doquier en el mundo vivo: los fractales probabilísticos (los alvéolos pulmonares o las redes neuronales son claros ejemplos).

Un fractal probabilístico añade un elemento de incertidumbre. Mientras que un fractal determinista tiene el mismo aspecto cada vez que se presenta, un fractal probabilístico cambia de aspecto (aunque mantiene características similares). En un fractal probabilístico, la probabilidad de que cada elemento generador sea utilizado es menor que 1. De esa manera, los diseños resultantes poseen una apariencia más orgánica. Los fractales probabilísticos son utilizados en programas de gráficos para generar imágenes realistas de montañas, nubes, orillas, follajes y otros parajes naturales. Un aspecto esencial de un fractal probabilístico es que permite la generación de una gran cantidad de complejidad aparente, incluyendo abundantes variaciones en los detalles, partiendo de una cantidad de información sobre el diseño relativamente pequeña. La biología utiliza el mismo principio. Los genes proporcionan la información sobre el diseño, pero los detalles de un organismo exceden en mucho la información genética sobre el diseño.

Ray Kurzweil, La singularidad está cerca

fractales-660x350

 3. Reutilización: tenemos la idea de que un fragmento de información solo realiza una función. Por ejemplo, solemos pensar que para el color de los ojos de un individuo hay un trozo de ADN que codifica exclusivamente esta información. Así, establecemos una función biyectiva entre cada gen y una propiedad fenotípica. Al hacerlo nos quedamos muy cortos: ¿cómo es posible que con la poca información que contiene el ADN los organismos muestren diferencias fenotípicas tan inmensas? La solución consiste en que podemos utilizar cada fragmento de información para varias funciones diferentes. Veamos un ejemplo: supongamos que tenemos una célula madre capaz de generar una serie de organismos diferentes. La información tiene que codificarse en una matriz de 7×7 bits de información, es decir, que tenemos 49 casillas en donde poner un único bit (en este caso una letra del abecedario). La instrucción que debe darse es el nombre del animal que queremos conseguir, siendo los animales posibles los siguientes: humano, perro, asno, alacrán, hormiga, pulpo, medusa, araña, foca y pavo. ¿Cómo guardamos todos esos nombres en la matriz? Aceptando que podemos colocar las palabras en horizontal y en vertical es imposible. Si, por ejemplo, las colocamos así:

A

L A C R A N

H

O R M I G A

M

E D U S A P

H

U M A N 0

E

P U L P O  

R

A R A Ñ A  

R

F O C A    

0

 

nos quedan fuera sapo, asno y pavo. Pero si, colocando igualmente las palabras en horizontal y vertical, reutilizamos algunas letras para varias palabras, como en una vulgar sopa de letras, sí que nos cabe toda la información.

H

U M A N O  

O

P E R R O  

R

U D A S N O

M

L U Ñ   F

V

I P S A P O

A

G 0 A N   C

P

A L A C R A

N

Como vemos la «h» de humano puede usarse también para hormiga, la «p» de perro para pulpo, o varias letras de medusa para humano, perro, sapo y alacrán. Usando los mismos bits para diferentes instrucciones podemos conseguir hacer más cosas con la misma cantidad de información. Y en este ejemplo porque las instrucciones tenían que ser una serie de palabras concretas con sentido. Si partimos de que las instrucciones pueden ser cualquier conjunto de letras sin significado alguno (como ocurre realmente con el ADN, cuyas combinaciones de bases son totalmente convencionales), volvemos a optimizar el sistema. Si, otro ejemplo, cada conjunto de siete letras en horizontal o vertical  constituye una instrucción («IPSAPOA»=construye un humano), en esa misma matriz de 7×7 bits, el número total de instrucciones posibles sube a 14 (en vez de las 10 del ejemplo inicial): 7 horizontales y 7 verticales. Si además, la instrucción es diferente si la leemos de derecha a izquierda que de izquierda a derecha y de arriba a abajo que de abajo a arriba («IPSAPOA» es diferente que «AOPASPI»), tenemos ahora 28 instrucciones posibles. Hay muchísimas formas de aumentar la cantidad de información contenida en un código si podemos reutilizarla. Y es que hay muchos tipos de genes cuya información actúa de diversas formas. Escribíamos hace unos cuatro años en el blog:

Pero es que la cosa se ha complicado mucho desde Mendel. Existe la dominancia incompleta (cuando el gen dominante no llega a vencer al recesivo y ambos se expresan), hay genes que modifican el efecto de otros genes (epistasis), genes que afectan a muchas características (pleiotropía), rasgos que son fruto de la interacción acumulada de muchos genes (herencia poligénica), genes que se expresan en diverso grado (expresividad variable) o, haciendo el cálculo en poblaciones, genes que aparecen mucho menos de lo que deberían (penetrancia incompleta). Y además, el fenotipo puede verse afectado por alteraciones no ya en los genes sino en los cromosomas (no sólo afectando a fragmentos o a un cromosoma como en el Síndrome de Down o en el de Turner, sino a dotaciones completas).

El descubrimiento y decodificación del genoma humano ha sido un gran paso, pero solo es el comienzo de una historia mucho más interesante.

Roger Penrose dedicó bastante más tinta en defender  los argumentos de Shadows of Mind que en escribir dicha obra. En una de sus contrarréplicas, publicada en la revista Psyche (Enero, 1996), nos ofrece una de las versiones más claras de su famoso argumento.

Supongamos que todos los métodos de razonamiento matemático humanamente asequibles válidos para la demostración de cualquier tesis están contenidos en el conjunto F. Es más, en F no sólo introducimos lo que entenderíamos como lógica matemática (axiomas y reglas de inferencia) sino todo lo matemáticamente posible para tener un modelo matemático del cerebro que utiliza esa lógica (todos los algoritmos necesarios para simular un cerebro). F es, entonces, el modelo soñado por cualquier ingeniero de AI: un modelo del cerebro y su capacidad para realizar todo cálculo lógico imaginable para el hombre. Y, precisamente, ese es el modelo soñado porque la AI Fuerte piensa que eso es un ser humano inteligente. Así, cabe preguntarse: ¿Soy F? Y parece que todos contestaríamos, a priori, que sí.

Sin embargo, Roger Penrose, piensa que no, y para demostrarlo utiliza el celebérrimo teorema de Gödel, que venimos a recordar a muy grosso modo: un sistema axiomático es incompleto si contiene enunciados que el sistema no puede demostrar ni refutar (en lógica se llaman enunciados indecidibles). Según el teorema de incompletitud, todo sistema axiomático consistente y recursivo para la aritmética tiene enunciados indecidibles. Concretamente, si los axiomas del sistema son verdaderos, puede exhibirse un enunciado verdadero y no decidible dentro del sistema.

Si yo soy F, como soy un conjunto de algoritmos (basados en sistemas axiomáticos consistentes y recursivos), contendré algún teorema (proposiciones que se infieren de los axiomas de mi sistema) que es indecidible. Los seres humanos nos damos cuenta, somos conscientes de que ese teorema es indecidible. De repente nos encontraríamos con algo dentro de nosotros mismos con lo que no sabríamos qué hacer. Pero en esto hay una contradicción con ser F, porque F, al ser un conjunto de algoritmos, no sería capaz de demostrar la indecibilidad de ninguno de sus teoremas por lo dicho por Gödel… Una máquina nunca podría darse cuenta de que está ante un teorema indecidible. Ergo, si nosotros somos capaces de descubrir teoremas indecidibles es porque, algunas veces, actuamos mediante algo diferente a un algoritmo: no sólo somos lógica matemática.

Vale, ¿y qué consecuencias tiene eso? Para la AI muy graves. Penrose piensa no sólo que no somos computadores sino que ni siquiera podemos tener un computador que pueda simular matemáticamente nuestros procesos mentales. Con esto Penrose no está diciendo que en múltiples ocasiones no utilicemos algoritmos (o no seamos algoritmos) cuando pensemos, sólo dice (lo cual es más que suficiente) que, habrá al menos algunas ocasiones, en las que no utilizamos algoritmos o, dicho de otro modo, hay algún componente en nuestra mente del cual no podemos hacer un modelo matemático, qué menos que replicarlo computacionalmente en un ordenador.

Además el asunto se hace más curioso cuanto más te adentras en él. ¿Cuáles podrían ser esos elementos no computables de nuestra mente? La respuesta ha de ser un rotundo no tenemos ni idea, porque no hay forma alguna de crear un método matemático para saber qué elementos de un sistema serán los indecidibles. Esto lo explicaba muy bien Turing con el famoso problema de la parada: si tenemos un ordenador que está procesando un problema matemático y vemos que no se para, es decir, que tarda un tiempo en resolverlo, no hay manera de saber si llegará un momento en el que se parará o si seguirá eternamente funcionando (y tendremos que darle al reset para que termine). Si programamos una máquina para que vaya sacando decimales a pi, no hay forma de saber si pi tiene una cantidad de decimales tal que nuestra máquina tardará una semana, seis meses o millones de años en sacarlos todos o si los decimales de pi son infinitos. De esta misma forma, no podemos saber, por definición, qué elementos de nuestra mente son no computables. A pesar de ello, Penrose insiste en que lo no computable en nuestra mente es, nada más y nada menos, que la conciencia, ya que, explica él, mediante ella percibimos la indecibilidad de los teoremas. Es posible, ya que, aunque a priori no pudiéramos saber qué elementos no son decidibles, podríamos encontrarnos casualmente con alguno de ellos y podría ser que fuera la conciencia. Pero, ¿cómo es posible que nuestro cerebro genere conciencia siendo el cerebro algo aparentemente sujeto a computación? Penrose tiene que irse al mundo cuántico, en el que casi todo lo extraño sucede, para encontrar fenómenos no modelizables por las matemáticas y, de paso, resolver el problema del origen físico de la conciencia.

Las neuronas no nos valen. Son demasiado grandes y pueden ser modelizadas por la mecánica clásica. Hace falta algo más pequeño, algo que, por su naturaleza, exprese la incomputabilidad de la conciencia. Penrose se fija en el citoesqueleto de las neuronas formado por unas estructuras llamadas microtúbulos. Este micronivel está empapado de fenómenos cuánticos no computables, siendo el funcionamiento a nivel neuronal, si acaso, una sombra amplificadora suya, un reflejo de la auténtica actividad generadora de conciencia. ¡Qué emocionante! Pero, ¿cómo generan estos microtúbulos empapados de efectos cuánticos la conciencia? Penrose dice que no lo sabe, que ya bastante ha dicho…

O sea señor Penrose, que después de todo el camino hecho, al final, estamos cómo al principio: no tenemos ni idea de qué es lo que genera la conciencia. Sólo hemos cambiado el problema de lugar. Si antes nos preguntábamos cómo cien mil millones de neuronas generaban conciencia, ahora nos preguntamos cómo los efectos cuánticos no computables generan conciencia. Penrose dice que habrá que esperar a que la mecánica cuántica se desarrolle más. Crick o Searle nos dicen que habrá que esperar a ver lo que nos dice la neurología… ¡Pero yo no puedo esperar!

Además, ¿no parece extraño que la conciencia tenga algo que ver con el citoesqueleto de las neuronas? La función del citoesqueleto celular suele ser sustentar la célula, hacerla estable en su locomoción… ¿qué tendrá que ver eso con ser consciente? Claro que en el estado actual de la ciencia igual podría decirse: ¿qué tendrá que ver la actividad eléctrica de cien mil millones de neuronas con que yo sienta que me duele una muela?

El código

Publicado: 20 julio 2010 en Evolución, Humor
Etiquetas:, ,

El trabajo cotidiano de cualquier criptógrafo consiste en intentar descifrar, dar sentido a un código que, aparentemente, no lo tiene. Si se encuentra, por ejemplo, con el siguiente número:

011011011011011011011011011

el algoritmo que lo genera es muy fácil: «Escribe dos unos tras cada cero». Sin embargo, en otras ocasiones el asunto es más complicado. Si nos fijamos en el siguiente:

010001110111010010011100110101101011101110101000010

pasaría por todos los test normales de alatoriedad, pareciendo que no tiene orden, que no traduce nada, no existiendo algoritmo alguno que lo genere. Sin embargo, es la traducción a binario de un fragmento del genoma del virus MS2 (traducido cada nucleotido de la forma Adenina=00, Uracilo=11, Guanina=01 y Citosina=10). El lenguaje en el que están escritas  las instrucciones para generar cualquier ser vivo puede ser traducido a lenguaje informático y tratado como si de un mensaje encriptado se tratara. Durante muchos siglos la cábala y las diversas escuelas de numerología buscaron códigos numéricos en los textos bíblicos, pretendiendo encontrar el auténtico sentido del texto en otro lenguaje distinto al propiamente escrito. ¿Tendrá la cábala moderna que buscar ese código en el lenguaje de la vida, en nuestras largas y enrolladas cadenas de ADN? ¿Es nuestro genoma un lenguaje arbitrario o esconde algún sentido secreto?

Por lo que sabemos, el lenguaje mediante el que ADN se expresa es plenamente convencional, perfectamente aleatorio. Lo sentimos por nuestros queridos pitagóricos.  Si bien, como no hay forma de saber si, dado un código cualquiera, es aleatorio o no, animamos a que busquen ese improbable  código del código.

Me pregunto que pasaría si encontráramos algún mensaje como «Made by god» o, mucho mejor, «Made by natural selection», o mejor aún, «Adán was here» o «Fool who reads it». ¿Se imaginan las caras de Watson y Crick?

Hoy hablaba con mi compañero de departamento. Estamos dando en clase algo de genética. Con esto de ser el año Darwin decidimos explicar un poco de este hombre y de lo que filosóficamente puede representar su revolucionaria teoría. Así, en estos días estamos hablando de Watson y Crick y de lo que significa el ADN. Él me cuenta que le dice a los alumnos que reflexionen sobre si el hombre es sólo eso, si el hombre es sólo el determinismo preciso de la maquinaria molecular del ácido desoxirribonucleico. Es más, insistía en decir que el hombre, su libertad, es lo contrario al determinismo del ADN. El hombre es alma, es libertad, es moralidad, es arte, es todo lo opuesto al inhumano reduccionismo científico en el que sólo hay frío cálculo.

El hombre es demasiado fascinante para ser sólo ADN. Y yo le respondo: a mí lo que realmente me fascina es que el hombre sea ADN. Creo que sería mucho más lamentable que el hombre fuera algo tan simple como un alma o un espíritu. Me parece que el hecho de que tengamos un sistema de replicación hereditaria tan complejo y sorprendente como el ADN no es algo que nos convierta en animales o robots, sino que nos acerca a ser dioses. Otros razonamientos de esta índole que he oído son del tipo: el amor no puede ser sólo un flujo de feromonas o el pensamiento no se reduce a neuronas…

Creo que hay un error de base en argumentos de ese tipo. Cuando un científico habla de que las feromonas tienen mucho que ver con el amor no está reduciendo el amor a feromonas, sino que está abriendo el amor a las feromonas. De algo que no teníamos explicación, ahora vamos a abrir un nuevo campo de investigación. De una sola pregunta, vamos a hacer cien. Una vez formulada la hipótesis, ahora quedan mil cosas por hacer. A cada paso que demos se abrirán muchos problemas. Esa es la esencia del conocimiento, de la ciencia.

Dibujo de Leonardo da Vinci

Hablar de reduccionismo científico implica habitualmente un desconocimiento grave de lo que realmente es la ciencia. La ciencia no reduce, amplía. Descubrir el ADN, las feromonas o las neuronas no es reducir el hombre a ellos, es abrir el hombre a nuevas explicaciones de las que antes carecíamos. Y eso no quita ni una pizca de dignidad al hombre. A mí, el hecho de descender, por parte de padre o de madre :), de un primate no me ha causado más que fascinación. Mirar a uno de esos seres sabiendo que son mis parientes, que comparto con ellos gran parte de mi genoma, que, de algún modo, yo salí de uno de ellos, me hace contemplarlos con una curiosidad renovada y me hace sentirme algo más hermanado con el mundo natural.

Somos colonias de alrededor de cien billones de células perfectamente coordinadas (los seres humanos somos sólo algo más de 6.000 millones. Imagina coordinar a toda esa gente para que trabajen en algo), una complejísima máquina simbiótica irrigada por las geometrías fractales de nuestro sistema cardiovascular; somos millones de reacciones químicas en constante proceso de inacabamiento, de desequilibrio termoquímico, en constante «estar entre medias» porque terminar significa estar muerto; somos el fruto de cientos de miles de años de evolución, de millones de cambios  que pasaron el filtro de la selección natural, hijos de supervivientes natos; somos tantas neuronas como para que todas en fila lleguen a la luna, teniendo por cerebro el objeto más complejo de todo el Universo… ¿Es esto ser poco?

Esta entrada continúa a: El salto que es el hombre