Archivos de la categoría ‘Filosofía de la ciencia’

Si decimos:

La luz del sol causa el calentamiento de la piedra

estaremos haciendo un juicio empírico, un enunciado causal en donde, sencillamente, sostenemos que la luz solar es la causa de un determinado efecto. No hay nada raro  y todo funciona felizmente: la causa va antes del efecto y si realizamos el experimento mil veces, las mil parece que el sol sigue calentando la piedra. Conocimiento científico sin más. Cambiemos el enunciado:

El calentamiento de la piedra causa la luz del sol

Invertimos la causalidad. La causa es el efecto y el efecto la causa y el futuro interviene en el pasado ¿Una estupidez? ¿Podría ser que el calentamiento de la piedra causara, realmente, la luz solar? Escribamos la frase de otro modo:

La luz del sol tiene la finalidad de calentar las piedras

La frase suena algo mejor pero sigue pareciéndonos absurda ¿Por qué iba a tener la luz del sol la finalidad de calentar piedras? Pues en gran parte de la historia de la humanidad (hasta el siglo XVIII aproximadamente) se ha creído firmemente en enunciados de este tipo, es decir, en enunciados finalistas o teleológicos: aquellos que explican la causa de un suceso apelando a un objetivo o finalidad. Aristóteles, el padre de la criatura, pensaba que el universo era un gran organismo biológico en el que cada parte tenía una finalidad: llovía para que crecieran las plantas, las plantas crecían para que se las comieran los conejos y los conejos estaban para que se los comieran los depredadores. La naturaleza no hacia nada en vano y todo tenía su función (forma moderna de decir teleología).

La razón por la que hoy en día nos resulten tan repulsivas estas explicaciones (referidas siempre al mundo físico. En el mundo biológico las utilizamos con total normalidad) estuvo en Newton quien, aplicando la siempre saludable navaja de Ockham, dijo su archiconocido “Hipotheses non fingo” con el que redujo el papel de la física a explicar la causalidad eficiente o, dicho de otro modo, a explicar todo el universo en términos de fuerzas y movimientos. La Tierra no gira alrededor del sol por ninguna causa o razón especial, sencillamente, obedece las infranqueables leyes de la naturaleza, concretamente, la ley de gravitación universal. Los objetos físicos  no tienen funciones ni objetivos, solo obedecen órdenes.

En general, todo esto ha funcionado bien (la ciencia ha cosechado éxitos rotundos pasando olímpicamente de la teleología), pero hay un supuesto básico de la física clásica (no hay que irnos a las extravagancias de la cuántica) bastante problemático en este aspecto: el principio de Fermat (o principio de mínima acción). Grosso modo dice que la trayectoria de un rayo de luz al recorrer el espacio entre dos puntos A y B siempre será la que consiga que el tiempo al recorrerlo sea el mínimo (Para ser precisos, no siempre se cumple sino que, a veces, hace todo lo contrario. Es lo que llamamos un principio variacional. No obstante, para nuestro caso, con que se cumpla una vez es más que suficiente).

Habitualmente, si no hay ningún cambio de medio ni ningún objeto entre los dos puntos, la trayectoria más rápida será la línea recta. Sin embargo, cuando nos encontramos con que el punto B está, supongamos, debajo del agua, se da que el rayo tiene que atravesar medio acuático y todos sabemos que la luz va más lenta cuando atraviesa dicho líquido (esto es, de nuevo, inexacto pero para el caso nos vale). Como la luz pretende tardar el menor tiempo posible, recorrerá la trayectoria que menos tiempo la mantenga dentro del agua.

Sin título

Si miramos el diagrama vemos que la trayectoria que pasa por el punto d, aún no siendo la más corta es la más rápida, ya que el segmento dB, que es el que pasa por debajo del agua y ralentizaría el rayo, es más corto que cB. Dadas estas condiciones, en el mundo real el rayo de luz pasará por d en vez de por c, realizando el recorrido más rápido posible.

Lo inquietante del asunto son dos aspectos:

  1. Para explicar el fenómeno no podemos recurrir al esquema causal habitual sino que hay que irnos a la extraña inversión aristotélica de la teleología. El rayo actúa siguiendo un objetivo, una finalidad: conseguir el tiempo mínimo. No tendría ningún sentido hablar de conseguir tardar lo menos posible en llegar a un sitio si nuestro objetivo no es llegar a ese sitio. Si tenemos que explicar qué causa que el rayo pase por d, necesariamente tendremos que responder que es porque quiere llegar lo más rápidamente posible al punto B. No hay forma de dar una explicación sin mencionar B (invito al lector a que la intente).
  2. Y mucho más inquietante: para tardar el menor tiempo posible, el rayo de luz debería tener una información previa: la posición del punto B, la existencia de otro medio diferente al aire (en este caso el agua) y su distancia, el ángulo de refracción… De alguna forma, el rayo de luz debe disponer previamente de toda la información contenida en el dibujo y, en función de ella hacer ciertos cálculos para conseguir elegir la trayectoria de tiempo mínimo (y no cálculos ordinarios. Hace falta cálculo de variaciones)… ¿Sabe hacer estos cálculos el rayo de luz? ¿Sabe hacer un rayo de luz lo que el GPS de mi coche tarda varios segundos? Nótese que ni siquiera el rayo puede ir seleccionando su ruta sobre la marcha porque, necesariamente, si tiene que ir corrigiendo la trayectoria no elegiría exactamente la más rápida sino que siempre tendría algo de error. Sin embargo, “elige” con total precisión la más rápida,  por lo que toda la información y el cálculo de la trayectoria ha de realizarse antes de la emisión del rayo… ¿Cómo diablos puede ocurrir eso? ¿Como puedo saber yo el camino más rápido para ir a casa de mi abuela si antes no sé dónde está la casa de mi abuela y qué hay entre medias? ¿Y cómo un rayo puede saber nada?

Anuncios

causality

Escribí hace tiempo sobre la problemática filosófica en torno a la causalidad. Hoy quiero profundizar un poquito más. Voy a autocitarme para empezar a partir del ejemplo que puse en aquella ocasión.

El martes por la noche me preparo un té respetando escrupulosamente la nimia cantidad de calorías diarias que el régimen permite. Como tengo la nariz taponada no me doy cuenta que, cuando retiro la tetera, me dejo el gas encendido. Abro mi libro mientras me siento cómodamente en el sofá. Estoy leyendo la interesantísima última encíclica de Benedicto XVI: Caritas in Veritate. Leer algo tan magnífico me provoca un mono terrible y, como mi fuerza de voluntad es muy débil, claudico y enciendo un cigarrillo. La llama del mechero prende el gas y mi casa salta por los aires. Mi triste final me pilló leyendo una encíclica… quizá esto haga que San Pedro me deje entrar en el cielo.

¿Cuál fue la causa de la explosión? La respuesta más habitual sería apelar al gas y al cigarro encendido. Pero si pensamos un poquito más encontramos múltiples causas: si yo no hubiera tenido alergia habría podido oler el gas y quizá lo habría apagado a tiempo, por lo que la alergia también sería una causa; si yo hubiera conseguido dejar de fumar no habría encendido el pitillo, así que mi débil fuerza de voluntad también sería causa; si no estuviera dieta no me hubiera hecho un té y quizá habría comido un helado y no hubiera encendido el gas; y si no me gustara leer, en vez de sentarme en el sofá y encenderme un cigarro, quizá hubiera salido a dar una vuelta por el parque y nada de este trágico suceso habría ocurrido. Es más, rizando el rizo, podríamos decir que la causa es que el Papa hubiera escrito la encíclica, ya que si no lo hubiera hecho, quizá no me habría puesto a leer y no habría encendido el cigarro… ¡Ratzinger es el culpable de mi muerte! ¡Lo sabía!

El problema que planteaba era la dificultad decidir la causa que realmente había determinado el suceso o, en el fondo, la dificultad de definir correctamente la causalidad. En el resto del artículo critiqué la concepción de Hume, y expuse las teorías convencionalista y realista del tema. Al final, como en muchas ocasiones ya que soy un filósofo, dejé el asunto abierto. Aquí hoy voy a ser bueno y voy a dar una respuesta. Enumeremos de nuevo las propuestas:

  1. La concepción de Hume. El filósofo de Edimburgo entendía que decíamos que algo era causa de un efecto porque encontrábamos una proximidad temporal entre la causa el efecto, una prioridad temporal de la causa sobre el efecto y una unión constante. Sin embargo, tenemos excepciones para las tres condiciones: no tiene por qué haber proximidad temporal (causa y efecto pueden darse lejos en el tiempo), la causa no tiene por qué ir siempre antes que el efecto (puede ir a la vez o incluso después en los fenómenos de retrocausalidad) y la unión no tiene por qué ser constante (si encontramos un fenómeno que solo se da una vez en la historia del universo, no habría tal unión perpetua).
  2. La concepción convencionalista. Decidimos la causa a partir de un acuerdo o convención determinada por cada comunidad lingüística concreta. Si bien es cierto que hay algo de esto, la respuesta no es del todo concluyente porque resulta incompleta. Las convenciones lingüísticas no surgen de la nada, no están “flotando en el vacío” sin que nada las determine. Habrá causas de tales convenciones y, si no queremos caer en el relativismo lingüístico, tendremos que entender, al menos, por qué nuestra comunidad lingüística en concreto ha acordado definir causalidad de un determinado modo y no de otro. Lo haremos a continuación.
  3. La concepción realista. Decidimos la causa a partir de algo real que se transmite de la causa al efecto. Dada la física moderna, cuando se da un fenómeno causal se transmite energía y/o momentum. Desde una perspectiva puramente fisicalista de la realidad, como toda la naturaleza se reduce a materia y leyes físicas, esta definición sería muy adecuada. Sin embargo, ya sabéis que no soy muy amigo de los reduccionismos. Como dije en el artículo anterior si yo digo “Mi regalo causó mucha alegría a Laura”, explicar ese suceso desde la transmisión de energía parecería bastante incompleto e, incluso, algo absurdo.

Vamos ahora a ver otras dos nuevas concepciones de la causalidad. La última será la que defiende este humilde escritor:

  1. La concepción extra-ordinaria. Decidimos la causa cuando ésta nos parece sorprendente, es decir, cuando rompe el orden tradicional de los hechos, cuando encontramos un suceso anormal. Si pasa algo extraño, no previsto, decimos que es la causa. Así, no prestamos atención alguna a hechos tan cotidianos como que salga el sol todos los días, pero no pararemos de hablar de un terremoto sucedido en nuestra localidad. Esta explicación es bastante floja. Solo explicaría el acontecimiento psicológico de prestar mucha más atención a lo extraordinario que a lo ordinario. Sin embargo, si yo enciendo la lámpara de mi cuarto, tal y como hago cotidianamente todas las noches, diré igualmente que la luz se ha encendido porque yo he apretado el interruptor. Que una causa sea totalmente ordinaria y nada sorprendente, no quita que no sea una causa.
  2. La concepción pragmática. Solemos decidir que la causa de un fenómeno es aquella sobre la que tenemos algún tipo de control. Si pensamos en el ejemplo de la explosión del gas, nos parece que la causa primordial es que yo encendiera el cigarro ¿Por qué? Porque encender el cigarro es algo muy fácilmente controlable: yo podía haberlo encendido o no con el simple movimiento de apretar el botón del mechero. También sería una causa bastante válida decir que me dejé el gas abierto, ya que, igualmente, este olvido solo responde a abrir o cerrar la manilla del gas. Las demás causas como la presencia de oxígeno en la atmósfera, mi alergia, mi adicción al tabaco, mi dieta o mi gusto por el té son factores más imprecisos y menos controlables. Nunca solemos decir que un incendio se produce porque hay oxígeno en la atmósfera o porque las condiciones de temperatura y presión de la Tierra posibilitan la combustión. Son aspectos sobre los que no tenemos nada de control.

Evolucionamos para adaptarnos al medio y, por lo tanto, para percibir y comprender únicamente los fenómenos que podemos controlar. Sería un derroche de recursos que la evolución nos permitiera conocer perfectamente aspectos de la naturaleza con los que no podemos interactuar de ninguna manera. Así comprobamos como un científico, o mejor un ingeniero, expertos donde los hubiera en control de la realidad, nos pueden dar explicaciones causalmente mucho más ricas que las que podemos ofrecer las personas ordinarias. Cuando el motor de nuestro coche se avería, el mecánico nos puede dar una potente y precisa explicación causal: debido a que el circuito de refrigeración estaba sucio, el líquido refrigerante no llegó en suficiente cantidad al motor. La temperatura del cilindro ascendió muchísimo con lo que el pistón terminó por derretirse y soldarse con las paredes internas del cilindro. En cristiano, el coche ha gripado. Te va a costar una pasta.

Sería muy extraño que el mecánico te dijera que la causa está en que el etilenglicol (el componente fundamental del líquido de refrigeración) es un alcohol compuesto de hidrógeno y oxígeno, que son dos de los componentes más abundantes en el universo (sobre todo el primero). Si fueran más escasos, nuestro universo no existiría tal y como lo conocemos, por lo que jamás hubiésemos existido y nunca habríamos averiado nuestro coche. Esta explicación no sería causalmente muy válida ya que no tenemos control de ningún tipo sobre la presencia de elementos químicos del universo. El mecánico no puede hacer nada para arreglar nuestro coche a partir de esta explicación.

Entender bien la causalidad es mucho más importante de lo que, a priori, pudiese parecer. No se trata solo de una inútil cuestión filosófica. Es muy común ser muy malos a la hora de hacer atribuciones causales o, peor aún, jugar con su ambigüedad para engañar a un público. Por ejemplo, nos ahorraríamos mucho tiempo y dinero si nuestros políticos se ciñeran a explicaciones causales precisas y controlables al hablar de la realidad. Cuando para referirnos a las causas de la crisis hablamos de la codicia de los banqueros, del sistema capitalista, de la pérdida de valores morales de Occidente, de lo malvada o inepta que es la izquierda o la derecha política, no distamos mucho de la explicación absurda del mecánico con el etilenglicol. Si, por el contrario, hablásemos de causas precisas y controlables tendríamos el poder de modificar la realidad para solucionar nuestros problemas porque, precisamente, algo preciso y controlable es algo que se puede controlar con precisión.

Colaborando en Magnet

Publicado: 10 junio 2015 en Filosofía de la ciencia

Los editores de WegblogsSL se pusieron en contacto conmigo para pedir mi colaboración en un nuevo proyecto de revista digital. Les dije que sí sin dudarlo y aquí tenéis mi primer artículo allí. En él hago un recorrido histórico por las relaciones entre ciencia y filosofía, poniendo un tanto en duda la historia oficial del asunto, pasando por el caso Sokal, metiéndome un poquíto con los postmodernos y apostando, finalmente, por la Tercera Cultura.

La revista, además, tiene un montón de artículos interesantes. Os la recomiendo.

Magnet

Anoche encontré en la red este pequeño debate y me lo tragué. Para mi desilusión, encontré lo mismo que tantas veces he encontrado. Un defensor de la ciencia mal formado en un asunto que se ha dado esencialmente en el ámbito de la filosofía (entonces, mal formado en filosofía), repitiendo unos tópicos que se han puesto en duda desde hace ya bastantes años. Y es que quien no conoce la historia de la filosofía está condenado a repetirla. En el bando de los filósofos, dos tipos bastante más ilustrados y mejor informados, pero bastante pedantes (sobre todo, el señor Albiac) y que tienden a irse por los cerros de Úbeda y a hablar mucho y no dejar hablar (sobre todo, el señor Maestre). Vamos a repasar algunos puntos interesantes:

1. Jorge Alcalde comienza sosteniendo que el método científico es solo uno, por lo que solo hay una ciencia, mientras que filosofías hay tantas como filósofos, no constituyendo la filosofía un saber unificado. Con respecto a la filosofía, tiene razón, cada filósofo es una filosofía, pero con respecto a la ciencia, está defendiendo un mito. Por ejemplo, desde mi trabajo, los campos de la ciencia que más he estudiado son la biología, las neurociencias y la Inteligencia Artificial. ¿Constituyen estas tres ciencias un saber unificado, sin fisuras, fruto de la utilización de un mismo método? NO. La biología es un saber muy descriptivo encuadrado dentro del marco teórico del darwinismo, en el cual rara vez hay leyes del estilo de la física (de hecho, ha habido un fuerte debate acerca del estatuto científico de la misma biología). La neurociencia es un saber más experimental, pero muy ligado a la filosofía de la mente. Todos los grandes neurólogos hacen planteamientos totalmente filosóficos. Y la IA es un saber muy instrumental, muy ligado a la ingeniería, a la creación de software y máquinas, de modo que también hay debate acerca de si la IA es una ciencia o una tecnológica. Como vemos, en las mismas ciencias hay controversia sobre su mismo estatuto científico. Pero, ¿entonces no tienen nada en común? ¿Son saberes totalmente fragmentarios? NO. Sin llegar a Feyerabend, a la negación del método científico en cuanto a tal, a mi me gusta hablar de que las diferentes ciencias comparten un cierto ethos, unos ciertos hábitos o directrices epistemológicas. Todas ellas se preocupan mucho por la justificación de sus afirmaciones, siempre que sea posible desde un marco experimental. Intentan hacer afirmaciones generales que, al hacerse públicas, tengan la aprobación de la comunidad científica. Intentan ser muy rigurosas recurriendo a la precisión de las matemáticas: hacen modelos que puedan ser lo más predictivos posibles. Todo ello, insistimos, siempre que sea posible (que en mil ocasiones no lo es). Pero lo que no se puede afirmar de ningún modo es de que exista una sola ciencia. No existe la ciencia normal de la que hablaba Kuhn, un saber unificado claro, distinto y verdadero. Todas las teorías científicas nacen con muchos problemas. Todas ellas tienen lagunas, vacíos, dificultades para explicar ciertos fenómenos. El mismo darwinismo, base central de la biología, nació sin explicación alguna del origen de la vida, sin mecanismos de herencia (hasta la llegada de Mendel), sin suficiente evidencia experimental (el registro fósil en la época de Darwin era bastante más deficiente que el actual), de modo que el mismo Darwin murió defendiendo el lamarckismo con una teoría tan falsa como la pangénesis. Hoy en día el neodarwinismo explica muy bien algunas cosas, pero otras mucho peor (el famoso problema del gradualismo, por poner un ejemplo entre tantos otros), de modo que está en continua revisión. El mismo Mendel, si hoy viviera y contemplara lo que ha cambiado la genética desde que el la fundó, no la reconocería. La ciencia es muy dinámica y, precisamente, eso es lo que a mi juicio, le da fortaleza y la aleja del dogmatismo.

2. Pero es que el mismo Alcalde se contradice cuando para defender la humildad de la ciencia, ésta reconoce su falibilismo: lo que hoy se considera un saber certero dentro de tres siglos podría considerarse algo completamente falso. Si esto es así, ¿dónde queda la unidad de la ciencia? Habría entonces tantas ciencias como épocas históricas, casi lo mismo que pasa con la filosofía.

3. Después, Alcalde enuncia la vieja idea de que la ciencia ha ido comiendo terreno a la filosofía, de modo que temas antes clásicos de la filosofía son ahora campo propio de la ciencia. Alcalde no llega al final de este argumento, pero, en el fondo, lo que quiere decir es que en un hipotético fin de la historia, la ciencia habrá conquistado todo el terreno de la filosofía, dejándola como un saber obsoleto. Alcalde está repitiendo el esquema, propio del siglo XIX, de que la historia del conocimiento humano sigue tres fases: mito, filosofía y ciencia. Nada más anticuado y falso. Sí que es cierto que el conocimiento racional occidental surgió como oposición al mito (si bien en esto también hay controversia: ¿fue un paso repentino o gradual? ¿Se ha superado completamente el mito?), pero no puede entenderse que la ciencia surgiera por oposición y superación de la filosofía. Si estudiamos mínimamente la historia de la ciencia vemos como, en su surgimiento hasta el XIX, no hay una distinción entre ciencia y filosofía en el sentido de que la primera ha de oponerse y superar a la otra. Me gustaría que alguien me enseñara un texto de Galileo, Kepler, Euler, Pascal, Descartes, Bacon, Leibniz, Newton… en donde se vea este esquema positivista. Muchos de ellos plantearon la ciencia moderna por oposición, por ejemplo, a la escolástica o al aristotelismo, pero nunca en términos de ciencia versus filosofía, sino en términos de unas teorías viejas por otras nuevas. Se planteó un novum organum, pero no en términos positivistas. Hoy en día ciencia y filosofía se entremezclan tanto que es tremendamente difícil establecer un criterio de demarcación preciso entre ambas tal y como intentaron, y evidentemente fracasaron, los miembros del Círculo de Viena. Otra cosa es que exista una ciencia positivista (algo nefasto) y una filosofía acientífica (igualmente nefasta).

4. Nuestro defensor de la ciencia, también sugiere, poniendo el ejemplo de Hawking, que, a veces, los científicos dejan de serlo y se convierten en filósofos, pero, cuando lo hacen, cometen errores, pierden fuerza. Aunque tampoco lo diga directamente está sugiriendo que la ciencia es el ámbito del rigor y que la filosofía es algo especulativo en el peor sentido de la palabra: fantasía, fabulación, alejamiento de las pruebas empíricas… De nuevo una gran falsedad. Si uno lee algo de buena filosofía, cualquier clásico vale, se dará cuenta de que, precisamente, la filosofía se caracteriza por su rigor. Un buen filósofo no se cree nada, duda de todo y vuelve a dudar. Un buen filósofo pone cualquier idea a prueba una y otra vez. Alcalde confunde la filosofía con la mala filosofía. Existen muchos pseudofilósofos que solo dicen majaderías (me viene justo a la mente la figura de Jodorowsky, entre tantos otros), al igual que existen tantos otros pseudocientíficos. Hay buena ciencia y mala ciencia, al igual que hay buena filosofía y mala filosofía, pero desde luego, la ciencia natural no es la única poseedora del rigor.

5. Luego está el tema de la ideología. Albiac y Mestre insisten en que la ciencia se ha convertido en ideología, tal y como ya expuso Habermas hace ya algún tiempo. Es la idea clásica de la Escuela de Franckfurt. Es cierto en parte. En muchas discusiones uno termina la disputa diciendo que lo que afirma está respaldado por la ciencia, por lo que, necesariamente, es verdad. Yo recibo constantemente en mi Facebook noticias de estudios científicos que demuestran las más rocambolescas chorradas. El otro día recibí uno que sostenía que un estudio científico demostraba que los hombres que miran los pechos a las mujeres viven más años que el resto (si esto fuese cierto la mayoría de los hombres seríamos inmortales). Es decir, la ciencia se entiende en muchos casos como un saber infalible que nos dice la verdad de una vez por todas, como el juez supremo ante cualquier controversia. Falso. Como reconocía el mismo Alcalde, la ciencia es un saber tan falible como cualquier otro. Pero creo que, en este caso, la filosofía ha tendido a exagerar esta perspectiva. Hay un uso ideológico de la ciencia, está claro, pero eso no convierte a la ciencia en ideología. Si miras por un microscopio y ves bacterias, por mucho que, ideológicamente, no te interese ver bacterias, eso es lo que hay. Si quieres construir un misil al servicio de tus ideas políticas y no posees la ciencia ni la tecnología necesarias, no podrás construirlo por mucho que estés convencido de tu credo. Exagerar el carácter ideológico de la ciencia la termina por relativizar demasiado, y la iguala al mito. Ni tanto ni tan calvo.

6. Albiac y Mestre parecen estar de acuerdo en que la filosofía jamás da respuestas. Según ellos es una actividad que solo se encarga de problematizar, de poner en duda todo, de hacer más y más preguntas. Seguramente, esta actividad crítica es una de las más características de la filosofía y la que le ha dado más éxitos, pero no me parece convincente. Si miramos la historia de la filosofía, cada filósofo no solo ha creado interrogantes, sino que también ha dado respuestas. Cada corriente filosófica es un conjunto de respuestas a una serie de problemas. A mí me parecería un sinsentido que la filosofía solo fuera una generadora interminable de cuestiones sin, ni siquiera, intentar responderlas. No, la filosofía claro que da respuestas, pero son respuestas siempre parciales. En esta línea me gusta el perspectivismo de Ortega y Gasset: cada nueva filosofía es una nueva perspectiva, una nueva forma de mirar algo que, hasta entonces, no se había visto de esa forma. Sin embargo, como toda perspectiva, no alcanza a ver la totalidad del cuadro. Quizá no exista la perspectiva global, el “ojo de Dios”, que nos permita conocer la realidad en su plenitud, pero cada nueva forma de mirar enriquece nuestro saber en su conjunto. Cuando una filosofía intenta convencernos de que constituye esa perspectiva global, automáticamente sabremos que estamos ante algo falso, ante una intención totalizadora y dogmática (y, casi siempre, peligrosa). Sin embargo, en tanto que forma de mirar que reconoce su parcialidad, todas las buenas filosofías tienen algo de verdadero.

Waterart

Estos días, el magnífico Cuaderno de Cultura Científica está publicando varios artículos con la intención de clarificar el concepto de emergencia. Es un concepto importante porque de su aceptación o no, depende la renuncia al reduccionismo materialista o fisicalista. Si, realmente, existen propiedades emergentes en su sentido fuerte (propiedades que no pueden deducirse de ningún modo desde sus componentes básicos), el reduccionismo no tendría sentido alguno. Por el contrario, si no existen, todavía podría sostenerse el sueño materialista de poderlo explicar todo a partir de las partículas más elementales de la realidad.

Vamos a plantear el problema del siguiente modo. Una molécula de agua está compuesta por dos átomos de hidrógeno y uno de oxígeno. El agua tiene una serie de propiedades: es líquida en condiciones de temperatura y presión normales, es una gran disolvente, tiene un elevado índice de tensión superficial, hierve a los 100º C al nivel del mar, posee una conductividad eléctrica baja, una elevada entalpía de vaporización, etc. El hidrógeno es muy diferente al agua: es un gas, es muy inflamable y es no soluble en agua, aunque también es incoloro e inodoro. Y el oxígeno es otro gas, también incoloro e inodoro, pero con un enorme poder oxidante, buen comburente, paramagnético (en su forma habitual de dioxígeno), etc. Ambos átomos que componen el agua comparten ciertas propiedades con ella, pero, en general, son bastante diferentes.

Entonces, la cuestión emergente para químicos es la siguiente: sin haber enlazado nunca dos átomos de hidrógeno con uno de oxígeno, ¿es posible deducir, solo a partir de las propiedades del hidrógeno y del oxígeno, todas las propiedades del agua?

1. Si la respuesta es que sí, el reduccionismo materialista estaría de enhorabuena, ya que sería posible deducir todas las propiedades del nivel de organización molecular a partir del nivel atómico (haciendo la suposición, claro está, que si podemos deducir las propiedades del agua a partir del oxígeno y del hidrógeno, podremos deducir todas las propiedades de cualquier otra molécula a partir de sus átomos, cosa que podría no darse).

2. Si la respuesta es que no, las consecuencias son muchas. En principio, el reduccionismo materialista no pasaría su primer y más sencillo examen. Si no podemos, ni siquiera explicar el nivel molecular a partir del nivel atómico, ¿cómo pretendemos explicar niveles de organización mucho más complejos como el biológico, el social o el cultural? También quedaría clara la existencia de propiedades emergentes, pero además, en un sentido muy, muy fuerte, tal que podríamos afirmar que toda unión molecular de dos o más átomos contraerá propiedades no deducibles de las propiedades de sus átomos componentes. O dicho con todas las letras: toda propiedad molecular es una propiedad emergente en su sentido fuerte.

Mis sospechas van en la dirección de que la respuesta 2 es la correcta. Aquí, sencillamente he aplicado la doctrina de Hume al problema de la emergencia. El filósofo escocés decía que una cuestión de hecho (una verdad empírica) es imposible de deducir a priori. En nuestro ejemplo, es imposible saber las propiedades físicas del agua únicamente a partir de las propiedades del hidrógeno y del oxígeno, sin hacer el experimento de enlazar ambos átomos, es decir, sin comprobarlo a posteori. Expresado de otra manera: de las propiedades de un efecto, es imposible deducir propiedades de la causa sin haber observado previamente, mediante la experiencia, la unión entre la causa y el efecto. Por lo tanto, para Hume, toda propiedad que se da de unir una causa y un efecto sería una propiedad emergente en su sentido fuerte. De hecho, la única razón que tendríamos, sencillamente, para decir que de enlazar oxígeno e hidrógeno, obtenemos agua, es la experiencia pasada: en ocasiones anteriores, al unir un átomo de oxígeno con dos de hidrógeno, obtenemos agua. Sin la experiencia pasada no podríamos ni siquiera saber que tal unión da agua.

Así que, amigos químicos, la cuestión está lanzada: ¿es posible deducir las propiedades del agua únicamente a partir de las propiedades del oxígeno y del hidrógeno?

Algas-Micro-400x-500x375

Observo unas algas mediante un sencillo microscopio óptico. Allí están, las veo perfectamente, no tengo la menor duda. Estoy ante la observación de un hecho natural, algo que la mayoría de nosotros consideraríamos como contemplar la realidad objetiva, el mundo tal y como es. Pero es más, el hecho objetivo sirve como arbitro supremo para discriminar la veracidad de cualquier disputa. Es el lugar último al que recurrir para ver quién tiene la razón. No vamos a ninguna autoridad, a ningún libro sagrado ni a ningún sabio, vamos a los hechos y ellos nos muestran la verdad. ¿Es así de sencillo?

Con total contundencia, no. Para analizar la situación de un modo más completo, tenemos que girar nuestra mirada y, en vez de centrarla en el objeto, situarla en el instrumento de observación: el microscopio. En nuestro ejemplo, observábamos las algas mediante un microscopio óptico. Este instrumento funciona con un foco de luz que suele estar debajo de la muestra a observar, y una o varias lentes (si el microscopio fuera compuesto). La luz atraviesa el objeto (que tiene que ser parcialmente trasparente), y pasa por las lentes hasta llegar al ocular donde el ojo del observador ve la imagen. Estos artefactos suelen estar dotados de más elementos: un condensador que concentra la luz sobre el objeto, un diafragma que regula la cantidad de luz o un ocular que suele ampliar la imagen que viene de la lente principal. Además, según la calidad del instrumento, tendrá dispositivos para corregir las aberraciones cromáticas y geométricas que distorsionan la imagen. Es decir, para la construcción del instrumento de observación se requieren teorías científicas previas a la observación (en este caso toda una compleja teoría sobre el comportamiento de la luz) y bastante ingeniería (conocimientos prácticos sobre la fabricación y el uso del aparato). Entonces, cuando nos enfrentamos a un hecho natural, no lo captamos de un modo puro, tal y como se nos presenta en la realidad, sino que “ponemos” en la realidad toda una gran cantidad de teoría y de práctica cuando realizamos la observación. Algunos autores han llegado a decir que un microscopio es “una teoría en movimiento” y, en consecuencia, muchos otros han dicho que “los hechos están cargados teóricamente”.

Es por eso que Karl Popper, desde su falsacionismo, postuló que el método fundamental de la ciencia no era el inductivo, tal y como pensaban los intelectuales del Círculo de Viena, sino el hipotético-deductivo. Para que la ciencia funcionase inductivamente, deberían existir “hechos puros” que, al repetirse, fueran englobados dentro de una ley científica. Por ejemplo, cuando observamos una y otra vez que los objetos se atraen en función de su masa, englobamos toda una colección de hechos dentro de la ley de gravitación universal. Para Popper eso no ocurre así, ya que antes de coleccionar esos hechos, vamos a la realidad con una teoría y la ponemos a prueba en ella. Es decir, la teoría es siempre previa a los hechos. Nunca “vamos de vacío” a la realidad y ésta nos habla, sino que lo que nos habla es la misma teoría con la que vamos anteriormente a la realidad. En el ejemplo de la gravedad, conceptos como “masa”, “fuerza de atracción”, “aceleración”, etc. se “ponen” en la realidad para ver que nos dice ésta de ellos.

El filósofo canadiense Ian Hacking va a dar un giro más al asunto, insistiendo sobre todo, en el carácter práctico de la experimentación. Cuando observamos por el microscopio no solo tenemos una teoría previa, sino una gran cantidad de acción: primero, para fabricar el aparato y, segundo, para usarlo competentemente. Hacking incide en que la observación está cargada de práctica competente. La filosofía de la ciencia se había centrado demasiado en las controversias de la ciencia teórica, minusvalorado la ciencia experimental. Hay científicos que son grandes teóricos pero malos experimentadores y viceversa, pero parece que solo se valora la elaboración teórica cuando la experimental es igual o más importante si cabe. Los científicos son practitionners, un tipo especial de artesanos que “construyen preguntas” para “fabricar respuestas”. Los hechos están cargados de práctica, y esta práctica es previa a cualquier enunciación teórica.

Pero es mas, Hacking defiende la irreductibilidad de los hechos a enunciados puramente observacionales. Cuando utilizamos el lenguaje para describir un hecho, perdemos mucha información, precisamente, la información que expresa la práctica realizada para la observación. Por ejemplo, si al observar algas mediante el microscopio enunciamos “Las algas son verdes”, estamos omitiendo todo el trabajo práctico necesario para saber que las algas son verdes. Es exactamente igual que cuando montamos en bicicleta: tenemos un excelente conocimiento acerca de como montar, pero este conocimiento técnico es difícilmente transcribible a enunciados puramente lingüísticos. Prueben si no a intentar enseñar a un niño a montar solamente mediante un manual de instrucciones.  Es el famoso problema de los ingenieros de IA para trasladar el conocimiento de un experto a un computador. Gran parte del conocimiento del especialista no es puramente teórico ni está basado en reglas fijas.

Y aún más. Para demostrar sus tesis Hacking hace un pormenorizado estudio de la historia de los microscopios, de la cual vamos a sacar varias tesis bastante significativas:

1. Las revoluciones científicas se dan más en el ámbito técnico que en el teórico. El descubrimiento de un nuevo aparato de observación supone una revolución técnico-conceptual, casi siempre, mucho más importante que un avance puramente teórico. Pensemos, por poner un ejemplo de nuestra propia cosecha, en la convulsión que ha supuesto para todas las ciencias la invención del ordenador.

2. El método de la ciencia no es el inductivo, pero tampoco el hipotético-deductivo de Popper. Según Hacking, los científicos rara vez utilizan los instrumentos para verificar hipótesis, sino para crear nuevos hechos. Cuando se inventa un nuevo tipo de microscopio lo que se pretende conseguir es observar algo que antes no se podía observar, es decir, conseguir desvelar un nuevo campo de observación, una nueva categoría de hechos científicos. La ciencia es un sistema para crear y transformar la realidad, no para contemplarla y entenderla.

3. A pesar de lo que pudiera parecer visto lo visto, Hacking no es un constructivista radical del estilo de Latour, Collins o Woolgar. No cree que la ciencia es una construcción socio-cultural independiente de la realidad y, por lo tanto, equivalente al mito o a la religión. Y es que, en un contexto bastante poco propicio, saca un argumento en defensa del realismo y la objetividad: a pesar de utilizar instrumentos de muy diferentes características tecnológicas (microscopio por fluorescencias, de contraste de fase, acústico, de rayos X, ect.) los resultados de la observación siguen los mismos patrones al visualizar el mismo objeto. No hay contradicción alguna entre lo que observamos desde un simple microscopio óptico y uno electrónico de barrido, a pesar de ser máquinas técnicamente muy diferentes y basarse en principios teóricos heterogéneos. Las representaciones resultantes son artificialmente construidas pero coinciden. Además, esta coincidencia es previa a cualquier enunciación teórica. De nuevo, al igual que en Círculo de Viena, tenemos “hechos puros” previos a la teoría que salvaguardan la objetividad y el realismo de la ciencia. Aunque más que hechos, serían representaciones artificiales fruto de hábiles prácticas.

Ian Hacking

1847288_3_ff90_bruno-latour-en-avril-2010-a-paris_2ce7d3ddb18cc91d8bc2c135a66b296c

La historia de la Filosofía de la Ciencia va a llenarse, a partir de los años 70 del pasado siglo, de una pléyade de estudios sobre el quehacer rutinario de los científicos. Con su cuaderno de campo en mano, sociólogos y antropólogos, se plantaban dentro de los laboratorios y anotaban hasta el más mínimo detalle de la vida de los investigadores. El planteamiento era bueno: si queremos saber qué es la ciencia, no solo hay que estudiar las teorías (que es lo único que se había debatido hasta entonces), sino cómo se generan. Parece que si solo estudiamos los resultados, nos estamos quedando sin una parte, quizá importante, de la historia. Estudiemos entonces el origen, la génesis de la ciencia en directo: el laboratorio en acción. Pero además, hagámoslo al estilo Malinowski, cual antropólogo del XIX, pisando las playas vírgenes de Papúa y acechando desde las sombras a los nativos. Había que entender al científico como a un salvaje haciendo extraños rituales. Solo tomando esa distancia, haciendo extraño lo cotidiano, podemos eliminar todos nuestros sesgos y prejuicios. A veces, nos ocurre que hemos pasado mil veces por una calle cercana a nuestra casa y no hemos notado nada peculiar. De repente, un visitante extranjero pasa por allí la primera vez y cae en la cuenta de un hermoso relieve encima del dintel de un portal. ¿Cómo es que no lo vimos si pasamos mil veces por ahí? Porque la costumbre, la familiaridad, el hábito nos ciega. Por eso, para ver más, hay que comportarse como un extranjero en nuestra propia ciudad. Para saber cómo funciona la ciencia hay que ser un extraterrestre, un absoluto ignorante de la labor que en un laboratorio se realiza. Así que cuanto menos sepa nuestro antropólogo de ciencia, mejor.

Los resultados fueron, en muchas ocasiones bastante interesantes, pero el problema estuvo en que ciertas tesis se radicalizaron. Como el antropólogo suele entender todo suceso social como fruto de la cultura que estudia, se entendieron conceptos como realidad, racionalidad, verdad, etc. estrictamente como construcciones culturales o sociales. Por ejemplo, Harry Collins, uno de los máximos representantes del EPOR (Empirical Programme of Relativism), afirmaba que a la hora de explicar cualquier aspecto de la ciencia había que evitar las explicaciones de tipo TRASP (que apelaran a la verdad (Truth), racionalidad (RAtionality), éxito (Success) o progreso (Progress)). Los conceptos fundamentales para diferenciar que una teoría falsa de otra verdadera se terminan por entender en términos de construcción social, y entender algo como construcción social es decir que ese algo está sujeto a las particularidades de una sociedad y de un momento histórico, es decir, es relativizar lo que se pretende explicar. Nuestras teorías científicas más contrastadas empíricamente no serían más que pormenores históricos que hubieran sido bien diferentes si se hubieran dado en otra cultura o momento diferentes.

Bruno Latour y Steve Woolgar llegaban a afirmar que el laboratorio científico era un sistema social de construcción de hechos. Pensemos bien en esta afirmación: los científicos, a la hora de elaborar sus teorías acerca de la realidad, lo que realmente hacen es crear, construir, inventar esa realidad. El laboratorio es un generador ontológico de mundos. La luna existe como un satélite que gira alrededor de la Tierra solo porque unos astrónomos construyeron socialmente este hecho. Pero la radicalidad de sus postulados no queda aquí. Leamos el siguiente texto:

El resultado de la construcción de un hecho es que aparece como no construido por nadie; el resultado de la persuasión retórica, en el campo agnóstico en el que los participantes están convencidos de estar, es que los participantes están convencidos de que no han sido convencidos; el resultado de la materialización es que la gente puede jurar que las consideraciones materiales son sólo componentes menores de los ‘procesos de pensamiento’; el resultado de las inversiones en credibilidad es que los participantes pueden afirmar que la economía y las creencias no tienen relación alguna con la solidez de la ciencia; en cuanto a las circunstancias, simplemente desaparecen de los protocolos finales, siendo preferible dejarlas para un análisis político que tenerlas en cuenta a la hora de valorar el duro y sólido mundo de los hechos.

Latour y Woolgar, Laboratory Life. Citado por Javier Echeverría en Filosofía de la Ciencia.

La idea, por su violencia, me parece genial: el laboratorio es un lugar donde, no solo se inventan hechos, sino que se borra cualquier rastro de su creación, se persuade a sus artífices de que lo que han creado no ha sido creado sino tan solo descubierto. La ciencia sería algo así como una gran maquinaría de lavado de cerebros para hacer creer a sus protagonistas que están descubriendo la auténtica realidad cuando, en el fondo, solo serían algo así como unos poetas ontológicos.

exposiciones+matadero+madrid

Tres métodos jerarquizados de obtención de conocimiento:

1. Observación: contemplo a un organismo, analizo su conducta en su entorno natural, lo capturo y lo disecciono, contemplo sus partes y analizo su funcionamiento.

2. Experimentación: violento su comportamiento natural. Expongo al organismo a situaciones o conductas no naturales que me lleven a la respuesta a una hipótesis previa. El experimento es una observación controlada que pretende solucionar un problema muy concreto. Me permite precisar, conducir mi investigación hacia conocimientos muy concretos.

3. Simulación: emulo en un computador el comportamiento del organismo a estudiar. Las ventajas de la simulación sobre la observación y la experimentación, son las dos siguientes:

a) Para saber simular el comportamiento del organismo eficazmente he de saber qué es lo que tengo que simular, por lo que para empezar la simulación, he de conocer los parámetros esenciales que permiten copiar su conducta. Si pretendo, por ejemplo, emular la locomoción de un perro, he de tener un conocimiento detallado de las medidas y volúmenes de sus patas y demás partes de su cuerpo. Igualmente, de sus articulaciones, sus ángulos de giro, su resistencia al peso y a la fractura. También me hará falta conocer las propiedades del entorno: gravedad, coeficiente de resistencia del terreno, condiciones ambientales, etc. Al probar la simulación y ver si se consigue con éxito o no, puedo descubrir factores que se me habían escapado. A lo mejor no tuve en cuenta los factores aerodinámicos del diseño del animal y eso provocaba que la simulación fuese muy imperfecta. El mero hecho de conseguir una simulación correcta ya es una enorme fuente de conocimiento.

b) La simulación me permite elevar a la enésima potencia el poder de la experimentación. Si tengo una buena simulación, puedo exponerla a un número indefinido de situaciones diferentes que me permitan obtener mucho más conocimiento sobre ella. Un experimento necesita del objeto real y, en muchas ocasiones, de un laborioso trabajo que exige tiempo y dinero. Incluso hay experimentos que se tardan vidas en concluir: ¿cuáles son los efectos de ciertas sustancias tóxicas en humanos a largo plazo? Ese largo plazo pueden ser treinta o cuarenta años. Sin embargo, la simulación, al “prescindir de la realidad”, es sumamente barata en tiempo y coste. Para hacer experimentos sobre la locomoción del perro (una vez concluida una buena simulación) ya no necesito perros. Con relativamente poco esfuerzo puedo simular a millones de perros moviéndose por la más diversa cantidad de entornos imaginables. Solo necesito capacidad de computación y un software adecuado. Puedo, incluso, diseñar sistemas de locomoción diferentes a los reales, probar a perros con tres o seis patas, a perros obesos, con cuellos de jirafa o aletas en vez de patas. Puedo saber qué pasaría si un perro corriera por la superficie de la luna o de Venus sin el enorme coste de llevar a un perro en un viaje espacial hasta allí. Todo esto no lo permite la mera experimentación y el abanico de posibilidades abierto es inabarcable.

La simulación computerizada es el mayor aporte que la revolución informática ha dado a la ciencia, tanto que constituye un nuevo capítulo de la metodología científica, de tal modo que parece que, a día de hoy, ninguna rama de la ciencia puede avanzar sin ella.

Las ciencias se comportan conforme al esquema siguiente: si queremos conocer el funcionamiento de un reloj, no nos preguntamos si hay bacterias sobre sus engranajes o péndulos; el hecho de su presencia no tiene la menor importancia para la construcción y  la cinética de su mecanismo. ¡Las bacterias no pueden influir en la marcha de un reloj! Asimismo se pensaba entonces que los seres racionales no podían inmiscuirse en el funcionamiento del mecanismo cósmico, en cuya investigación debía ignorarse por completo su eventual presencia.

Con esta bella metáfora, Stanislaw Lem nos quiere mostrar la idea de inconmensurabilidad (tan presente en su obra), de incomunicación o si se quiere, de cierre categorial, entre la física y la biología. Efectivamente, la primera gran cosmovisión del Universo fue la aristotélica, de corte eminentemente biologicista (y es que los griegos no tenían máquinas, ni les importaba demasiado construirlas) y la segunda, la newtoniana, estrictamente fisicalista (propia del culto a la máquina de la Ilustración). Necesariamente, Newton tuvo que machacar a Aristóteles, puesto que, volvemos a la metáfora de Lem, en un gran reloj cósmico no hay lugar para bacterias. ¿Qué tiene que ver un bacilococo con la máquina de vapor de Newcomen? ¿Acaso influye la mitosis celular en la presión de las calderas que hacen funcionar el ferrocarril que lleva mis productos de Manchester a Londres y que, a la postre, me hará rico?

Y entonces llegó Schrödinger y se hizo la luz.  Un grandísimo físico aficionado a la biología intenta explicar el funcionamiento de los seres vivos en términos de dinámica de partículas. Los biólogos experimentan un profundo escalofrío en sus entrañas y todo cambia. Ahora, explicamos el funcionamiento de la célula en términos mecanicistas (hablamos a menudo de “maquinaria celular” y el interior del citoplasma no nos parece demasiado alejado de una gran factoría). La intención de Schrödinger, como la de todo buen vienés de la primera mitad del XX, era reduccionista: la física como el saber último que todo ha de explicar. Sin embargo, yo creo que su hazaña tuvo efectos no deseados contrarios a tal propósito: unió dos disciplinas casi antagónicas sin conseguir reducir la una a la otra. Únicamente ofreció una nueva visión para los biólogos que iluminó campos antes oscuros. Schrödinger no consigue explicar del todo qué es la vida (ni desde luego, su todavía misterioso origen), solo nos da ciertas descripciones de su funcionamiento: ese desequilibrio termodinámico generador de orden en un universo entrópico. Si se quiere, Schrödinger amplifica más el misterio: ¿por qué en un cosmos que tiende al desorden aparecen unos organismos empecinados en llevarle la contraria?

No creo en la inconmensurabilidad radical entre teorías ni disciplinas. Es más, precisamente, creo que lo realmente interesante, las grandes revoluciones que conmocionan el pensamiento, se dan cuando alguien mete el hocico en un campo que no es el suyo, cuando dos paradigmas irreconciliables se tocan. Lo interesante ocurre siempre en las fronteras, nunca en el pacífico centro. Es posible que las bacterias se dediquen a corroer los oxidados engranajes del reloj.

Una de las ideas de la historia de la ciencia que más me impactaron cuando conseguí entenderla bien (si es que aún hoy la entiendo del todo bien) es el principio de relatividad galileano, formulado por Newton en su segunda ley del movimiento. La ley newtoniana dice así: todo objeto está en movimiento o en reposo a no ser que se ejerza una fuerza sobre él. Aparentemente no parece gran cosa para el lego en historia de la física, pero es una frase altamente revolucionaria. Aristóteles pensaba, con su habitual sentido común, que el estado natural de un objeto era el reposo. Cuando observamos la naturaleza los objetos parecen estar quietos a no ser que algún tipo de fuerza los mueva. Cuando esa fuerza deja de ejercer su acción el objeto deja lentamente de moverse hasta quedar de nuevo quieto. Con esta idea se vivió desde la Grecia clásica hasta el Renacimiento, hasta que llegó la egregia mente de Galileo Galilei.

El experimento es bien sencillo, tan trivial que parece imposible que a nadie se le ocurriera hacerlo antes. Si observamos un barco en movimiento y lanzamos un objeto desde su mástil, su trayectoria variará en función de donde esté situado el observador. Si somos un marinero que está dentro del barco veremos que el objeto tiene una trayectoria rectilínea desde lo alto del mástil hasta la cubierta. Sin embargo, si somos Galileo y observamos el mismo movimiento desde nuestro telescopio en tierra firme, veremos que hace una curva acompañando el movimiento del barco. Es algo trivial pero que tiene que hacer rechinar nuestras neuronas: ¿cómo es posible que el mismo movimiento tenga dos trayectorias distintas? Parece que algo o se mueve en línea recta o lo hace siguiendo una curva pero… ¿ambas a la vez? ¡No puede ser!

´+Relatividad de Galileo

La conclusión es alucinante: no existe ninguna trayectoria “real”, absoluta, válida para todos los observadores posibles, sino que hay tantas trayectorias como observadores, y si pensamos que podrían existir un número indeterminado de posiciones y velocidades desde las que observar… ¡hay infinitas trayectorias posibles! Infinitos galileos situados en infinitas posiciones diferentes observarían trayectorias distintas.

La importancia de este hallazgo es capital pues suponía un durísimo golpe a la física aristotélica. Como para el griego existían el movimiento y el reposo absolutos, para mover el mundo eran necesarios un montón de motores que transmitían por contacto (evidentemente, desconocía las fuerzas a distancia como la gravedad) el movimiento a cada móvil existente. En su compleja cosmología, existían un montón de esferas de éter que envolvían el universo y se movían unas a otras hasta llegar a Dios, al motor inmóvil, aquella fuerza absoluta que movía sin moverse ni ser movida. Cuando Galileo formula su principio todo esto salta por los los aires. No existe un motor absoluto porque el movimiento no es objetivo, es relativo a cada observador. Si, por ejemplo, todo el universo estuviera constituido por una serie de objetos que se mueven en la misma dirección a la misma velocidad, nadie podría afirmar, siendo uno de esos móviles, si algo se mueve o todo está quieto. Sencillamente, en ese universo, no existiría el concepto de movimiento. De la misma forma, en un universo en el que solo existiera un objeto, tampoco podría decirse si está en movimiento o reposo, pues no habría ningún observador externo, ningún punto de referencia desde el que juzgar la trayectoria. Y es que el movimiento no es una propiedad del objeto, no puede explicarse apelando únicamente al objeto móvil, sino que hace falta un mínimo de un segundo objeto que, además mantenga una dirección o velocidad diferentes con respecto al primero, para poder hablar de movimiento. Por eso podemos volver a insistir en la necesidad de basar nuestro conocimiento en una ontología de relaciones más que en una ontología objetualista. El movimiento es una relación, no una propiedad objetiva.

El concepto fundamental de la madre de todas las ciencias, aquella que pretende reducirlo todo a sus leyes, el concepto de movimiento, es relativo, es subjetivo. Pero, precaución amigo conductor, subjetivo no quiere decir “construido culturalmente por el individuo”, ni “creado o inventado” o “una mera idea en la mente de alguien”. El movimiento es real: un hombre del siglo XII, un masái, y yo observamos la misma trayectoria que Galileo siempre que estemos en su mismo lugar. El movimiento es perfectamente real y objetivo en el sentido de externo a nosotros, solo que es algo que solo existe en relación con otros objetos, no por sí mismo. Simplemente (o no tan simplemente), la cuestión reside en cambiar la perspectiva ontológica.

Pero no todo está perdido para los teístas nostálgicos de Aristóteles. Podríamos volver a apelar al ojo de Sauron: podría existir un centro del Universo, un lugar privilegiado desde el que observar la totalidad de lo real y, por lo tanto, poder determinar el movimiento y el reposo. Dios volvería a ser la percepción absoluta, el ojo que todo lo ve y que da objetividad a  la realidad. Todas nuestras observaciones de trayectorias serían erróneas ya que nosotros no estamos situados en el lugar de Dios. Sólo Él sabría cuál es el movimiento correcto de cada móvil. Berkeley podría no estar tan desencaminado como pudiera parecer (como pasa con todos los filósofos clásicos cuando se los estudia bien). No obstante, para mí todo eso es un mito: centro del universo, observador absoluto, motor inmóvil, causa incausada, idea de bien de la que todo emana… verdad absoluta, a fin de cuentas, no son más que diversas formas de representar ese anhelo humano de saberlo todo, de llegar al hegeliano fin de la historia. Mitos de la razón, al fin y al cabo.