Posts etiquetados ‘Mario Bunge’

La ciencia en cuestión

En vista de la reciente publicación del libro de Antonio Diéguez La Ciencia en Cuestión (libro que aún no he leído pero que está ya encargado), vamos a hablar un poco de Filosofía de la Ciencia, tema que hace mucho que no tocábamos en el blog. Además, vamos a entrar por la puerta grande con la nada pretenciosa intención de intentar definir la ciencia, asunto que, como no podía ser de otro modo, ha sido central en la disciplina. Y es que cuando la Filosofía se encarga de un campo concreto de estudio, la definición de dicho campo se convierte automáticamente en irresoluble objeto de controversia.

Usualmente, la ciencia ha sido definida (solo a nivel epistemológico, no hablaremos aquí de la ciencia como institución) como un modo de obtención de conocimiento que, prácticamente, equivalía al método científico, siendo éste, esencialmente, el método de la Física. En este sentido, se ligó la ciencia al concepto de ley física en su sentido más básico: enunciado general inferido a través de una colección de datos particulares (es decir, como inducción). Esta concepción, propia del Círculo de Viena, trajo consigo el problema de la demarcación, cuyas conclusiones fueron muy claras: la dificultad de establecer una frontera rígida entre lo que es ciencia y lo que no es, es insalvable (Incluso para algunos como Larry Laudan, es un muy poco fructífero pseudoproblema). Si aplicamos un criterio de verificación estricto, dejamos fuera de la ciencia una gran cantidad de conocimiento asumido tradicionalmente como ciencia de pleno derecho; y si lo abrimos demasiado, se nos puede colar como ciencia mucho contenido que, igualmente, no muchos estarían dispuestos a aceptar como científico.

Situar como ideal, como canon a seguir, el método de la Física, dejaba en serios problemas a un montón de disciplinas cuyo quehacer habitual distaba mucho del de la investigación física. Entre las ciencias naturales clásicas, la Biología se pone en duda al carecer de un corpus legal tan sólido como el de la Física, lo cual no deja de ser paradójico: la Biología, después de triunfar atronadoramente en los últimos siglos, primero con la teoría de la evolución y, segundo, con la genética, se pone en duda como ciencia.

Del mismo modo, se ahonda la brecha entre ciencias y letras, cuando, evidentemente, los saberes humanísticos no usan una metodología que tenga parecido alguno a lo que se hace en un laboratorio de física. Entonces, ¿es la Historia una pseudociencia, es decir, pura y dura charlatanería? ¿La Filología, el Arte, la Filosofía? Y lo que es más grave, si no existe criterio de demarcación alguna llegamos a un todo vale en el que cualquier pseudociencia puede colarse como ciencia auténtica, no ya fuera del campo académico (como puede ser la homeopatía o la astrología), sino dentro de la misma universidad, tal y como evidenciaron Sokal y Bricmont y que, afortunadamente, llevó a un profundo debate sobre el tema.

Creo que hay una forma de aproximarse a este problema, definiendo la ciencia y no aludiendo al método científico, que además nos llevaría a una interminable discusión acerca de en qué consiste ese método (que podría hacernos llegar incluso a la postura radical de Feyerabend: no existe ningún método científico), sino aludiendo a algo más abierto: establecer una serie de criterios, protocolos, prácticas o directrices que consideraríamos deseables para considerar una teoría científica. Sería establecer una serie de ítems de forma bastante débil: ninguno de ellos va a ser una condición necesaria ni suficiente para determinar de modo inexorable la cientificidad de una teoría, pero que, en su conjunto, pueden llevarnos a apostar por ello o, como mínimo, a ponderar de modo razonable la cientificidad de una teoría.

Hay que entender que decir que algo es ciencia, no es más que hacer una valoración, un juicio axiológico, porque los ítems que vamos a proponer no son más que valores cognoscitivos, es decir, una serie de cualidades que, si son poseídas por una teoría, la consideramos valiosa. Nada más. No hay nada en estas valoraciones que nos diga que estamos ante la verdad absoluta ni que hayamos captado el ser o la auténtica realidad en sentido metafísico. Solo estaríamos aceptando la validez de una implicación: si aceptamos como valiosos una serie de valores cognitivos (propios de la tradición occidental como veremos a continuación), y una teoría los posee, entonces dicha teoría será valiosa, es decir, científica.

Protocolos o valores cognoscitivos:

  1. Contacto con la realidad. Evidentemente, es el protocolo más importante, en el sentido de que su incumplimiento total invalidaría cualquier otro (¿para qué querríamos una teoría que no habla de la realidad por muy original o matemáticamente elegante que fuera?), sin embargo, establecer en qué consiste se antoja problemático ya que el mismo concepto de realidad lo es, siendo este tema uno de los centrales en la historia de la filosofía. Reconociendo el problema estableceremos (tal y como hizo Popper) que el contacto con la realidad de una teoría se puede abordar como una cuestión de grado, midiendo una serie de indicadores que puedan decirnos el contenido empírico de una teoría. Dentro de este protocolo vemos significativos otros dos más:

            – Metrización y medición de la realidad: una ciencia ha de ser capaz de delimitar con la mayor precisión posible su objeto de estudio e intentar establecer instrumentos que permitan obtener de él la mayor cantidad y calidad de conocimiento posible. En este sentido se considerará muy valioso que una teoría sea capaz de medir aspectos de la realidad que no hayan sido medidos. Se entenderá una de las conquistas de la ciencia como una progresiva metrización de la realidad. La creación de nuevas unidades de medida y su integración coherente con los sistemas de medición ya conocidos será considerado como muy valioso. Del mismo sentido y como veremos más adelante (en el protocolo 9) la teoría debería permitir o favorecer el descubrimiento de nuevos fenómenos, es decir, estar abierta a la novedad, en vez de cerrada o completa.

            – Preocupación por los instrumentos de observación y medición: una disciplina que se precie de científica debería tener una subdisciplina dedicada a sus propios instrumentos  y herramientas orientada en dos sentidos: uno positivo como una mejora de los instrumentos y otro negativo como un cuestionamiento de la validez obtenida a través de susodichas herramientas. El filósofo de la ciencia canadiense Ian Hacking subraya que la historia de la ciencia no suele caer en la cuenta de la importancia de los instrumentos, entendiendo él que todas las revoluciones de la ciencia han sido, esencialmente, revoluciones en los instrumentos de observación. Es más, sostiene que la propia observación está cargada de práctica competente, es decir, de buen uso en la fabricación y uso de los medios de observación.

  1. Capacidad predictiva. Es una forma muy sugerente de escapar del problema de tener que definir contacto con la realidad, ya que podemos decir de modo muy razonable que si una teoría predice lo que va a ocurrir será porque, precisamente, habla de la realidad ¿Podríamos, no obstante, tener una teoría que pronosticara correctamente el futuro y que fuera falsa? Perfectamente: es el problema de la subdeterminación de teorías: hay infinitas teorías que pueden satisfacer cualquier serie de hechos (la creencia de Bacon de que la realidad nos daría sus fórmulas matemáticas con solo observarla y recoger datos inductivamente, es un mito), que además se complementa perfectamente con la infradeterminación de teorías de Duhem-Quine: cuando refutamos una hipótesis mediante verificación experimental no refutamos la hipótesis de un modo aislado, sino que también refutamos una serie de hipótesis auxiliares, de modo que siempre podemos mantener la hipótesis principal realizando modificaciones en las hipótesis auxiliares de forma indefinida. Sin embargo, la capacidad predictiva puede, al menos, dividir las teorías que la tienen de las que no. De nuevo, siguiendo a Popper, una teoría que dé lugar a hipótesis arriesgadas (con muchos falsadores posibles) pero verificadas experimentalmente, es un signo de que estamos ante una teoría científica. O, dicho de otro modo, parece deseable para una teoría tener una estructura que permita su falsación, es decir, que establezca con claridad qué condiciones deben darse para que la hipótesis sea considerada como falsa.
  2. Coherencia lógica: De forma muy patente, deberíamos descartar cualquier teoría de cuyas proposiciones pueda inferirse una contradicción. Del mismo modo, se buscará que la teoría sea, igualmente, coherente con otras ciencias cuyo estatuto científico ya haya sido validado. Una teoría aislada, incoherente con el resto de ciencias, será sospechosa de considerarse pseudociencia. Como magistralmente nos muestra Mario Bunge, eso ocurre con el psicoanálisis.
  3. Potencia explicativa: una teoría será tanto más científica cuanto más hechos describa o pronostique. Ha parecido siempre como objetivo del saber humano, desde sus inicios en la antigua Jonia, explicar toda la realidad a partir de un único principio, de una única explicación. Tales intentaba buscar el arkhé de la physis y, siguiendo ese mismo proyecto, Newton triunfó rotundamente al explicar todo el movimiento del universo (a escala cósmica) a partir de una única ley, la de gravitación.
  4. Elegancia matemática: una teoría será tanto más científica cuanto más simple sea en el sentido ockhamista del término: entia non sunt multiplicanda praeter necesitatem. Igual que es deseable el alto contenido empírico, en el campo teórico pasa lo contrario: es deseable el máximo adelgazamiento.
  5. Acumulación de conocimiento. Consideraremos positivo para un cuórum teórico el hecho de que los conocimientos anteriores en el tiempo, perduren con el mismo grado de validez que los nuevos conocimientos. No sería aceptable la constancia plena de provisionalidad en el sentido expresado por la visión del avance científico de la obra de Kuhn. Si el conocimiento científico es un conjunto de paradigmas inconmensurables que se suceden en el tiempo, caemos en un inaceptable relativismo histórico que invalidaría automáticamente cualquier adquisición de nuevo conocimiento. A fortiori, parece absurdo aceptar como verdadero un conocimiento que sabemos, a ciencia cierta, que va a ser sustituido por otro diferente (radicalmente diferente, inconmensurable).
  6. Capacidad crítica. Es muy deseable que una teoría tenga mecanismos de revisión que permitan una constante alerta ante el error, ya sea a nivel epistemológico como a nivel institucional (por ejemplo, la clásica revisión por pares de las ciencias naturales, a pesar de sus problemas, constituye el ejemplo por antonomasia). Así, consideraríamos como más científica una teoría que posee mecanismos de autorrevisión y corrección.
  7. Aplicabilidad técnica: una teoría será más científica cuántas más cosas puedan hacerse con ella, o dicho de otro modo, cuantas más aplicaciones técnicas o tecnológicas puedan desarrollarse a partir de ella; y, lógicamente, cuántas más de esas aplicaciones sean verdaderamente útiles para los fines de nuestra sociedad. Nótese que aquí estoy menoscabando la ciencia base o la ciencia más teórica, sí, pero es que me parece obvio que una ciencia es más valiosa si nos vale para algo. No será lo mismo una demostración matemática que resuelve un enigma lógico casi como por divertimento, como podría ser refutar una variante de una apertura de ajedrez, que una investigación para la cura de una determinada enfermedad.
  8. Proyección futura: siguiendo la visión del progreso científico de Lakatos, un ítem de cientificidad podría ser establecer si la teoría constituye un programa de investigación progresivo o degenerativo. Un programa progresivo será el que es capaz de proporcionar una heurística positiva y negativa, en el sentido en que permita nuevos descubrimientos proporcionando unas directrices de lo que se debe o no hacer, de qué caminos hay que seguir y qué caminos parece que están agotados.

Creo que, aunque si somos sutiles, podríamos encontrar teorías científicas que puntuaran muy bajo en este conjunto de ítems, su aplicación serviría para diferenciar con claridad meridiana la ciencia de las clásicas pseudociencias: creo que la astrología, frenología, numerología, quiropráctica, iridología, ufología, etc. se diferenciarían muy bien de las ciencias clásicas.

Por otro lado, las humanidades no deberían, en términos generales, ser examinadas con estos ítems porque muchas de las disciplinas tradicionalmente clasificadas como «de letras» no son ciencias, sin que esto les quite un ápice de valor. Por ejemplo, las artes no pueden ser evaluadas como ciencias porque no tienen nada que ver con ellas: ¿Hay algo de aplicabilidad técnica, coherencia lógica o capacidad predictiva en una sinfonía de Bach o en un cuadro de Velázquez? ¿Y eso les resta valor?

Cartel ciencia

Esta entrada continúa a esta otra. Se trata de enumerar cosas cognitivas que me parecen interesantes.

Glitch: se dice de un error de programación que se expresa en un videojuego pero que no afecta a ningún aspecto importante de éste, de modo que puede entenderse no como un fallo, sino más bien como una característica no prevista. Me resulta muy poético pensar que lo que realmente nos gusta de las otras personas no son sus perfecciones, sus virtudes programadas en su código fuente; quizá nos gustan más sus glitchs, sus defectos no letales, sus defectos que incluso configuran otras partes virtuosas de su forma de ser. Por ejemplo, recuerdo a una antigua alumna que tenía una nariz muy aguileña con una leve giba. Objetivamente, extirpando esa nariz de su cara y observándola, era una nariz muy fea. Sin embargo, en su cara, en su cuerpo, en la totalidad que era ser ella, esa nariz no era nada fea. De hecho, la chica era muy atractiva. Años después, cuando volví a verla casi no la reconocí. Se había operado. Ahora su nariz, extirpada de su cara y de la totalidad que era ser ella, era más bonita. Sin embargo, su nueva nariz puesta en su contexto había empobrecido el conjunto. Ya no era ella, ya se parecía más a muchas otras. Así que cuidado con avergonzarse de vuestros glitchs, porque seguro que molan o, como mínimo, son una parte importante de vuestra identidad.

Huevo de Pascua: otro término informático. Y es que me gusta cómo la informática crea una jerga que luego pueda extrapolarse a la literatura o a la filosofía. Un huevo de Pascua es cuando los programadores dejan un mensaje oculto en su programa, muchas veces como forma de dejar una huella personal, una especie de firma. La verdad es que me parece muy curioso lo poco reconocidos que están los programadores. Pasa casi lo mismo que con los guionistas de cine. Bien, el caso es que me gusta compararlo con el argumento de las analogías de Tomás de Aquino: si Dios ha creado el mundo, dejará huellas de su ser en su creación, por lo que a través del conocimiento del mundo podremos conocer indirectamente a Dios. Dicho de otro modo: Dios deja huevos de Pascua en el universo. Desgraciadamente yo no he encontrado ninguno.

Inversión: una buena forma de reinterpretar o repensar algo consiste en cambiar el orden de las cosas, en invertir lo que hay. Por ejemplo, la famosa teoría de James-Lange sobre la emoción se explica muy bien mediante la frase: «No lloramos porque estamos tristes sino que estamos tristes porque lloramos». Cambiar el orden temporal o causal de los acontecimientos de cualquier suceso e indagar si podría ser así, no solo puede ser una estrategia para descubrir algo interesante, sino un juego literario muy fructífero. Pensemos en la película basada en el libro de Scott Fitzgerald El curioso caso de Benjamin Button. Sencillamente se invierte el orden de desarrollo de una vida: naces viejo y mueres bebé ¿Y si cambiamos los héroes por los villanos? Ahí tenemos la salvaje serie The Boys de Eric Kripke. De esta forma se hace en el género de la ucronía: ¿Qué pasaría si los nazis y los japoneses hubiesen vencido? El hombre en el castillo de Dick ¿Y si la invencible hubiera ganado? Britania conquistada de Harry Turtledove.

Descontextualización: igual que la inversión pero con el espacio, con el ecosistema del objeto en cuestión. Pon un torero sevillano en un submarino ruso en plena Guerra Fría, una choni de los arrabales de Madrid en la estación espacial internacional, usa la etnografía que Malinowski utilizó con los trobriandeses para estudiar a los miembros de tu familia, utiliza la teoría de juegos para estudiar la evolución biológica como hizo Maynard Smith, usa la geología para estudiar un aspecto de la sociedad… ¡Es un método ideal para ponerlo todo patas arriba y descubrir cosas! ¡Es la clave de la creatividad!

Posible adyacente: creo que el primero en utilizar estar idea fue mi querido Stuart Kauffman. Consiste en pensar en el abanico de posibilidades reales inmediatas, adyacentes, que ofrece cualquier cosa. Con esto explicamos muy bien la evolución tanto de la biología (a donde Kauffman lo aplica) como de la tecnología, y también podemos aplicarlo en nuestra vida. Me explico: es imposible que en el Paleolítico se inventara el ferrocarril, porque para llegar al ferrocarril hace falta pasar por muchos tramos intermedios. Primero tuvieron que descubrir la rueda, los metales, la máquina de vapor, etc., etc. Solo recorriendo estos hitos se puede llegar al objetivo final. En nuestra vida muchas veces nos fijamos objetivos y luego nos sentimos frustrados por no conseguirlos. Mucha gente quiere ser rica y famosa (eso en un posible remoto), y cuándo les preguntas qué hacen para conseguirlo, o no hacen absolutamente nada (lo cual es más común de lo que uno pensaría), o tienen planes difusos, poco realistas, que no se concretan en acciones plausibles o realidades manejables. Una solución es pensar en tu posible adyacente: ahora mismo, yo, en este preciso instante del espacio-tiempo qué puedo hacer, por muy humilde que sea, en pro de conseguir mis objetivos: ¿de qué abanico de posibles adyacentes dispongo ahora?

Sistema: esto me lo enseñó Mario Bunge. Si quieres analizar cualquier elemento de la sociedad utiliza una ontología de sistemas, es decir, ni pienses en entidades individuales (átomos) ni pienses en la sociedad en su conjunto (holismo), sino que piensa en sistemas: toda cosa o es un sistema o es un elemento de un sistema. Luego, esos elementos se pueden relacionar entre ellos o con otros sistemas o elementos de otros sistemas. Así, por ejemplo, el sistema educativo está compuesto de muchos elementos (alumnos, profesores, padres de alumnos, colegios, institutos, universidades, pizarras, pupitres, exámenes, etc.) que a su vez se relacionan entre sí (el padre del alumno le regaña por suspender el examen), o con otros sistemas (El sistema sanitario alertó de una epidemia y los colegios se cerraron). Pensar mediante sistemas creo que tiene dos virtudes principales: una es que no tienes ningún compromiso ontológico (existen sistemas, luego si estos son materiales, mentales, espirituales, etc. es otro problema que no tienes por qué tratar) y otra es que te da la clave para entender algo crucial de la realidad: la mayoría de lo que ocurre no tiene solo una causa, sino muchas (el sistema educativo no falla solo porque los alumnos no estudian, sino que hay causas de muy diverso tipo que influyen en ello), y las soluciones a los problemas no deben llegar solo desde un lugar (solucionar los problemas del sistema educativo no va a ser solo cuestión de que los profes sean más exigentes o de que los padres sean más estrictos, sino de muchos más elementos en juego). Pensar desde la teoría de sistemas te hace entender la complejidad de todo, y ver que cualquier estrategia reduccionista, termina siendo una burda simplificación, cuando no un error grosero.

Coste de oportunidad: el clásico concepto de economía: son los beneficios que nos hubiese reportado escoger la opción que no escogimos, es decir, lo que podríamos haber ganado haciendo las cosas de otra manera. Psicológicamente es una idea terrible, ya que una de las razones de nuestro tormento cotidiano surge siempre de pensar en esos famosos «y si…», más sabiendo que sólo tenemos una vida y que lo que hemos hecho en ella, hecho está. El error cometido queda petrificado en el pasado sin que pueda modificarse. Pero, pensemos en subirla de nivel: no solo es lo que perdiste por no elegir una opción concreta, sino lo que has perdido por no poderlas elegir todas. Esto podría llamarse hipercoste de oportunidad. Apliquémoslo a nuestra vida: yo sólo he escogido un camino de los infinitos que se me han propuesto. He elegido ser profesor, pero no futbolista, actor, artista, fontanero… Conforme mi vida pasa, los caminos se van cerrando. Soy profesor y, a lo mejor puedo cambiar y ser otra cosa, pero ya sé que nunca jugaré en el Real Madrid ni en los Boston Celtics, que ya no ganaré un Óscar o que no me ganaré la vida arreglando motores de camión. Cada elección consiste en cerrar el enorme abanico de la posibilidad escogiendo solo una opción. Dios ha sido muy cruel aquí ¿No nos podrían haber dejado elegir dos o tres? ¿No sería maravilloso vivir tres vidas paralelas? Poder saltar de una a otra en cualquier momento. Estoy aburrido de dar clase, voy a ver cómo va mi vida como frutero… Estaría bien una vida casado y con hijos, otra soltero en constante viaje, y otra dado al poliamor… ¡Solo pido reducir un poquito el hipercoste de oportunidad! Si las opciones son infinitas, pedir tres oportunidades no es nada.

En Philosophical foundations of neuroscience Hacker y Bennett realizan una interesante crítica a las neurociencias.  Los primeros que abordaron el problema de la relación entre mente y cuerpo fueron eminentemente cartesianos: entendían la mente y el cuerpo como dos sustancias, dos realidades diferentes. Charles Sherrington, Edgar Adrian, John Eccles o Wilder Penfield, los científicos que dominaron el panorama de la neurología desde comienzos del siglo XX, eran dualistas. Por el contrario, la siguiente generación de investigadores fue firmemente monista: no sabemos muy bien cómo pero los estados mentales pueden reducirse a estados físicos (habitualmente estados neurológicos) o la mente no es más que un proceso, una función del cerebro o una propiedad emergente (Searle o Bunge) que no nos tiene por qué llevar a aceptar la existencia ontológica de otra realidad paralela a la material. Sin embargo, según Hacker y Bennett (H&B a partir de ahora), esta generación de científicos sigue cometiendo el mismo error conceptual que sus maestros: donde antes se nombraba al individuo, al yo, al alma o al cogito cartesiano como sujeto de atributos psíquicos,  ahora se nombra el cerebro (en el fondo, sólo hemos cambiado una palabra,  esencialmente seguimos obrando como dualistas). Donde antes decíamos la mente de Descartes piensa, ahora decimos que el cerebro de Descartes tiene experiencias, cree cosas, interpreta a partir de información o hace conjeturas.

Gerald Edelman, Colin Blakemore, Antonio Damasio, Benjamin Libet o David Marr, caen en lo que H&B denominan la falacia mereológica: atribuir a las partes propiedades que sólo son atribuibles al todo. Mi cortex visual no es el que ve, al igual que mi lóbulo frontal no es el que toma decisiones. El que ve o el que toma las decisiones es el individuo en su totalidad. No es que el cerebro no piense ni deje de pensar, es que no tiene sentido atribuirle este predicado. Por ejemplo, cuando decimos que el halcón vuela o que el leopardo corre, atribuimos el vuelo o la carrera al halcón o al leopardo en su totalidad. No tendría sentido decir que las alas del halcón son las que vuelan o  que las patas del leopardo son las que corren.

Esta crítica, muy polémica debido a su alcance (todos hemos caído en esta falacia alguna vez), nos lleva a cuestiones filosóficas muy interesantes. Parece que H&B tienen razón en que el cerebro, por sí solo no puede hacer todo lo que se le atribuye. Mi cerebro no puede hacer mucho sin un sistema cardiovascular que lo irrigue, sin ojos y oídos que le transmitan información (sin un sistema nervioso periférico al completo), sin un esqueleto que lo sostenga y proteja… Vamos, sin la totalidad de un individuo. Pero es que, precisamente, la noción de totalidad es equívoca. El cerebro tampoco podría hacer nada sin el oxígeno de la atmósfera, sin los nutrientes del entorno o sin una fuerza de la gravedad que evite que se desparrame… ¿dónde situamos el límite de esa totalidad a la que atribuimos predicados psíquicos?

Es más, pensando de modo inverso, podemos aplicar la paradoja de Teseo: ¿cuántas cosas podemos quitarle a la totalidad del individuo para que ya no se le puedan atribuir predicados psíquicos? Podemos pensar en un humano sin extremidades, sin ojos ni oídos que siguiera teniendo estados mentales. ¿Hasta dónde podemos llegar? Hasta donde la ciencia nos pudiera permitir. Suponemos que sólo mediante un pulmón y un sistema cardiovascular artificiales podríamos mantener un cerebro vivo y pensante.  ¿Sería ese el legítimo sujeto mínimo al que podemos atribuir pensamiento?

Paul Feyerabend decia que "en ciencia todo vale"Uno de los libros que más disfruté leyendo en mis años universitarios fue el Tratado contra el método de Paul K. Feyerabend. Con una prosa magnífica se recogían los argumentos más contundentes en contra de la presumida objetividad de la ciencia. Siguiendo la línea abierta por Kuhn (no hay posibilidad de elección racional entre dos paradigmas en conflicto) o Lakatos (los experimentos cruciales no sirven para tirar una teoría pues siempre podemos lanzar infinitas hipótesis ad hoc), radicaliza la situación para llegar a su anarquismo epistemológico coronado con la polémica donde las haya «En ciencia todo vale».  La ciencia acababa por ser una institución de poder en la que «verdad» era aquello que las autoridades deciden. Para luchar contra ello, y en consecuencia lógica de una postura anarquista, proponía, y esto parece ya pasarse bastante de rosca, decidir democráticamente lo que se considera conocimiento y lo que no.

Fuera bromas, la postura de Feyerabend es pretendidamente radical (ya Bunge lo tachó de ser el enfant terrible de la filosofía de la ciencia y le dedicó algunas perlitas) y sofística (como el mismo Feyerabend reconoce en alguna ocasión), no obstante que baja a la ciencia de su pedestal de absoluto testaferro del saber (en tiempos de positivismo es necesario). Popper ya nos los advirtió, hay que ser críticos hasta con la crítica. No sólo denunciar los pseudosaberes, sino buscarlos dentro de nuestras teorías más consolidadas.

Pues bien, parece ser que algunos se han tomado en serio a Feyerabend y nos proponen que elijamos democráticamente el próximo descubrimiento del telescopio Hubble.  ¿Es que se puede elegir democráticamente un descubrimiento? Ja, ja. No amigos, se puede elegir democráticamente una línea de investigación (está bien que los contribuyentes elijan si con su dinero se investigan nuevos tipos de misiles intercontinentales o la cura del cáncer) pero no los descubrimientos científicos.

Hay que tener cuidado con no extrapolar la democracia como mejor sistema político posible, hasta la fecha, con el mejor sistema para todo. Si mis clases en el instituto funcionaran democráticamente, yo y mis alumnos estaríamos todo el día «comiendo chuches» y «jugando al pillo-pillo». No, una clase ha de parecerse un poquito a una dictadura porque si no no podría funcionar. Igual ha de pasar con la ciencia: la verdad es dictatorial por definición. No se elige, se impone. ¡ Y qué gran placer  cuando a alguien se le impone un gran descubrimiento!

Vota en nuestra encuesta: ¿Quién es el intelectual más grande de todos los tiempos?

Carlos Ulises Moulines en «Por qué no soy materialista» (Revista Crítica, 1977) ataca al materialismo y al monismo que parecen haberse situado como únicas posturas ontológicas y epistemológicas de la ciencia. Para Moulines el materialismo es una doctrina confusa por la sencilla razón de que no sabemos bien lo qué es la materia. Así, el enunciado Todo x es p, siendo p materia es muy equívoco ya que, si no sabemos qué es la materia, ¿cómo sabemos que todo lo que existe es materia y no cualquier otra cosa?

Y eso es evidente: ¿Qué es la materia? La definición de elemento químico propuesta por Boyle que afirma que un elemento químico es aquello que no es divisible en el presente por métodos físicos ni químicos es instrumentalista u operacionalista. De primeras, según ella ningún elemento de la tabla periódica a día de hoy es un elemento químico (ya que el Hidrógeno puede dividirse en más partículas: protones, electrones, quarks…). Y segundo, precisamente, lo que hoy es elemento químico mañana puede no serlo y una definición ha de ser válida para todo tiempo y lugar.

Vale, y ¿qué son esos componentes últimos que constituyen la materia? De primeras, ¿ondas o corpúsculos?. De segundas ¿localizables objetivamente o dependientes del observador?… ¿Alguien podría explicarme qué es exactamente el Bosón de Higgs? Siendo honestos intelectualmente, la verdad es que no tenemos demasiado claro qué es la materia. Por lo tanto Moulines tiene razón en su crítica al materialismo.

¿Sabemos realmente qué es la materia?

El segundo argumento que Moulines nos propone es que afirmar Todo x es p, siendo p la materia es un enunciado tautológico, redundante, debido a que si no podemos poner una restricción de algún tipo a la extensión del predicado, éste no nos dirá nada. Si por materia entendemos cualquier cosa imaginable, la materia es todo, así que nuestra proposición dirá Todo x es todo, lo cual no es decir nada. Ergo, el materialismo es insostenible.

Podría objetarse, como hace Quintanilla, que sí que tenemos conocimientos acerca de la materia, de tal modo que no estamos realizando claramente una tautología. Decir, por ejemplo que la materia está compuesta por átomos, ya es decir algo. Sí, acepta Moulines, pero el hecho de conocer parcialmente lo que es la materia no nos autoriza para decir que lo único que existe es eso. Debería conocer muy bien lo qué es la materia para tener autoridad de decir que todo lo que hay es materia y negar la existencia de todo aquello que no lo sea. Moulines acabará por acusar al tridente Ferrater Mora, Mario Bunge, Miguel Ángel Quintanilla, de oportunismo filosófico al ponerse, en cierto sentido, del lado de lo que la ciencia dice en cada momento.

La verdad es que no entiendo esa manía de que hay que ser materialista por narices porque si no ya eres anticientífico, espiritualista, posmoderno… cuando parece evidente que el materialimo decimonónico es hasta simplón. Por ejemplo, pensemos en un concepto tan clásicamente científico como el de velocidad. Todo el mundo estaría de acuerdo en que la velocidad es algo que existe, los objetos van a mayor o menor velocidad o carecen de ella. ¿Es la velocidad algo material? No, no parece estar formada por átomos. ¿Funciona entonces el materialismo o no?

Creo que tenemos que mantener una visión del universo mucho más sofisticada que la materialista. Yo entiendo el universo como algo muy dinámico, lleno de objetos sí, pero también de procesos, organizaciones, retroalimentaciones, propiedades emergentes… un universo mucho menos homogéneo que el materialista (como bien subraya Moulines).

Este post continúa en En contra del materialismo (II) y en En contra del materialismo (III)

Vota en nuestra encuesta: ¿Quién es el intelectual más grande de todos los tiempos?

El escritor británico Samuel Butler (1835-1902), en su sátira sobre la sociedad victoriana Erewhon (1872) y en ensayos como Darwin among the machines (1863), extrapolaba la evolución darwiniana de las especies a la de la tecnología. Las máquinas irían evolucionando, mejorando, perfeccionándose cada vez más, según una selección natural ciega en la que utilizarían a los hombres como medio. Los seres humanos somos los artífices, hasta cierto punto inconscientes, de esta evolución, al ir construyendo máquinas cada vez más avanzadas y desechando las anticuallas (a fin de cuentas, eso es lo que hace un criador de animales al practicar la selección artificial).

¿Nos utilizan los temes para evolucionar?La objeción evidente parece decir que la comparación entre la evolución de lo viviente y de lo artificial no es válida ya que las máquinas no pueden reproducirse. Butler respondía que la reproducción opera de un modo diferente en el reino de lo mecánico. Existen un tipo de máquinas «fértiles», las máquinas-herramienta, que sirven para «dar a luz» o construir tanto nuevas máquinas-herramienta, como máquinas «estériles» o cuya utilidad no consiste en crear más máquinas. Las máquinas de Von Neumann son un tipo autosuficiente de estas máquinas-herramienta.

Estas ideas sirvieron de inspiración a una gran gama de autores de ciencia-ficción: las máquinas siguen evolucionando y superan a los humanos, serán la nueva especie dominante (2001: Odisea en el espacio, Robocop, Terminator, Matrix…). Según Butler, al final, sólo nos quedará resignarnos a ser los siervos de nuestros nuevos amos. No tengo nada en contra de que las máquinas acaben por superar en cualquier sentido a sus creadores y soy de aquellos que creen que llegará un momento en que existan máquinas conscientes de sí mismas y que pueden tener sentimientos, emociones y todas esas cosas que ahora tenemos los seres biológicos en exclusiva (estoy a favor de las tesis de la AI), pero cuando hoy en día, las fantasiosas analogías de Butler vuelven a estar de moda a manos de bromistas como Richard Dawkins o Susan Blackmore, uno tiene que ponerse en guardia.

La memética de Dawkins no es más que hacer lo que Butler hizo con la tecnología a la cultura. Los genes como mínima unidad de información biológica pasan a denominarse memes para la cultura. Ahora, Blackmore habla de temes (genes tecnológicos), resucitando todo el planteamiento de Butler. Tanto la teoría de los memes como la de los temes son erróneas pues olvidan o menosprecian la labor consciente del hombre. Para que un meme se transmita de cerebro en cerebro, cada uno de esos cerebros tiene que tener la intención consciente de que así suceda. En todo que las personas decidan no trasmitirlo, el meme «morirá». No creo que los memes sean nuestros dueños y se desarrollen independientemente de nosotros. Lo mismo pasa con las máquinas. El progreso tecnológico no avanza a expensas de la voluntad de los hombres. De hecho, la evolución tecnológica ha sido lenta en algunas épocas porque los hombres así lo decidieron (en la Grecia Clásica no avanzó demasiado la tecnología porque los helenos la despreciaban al considerarla cosa de esclavos). Mario Bunge dijo en una conferencia que escuché en la Universidad de Salamanca:

«Si una máquina te da miedo, desenchúfala»

Blackmore cree que la tecnología puede avanzar con independencia de los hombres como «por arte de magia», por sí misma (esto es animismo). Y es que es uno de los grandes peligros de la teoría darwiniana: parece que encaja en cualquier desarrollo histórico. Hay que tener mucho cuidado con eso.