Posts etiquetados ‘Mario Bunge’

Esta entrada continúa a esta otra. Se trata de enumerar cosas cognitivas que me parecen interesantes.

Glitch: se dice de un error de programación que se expresa en un videojuego pero que no afecta a ningún aspecto importante de éste, de modo que puede entenderse no como un fallo, sino más bien como una característica no prevista. Me resulta muy poético pensar que lo que realmente nos gusta de las otras personas no son sus perfecciones, sus virtudes programadas en su código fuente; quizá nos gustan más sus glitchs, sus defectos no letales, sus defectos que incluso configuran otras partes virtuosas de su forma de ser. Por ejemplo, recuerdo a una antigua alumna que tenía una nariz muy aguileña con una leve giba. Objetivamente, extirpando esa nariz de su cara y observándola, era una nariz muy fea. Sin embargo, en su cara, en su cuerpo, en la totalidad que era ser ella, esa nariz no era nada fea. De hecho, la chica era muy atractiva. Años después, cuando volví a verla casi no la reconocí. Se había operado. Ahora su nariz, extirpada de su cara y de la totalidad que era ser ella, era más bonita. Sin embargo, su nueva nariz puesta en su contexto había empobrecido el conjunto. Ya no era ella, ya se parecía más a muchas otras. Así que cuidado con avergonzarse de vuestros glitchs, porque seguro que molan o, como mínimo, son una parte importante de vuestra identidad.

Huevo de Pascua: otro término informático. Y es que me gusta cómo la informática crea una jerga que luego pueda extrapolarse a la literatura o a la filosofía. Un huevo de Pascua es cuando los programadores dejan un mensaje oculto en su programa, muchas veces como forma de dejar una huella personal, una especie de firma. La verdad es que me parece muy curioso lo poco reconocidos que están los programadores. Pasa casi lo mismo que con los guionistas de cine. Bien, el caso es que me gusta compararlo con el argumento de las analogías de Tomás de Aquino: si Dios ha creado el mundo, dejará huellas de su ser en su creación, por lo que a través del conocimiento del mundo podremos conocer indirectamente a Dios. Dicho de otro modo: Dios deja huevos de Pascua en el universo. Desgraciadamente yo no he encontrado ninguno.

Inversión: una buena forma de reinterpretar o repensar algo consiste en cambiar el orden de las cosas, en invertir lo que hay. Por ejemplo, la famosa teoría de James-Lange sobre la emoción se explica muy bien mediante la frase: «No lloramos porque estamos tristes sino que estamos tristes porque lloramos». Cambiar el orden temporal o causal de los acontecimientos de cualquier suceso e indagar si podría ser así, no solo puede ser una estrategia para descubrir algo interesante, sino un juego literario muy fructífero. Pensemos en la película basada en el libro de Scott Fitzgerald El curioso caso de Benjamin Button. Sencillamente se invierte el orden de desarrollo de una vida: naces viejo y mueres bebé ¿Y si cambiamos los héroes por los villanos? Ahí tenemos la salvaje serie The Boys de Eric Kripke. De esta forma se hace en el género de la ucronía: ¿Qué pasaría si los nazis y los japoneses hubiesen vencido? El hombre en el castillo de Dick ¿Y si la invencible hubiera ganado? Britania conquistada de Harry Turtledove.

Descontextualización: igual que la inversión pero con el espacio, con el ecosistema del objeto en cuestión. Pon un torero sevillano en un submarino ruso en plena Guerra Fría, una choni de los arrabales de Madrid en la estación espacial internacional, usa la etnografía que Malinowski utilizó con los trobriandeses para estudiar a los miembros de tu familia, utiliza la teoría de juegos para estudiar la evolución biológica como hizo Maynard Smith, usa la geología para estudiar un aspecto de la sociedad… ¡Es un método ideal para ponerlo todo patas arriba y descubrir cosas! ¡Es la clave de la creatividad!

Posible adyacente: creo que el primero en utilizar estar idea fue mi querido Stuart Kauffman. Consiste en pensar en el abanico de posibilidades reales inmediatas, adyacentes, que ofrece cualquier cosa. Con esto explicamos muy bien la evolución tanto de la biología (a donde Kauffman lo aplica) como de la tecnología, y también podemos aplicarlo en nuestra vida. Me explico: es imposible que en el Paleolítico se inventara el ferrocarril, porque para llegar al ferrocarril hace falta pasar por muchos tramos intermedios. Primero tuvieron que descubrir la rueda, los metales, la máquina de vapor, etc., etc. Solo recorriendo estos hitos se puede llegar al objetivo final. En nuestra vida muchas veces nos fijamos objetivos y luego nos sentimos frustrados por no conseguirlos. Mucha gente quiere ser rica y famosa (eso en un posible remoto), y cuándo les preguntas qué hacen para conseguirlo, o no hacen absolutamente nada (lo cual es más común de lo que uno pensaría), o tienen planes difusos, poco realistas, que no se concretan en acciones plausibles o realidades manejables. Una solución es pensar en tu posible adyacente: ahora mismo, yo, en este preciso instante del espacio-tiempo qué puedo hacer, por muy humilde que sea, en pro de conseguir mis objetivos: ¿de qué abanico de posibles adyacentes dispongo ahora?

Sistema: esto me lo enseñó Mario Bunge. Si quieres analizar cualquier elemento de la sociedad utiliza una ontología de sistemas, es decir, ni pienses en entidades individuales (átomos) ni pienses en la sociedad en su conjunto (holismo), sino que piensa en sistemas: toda cosa o es un sistema o es un elemento de un sistema. Luego, esos elementos se pueden relacionar entre ellos o con otros sistemas o elementos de otros sistemas. Así, por ejemplo, el sistema educativo está compuesto de muchos elementos (alumnos, profesores, padres de alumnos, colegios, institutos, universidades, pizarras, pupitres, exámenes, etc.) que a su vez se relacionan entre sí (el padre del alumno le regaña por suspender el examen), o con otros sistemas (El sistema sanitario alertó de una epidemia y los colegios se cerraron). Pensar mediante sistemas creo que tiene dos virtudes principales: una es que no tienes ningún compromiso ontológico (existen sistemas, luego si estos son materiales, mentales, espirituales, etc. es otro problema que no tienes por qué tratar) y otra es que te da la clave para entender algo crucial de la realidad: la mayoría de lo que ocurre no tiene solo una causa, sino muchas (el sistema educativo no falla solo porque los alumnos no estudian, sino que hay causas de muy diverso tipo que influyen en ello), y las soluciones a los problemas no deben llegar solo desde un lugar (solucionar los problemas del sistema educativo no va a ser solo cuestión de que los profes sean más exigentes o de que los padres sean más estrictos, sino de muchos más elementos en juego). Pensar desde la teoría de sistemas te hace entender la complejidad de todo, y ver que cualquier estrategia reduccionista, termina siendo una burda simplificación, cuando no un error grosero.

Coste de oportunidad: el clásico concepto de economía: son los beneficios que nos hubiese reportado escoger la opción que no escogimos, es decir, lo que podríamos haber ganado haciendo las cosas de otra manera. Psicológicamente es una idea terrible, ya que una de las razones de nuestro tormento cotidiano surge siempre de pensar en esos famosos «y si…», más sabiendo que sólo tenemos una vida y que lo que hemos hecho en ella, hecho está. El error cometido queda petrificado en el pasado sin que pueda modificarse. Pero, pensemos en subirla de nivel: no solo es lo que perdiste por no elegir una opción concreta, sino lo que has perdido por no poderlas elegir todas. Esto podría llamarse hipercoste de oportunidad. Apliquémoslo a nuestra vida: yo sólo he escogido un camino de los infinitos que se me han propuesto. He elegido ser profesor, pero no futbolista, actor, artista, fontanero… Conforme mi vida pasa, los caminos se van cerrando. Soy profesor y, a lo mejor puedo cambiar y ser otra cosa, pero ya sé que nunca jugaré en el Real Madrid ni en los Boston Celtics, que ya no ganaré un Óscar o que no me ganaré la vida arreglando motores de camión. Cada elección consiste en cerrar el enorme abanico de la posibilidad escogiendo solo una opción. Dios ha sido muy cruel aquí ¿No nos podrían haber dejado elegir dos o tres? ¿No sería maravilloso vivir tres vidas paralelas? Poder saltar de una a otra en cualquier momento. Estoy aburrido de dar clase, voy a ver cómo va mi vida como frutero… Estaría bien una vida casado y con hijos, otra soltero en constante viaje, y otra dado al poliamor… ¡Solo pido reducir un poquito el hipercoste de oportunidad! Si las opciones son infinitas, pedir tres oportunidades no es nada.

En Philosophical foundations of neuroscience Hacker y Bennett realizan una interesante crítica a las neurociencias.  Los primeros que abordaron el problema de la relación entre mente y cuerpo fueron eminentemente cartesianos: entendían la mente y el cuerpo como dos sustancias, dos realidades diferentes. Charles Sherrington, Edgar Adrian, John Eccles o Wilder Penfield, los científicos que dominaron el panorama de la neurología desde comienzos del siglo XX, eran dualistas. Por el contrario, la siguiente generación de investigadores fue firmemente monista: no sabemos muy bien cómo pero los estados mentales pueden reducirse a estados físicos (habitualmente estados neurológicos) o la mente no es más que un proceso, una función del cerebro o una propiedad emergente (Searle o Bunge) que no nos tiene por qué llevar a aceptar la existencia ontológica de otra realidad paralela a la material. Sin embargo, según Hacker y Bennett (H&B a partir de ahora), esta generación de científicos sigue cometiendo el mismo error conceptual que sus maestros: donde antes se nombraba al individuo, al yo, al alma o al cogito cartesiano como sujeto de atributos psíquicos,  ahora se nombra el cerebro (en el fondo, sólo hemos cambiado una palabra,  esencialmente seguimos obrando como dualistas). Donde antes decíamos la mente de Descartes piensa, ahora decimos que el cerebro de Descartes tiene experiencias, cree cosas, interpreta a partir de información o hace conjeturas.

Gerald Edelman, Colin Blakemore, Antonio Damasio, Benjamin Libet o David Marr, caen en lo que H&B denominan la falacia mereológica: atribuir a las partes propiedades que sólo son atribuibles al todo. Mi cortex visual no es el que ve, al igual que mi lóbulo frontal no es el que toma decisiones. El que ve o el que toma las decisiones es el individuo en su totalidad. No es que el cerebro no piense ni deje de pensar, es que no tiene sentido atribuirle este predicado. Por ejemplo, cuando decimos que el halcón vuela o que el leopardo corre, atribuimos el vuelo o la carrera al halcón o al leopardo en su totalidad. No tendría sentido decir que las alas del halcón son las que vuelan o  que las patas del leopardo son las que corren.

Esta crítica, muy polémica debido a su alcance (todos hemos caído en esta falacia alguna vez), nos lleva a cuestiones filosóficas muy interesantes. Parece que H&B tienen razón en que el cerebro, por sí solo no puede hacer todo lo que se le atribuye. Mi cerebro no puede hacer mucho sin un sistema cardiovascular que lo irrigue, sin ojos y oídos que le transmitan información (sin un sistema nervioso periférico al completo), sin un esqueleto que lo sostenga y proteja… Vamos, sin la totalidad de un individuo. Pero es que, precisamente, la noción de totalidad es equívoca. El cerebro tampoco podría hacer nada sin el oxígeno de la atmósfera, sin los nutrientes del entorno o sin una fuerza de la gravedad que evite que se desparrame… ¿dónde situamos el límite de esa totalidad a la que atribuimos predicados psíquicos?

Es más, pensando de modo inverso, podemos aplicar la paradoja de Teseo: ¿cuántas cosas podemos quitarle a la totalidad del individuo para que ya no se le puedan atribuir predicados psíquicos? Podemos pensar en un humano sin extremidades, sin ojos ni oídos que siguiera teniendo estados mentales. ¿Hasta dónde podemos llegar? Hasta donde la ciencia nos pudiera permitir. Suponemos que sólo mediante un pulmón y un sistema cardiovascular artificiales podríamos mantener un cerebro vivo y pensante.  ¿Sería ese el legítimo sujeto mínimo al que podemos atribuir pensamiento?

Paul Feyerabend decia que "en ciencia todo vale"Uno de los libros que más disfruté leyendo en mis años universitarios fue el Tratado contra el método de Paul K. Feyerabend. Con una prosa magnífica se recogían los argumentos más contundentes en contra de la presumida objetividad de la ciencia. Siguiendo la línea abierta por Kuhn (no hay posibilidad de elección racional entre dos paradigmas en conflicto) o Lakatos (los experimentos cruciales no sirven para tirar una teoría pues siempre podemos lanzar infinitas hipótesis ad hoc), radicaliza la situación para llegar a su anarquismo epistemológico coronado con la polémica donde las haya «En ciencia todo vale».  La ciencia acababa por ser una institución de poder en la que «verdad» era aquello que las autoridades deciden. Para luchar contra ello, y en consecuencia lógica de una postura anarquista, proponía, y esto parece ya pasarse bastante de rosca, decidir democráticamente lo que se considera conocimiento y lo que no.

Fuera bromas, la postura de Feyerabend es pretendidamente radical (ya Bunge lo tachó de ser el enfant terrible de la filosofía de la ciencia y le dedicó algunas perlitas) y sofística (como el mismo Feyerabend reconoce en alguna ocasión), no obstante que baja a la ciencia de su pedestal de absoluto testaferro del saber (en tiempos de positivismo es necesario). Popper ya nos los advirtió, hay que ser críticos hasta con la crítica. No sólo denunciar los pseudosaberes, sino buscarlos dentro de nuestras teorías más consolidadas.

Pues bien, parece ser que algunos se han tomado en serio a Feyerabend y nos proponen que elijamos democráticamente el próximo descubrimiento del telescopio Hubble.  ¿Es que se puede elegir democráticamente un descubrimiento? Ja, ja. No amigos, se puede elegir democráticamente una línea de investigación (está bien que los contribuyentes elijan si con su dinero se investigan nuevos tipos de misiles intercontinentales o la cura del cáncer) pero no los descubrimientos científicos.

Hay que tener cuidado con no extrapolar la democracia como mejor sistema político posible, hasta la fecha, con el mejor sistema para todo. Si mis clases en el instituto funcionaran democráticamente, yo y mis alumnos estaríamos todo el día «comiendo chuches» y «jugando al pillo-pillo». No, una clase ha de parecerse un poquito a una dictadura porque si no no podría funcionar. Igual ha de pasar con la ciencia: la verdad es dictatorial por definición. No se elige, se impone. ¡ Y qué gran placer  cuando a alguien se le impone un gran descubrimiento!

Vota en nuestra encuesta: ¿Quién es el intelectual más grande de todos los tiempos?

Carlos Ulises Moulines en «Por qué no soy materialista» (Revista Crítica, 1977) ataca al materialismo y al monismo que parecen haberse situado como únicas posturas ontológicas y epistemológicas de la ciencia. Para Moulines el materialismo es una doctrina confusa por la sencilla razón de que no sabemos bien lo qué es la materia. Así, el enunciado Todo x es p, siendo p materia es muy equívoco ya que, si no sabemos qué es la materia, ¿cómo sabemos que todo lo que existe es materia y no cualquier otra cosa?

Y eso es evidente: ¿Qué es la materia? La definición de elemento químico propuesta por Boyle que afirma que un elemento químico es aquello que no es divisible en el presente por métodos físicos ni químicos es instrumentalista u operacionalista. De primeras, según ella ningún elemento de la tabla periódica a día de hoy es un elemento químico (ya que el Hidrógeno puede dividirse en más partículas: protones, electrones, quarks…). Y segundo, precisamente, lo que hoy es elemento químico mañana puede no serlo y una definición ha de ser válida para todo tiempo y lugar.

Vale, y ¿qué son esos componentes últimos que constituyen la materia? De primeras, ¿ondas o corpúsculos?. De segundas ¿localizables objetivamente o dependientes del observador?… ¿Alguien podría explicarme qué es exactamente el Bosón de Higgs? Siendo honestos intelectualmente, la verdad es que no tenemos demasiado claro qué es la materia. Por lo tanto Moulines tiene razón en su crítica al materialismo.

¿Sabemos realmente qué es la materia?

El segundo argumento que Moulines nos propone es que afirmar Todo x es p, siendo p la materia es un enunciado tautológico, redundante, debido a que si no podemos poner una restricción de algún tipo a la extensión del predicado, éste no nos dirá nada. Si por materia entendemos cualquier cosa imaginable, la materia es todo, así que nuestra proposición dirá Todo x es todo, lo cual no es decir nada. Ergo, el materialismo es insostenible.

Podría objetarse, como hace Quintanilla, que sí que tenemos conocimientos acerca de la materia, de tal modo que no estamos realizando claramente una tautología. Decir, por ejemplo que la materia está compuesta por átomos, ya es decir algo. Sí, acepta Moulines, pero el hecho de conocer parcialmente lo que es la materia no nos autoriza para decir que lo único que existe es eso. Debería conocer muy bien lo qué es la materia para tener autoridad de decir que todo lo que hay es materia y negar la existencia de todo aquello que no lo sea. Moulines acabará por acusar al tridente Ferrater Mora, Mario Bunge, Miguel Ángel Quintanilla, de oportunismo filosófico al ponerse, en cierto sentido, del lado de lo que la ciencia dice en cada momento.

La verdad es que no entiendo esa manía de que hay que ser materialista por narices porque si no ya eres anticientífico, espiritualista, posmoderno… cuando parece evidente que el materialimo decimonónico es hasta simplón. Por ejemplo, pensemos en un concepto tan clásicamente científico como el de velocidad. Todo el mundo estaría de acuerdo en que la velocidad es algo que existe, los objetos van a mayor o menor velocidad o carecen de ella. ¿Es la velocidad algo material? No, no parece estar formada por átomos. ¿Funciona entonces el materialismo o no?

Creo que tenemos que mantener una visión del universo mucho más sofisticada que la materialista. Yo entiendo el universo como algo muy dinámico, lleno de objetos sí, pero también de procesos, organizaciones, retroalimentaciones, propiedades emergentes… un universo mucho menos homogéneo que el materialista (como bien subraya Moulines).

Este post continúa en En contra del materialismo (II) y en En contra del materialismo (III)

Vota en nuestra encuesta: ¿Quién es el intelectual más grande de todos los tiempos?

El escritor británico Samuel Butler (1835-1902), en su sátira sobre la sociedad victoriana Erewhon (1872) y en ensayos como Darwin among the machines (1863), extrapolaba la evolución darwiniana de las especies a la de la tecnología. Las máquinas irían evolucionando, mejorando, perfeccionándose cada vez más, según una selección natural ciega en la que utilizarían a los hombres como medio. Los seres humanos somos los artífices, hasta cierto punto inconscientes, de esta evolución, al ir construyendo máquinas cada vez más avanzadas y desechando las anticuallas (a fin de cuentas, eso es lo que hace un criador de animales al practicar la selección artificial).

¿Nos utilizan los temes para evolucionar?La objeción evidente parece decir que la comparación entre la evolución de lo viviente y de lo artificial no es válida ya que las máquinas no pueden reproducirse. Butler respondía que la reproducción opera de un modo diferente en el reino de lo mecánico. Existen un tipo de máquinas «fértiles», las máquinas-herramienta, que sirven para «dar a luz» o construir tanto nuevas máquinas-herramienta, como máquinas «estériles» o cuya utilidad no consiste en crear más máquinas. Las máquinas de Von Neumann son un tipo autosuficiente de estas máquinas-herramienta.

Estas ideas sirvieron de inspiración a una gran gama de autores de ciencia-ficción: las máquinas siguen evolucionando y superan a los humanos, serán la nueva especie dominante (2001: Odisea en el espacio, Robocop, Terminator, Matrix…). Según Butler, al final, sólo nos quedará resignarnos a ser los siervos de nuestros nuevos amos. No tengo nada en contra de que las máquinas acaben por superar en cualquier sentido a sus creadores y soy de aquellos que creen que llegará un momento en que existan máquinas conscientes de sí mismas y que pueden tener sentimientos, emociones y todas esas cosas que ahora tenemos los seres biológicos en exclusiva (estoy a favor de las tesis de la AI), pero cuando hoy en día, las fantasiosas analogías de Butler vuelven a estar de moda a manos de bromistas como Richard Dawkins o Susan Blackmore, uno tiene que ponerse en guardia.

La memética de Dawkins no es más que hacer lo que Butler hizo con la tecnología a la cultura. Los genes como mínima unidad de información biológica pasan a denominarse memes para la cultura. Ahora, Blackmore habla de temes (genes tecnológicos), resucitando todo el planteamiento de Butler. Tanto la teoría de los memes como la de los temes son erróneas pues olvidan o menosprecian la labor consciente del hombre. Para que un meme se transmita de cerebro en cerebro, cada uno de esos cerebros tiene que tener la intención consciente de que así suceda. En todo que las personas decidan no trasmitirlo, el meme «morirá». No creo que los memes sean nuestros dueños y se desarrollen independientemente de nosotros. Lo mismo pasa con las máquinas. El progreso tecnológico no avanza a expensas de la voluntad de los hombres. De hecho, la evolución tecnológica ha sido lenta en algunas épocas porque los hombres así lo decidieron (en la Grecia Clásica no avanzó demasiado la tecnología porque los helenos la despreciaban al considerarla cosa de esclavos). Mario Bunge dijo en una conferencia que escuché en la Universidad de Salamanca:

«Si una máquina te da miedo, desenchúfala»

Blackmore cree que la tecnología puede avanzar con independencia de los hombres como «por arte de magia», por sí misma (esto es animismo). Y es que es uno de los grandes peligros de la teoría darwiniana: parece que encaja en cualquier desarrollo histórico. Hay que tener mucho cuidado con eso.