Posts etiquetados ‘Guillermo de Ockham’

  1. Allen Newell y Herbert Simon definieron computadora como un «manipulador simbólico», es decir, como un dispositivo en el que entran unos determinados símbolos que son «manipulados» para obtener unos determinados resultados (que serán nuevos «símbolos»).
  2. «Manipular» es un verbo de un significado tremendamente vago para hablar de lo que una computadora hace con los símbolos, ya que significa, prácticamente, hacer cualquier cosa con algo. Aunque me parece interesante que Newell y Simon no dijeran directamente que la computadora realiza computaciones, es decir, cálculos, con los símbolos, dando a entender que una computadora pretende ser más que una mera máquina de cálculos aritméticos.
  3. «Símbolo» es un término aún más complicado que el anterior, dando lugar a toda una rama de la lingüística a la que denominamos semiótica. Lo definiré de la forma más prosaica que he encontrado en la historia de la filosofía: símbolo es aquello que es capaz de estar en el lugar de otra cosa. Así, cuando yo veo la palabra «perro» escrita en un libro, en mi cerebro recreo la imagen de un perro sin la necesidad de tener un perro delante. La palabra «perro» como símbolo es capaz de ponerse en el lugar de un perro real (Esto no es más que la teoría de la supossitio de Guillermo de Ockham).
  4. ¿Qué «símbolos» manipula una computadora? Si nos vamos al nivel más bajo posible, al nivel más pequeño del hardware encontramos que las computadoras codifican («simbolizan») la información en bits utilizando flujos de corriente eléctrica. Una corriente de, aproximadamente, cinco voltios se va a simbolizar con un «1» y una corriente nula o con muy poquito voltaje se simbolizará con un «0». Nótese que aquí se da una traducción que, como tal, es una falsificación: se pasa de una corriente continua a una clasificación discreta. Digitalizar consiste precisamente en hacer eso, en interpretar lo continuo como si fuera discreto, falsear lo continuo. Ahora, siguiendo a Ockham, en vez de un flujo de voltaje tengo un «1».
  5. Importante ver que la relación entre el símbolo y su referencia no es del todo arbitraria, al contrario que lo que ocurre en nuestro lenguajes ordinarios. La palabra «perro» no se parece en nada a un perro real, pero, a pesar de que un flujo de electrones a un determinado voltaje no se parece en nada a un «1», la dualidad voltaje/no-voltaje tiene similitud con la dualidad 1/0, que pretende significar presencia o ausencia total. Habría, en mucho sentido, no una relación simbólica, sino una relación icónica entre las corrientes eléctricas y la paridad binaria. Esto vuelve más borrosa, si cabe, la distinción entre software y hardware.
  6. Téngase cuidado y piénsese que a nivel ontológico solo siguen existiendo los flujos eléctricos. Los ceros y los unos no existen en ningún lugar del computador más que en la mente del ingeniero. Siguiendo, de nuevo, a Ockham, no multipliquemos los entes sin necesidad. Creo que es muy recomendable intentar atenerse a una ontología materialista sensu stricto cuando se analizan las computadoras porque en este contexto surgen muchos espejismos ontológicos.
  7. Una fantasía muy evocadora consiste en pensar que si pudiésemos conseguir crear un ordenador con una memoria continua en vez de discreta, tendríamos una memoria infinita, ya que algo continuo es infinitamente divisible de forma que siempre podríamos dividirlo otra vez para crear un nuevo espacio de memoria.
  8. Tenemos entonces los símbolos primitivos, los átomos de la computadora ¿Qué tipo de «manipulaciones» hace con ellos el ordenador? Para hacerlo más fácil, pensemos en la versión simplificada par excellence de un ordenador: una máquina de Turing. Ésta solo hace cinco cosas: lee, escribe, borra, mueve la cinta a la derecha o mueve la cinta a la izquierda. Si nos ponemos exquisitos, una máquina de Turing solo cambia cosas de sitio (Véase que la instrucción Mov era una de las esenciales del lenguaje ensamblador). Y esto es lo verdaderamente alucinante: solo cambiando cosas de sitio conseguimos llegar hacer ingenios como ChatGTP o AlphaFold.
  9. Además, como lenguaje solo necesitamos dos tipos de símbolos (0 y 1), ya que podemos traducir todos los números y las letras, es decir, todo símbolo imaginable, a código binario. No hay nada que pueda hacerse con un conjunto de símbolos cualesquiera (pongamos el alfabeto chino) y que no pueda hacerse con código binario. Todo código es bi-reductible.
  10. Por eso, para fabricar un computador, lo único que necesitamos es encontrar, o fabricar, elementos biestables (flip-flop), es decir, cosas que puedan mantenerse de forma razonablemente estable en uno de dos estados posibles.
  11. Recapitulando: solo necesitamos un mecanismo capaz cambiar dos tipos de cosas de sitio para llegar hacer ingenios como ChatGTP o AlhaFold. Es completamente increíble el poder generativo de algo tan sencillo.
  12. En 2007 saltó la noticia de que la máquina de Turing (2,3) era universal, es decir, de que una máquina de Turing de dos estados y tres colores era capaz de realizar cualquier cálculo imaginable. Un chaval de veinte añitos, un tal Alex Smith, había sido el diseñador de la máquina (si bien todavía el asunto es controvertido y, hasta donde yo sé, no ha sido aclarado aún). Adjunto la tesis doctoral de Turlough Neary y un artículo de Yurii Rogozhin por si alguien quiere profundizar en las máquinas de Turing mínimas.
  13. Pero esto nos debe hacer desconfiar de las explicaciones reduccionistas. Reducir lo que es un ordenador a su mínima expresión puede tener cierto valor explicativo pero no es, para nada, toda la historia. Intentar explicar todo lo que es un programa como Windows por ejemplo, únicamente apelando a voltajes y tensiones, sería lo mismo que intentar explicar la literatura de Cervantes solo apelando a los átomos de un ejemplar del Quijote. La mejor explicación aparecerá en niveles intermedios y no en los inferiores.
  14. Los distintos lenguajes de programación que aparecieron progresivamente fueron echando capas simbólicas sobre el hardware. Lo que se pretendía era, sencillamente, hacer más fácil el uso del ordenador al programador. Programar directamente con código binario es un auténtico infierno, por lo que, muy pronto se crearon instrucciones que ejecutaban un conjuntos enteros de procesos y que resultaban más amigables para los pobres ingenieros. Así surgió el ensamblador y demás lenguajes que fueron subiendo más y más de nivel simbólico o de abstracción. Famoso fue COBOL, basado en las ideas de la simpar Grace Murray Hopper, que casi puede entenderse sabiendo inglés. Hoy en día lenguajes como Python son de altísimo nivel, edificios con muchísimas plantas de símbolos, de instrucciones que están en lugar de otras que, a su vez, están en lugar de otras, y así sucesivamente muchísimas veces. El último nivel sería el de la interfaz de usuario, en donde se intenta que una persona sin conocimientos informáticos sea capaz de manejar la computadora.
  15. Esto genera una sensación engañosa de simplicidad. Al usuario le parece que no hay nada entre que pulsa el icono en pantalla y el vídeo empieza a verse. Aquí viene al pelo la famosa frase de Clarke: “Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”. Y esto puede ser muy peligroso.
  16. En el famoso argumento de la habitación china, Searle critica que el comportamiento de la máquina siempre es sintáctico y nunca semántico, es decir, que la computadora trata los símbolos no como símbolos sino como «lugares», como cosas que cambia de sitio sin ningún tipo de comprensión de su significado. Eso es verdad y no lo es. Es cierto que la computadora solo cambia cosas de sitio, pero lo hace según unas reglas y esas reglas sí que son semánticas. Por ejemplo, si hacemos un circuito para conseguir una puerta lógica AND, es cierto que la máquina no comprende lo que hace ni sabe lo que es un AND, pero el circuito sí que crea una puerta AND que se comporta, con todas las de la ley, como tal y podrá ser utilizada para esa tarea. Me gusta utilizar la expresión «semántica prestada» para hacer referencia a que toda la semántica se la ha puesto el ingeniero. Ciertamente, tal como dice Searle, la computadora no comprende lo que hace, pero se comporta como si lo hiciera y sus resultados son completamente válidos: las inferencias a partir de la puerta lógica AND son correctas.
  17. ChatGTP no comprende nada de lo que hace y su forma de funcionar mediante modelos de lenguaje basados en semánticas distribuidas es muy estúpida. Sin embargo, su espectacular éxito se debe a lo bien que maneja la semántica que ya encontró en los millones de textos con los que fue entrenado. Si ChatGTP sabe que «Hoy hace un buen día porque…» encaja mejor con «…no llueve» que con «… hace una terrible ventisca», es porque alguien que sí comprendía semánticamente lo que escribía se lo dejó preparado.
  18. Lo interesante viene cuando cualquier programa de procesamiento de lenguaje se encuentra con que tiene que inferir nuevas semánticas a partir de las que ya tiene. Por ejemplo, si sabe que «parachoques» suele llevarse bien con «automóvil», ¿se llevará bien con «helicóptero» o con «barco»? ChatGTP, y sus modelos homólogos, buscan con su colosal fuerza bruta otros casos en los que «parachoques» aparezca junto a «helicóptero» o «barco» pero, ¿y si no aparecieran? Lo salvaje de estos modelos es que casi siempre aparecen de alguna forma, porque tienen en su memoria todo lo que jamás ha sido escrito y, hablando en esos órdenes de magnitud, es muy difícil sorprenderles. La fuerza bruta es mucho más poderosa de lo que hubiéramos pensado.
  19. Pero, si nos olvidamos de ella, lo interesante sigue siendo crear IA de la forma tradicional: enseñando a que piensen de verdad y no solo a que busquen correlatos estadísticos. Como defiende Judea Pearl, hay que enseñarles causalidad. ChatGTP relaciona «nubes» con «lluvia» pero no comprende qué relación causal hay entre ambas, solo sabe que las nubes causan lluvia porque lo ha leído mil veces así, pero aceptaría felizmente que la lluvia causara nubes si así lo hubiera leído. Eso además, hace a estos sistemas muy frágiles al engaño o al fallo absurdo.
  20. En esta línea estoy muy de acuerdo con Gary Marcus en que no podemos partir de un sistema que no sabe absolutamente nada y meterle millones de datos, sino que hay que introducirles mucho más conocimiento incorporado. Parece que hay que volver a la vieja IA simbólica y diseñar sistemas híbridos que aprovechen lo mejor de ambos mundos. Hay que volver a recuperar los viejos sistemas expertos.
  21. De igual forma hay que dar más importancia al diseño del hardware. Debido al error de creer en el argumento funcionalista de la independencia de substrato o realizabilidad múltiple, se ha pensado en que el hardware no tenía ni la más mínima importancia. Fatal confusión: la mente ha co-evolucionado biológicamente con el cuerpo durante eones. En este proceso evolutivo la mente ha ido determinando el diseño óptimo de su sustrato, mientras que el sustrato habrá impuesto limitaciones y posibilidades al desarrollo mental. La estructura y las propiedades físicas del material condicionan, sin duda, el pensamiento.
  22. Y no solo las propiedades físicas, sino las del entorno en el que la mente se ha desarrollado. El contexto, el ecosistema, las características del entorno quedan profundamente reflejadas en la naturaleza de nuestros pensamientos. De aquí las nuevas corrientes en ciencias cognitivas: la cognición corporeizada, embebida, situada o encarnada.

Leyendo un simpático post de Jesús Zamora acerca de la verdad me vino a la cabeza la popular teoría de la verdad como redundancia. Es una forma ingeniosa de desembarazarse de conceptos que, debido a su carga metafísica, traen dolores de cabeza al reflexionar sobre ellos. Tal era el caso del concepto de verdad. Cuando nos preguntamos ¿qué es la verdad?, automáticamente nos entra vértigo y tenemos que exprimir nuestra sesera para ofrecer alguna respuesta concluyente. Los positivistas lógicos de primera mitad de siglo, intentaron solucionar el asunto disolviéndolo, es decir, constatando que ,en el fondo, lo que pasaba es que el concepto de verdad es un pseudoconcepto, una palabra sin sentido que sólo traía pseudoproblemas. Si queremos tener un conocimiento sólido de la realidad hay que eliminar estas absurdas fuentes de sofismas, por lo que, en su pretencioso proyecto de construir lenguajes lógicamente perfectos, entraba eliminar por completo cualquier palabra que oliera a metafísica.

La primera formulación de la teoría de la verdad como redundancia se encuentra formulada en Ramsey si bien Frege o Wittgenstein ya habían hecho mención de ella. En sus Investigaciones filosóficas Wittgenstein sostiene que decir que “es verdad que p” equivale a decir que “p”, del mismo modo que decir que “es falso que p” equivale a decir que “┐p”; por lo tanto decir “es verdad que p” es una redundancia que no añade nada nuevo a lo dicho en «que p”. Según Ramsey las teorías que afirman que la verdad es una propiedad o una relación de las palabras, de los objetos, o del resultado de relacionarlas, son erróneas. Las afirmaciones “es verdad que” o “es cierto que” no añaden nada nuevo a lo que diría la misma oración sin incluirlas. De este modo no hay verdades ni falsedades, ni siquiera hechos o casos. Ramsey disuelve en un momento todo discurso metafísico acerca de la verdad y, si forzamos un poquito, hasta de la misma realidad. Esto sí que es usar la navaja de Ockham.

Sin embargo, existe un problema: no siempre afirmamos la verdad de algo sin conocer la proposición en cuestión (p), adscribiéndonos ciegamente a su verdad. Sería el ejemplo de decir “Todo lo que el Papa dice es verdadero”. Ramsey, consciente del problema se lanza a su solución:

La proposición “Todo lo que el Papa dice es verdadero” se transcribe a lenguaje lógico así:

(1) Para todo a, R, b, si el Papa asevera aRb, entonces aRb

Si admitimos la cuantificación de segundo orden sobre la proposición, se podría transcribir a:

(2) Vp (Si el Papa dice que p, entonces p)

Podríamos decir entonces lo mismo sin recurrir a “es verdadero” por lo que afirmar la verdad o falsedad en este tipo de proposiciones seguiría siendo redundante.

PD: Ramsey, además de un genio, era un ateo militante, pero tenía graves problemas de riñón que lo llevaron a la tumba con tan sólo veintiséis años. Dios tiene muy mala leche con los ateos. Crucemos los dedos.

 

Una de las principales razones que tengo para querer vivir eternamente es la de ver el futuro. Cuando pienso en cómo será el mundo dentro de cuatrocientos o mil años me da mucha lástima no poder estar allí para contemplarlo. Y más me fastidia cuando pienso en alguien como, por ejemplo, Guillermo de Ockham, una inteligencia privilegiada en la Edad Media, y en adelantos de la tecnología que hoy son una realidad como los teléfonos móviles o Internet, y me pregunto si podríamos explicarle lo que son. ¿Podría Ockham, hombre del Siglo XIV,  entender cómo transmitimos imágenes y sonidos a unas cajitas de plástico de colores mediante ondas electromagnéticas que viajan invisibles por la atmósfera?  ¿Podríamos explicarle a Ockham qué es un Blog? En su época era algo absolutamente inimaginable. Entonces, lo que realmente me fastidia es lo que existirá siendo absolutamente inimaginable para mí dentro de cuatrocientos años y que yo no estaré para ver.  Si Internet sería incomprensible para Ockham, ¿qué será lo incomprensible para nosotros?

Y la cosa cobra más incertidumbre si aceptamos la hipótesis de la singularidad tecnológica. Si dentro de x años superinteligencias computerizadas van a inventar cosas que nuestras sencillas inteligencias de homínido no pueden ni soñar… ¿Qué nos deparará el futuro? Aquí os dejo un pequeño adelanto de lo que está por venir en los próximos años,  el breve lapso de tiempo que nuestra escasa capacidad predictiva del avance tecnológico nos puede describir.

Véase ¿Quién puede negar la idea de Progreso? (II)

Una de las cosas que más me cuesta entender de mi gremio, los filósofos, es  cómo es posible que el tema del Origen del Universo haya dejado de ser un problema filosófico, dejándoselo con exclusividad a astrofísicos y cosmólogos… No comprendo el hecho de que no aparezcan títulos en las librerías que se titulen «El concepto de inflación cósmica en el segundo Hawking» o «La expansión del Universo desde una perspectiva fenomenológica». En fin, síntomas del anquilosamiento de una noble disciplina que necesita una tremenda renovación.  En pro de poner un granito de arena en solucionar este problema voy a hablar de una de las teorías cosmológicas más sorprendentes y atrevidas de la actualidad: la teoría de los universos múltiples.

El cosmólogo soviético de la Universidad de Tufts Alexander Vilenkin piensa que más allá de lo que consideramos Universo observable, existen otros universos, infinitud de universos que tuvieron sus propios big bangs (ríanse ustedes de la navaja de Ockham y de eso de no multiplicar los entes sin necesidad). Así mismo, esos universos se encuentran dentro de otros Universos siguiendo un patrón fractal, como si de un juego de muñecas rusas se tratara. Los universos son como burbujas «flotando» en lo que se denomina falso vacío. Así, tendríamos universos dentro de universos hasta llegar al falso vacío primigenio, del cual habrían surgido los primeros big bangs.

¿Y qué es el falso vacío? El vacío surge de quitar toda las partículas y toda la radiación de un espacio concreto. Siguiendo la concepción espacial de Newton, en la que el espacio es el gran continente de la materia, los físicos pensaban que ese espacio concreto tendría una densidad energética cero, es decir, que estaría realmente vacío. Sin embargo, Vilenkin desmiente eso afirmando que el vacío no está realmente vacío (es diferente de la nada. Llore señor Parménides), sino que tiene presión y puede estar en diferentes estados energéticos. Podrían existir vacíos con unas densidades energéticas muy altas (estos son propiamente, los falsos vacíos) que tendrían unas propiedades físicas algo extrañas: cada centímetro cúbico tendría una masa equivalente a la Luna, gravedad repulsiva y una alta inestabilidad que los hace decaer en vacíos con densidades energéticas más bajas. Al decaer, el falso vacío genera un enorme excedente energético que se transforma en partículas y radiación (he aquí la creación de nuestro Universo). Además, este falso vacío y su «antigravedad» o fuerza de repulsión explicaría el periodo de inflación cósmica inmediatamente posterior al Big Bang.

Multiverso: infinitos universos unos dentro de otros

El número de universos generado en este Multiverso es infinito, pero no los sucesos que en él pueden ocurrir. De ese modo la teoría del eterno retorno de Nietzsche puede tener sentido. Si el número es infinito pero los eventos que ocurren no, necesariamente, todas las posibilidades se darán y se repetirán… ¡infinitas veces! Mi vida se está viviendo exactamente igual a como la vivo yo ahora en infinitos universos paralelos. Pero es más, no sólo hay infinitos santiagos tecleando este mismo texto en sus ordenadores, sino que hay infinitos santiagos que no lo están haciendo porque escriben otro sobre salvar las ballenas, el estado de la economía o veinte formas de hacer una pipirrana… Desde luego, creernos el centro del Universo deja definitivamente de tener sentido. El Cosmos en su totalidad es un lugar donde se dan una y otra vez todas las posibilidades posibles… ¿Alguien puede descifrar esto?

Véase también: La noción de campo ha de sustituir a la de materia o En contra del materialismo (III)

O el capítulo 33 de Redes, o Una conferencia que dio Vilenkin para la Fundación Banco Santander

Estatua de Hume en EdimburgoSiempre me ha resultado curioso como los planteamientos filosóficos que pretendieron ser más estrictamente realistas, en el sentido de partir exclusivamente de la experiencia, sin inventarse nada, como los de Ockham o Hume, acaban en cierto escepticismo.  Por el bando contrario, otras menos cuidadosas, acaban en posturas más dogmáticas como las de Descartes o Leibniz, por seguir en la misma época.

Desde que me lo explicaron por primera vez en el instituto, he tenido una cierta debilidad por David Hume. Su famosa crítica al principio de causalidad me parece una idea tan fantástica como simple… ¿cómo todo el mundo había sido tan sumamente dogmático de no darse cuenta de algo tan evidente? ¿Cómo era posible que Santo Tomás no se diera cuenta de que es imposible deducir desde los efectos alguna característica de la causa? Para los profanos en el tema o para los que quieran repensar esto, voy a explicarlo tal y como lo hago en clase.

Cuando observamos un fenómeno causal, del tipo que digamos  «El fenónomeno A es causa de B», lo único que realmente percibimos es:

a) Una contigüidad entre el fenómeno causa y el efecto: A y B siempre se dan juntos en el tiempo, no separados por una distancia temporal considerable. Ej.: nada más encender el fuego sale humo.

b) Una prioridad de la causa sobre el efecto: percibimos que A siempre va antes que B. Ej.: el fuego va antes que el humo.

c) Una unión constante entre la causa y el efecto: siempre que percibo A percibo B. Ej.: siempre que percibo fuego hay humo.

La clave está en lo siguiente: unión constante no quiere decir conexión necesaria. Nuestro entendimiento tiende a crear expectativas de futuro cuando ve dos fenómenos que se dan parejos en el tiempo. Si cada vez que he visto fuego he visto salir humo, tiendo a pensar que, en un futuro, cada vez que vea fuego, veré humo. Sí, pero el único fundamento de tal expectativa sólo reside en la costumbre: como hasta ahora ha pasado esto, pienso que en un futuro pasará lo mismo… ¡pero ese es mi único fundamento! La costumbre nunca puede expresar necesidad lógica: que algo haya pasado así hasta ahora, no quiere decir que vaya a pasar así siempre.

Bertrand Russell expresaba muy bien esta crítica en su cuento del pavo inductivo: supongamos que tenemos un pavo muy inteligente que vive en una granja. Es muy curioso y quiere entender cómo funciona su mundo. Apunta cuidadosamente las cosas que le suceden todos los días e infiere leyes por inducción. Así, comprueba que todos los días el granjero le echa comida a las 9, de lo que infiere inductivamente que «Todos los días como a las 9″. El pavo cree en sus leyes y las eleva al rango de ciencia. Así vive tranquilo en su ordenado y estable mundo. Sin embargo, la víspera de Navidad, el granjero no vino ni con la comida ni con el agua, sino con un hacha. Las leyes inductivas de nuestro desdichado pavo jamás hubieran podido  predecir algo así.

Conclusión: nuestras leyes científicas están basadas en el principio de causalidad por lo que, como hemos visto, no podemos decir que se cumpliran de modo necesario en el futuro. Pudiera ser que mañana cambiara el orden del Cosmos y las cosas cambiaran radicalmente. ¿Y si mañana dejara de funcionar la ley de la gravedad? Sería un serio problema, pero no podemos decir con necesidad lógica que no pudiera ocurrir.

Partimos de la no simetría entre una proposición existencial afirmativa y una negativa a la hora de aceptar su verdad. Si yo digo «No existen los duendes bicéfalos» no tengo por qué aportar razones a favor de mi enunciado. Si así fuera cada vez que mi imaginación se encontrara con cualquier fantasía y como el universo es inmenso y harían falta millones de vidas para registrarlo entero, debería aceptar su existencia al no poder probar su inexistencia. Ergo, una afirmación existencial negativa se acepta sin tener que aportar razones a favor.

Por el contrario, una proposición existencial afirmativa tal como «Existe el monstruo del Lago Ness» sí que requiere de razones para aceptar su veracidad. De la calidad de tales razones extraeremos nuestra aprobación. Por lo tanto, cuando un cristiano se defiende de los ateos sosteniendo que no han sido capaces de demostrar la inexistencia de Dios no tienen razón. Es el cristianismo el que tiene que aportar razones para que creamos en lo que nos dice. Sería como si un amigo me dice que esta tarde ha visto un OVNI y, si yo dudo de ello, me responde que le demuestre que él no ha visto un OVNI. No, ha de ser el que propone el enunciado el que aporte pruebas a favor de su afirmación.

Aplicando lo dicho al Cristianismo, sabemos que las pruebas aportadas para la existencia de Dios son insuficientes, por lo que lo más razonable es no ser creyente. La filósofa Ayn Rand lo explica mejor que yo:

Podría objetarse, siguiendo a San Anselmo y, en la actualidad, a Jay Gould que ciencia y religión son dos cosas diferentes. Razón y fe son dos cosas inconmensurables, condenadas a no entenderse porque su naturaleza es distinta. Esta es la postura protestante por antonomasia, surgida desde el nominalismo de Ockham. El problema que tiene es que si se acepta se imposibilita cualquier tipo de teología racional. La razón no puede hablar de Dios. Sin embargo, el catolicismo sí que intenta construir teorías racionales en torno a Dios, por lo que a tenor de lo dicho el catolicismo es insostenible.

La única religión posible, siendo estrictos, sería la propuesta por el primer Wittgenstein. Los positivistas lógicos no entenideron demasiado bien el Tractatus ya que, a partir de él, postularon el absurdo de la religión. Wittgenstein era un hombre muy religioso pero entendía que la religión estaba en el ámbito de «lo que no se puede hablar» . La religión estaba en lo que él denominada como lo místico, algo fuera del mundo y, por lo tanto, fuera de los límites del lenguaje. La religión se vive, se siente, pero no se puede teorizar racionalmente sobre ella. A mí ésta me parece la única forma  honesta posible de religión.

De lo que no se puede hablar mejor es guardar silencio