Comparativa modelos NLP

En el inacabable debate entre lo innato y lo adquirido, las redes neuronales artificiales parecían postularse como evidencia a favor del ambientalismo, ya que parecen capaces de «atrapar» ciertas estructuras lingüísticas solo a partir de su entrenamiento. Rumelhart y McCelland diseñaron una red para aprender los verbos en inglés que parecía hacerlo igual que los niños. De hecho, cometía exactamente igual que ellos, el clásico error de sobrerregulación (en vez de pasar de «volver» a «vuelto», lo hacía a «volvido») ¿Y qué decimos de los nuevos modelos de lenguaje desde BERT a Gopher? Su desempeño, al menos «externo», es sensacional. Estos días he estado jugando con GPT-3 y, a pesar de algunos errores, en general, funciona fantásticamente bien (luego subiré una entrada con extractos de mis conversaciones). Tengamos en cuenta que estos sistemas basados en semánticas distribuidas tienen cero conocimiento de semántica o sintaxis. No tienen, desde luego, ningún tipo de universal lingüístico chomskyano en su diseño ¿No serían entonces una evidencia clarísima en contra del innatismo? No.

En primer lugar, ya sabemos que el sistema de aprendizaje de estos algoritmos no parece tener nada que ver con el humano. Nosotros no necesitamos millones de ejemplos, ni en la neurología humana existe nada parecido a la backpropagation. Se ha argumentado que quizá computamos mal el número de ejemplos que necesitamos las personas en cada experiencia de aprendizaje. Si consideramos que la percepción humana trabaja a una velocidad de 10 a 12 «fotogramas» por segundo, o que cuando soñamos reconstruimos recuerdos rápidamente a la velocidad de ritmo theta, un niño escuchando unos segundos hablar a su madre, podría equivaler a cientos o miles de exposiciones entrenables. También se ha argumentado, y aquí está lo interesante, que la hoja de ruta de los ingenieros está en conseguir programas que necesiten cada vez menos ejemplos de entrenamiento (véase, por ejemplo, el trabajo de Li Fei-Fei). Podría llegar el momento en que el número de ejemplos necesarios para los algoritmos se aproxime en cifras aceptables al nuestro. No obstante, en el estado del arte actual, parece que estas arquitecturas no constituyen un buen modelo para la mente humana («Ni lo pretenden» responderían airados sus ingenieros. Podéis leer algo más de este tema en un TFM que hice). Pero veámoslo desde otro ángulo.

La estructura de los modelos de lenguaje desde BERT se basa en un sistema de aprendizaje en dos fases: primero tenemos el modelo base del programa, entrenado con miles de millones de ejemplos y requiriendo una enorme capacidad de cómputo. Gopher ha sido entrenado con 280 mil millones de parámetros o su rival de NVIDIA, Megatron-Turing NLG con 530 mil millones. En estos momentos estamos en una escalada de tamaños que, seguramente, está todavía lejos de terminarse. Hasta los chinos han presentado los suyos: Wu Dao 2.0 y M6, por supuesto, mucho más grandes que los occidentales. Seguidamente, al modelo base se le pueden añadir capas de ajuste fino (fine tunning), un entrenamiento específico para que la máquina sea especialmente buena en una tarea concreta (inferencias, equivalencia semántica, análisis de sentimientos, etc.). Después, el programa ya está completamente listo para funcionar. Lo importante es que ahora ya no necesita la enorme capacidad de cómputo de su entrenamiento. Todo ese gasto ya no tiene que volver a realizarse y  ahora el programa funciona como otro cualquiera en términos de gasto. De hecho, el camino parece ser incluso reducir aún su tamaño. DeepMind ha sacado RETRO, una versión de Gopher reducida en tamaño (unas 25 veces más pequeño que sus pares en desempeño). Tiene solo 7.000 millones de parámetros, pero lo compensa con la ayuda de una memoria externa a la que consulta cada vez. 

Supongamos ahora que somos una especie de extraterrestres que llegamos a la Tierra y analizamos a RETRO, sin saber absolutamente nada de su pasado de entrenamiento. Veríamos una arquitectura relativamente sencilla funcionando con una más que aceptable competencia llingüística. Podríamos entonces iniciar la investigación al estilo chomskyano: buscar unas estructuras profundas, unas gramáticas generativas a partir de las cuales RETRO produce todo ese lenguaje. Quizá fracasáramos y no encontráramos nada (debido quizá al black box problem). Entonces daríamos la razón a los ambientalistas y diríamos que todo lo que hay en RETRO ha de ser aprendido del entorno.  Sin embargo, en nuestro análisis no habríamos tenido en cuenta todo el costosísimo entrenamiento previo que RETRO lleva implícitamente dentro. RETRO nace con una enorme carga innata invisible al analizador. 

Hagamos ahora la analogía con el ser humano. Quizá nosotros traemos como innato invisible todo este gran modelo base entrenado por eones de años de evolución. Naceríamos con algo así como una memoria filética en la que estarían grabadas de forma distribuida las cualidades universales de los lenguajes humanos. El ajuste fino sería, sencillamente, el aprendizaje de los usos lingüísticos de nuestro idioma geográfico realizado por cada individuo particular durante su vida. En ese sentido, la carga innata sería enorme, infinitamente más grande que todo lo que aprendemos en vida, pero permanecería oculta al analista. Y es más, para nuestro fastidio, sería tremendamente difícil de investigar, ya que habría que conocer la historia evolutiva del lenguaje de millones de especies extintas, una tarea de ingeniería inversa imposible.  

Desde que descubrimos la teoría de la evolución, ese ha sido el gran problema: todo órgano ha pasado por una larguísima historia que desconocemos, ha pasado por innumerables adaptaciones, exaptaciones, funcionalidades cambiantes, e incluso quedar como órgano rudimentario durante un tiempo para luego volver a ser reutilizado. Si pensamos que la única forma de estudiar el pasado biológico es a través de los fósiles, siendo estos solo huesos… ¿cómo vamos a entender el cerebro si no se conserva en el registro fósil, si de nuestros parientes más cercanos solo podemos aspirar a encontrar trozos de cráneo? Algo podemos hacer estudiando el de otros seres vivos, pero todo es muy confuso: el cerebro de un chimpancé no es el de un ancestro, es de un primo, ya que no descendemos del chimpancé, sino que el chimpancé y nosotros descendemos de un ancestro común desconocido.  

Entender el cerebro es como querer comprender qué son las pirámides de Gizeh, solo teniendo conocimiento histórico a partir de enero de 2022. 

comentarios
  1. Heriberto Tachella dice:

    Excelente trabajo. Me sugiere una reflexión sobre el futuro…
    Aceptar que el sistema de aprendizaje es distinto del humano pone en serias dificultades nuestra necesidad de «explicaciones». Si los resultados de los cálculos (predicciones) de las redes son estadísticamente mejores que los humanos, y en cada vez mas temas…. ¿Será socialmente aceptable la situación si se hace pública? ¿Aceptarán los gobiernos los «consejos» de las «máquinas»?

  2. subharb dice:

    «Naceríamos con algo así como una memoria filética en la que estarían grabadas de forma distribuida las cualidades universales de los lenguajes humanos.»
    Y si fuera de otra forma, y si los lenguajes que somos capaces de generar como especie, estén determinados por la herramienta que los produce(nuestro cerebro, su estructura) y no tanto por una memoria. Es decir, de la misma forma que nuestras manos son capaces de crear casi cualquier forma en barro, pero sin embargo, muy difícilmente podríamos crear sin ayuda de alguna herramienta, formas con ángulos rectos sólo con nuestras manos. Los lenguajes que creamos(como especie) son los únicos que podemos entender/aprender/hablar con nuestro cerebro. Quizás entendiendo mejor la herramienta que los produce podremos entender mejor sus resultados.

  3. Masgüel dice:

    «No tienen, desde luego, ningún tipo de universal lingüístico chomskyano en su diseño ¿No serían entonces una evidencia clarísima en contra del innatismo? No.»

    Pues va a ser que sí.
    Esa supuesta memoria filética de universales lingüísticos presupone la asimilación genética de usus lingüísticos aprendidos a lo largo de millones de años. Pero el mecanismo de esa asimilación sería lamarkiano. Además, no hay nada en ese proceso que asegure su universalidad. El grueso del lenguaje podría ser innato pero diverso entre distintas poblaciones, como el color de la piel.
    Por otro lado, es un comodín inmerecido para el innatismo chomskiano, que nunca ha aportado pruebas desde la neurología o la genética, otorgarle ese título de «posiblemente verdadero pero indemostrable».

    Dice Subharb que «los lenguajes que creamos(como especie) son los únicos que podemos entender/aprender/hablar con nuestro cerebro. Quizás entendiendo mejor la herramienta que los produce podremos entender mejor sus resultados.» Es justo al revés. Las herramientas son los idiomas y no los creamos como especie, sino como culturas concretas. Como herramientas, son fruto de la invención y el aprendizaje. El cerebro no segrega pensamientos como el páncreas insulina. Evolutivamente, lo relevante es cómo el cerebro ha evolucionado bajo la presión selectiva de pertenecer a un grupo social que usa esa herramienta para todo.

  4. Masgüel dice:

    Simon Kirby, explica por qué un órgano que nos permite aprender de la experiencia resulta mucho más rápido y eficaz para la creación de usos lingüísticos que lo que podría conseguir cualquier proceso de asimilación genética:

  5. pharmakoi dice:

    Pues yo creo que los lenguajes no «existen» previamente a su realización episódica en un sentido idealista-platónico-chomskyano, pero me parece que tendemos a segregar en exceso las facultades cognitivo-conductuales para así tratar de simplificar un problema que no es tal. EL lenguaje, al igual que el ser humano y probablemente todos los seres vivos EXISTEN por y para el lenguaje; Lenguaje visual, corporal kinestésico, verbal pero en un todo que trasciende las leyes más básicas que le adjudicamos a nuestra realidad percibida-actuada. Y el germen, la semilla a partir de la cual los seres humanos construimos los principios en un sentido chomskyano se desarrolla durante nuestra vida uterina (que no es equivalnete al momento de la fecundación sino más bien al punto a partir del cual ese organismo en evolución ontogenética comienza a tener un yo). La forma en que vamos secuenciando y parametrizando ese principio ontogenético adquirido durante el desarrollo del embrión o el feto es, desde luego, algo que se nos escapa, y que requiere de procesos de socialización, imitación e identificación con «otros» significativos y es indisociable de las emociones y los sentimientos.

  6. pharmakoi dice:

    Diríase que la inexistencia intencional de los fenómenos psíquicos en cuanto actos de representación dirigidos a un objeto es el resultado existencial de la intelección interactiva de los individuos en un proceso de continua transformación de los significados y las affordances, cuya posibilidad reside en nuestra capacidad de identificarnos empáticamente con un otro significativo que a modo de índice peirciano (no ilimitadamente abierto en sus posibilidades de aprehensión, no entendido como meramente un signo lingüístico) nos permite enactuarnos mutuamente y, a posteriori, cuando el YO se individua y emerge la persona estar solos en el mundo y a pesar de ello formar parte de un todo con apariencia de realidad, lo que es suficiente para creer, saber y conocer las propiedades del mundo externo sin perdernos en un solipsismo absurdamente cínico y despectivo para con los demás y con nosotros mismos. Ni en una suerte de intersubjetivismo consuetudinario que puede adoptar cualquier forma de manera totalmente indefinida, más bien estaríamos hablando del tipo de ergodicidad limitada que caracteriza a los seres vivos y que en el caso de los humanos es mucho más amplia que para los demás organismos que pueblan el planeta en que vivimos.

    Haz clic para acceder a 5499650.pdf

    https://royalsocietypublishing.org/doi/10.1098/rsif.2013.0475

    https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3510653/

  7. Pharmakoi dice:

    Supongo que enfoques como el del bottleneck método podrían ayudar a solventar ese problema de la enorme carga de entrenamiento requerido por la NN actuales, ya que se basa en el principio de usar tan sólo aquellas variables o valores que son informacionalmente relevantes para transmitir y codificar el mensaje. La cuestión es a mi parecer como elegir la rate distortion function pertinente para la comunicación humana aunque me parece que los métodos de cálculo de variaciones tienen algo que decir en esto. Pero sigo sin confiar en la pretensión normalizadora que asume la posibilidad de expresar mateticamente el o los aspectos universalmente relevantes a toda actividad humana. Eso es algo que a día de hoy sólo se puede conseguir mediante la interacción directa con nuestros semejantes y que a modo de bottleneck method y con ayuda de nuestra historia filogenetica y evolutiva , nos permite reconocer los parámetros esenciales de cada lenguaje, especialmente el materno que se adquiere durante el periodo critico. De ahí que la línea de hacer NN cada vez más pesadas que manejan un mayor número de parámetros sin tener en cuenta el necesario tradeoff entre accuracy y complejidad implícito en el bottlenck método no este arrojando los resultados esperados según el dicho «burro grande ande o no ande». Además es posible que para que el NLP alcance a ser inconfundible con el humano necesitemos tener una visión más encarnada y extendida de la mente, y las características del self que nos hacen inevitablemente humanos, incluso en casos límites como los de un autista que no es capaz de usar el lenguaje verbal pero a buen seguro tiene una cierta noción implícita de lo que es lenguaje y sabe usarlo a su manera para comunicarse con sus semejantes. La idea de un órgano especializado para el lenguaje me parece demasiado idealista-esencialista, serán mecanismos de indole más general que a modo de exaptacion han permitido la aparición del lenguaje tal y como lo conocemos hoy en día. Especialmente los procesos de apego y la motricidad fina.

  8. pharmakoi dice:

    Igual este post te interesa sobre el tipo de enfoque a nivel matemático de los NLP que mencionas y su parecido con todo esto que te he comentado ya alguna vez del principio de energía libre aplicado especialmente al campo de la neurociencia (si indagas un poco verás que se trata de modelos generativos, concretamente del tipo conocido como variational autoencoders, y que es lo normal hoy en día en el state of the art, a diferencia de los modelos discriminativos). Lo más interesante de los trabajos en el campo del principio de energía libre y el cerebro bayesiano es, creo yo, que ya a día de hoy se están construyendo modelos generativos que mediante el dynamic causal modeling y datos experimentales de estudios de neuroimagen y EEG permiten hacer inferencias bastante precisas a nivel micro del funcionamiento del cerebro.

    https://jrodthoughts.medium.com/microsoft-research-unveils-three-efforts-to-advance-deep-generative-models-b1d2fe3395e8

    y ya puestos algunos links más que pueden arrojar algo de luz sobre lo que comento

    https://en.wikipedia.org/wiki/Discriminative_model

    Haz clic para acceder a 1708.05148.pdf

    y este de regalo, para los que aún puedan estar interesados en temas más filosóficos y quizás más humanos (este no sé si saldrá porque me parece que no es copyleft o lo que sea pero vaya, el título al menos es sugerente: How Psychology Erodes Personhood)

    Haz clic para acceder a h0091217.pdf

  9. pharmakoi dice:

    «Entender el cerebro es como querer comprender qué son las pirámides de Gizeh, solo teniendo conocimiento histórico a partir de enero de 2022.»

    jaja, esta frase me la voy a guardar para decírsela a más de un psiquiatra que pretende conocer a la persona que tiene delante basándose en sus observaciones durante pongamos 15 minutos de entrevista…

    sobre el sueño húmedo de chomsky y los platónicos de descifrar las claves de la supuesta gramática universal igual es eso en cierto modo lo que hacen los modelos actuales de deep learning, incluso cuando se aplican a otras áreas como el diseño de medicamentos

    «In this work, we propose a novel ligand-based de novo molecular design approach for targeting specific proteins. First, we trained a Transformer-encoder-based generator on ChEMBL’s 1.6 million data sets to learn the grammatical rules of known drug molecules. Second, TL is used to introduce the prior knowledge of drugs with known activities against particular targets into the generative model to construct new molecules similar to the known ligands. This is then followed by an RL module to combine the generative model and the predictive model to optimize the parameters of the generator to generate small molecules with high scores, that is, molecules with drug-like properties that are expected to bind well with the target. Finally, molecular docking was used to further evaluate the activity of the generated molecules.

    https://pubs.acs.org/doi/10.1021/acsomega.1c05145

    Sobre el tema de la inferencia activa y el predictive coding y todo eso que ya se a ti no te interesa porque es demasiado simple para una mente con una historia filo y ontogenética tan compleja como la tuya, aparte de lo que ya te he comentado de que a nivel práctico es de gran utilidad en estudios de neurorradiología, te dejo un par de ejemplos de gente del campo de la IA que está tratando de construir modelos basados en dichos principios y ver cómo se comparan al estándar actual que se basa en las ideas del reinforcement learning (conductismo puro y duro vaya).

    https://arxiv.org/abs/2005.03230

    COMBINING ACTIVE INFERENCE AND HIERARCHICAL
    PREDICTIVE CODING: A TUTORIAL INTRODUCTION AND CASE
    STUDY Beren Millidge

    Haz clic para acceder a 2109.00866.pdf

    (tampoco te creas que me los he leído, solo que mí me resulta relevante y puedo llegar a entender, de hecho el tercero lo he puesto porque lo acabo de ver y digo igual me interesa echarle un ojo en algún momento)

    Un último apunte

    «Si consideramos que la percepción humana trabaja a una velocidad de 10 a 12 «fotogramas» por segundo, o que cuando soñamos reconstruimos recuerdos rápidamente a la velocidad de ritmo theta, un niño escuchando unos segundos hablar a su madre, podría equivaler a cientos o miles de exposiciones entrenables.»

    The induced or time–frequency responses over all units
    (second panel) are interesting from the point of view of
    theta–gamma coupling in the hippocampus during exploration
    (Dragoi and Buzsaki 2006; Colgin et al. 2009; Lisman
    and Redish 2009; Jezek et al. 2011; Buzsaki and Moser
    2013). This coupling arises naturally as the fast (gamma)
    optimisation of posterior expectations is entrained by a slow
    (theta) sampling of the environment (Friston and Buzsaki
    2016)

    Planning and navigation as active inference
    Raphael Kaplan · Karl J. Friston

    solo por pinchar un poco, aunque es algo muy conocido que las ondas theta , propias del sueño y de ciertos estados alterados de consciencia y que es cierto que en los niños pequeños se dan más, son de las de menor frecuencia o sea que eso de «velocidad de ritmos theta» parece que te lo has sacado ahí un poco de la manga por darle «intríngulis» al asunto. Según estos modelos durante el sueño, al igual que mediante la exploración, lo que se hace principalmente es reducir la complejidad del modelo, mediante la reconstrucción de recuerdos o váyase usted a saber no me voy a liar con debates ya tangenciales. También hay quién piensa (psicoanalistas pérfidos de los que es mejor no hablar) que los estados psicóticos podrían servir de algún modo a esa función (desde luego de forma patológica, no voy a ser yo quien haga aquí una apología de la locura ni nada tan inmoral).

  10. pharmakoi dice:

    vaya que curioso veo que no has publicado mi último comentario… bueno da igual ya estoy casi asqueado de leer tanto sobre estos temas que en la práctica son campos de estudio muy especializados, pero aún me picaba un poco la curiosidad por lo que comenté en lo que no pareces querer publicar sobre la complejidad del modelo y cómo se afronta ese problema en los modelos que tú comentas de deep learning.

    Básicamente quería comentar porque esto si es algo fácil de entender para un lego como yo y por lo que veo cuanto más me informo sobre el tema incluso bastante más (lego) tú, que lo de la complejidad tiene que ver con lo que normalmente se conoce como overftting que tiene que ver con que en ocasiones un modelo de regresión, generativo o lo que sea puede ser muy bueno prediciendo o ajustándose a los datos conocidos o de entrenamiento, etc… pero suele ocurrir con estos modelos que hay un cierto tradeoff entre el ajuste a los datos de entrenamiento y la capacidad de generalizar a datos aún no conocidos (howhy lo explica lo explica de un modo bastante ilustrativo y sencillo en su libro predictive mind). Eso y poco más aunque lo de que se entrena con «chorrocientos» parámetros tambíen demuestra bastante ignorancia por tu parte porque los parámetros tienen que ver con la codificación que hace el modelo de los datos o ejemplos de entrenamiento (vaya parece que no te hayas parado a pensar ni en lo que significa la palabra parámetro en el campo de la estadística). Y el artículo que pones de LI FEi FEi es de 2006 cuando todo el tema del deep learning actual aún no estaba nada desarrollado o sea que eso de que la hoja de ruta de los ingenieros..blabla…

    Da igual, si en el fondo valoro el trabajo que haces porque seguro que consigues despertar la curiosidad de bastante gente por estos temas (aunque en muchos casos no sé si de un modo muy útil más que para tu ego y tu estatus, ejem).

    y esto que me ha resultado curioso porque lo había pensado a raíz de tu diatriba sobre la necesidad de muchos ejemplos de entrenamiento y como la evolución ha solucionado eso. Aunque tampoco añade mucho pero vamos que esa obsesión con la retórica evolucionista por parte de un filósofo para mí deja bastante que desear y he visto como se usa para justificar muchas actitudes políticas de lo más perjudiciales y sin la más mínima validez científica.

    Why transformer overfit quickly? how to solve it?

    Hi

    -I have a general question and appreciate your feedback on it.
    I am new to transformers. My main problem is that it overfits so quickly, I am using regularization methods such as augmentation and dropout, but after 2 epochs my validation accuracy starts to drop while the training accuracy reaches to highest (basically my model overfit).
    do you have any suggestions?
    Interestingly I never see this behavior when I use convolutions…

    -My personal thought is if your data is less, it will overfit quickly. If you want to avoid it, reduce epochs. But, best way is to gather more data.

    Having said that neither transformer nor neural networks suffer too much from overfitting. Some papers are there I guess. It’s good in generalizing most of the times. Remember transformer like models have quite good number of parameters, that’s also one reason of overfitting. But in downstream tasks, even if it overfits, it’s useful right.

    Pre training is like a person who graduate with Masters. Fine tuning is like doing PhD ( except here it is quick :slight_smile: , use your graduation skills to be an expert in specific field. So overfitting is okay. Personal opinion only.

    jeje…evito poner links porque espero así saltarme tus mecanismos de censura..que pena de verdad aquí perdiendo el tiempo, será porque en el fondo aunque parezca muy cínico (y puede que lo sea no en un sentido coloquial sino más como diógenes) nunca he perdido la esperanza y soy optimista. Por eso y porque me aburro y yo también necesito mis dosis de ego trip y gran parte del último comentario que no has publicado porque me dolió cuando te comenté de un modo amistoso sobre el tema del predictive coding incluso recomendando un libro que está bastante bien como introducción para no expertos (surfing uncertainty de Andy Clark) y te limitaste a darle la vuelta a mi argumento sobre la parsimonia y tal para decir que eso era demasiado simple (tú, en tu papel de ídolo y amo y señor de este domino y con tu estatus de profesor y experto en la materia mostrando esas enormes dosis de empatía hacia alguien como yo que sabes perfectamente cual es mi situación porque en ocasiones incluso me has invitado a airearla públicamente con lo que lo único que conseguía era revivir experiencias traumáticas que prefería olvidar…). Bueno ya me he desahogado menos mal que no nos conocemos en persona ni somos amigos ni nada por el estilo y así no me siento mal por ponerte verde. Es lo que tiene a veces internet, para bien o para mal (en este caso más bien para mal aunque espero que a tus alumnos los trates con un poco más de empatía de la que generalmente has mostrado hacia mí, incluso aunque sean tan críticos como yo, para qué nos vamos a engañar, he sido casi siempre contigo).

  11. pharmakoi dice:

    Women, behavior, and evolution: Understanding the debate between feminist evolutionists and evolutionary psychologists
    Laurette T. Liesen
    Abstract
    Often since the early 1990s, feminist evolutionists have criticized evolutionary psychologists, finding fault in their analyses of human male and female reproductive behavior. Feminist evolutionists have criticized various evolutionary psychologists for perpetuating gender stereotypes, using questionable methodology, and exhibiting a chill toward feminism. Though these criticisms have been raised many times, the conflict itself has not been fully analyzed. Therefore, I reconsider this conflict, both in its origins and its implications. I find that the approaches and perspectives of feminist evolutionists and evolutionary psychologists are distinctly different, leading many of the former to work in behavioral ecology, primatology, and evolutionary biology. Invitingly to feminist evolutionists, these three fields emphasize social behavior and the influences of environmental variables; in contrast, evolutionary psychology has come to rely on assumptions deemphasizing the pliability of psychological mechanisms and the flexibility of human behavior. In behavioral ecology, primatology, and evolutionary biology, feminist evolutionists have found old biases easy to correct and new hypotheses practical to test, offering new insights into male and female behavior, explaining the emergence and persistence of patriarchy, and potentially bringing closer a prime feminist goal, sexual equality.

    THE MISOGYNY WITHIN THE
    MANOSPHERE
    A DISCOURSE ANALYSIS IN A SWEDISH
    CONTEXT
    MARIA WIKLUND

    The manosphere can be seen as an umbrella term including groups such as MRAs, Pick Up Artists (PUAs) and Incels, which all share the same misogynistic beliefs that men must fight back against the feminist values (Jones et al., 2019; Marwick & Caplan, 2018). Those misogynistic thoughts can be associated with off-line mass shootings, death threats, abuse and rape culture (Ging, 2019). The rhetoric of the manosphere is dominated by evolutionary psychology, where genetic determinism is the key to explain the behaviour of sexual selection between men and women (Ging, 2019; Nagle, 2015). They limit the theory to support the claims that women want to pair with alpha males, are irrational, hypergamous and needs to be dominated (Ging,2019).

    Pues eso, tú dedícate a reirte de la psicología social y de cualquier enfoque filosófico o psicológico centrado en los aspectos histórico-culturales, mientras explotas lo llamativo que resulta hoy en día todo el tema de la IA ( a la vez que super elitista e inaccesible para la grandísima mayoría a nivel profesional) y la importancia de lo «innato invisible» por encima de todo… edgelord madurito, si ya lo decía yo.

  12. pharmakoi dice:

    CAUSAL EXPLANATION IN PSYCHIATRY Tuomas K. Pernu

    FREE WILL, DETERMINISM, QUANTUM THEORY AND STATISTICAL FLUCTUATIONS: A PHYSICIST’S TAKE

    (recomiendo leer la explicación que da sobre el concepto de superveniencia ya que viene bastante bien para entender la tesis la la realizabilidad múltiple de la que se habla en el primer paper)

    Y una reflexión personal

    Maybe not all physical systems are well suited to be exclusively studied or explained according to (rigid/explicit) physicalist-supervenience (or even causal-interventionist) claims?

    Espero que salgan bien los links en html porque hace mucho que no pruebo a ponerlos así. Por cierto gracias por publicar el comentario que decía que habías censurado, como ves ya estoy más amigable después de mis últimos comentarios tan «encendidos».

  13. Pharmakoi:

    No censuro ninguno de tus comentarios. En general, he de dar permiso a los comentarios de perfiles que publican por primera vez, pero el tuyo está configurado para que se publiquen automáticamente sin ninguna revisión. Lo único que ocurre es que cuando hay enlaces sí que tengo que dar permiso, y, muchas veces, tardo varios días en mirar el blog, por lo que tienes que tener paciencia si no aparece publicado al instante. Como habrás comprobado, nada más verlos te los publico y nunca he dejado ninguno sin publicar.

    Además, jaja, no me importa que me pongas un poco verde. Está bien. Me resulta simpático como lo haces. No hay problema alguno y te seguiré publicando todo lo que escribas.

  14. pharmakoi dice:

    Ok gracias ya me imaginé que igual ni habías tenido tiempo de revisarlo, me alegro de que no te tomes a mal mis críticas. Iba a poner este vídeo que es un motion graphic de un poema de Percy Shelley del que sale una parte en la novela de Frankenstein que leí hace poco y me gustó bastante, además de parecerme muy sugerente respecto a todos estos temas que voy mencionando un poco de pasada sobre los pros y contras del estudio científico sistemático del ser humano o cómo las cosmovisiones o antropologías (psico)filosóficas que aprendemos muchas veces de un modo al menos no muy intencional configuran nuestra identidad y afectan al desarrollo de disciplinas científicas como la psicología o la psiquiatría, e incluso al modo en que tratamos a los demás cuando no se ciñen a lo normativo o normalizado ( y a nuestra propia responsabilidad respecto a conductas potencialmente antisociales que se puedan derivar de la violencia estructural que a veces generan prácticas e instituciones sociales que cuentan con una amplia y muchas veces aparentemente irrefutable aceptación social, hasta el punto de que su mera crítica puede provocar reacciones cuando menos airadas de sanción social).

    Flickermood 2.0 from Sebastian Lange on Vimeo.

  15. pharmakoi dice:

    Se me han ocurrido dos escuelas de pensamiento filosófico que van a revolucionar la cultura occidental (y por ende el resto del mundo). Es algo nunca visto desde el clímax intelectual que supuso la cultura de la Grecia clásica en el desarrollo de la humanidad. Por cierto ¡aún no has publicado el último comentario y justo ese no me lo había guardado!… con todo lo que desarrollé sobre el tema de la violencia estructural y simbólica, y a las que tan poca atención se presta.

    convencionalismo platónico (iusnaturalismo positivista o consuetudinario)

    – jerarquías basadas en el estatus y/o el argumento de autoridad en las que se asume que los únicos ( o al menos los muy mejores) capaces de aprehender los universales y las entidades abstractas son los que ostentan ese halo de eficiencia-excelencia.

    fisicalismo pragmático o nominalismo predicable

    – solo los particulares existen, pero este monismo metafísico no niega la posibilidad de predicar (jaja, predicar…) sobre las propiedades si no universales al menos aprehensibles y compartidas de los (algunos, muchos, casi todos los imaginables…depende) particulares de tal modo que se pueda pensar en (!e incluso realizar!) la posibilidad de actuar en y sobre el mundo sin esperar a que un descendiente directo de Sócrates y Platón (véase El Papa) o sus muchos representantes (y cuidao porque muchos son muchos, algunos incluso sofistas) nos dé el visto bueno.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s