Posts etiquetados ‘biologicismo’

Kristin-Andrews-526-USE-THIS-ONE-scaled

Termino de leer este artículo en donde se hace una serie de entrevistas a distintos investigadores (filósofos, neurólogos, psicólogos, etc.) acerca de si los grandes modelos del lenguaje podría albergar consciencia, y me ha gustado mucho la respuesta de la filósofa de la Universidad de Nueva York, Kristin Andrews. Tanto que os la he traducido al castellano y os la adjunto aquí (las cursivas son mías):

El hecho de que hoy nos enfrentemos a la cuestión de si la IA pronto será consciente dado el éxito de los LLM revela mucho sobre los sesgos antropocéntricos contemporáneos. Los humanos usan el lenguaje y son conscientes, y un rápido argumento analógico a favor de la conciencia de la IA podría parecer prometedor. Pero también debemos considerar las disanalogías. Los humanos, monos y ratas que a menudo se utilizan como sujetos de investigación en estudios de conciencia tienen muchas propiedades de las que carecen las IA: propiedades asociadas con la sociabilidad y el desarrollo; un rico sensorium; y estar vivo.

La IA no habita en un mundo de modelos sociales nativos de los cuales aprender y de pares de la misma edad con quienes desarrollarse. Sus interlocutores sociales son sus amos humanos, no una comunidad de individuos de la misma especie con diferentes historias de aprendizaje y diversidad genética. Podría decirse que las IA no son seres culturales y no participan en interacciones colaborativas y competitivas dentro, y entre, culturas.

Las IA tampoco perciben ricamente su entorno físico. Mientras que sus transacciones de tokens más allá de sí mismas se cuentan por billones, los tipos de transacciones que realizan son mínimos, teniendo acceso a la información a través de un teclado o una cámara que es transducida a señales eléctricas. Hay poca integración de información entre modalidades sensoriales.

Y las IA no están vivas. No preservan activamente la continuidad de su existencia, no se autoorganizan para evitar que sus límites se fusionen con su entorno, no absorben elementos del entorno y los transforman a través de procesos metabólicos en su propia existencia continua. Carecen de cualquier objetivo de autoconservación que busquen lograr a través de sus acciones en un entorno social y físico. Y como no logran reproducirse, no se los puede considerar sistemas evolucionados.

Tal vez estoy siendo demasiado escéptica, y las IA actuales y futuras puedan llegar a tener más de estos elementos de los que les doy crédito. Aún así, persisten las preocupaciones. Diseñar una IA para que tenga propiedades análogas a las de los humanos plantea el gaming problem [ignoro a qué se refiere la autora con el «problema del juego»] y se corre el riesgo de crear una torpe imitación de la consciencia, cuya organización funcional sea muy diferente al caso humano. Peor aún, incluso si los científicos informáticos pudieran construir una IA con algunas de estas propiedades, la ciencia contemporánea está lejos de desarrollar una vida artificial sólida, y hay razones sugerentes para pensar que la vida y la mente consciente pueden estar esencialmente entrelazadas. Lo que la vida sí nos da y el lenguaje no es un propósito, una función. El lenguaje puede hacer que este propósito sea más fácil de ver, permitiendo que un agente describa y comunique sus objetivos, pero también puede crear una ilusión de agencia donde no existe.

La función y la biología tienen una relación incómoda, y muchos siguen siendo fuertemente sospechosos de pensar que tiene algún mérito describir células o bacterias como si tuvieran objetivos, mientras que al mismo tiempo se utiliza gimnasia verbal para hablar sobre el propósito sin utilizar el término. Como dice Denis Walsh: “Los organismos son entidades fundamentalmente con un propósito, y los biólogos sienten aversión por el propósito».

La continuidad de la vida y la mente consciente sugiere una posible función de la conciencia: sostener la vida. Cuando nos centramos en la experiencia subjetiva más rudimentaria (sentimientos de sed, falta de oxígeno, deseo social/sexual), se puede considerar que la conciencia tiene un propósito vital.

Si bien esto no nos dice qué animales son conscientes (o si las plantas lo son), debería llevarnos a estudiar las formas más simples de vida animal. He sostenido que la ciencia cognitiva de la conciencia debería adoptar como hipótesis de trabajo que todos los animales son conscientes y estudiar modelos animales mucho más simples para avanzar en el desarrollo de una teoría sólida. Incluso el humilde gusano nematodo microscópico Caenorhabditis elegans puede servir como modelo prometedor para estudiar la conciencia, dadas sus capacidades sensoriales, sociales y de aprendizaje.

La ciencia ha progresado no sólo observando a los humanos, sino también a formas de vida muy distantes de la nuestra. Aristóteles estaba fascinado por las esponjas, Mendel por las plantas de guisantes. Al estudiar la experiencia primordial en animales simples, podemos comprender qué propiedades debe tener una IA antes de tomar en serio la cuestión de si es consciente.

Creo que muchos intelectuales que piensan sobre la posibilidad de diseñar máquinas conscientes caen en el error de ligar con demasiada fuerza, e incluso confundir, la consciencia con la inteligencia. He leído a muchos sostener que cuando la IA se haga más inteligente terminará por desarrollar consciencia, como si la consciencia fuera, simplemente, una consecuencia de un alto grado de inteligencia. No, parece más sensato, en la línea que nos expone Andrews, ligar la consciencia a sensaciones primordiales que no tienen, para nada, que haberse dado en organismos demasiado inteligentes. Y es que ¿qué tendrá que ver una experiencia consciente tan básica como tener sed con una inteligencia altamente desarrollada? Un poquito sí: el organismo que siente sed se ve impelido a beber agua y para conseguir agua es posible que tenga que realizar algún tipo de conducta inteligente. Pero nótese que la sensación consciente no forma parte del proceso inteligente (por ejemplo, explorar en busca de fuentes de agua), solo es su desencadenante.  

Esta perspectiva, a pesar de que Andrews abra la puerta a que en el futuro las cosas puedan cambiar, es un ataque directo a la absurda creencia de que los grandes modelos de lenguaje sean conscientes (o vayan a serlo en breve) ya que una condición que parece previa a ser consciente es estar vivo, y la IA actual no parece tener ninguna de las cualidades que atribuimos a los seres vivos (ni a los conscientes, añadiría yo). 

En esta misma dirección está el gran trabajo del eminente científico australiano Derek Denton, al que se entrevistó hace unos años en la Nueva Ilustración Evolucionista

blkmndy-the-philosopher-john-searle-black-and-white-comic-style-462020923

El enfoque computacionalista de la mente que domina el argumentario que hay detrás de los entusiastas proyectos de IA actuales se sostiene en dos tesis emparejadas: el funcionalismo (un estado mental se define exclusivamente por su rol funcional en una cadena causal) y la independencia de sustrato o realizabilidad múltiple (el mismo estado funcional se puede implementar en una indefinida cantidad de sustratos materiales). Si mi mente es un programa de ordenador, equivalente a una máquina de Turing, puedo implementar máquinas de Turing en diferentes estructuras materiales. Así, el cerebro es el sustrato de mi mente, pero los circuitos de silicio también pueden ser un sustrato adecuado. Ya hemos construido hace muchos años máquinas universales de Turing allí. Si mi mente solo es una implementación de una máquina de Turing particular, no debería haber demasiados problemas en implementarla en un computador.

Mal, todo muy mal. Diseñar un programa que simule el funcionamiento de una polea que saca agua de un pozo es bastante trivial. Aplicando fórmulas de física muy básicas puedo hacer un modelo que me diga la longitud y resistencia de la cuerda que voy a utilizar, las dimensiones del cubo en función del agua que pretendo sacar, el radio del cuerpo de la polea, o la fuerza necesaria para sacar el cubo a una determinada velocidad. Una simulación de una polea puede ser una herramienta increíblemente útil, maravilla de la informática moderna. Ahora bien, ¿puedo usar únicamente el programa para yo, sentado comodamente delante del ordenador en mi casa, obtener agua? Vaya pregunta estúpida: obviamente no. El programa te sirve para hacer los cálculos, para organizarlo todo, pero necesitarás una cuerda, un cubo y un polea de verdad para sacar agua de verdad. ¿Muy obvio no? Pues no lo parece en absoluto para los ingenieros de IA.

No puedo entender cómo para construir cualquier ingenio tecnológico es tan importante la construcción material, pero para crear una mente similar a la humana resulta que no. Para fabricar un automóvil, un avión, una lavadora, un smartphone… son cruciales las propiedades de los materiales que van a utilizarse. Se miran propiedades como la conductividad, expansión térmica, calor específico, resistencia a la oxidación o a otros ácidos, interacción con otras sustancias, permeabilidad magnética, respuesta a ondas electromagnéticas (refracción, reflexión, absorción o dispersión), densidad, dureza, elasticidad, plasticidad, ductibilidad, maleabilidad, tenacidad, exfoliación, etc. Pues vaya, resulta que a la mente humana no le afectan absolutamente nada ninguna de estas propiedades, las cuales, sin embargo, afectan a todo objeto material conocido del universo. Y es que la teoría computacionalista lleva emparejada un cierto componente dualista imperdonable.

Si yo quiero construir una mente, tendré que fijarme en las cualidades que tienen las mentes: consciencia, inteligencia, imaginación, memoria, creencias, emociones, deseos, etc. y lo suyo hubiese sido empezar por ver qué materiales pueden causar tales cualidades, al igual que un albañil busca ladrillos y cemento antes de construir una casa. Sin embargo, el camino se tornó diferente. Los ordenadores demostraron que una de las cualidades más notorias de la mente, la inteligencia, era posible mediante dispositivos puramente computacionales. Mi ordenador no simula cálculos, los realiza de verdad. Los espectaculares logros de los actuales grandes modelos de lenguaje, aunque no exentos de controversia con respecto a sus capacidades, hacen que sea innegable atribuirles un alto grado, al menos, de conducta inteligente. Sin embargo, el gravísimo error está en presuponer que como hemos conseguido recrear conducta inteligente, los demás aspectos de la mente serán recreables, igualmente, únicamente utilizando mecanismos computacionales. Entonces llegan los silencios vergonzantes: ¿Cómo implemento una sensación de dolor en Python? ¿Puedo hacer que mis seis mil líneas de código en Java tengan un orgasmo? ¿Cómo hago que mi programa de ajedrez desee de verdad ganarme y se enfade cuando cometa un error estúpido? No, los programas no se ponen nerviosos, no se deprimen, no sienten envidia ni vergüenza, no disfrutan escuchando música, no les gusta la cerveza… ¡No tienen todo lo que cualquier psicólogo llamaría una vida psíquica! Adolecen por completo de lo que a la mayoría de la gente le parecerían las notas esenciales de una mente.

¿Eso quiere decir que sólo los cerebros son capaces de generar mentes completas? No. Pero si queremos generar una mente similar a la humana necesitaremos configuraciones materiales con los mismos poderes causales que los cerebros ¿Y no será esto caer en el chauvinismo del carbono? ¿No será esto caer en un antropocentrismo cateto y corto de miras que nos impide ver mentes en las máquinas al no estar hechas a nuestra imagen y semejanza? No. No sabemos si únicamente con la química del carbono podemos generar mentes, pero lo único que sabemos es que en la naturaleza así ha ocurrido. Que sepamos, la mente se ha dado originariamente en organismos biológicos. Si alguien dice ahora que la mente puede darse en artefactos no biológicos, la carga de la prueba la tiene él. Y aquí es donde se falla: de momento solo hemos conseguido inteligencia, sin haber llegado a los demás aspectos de la mente. La actual química del silicio no ha sido capaz hasta la fecha de generar mentes similares a las humanas. Abrir el concepto de pensamiento y de mente, y sostener que las máquinas tienen mentes y piensan es abrir demasiado, teniendo en cuenta las diferencias abismales entre ambas cosas. Recuerdo que en una serie de conferencias que moderé, para contentar a algunos críticos entre el público, propuse chistosamente utilizar la palabra «kensar» para referirme a lo que hacen las máquinas: las computadoras no piensan, «kensan», que es otro tipo de «conducta cognitiva».

Para entender todo esto me parece muy útil la distinción aristotélica entre materia y forma. Cualquier objeto o proceso del universo tiene una estructura formal (eso es lo que simulamos en el ordenador), pero también tiene una base material, y ambas son inseparables, de modo que las potencialidades que se encuentran en la base material determinarán las configuraciones formales posibles. Fue posible esculpir el David de Miguel Ángel en un bloque de mármol, pero habría sido imposible hacerlo con cuarzo, carbón o zirconio. Entonces, si queremos construir mentes solo nos queda un camino: avanzar muchísimo más en neurociencia para entender los mecanismos causales del cerebro (Todavía, por mucho que nos vendan la moto, no tenemos ni pajolera idea de cómo funciona el cerebro. Los disparos eléctricos en los axones neuronales y los jueguecitos químicos en las sinapsis son solo una pequeñísima parte de la historia. No pensemos, ni de lejos, que eso es todo lo que hay). Una vez que entendamos mejor esos procesos habrá que encontrar las estructuras materiales que tengan sus mismos poderes causales y entonces, y solo entonces, podernos tener mentes artificiales.

Esta entrada no es más que un parafraseo de las ideas sobre IA de John Searle. Si quieres profundizar más, tienes que ir al clásico «Minds, Brains and Programs» de 1980; o si quieres aún más, te recomiendo los libros El redescubrimiento de la menteEl misterio de la consciencia. Además, una de las grandes virtudes de Searle es lo bien que escribe y lo fácil que es de entender, cosa tristemente rara en el gremio filosófico.