
Diseño un programa para conducir un coche en un entorno simulado. Creo un contador al que llamo «módulo de dolor» que va sumando cada vez que el coche hace algo que no queremos que haga. Por ejemplo, suma uno cada vez que una de las ruedas pisa la línea que separa la carretera del campo, suma cinco cada vez que el coche toca algún otro coche o suma veinte si se sale completamente de la carreta o colisiona frontalmente con algún obstáculo. Obviamente, diseño el programa para que este contador sume lo menos posible. Como soy muy buen ingeniero de software consigo, después de horas y horas corrigiendo bugs (que es a lo que, básicamente, se dedica un programador), que mi coche circule a la perfección, sin cometer infracción de tráfico alguna.
Al día siguiente de la aparición de mi programa, la prensa publica a bombo y platillo: «Construyen máquina capaz de sentir dolor», «Ingeniero construye ordenador con sentimientos», «La llegada de las máquinas conscientes», «La singularidad ha llegado», «Máquinas con sentimientos que se rebelan contra sus creadores»… Cuando leo estos estrafalarios titulares maldigo la mala praxis periodística ¡Si ni siquiera me han entrevistado para preguntarme cómo funciona! Desde luego, no puedes creerte nada de lo que sale en los medios. Pero, ¿tendría yo alguna parte de responsabilidad en lo que ha pasado? Sí, y no poca.
Es lo que se llama el labeling problem, la responsabilidad que el ingeniero tiene a la hora de etiquetar, de nombrar sus programas. Si llamamos al contador de errores «módulo de dolor» estamos abriendo la caja de Pandora de las interpretaciones erróneas. Nuestro coche no siente ni la más mínima sensación cada vez que colisiona, no siente dolor alguno, por lo que estamos cometiendo una grave equivocación al llamar así al contador. Y es que esto ha pasado en no pocas ocasiones a lo largo de la historia de la inteligencia artificial.
Las mismas redes neuronales artificiales nunca debieron llamarse así. Si bien, en un principio, pudieron buscar su inspiración en las neuronas biológicas, las redes neuronales artificiales que forman parte de AlphaFold, por ejemplo, no se parecen en absolutamente nada a lo que tenemos dentro de nuestro encéfalo. Tal y como dicen Chella y Manzotti, las redes neuronales artificiales tuvieron que llamarse «Aproximadores funcionales no lineales» y ya está. Si eso hubiera sido así, nos habríamos ahorrado miles de páginas de literatura absurda y la gente tendría una visión mucho más realista de lo que, verdaderamente, es la inteligencia artificial.
Oye, oye, tampoco es para ponerse así. Solo estamos haciendo uso de metáforas, son solo formas de hablar para entendernos, pero nunca han querido ir más allá. Si la gente se las toma demasiado en serio no es culpa de los ingenieros. No es tan sencillo. En primer lugar dudo mucho que solo hayan sido formas de hablar que no han querido ir más allá, que ya somos mayorcitos y que todos conocemos cómo funciona el marketing tecnológico. Y, en segundo, hay que tener mucho cuidado con el uso de las metáforas. Cuando hablamos de «computación», «información», «estado de un sistema», «símbolo» hay que saber muy bien que no tienen una existencia real tal como un circuito o un electrodo. Una cosa es una abstracción conceptual y otra un objeto concreto. Es lo que Francis Bacon ya denunciaba en el siglo XVII: los idola fori. Son errores conceptuales que surgen cuando creamos nombres para cosas que no existen o nombramos (definimos) mal cosas existentes.
Si caemos en ellos y, por ejemplo, pensamos que la computación, entendida como la capacidad de cálculo, es un ente real que, en cierta manera, existe con independencia del hardware del ordenador, podemos pensar que tiene poderes causales, es decir, que puede hacer cosas por ella misma sin necesidad de su soporte físico. Y de aquí un error que he visto varias veces: pensar que la mera computación, o el mero aumento de su complejidad, puede causar mente o consciencia. No, calcular, por muy grande y complejo que sea el cálculo, solo puede dar un resultado matemático interpretable, o bien por un humano, o bien por otro sistema de cómputo que realice nuevos cálculos con él. Nada más. O, de la misma forma, hay que tener cuidado de no pensar que términos típicos de la psicología popular tienen existencia real. Cuando decimos «Hizo esto porque creía que era lo justo» corremos el riesgo de pensar que una «creencia» tiene poderse causales, como si una entidad intangible e inmaterial pudiese mover nuestras fibras musculares. No, nuestra creencia debe estar codificada de alguna forma en nuestro cerebro y será esa configuración de estructuras y procesos la que desencadene causalmente nuevas estructuras y procesos. La palabra «creencia» es tan solo una etiqueta, una metáfora para resumir la ingente cantidad de procesos físicos que tendríamos que describir si quisiéramos hacer una descripción más realista de lo que verdaderamente ocurre. Leemos constantemente sobre «percepción» en máquinas ¿Perciben verdaderamente las redes convolucionales? Ni hablar. Nuestra forma de hablar no debería ir más lejos de decir «el programa recibe información del entorno a través de un sensor», lo cual es muy, muy diferente a decir «El programa ve».
Tenemos que tener mucho cuidado con no caer en errores categoriales (mezclar diferentes categorías o conjuntos de objetos) o falacias mereológicas (confundir el todo con la parte), y aplicar lo más posible la siempre saludable navaja de Ockham. Y, sobre todo, hay que evitar antropomorfizar la máquina. Y es que creo que ese ha sido el error de los errores desde el principio de la inteligencia artificial: otorgar a la máquina cualidades humanas de forma muy precipitada (como ya ilustré en esta entrada).
Feliz Navidad, máquinas.
En lo que se refiere a la repercusión mediática, tenga en cuenta que el objetivo del periodismo no es difundir la verdad sino aumentar la tirada. Después de integrar este principio en la consciencia, la comprensión de los titulares es mucho más sencilla.
“Cuando decimos “Hizo esto porque creía que era lo justo” corremos el riesgo de pensar que una “creencia” tiene poderse causales, como si una entidad intangible e inmaterial pudiese mover nuestras fibras musculares. No, nuestra creencia debe estar codificada de alguna forma en nuestro cerebro y será esa configuración de estructuras y procesos la que desencadene causalmente nuevas estructuras y procesos. La palabra “creencia” es tan solo una etiqueta, una metáfora para resumir la ingente cantidad de procesos físicos que tendríamos que describir si quisiéramos hacer una descripción más realista de lo que verdaderamente ocurre.”
Tampoco. La creencia no es una etiqueta para resumir “una ingente cantidad de procesos físicos” y solo los procesos físicos tienen poder causal. Eso es un reduccionismo fisicalista.
La creencia es una etiqueta que ponemos a una vivencia. Solo los cuerpos vivos culturalmente situados tienen creencias. Una vivencia que tiene que “realizarse” en una ingente cantidad de procesos culturales, sociales, biológicos, químicos y físicos organizados sincrónica y diacrónicamente en distintos niveles con distintas propiedades naturales. Es la organización de todos esos procesos lo que tiene poder causal. Si el juez “hizo esto porque creía que lo justo”, su creencia, realizada en una ingente cantidad de procesos naturales (no solo físicos), es la causa por la que los átomos de carbono del pie del acusado se encuentran dando un paseo por la calle o en el patio de la prisión. Esto es causalidad descendente y emergentismo fuerte.
P.D. La vivencia también es un proceso natural e implica la organización de una cantidad ingente de procesos naturales a todos los niveles. Pero las propiedades del nivel de procesos naturales que organizan las vivencias no son materiales. Y tienen poder causal. Por tanto, la naturaleza no es solo material.
Ya, pero ¿de qué forma eres tú diferente a una máquina que procesa información?
¿cómo sabes que los demás no somos máquinas?
Yo siento incluso con esto que el nombre de redes neuronales esta suficiencientemente bien por que facilita la compresion de este concepto inicialmente nuevo.
Esta transferencia de conocimiento habilita entender nuevos fenomenos (aparentemente aislados), que se pueden poner nombres estrictos a las cosas si claro pero tiene una funcion mas practica facilitar entender/acercar/entender que evitar perderse en la definicion estricta(real de las cosas)
al final como socieda estamos construidos en metaforas y simplificaciones que nos habilitan para construir modelos mas complejos, no necesariamente completamente ajustados a la realidad
Podría ser tan amable de comentar el libro de Judea Pearl sobre «la revolución causal»,que tanta difusión está teniendo en IA?Cómo valoraría su pretensión de defender el Programa Fuerte reformulandolo en términos, diría yo,»autistas»,las máquinas podrían tener una comprensión intelectual abstracta de las emociones humanas sin experimentar las como vivencias fenomenológicas?
Cold take. Tu «programa» no podría conducir tan bien. Pero obviamente ese módulo no produce dolor. Sin embargo, los programas que se usan más y más para estas aplicaciones son redes neurales – virtuales o físicas,.
Como el cerebro humano, una red neural funciona como una «caja negra», sin que se sepa la semántica de sus procesos internos. No es un simple algoritmo clásico.
En adición, ya han hecho biochips híbridos basados en neuronas humanas. En serio.
Y les hacen «sentir dolor» para que aprendan.