Posts etiquetados ‘Francis Bacon’

Diseño un programa para conducir un coche en un entorno simulado. Creo un contador al que llamo “módulo de dolor” que va sumando cada vez que el coche hace algo que no queremos que haga. Por ejemplo, suma uno cada vez que una de las ruedas pisa la línea que separa la carretera del campo, suma cinco cada vez que el coche toca algún otro coche o suma veinte si se sale completamente de la carreta o colisiona frontalmente con algún obstáculo. Obviamente, diseño el programa para que este contador sume lo menos posible. Como soy muy buen ingeniero de software consigo, después de horas y horas corrigiendo bugs (que es a lo que, básicamente, se dedica un programador), que mi coche circule a la perfección, sin cometer infracción de tráfico alguna.

Al día siguiente de la aparición de mi programa, la prensa publica a bombo y platillo: “Construyen máquina capaz de sentir dolor”, “Ingeniero construye ordenador con sentimientos”, “La llegada de las máquinas conscientes”, “La singularidad ha llegado”, “Máquinas con sentimientos que se rebelan contra sus creadores”… Cuando leo estos estrafalarios titulares maldigo la mala praxis periodística ¡Si ni siquiera me han entrevistado para preguntarme cómo funciona! Desde luego, no puedes creerte nada de lo que sale en los medios. Pero, ¿tendría yo alguna parte de responsabilidad en lo que ha pasado? Sí, y no poca.

Es lo que se llama el labeling problem, la responsabilidad que el ingeniero tiene a la hora de etiquetar, de nombrar sus programas. Si llamamos al contador de errores “módulo de dolor” estamos abriendo la caja de Pandora de las interpretaciones erróneas. Nuestro coche no siente ni la más mínima sensación cada vez que colisiona, no siente dolor alguno, por lo que estamos cometiendo una grave equivocación al llamar así al contador. Y es que esto ha pasado en no pocas ocasiones a lo largo de la historia de la inteligencia artificial.

Las mismas redes neuronales artificiales nunca debieron llamarse así. Si bien, en un principio, pudieron buscar su inspiración en las neuronas biológicas, las redes neuronales artificiales que forman parte de AlphaFold, por ejemplo, no se parecen en absolutamente nada a lo que tenemos dentro de nuestro encéfalo. Tal y como dicen Chella y Manzotti, las redes neuronales artificiales tuvieron que llamarse “Aproximadores funcionales no lineales” y ya está. Si eso hubiera sido así, nos habríamos ahorrado miles de páginas de literatura absurda y la gente tendría una visión mucho más realista de lo que, verdaderamente, es la inteligencia artificial.

Oye, oye, tampoco es para ponerse así. Solo estamos haciendo uso de metáforas, son solo formas de hablar para entendernos, pero nunca han querido ir más allá. Si la gente se las toma demasiado en serio no es culpa de los ingenieros. No es tan sencillo. En primer lugar dudo mucho que solo hayan sido formas de hablar que no han querido ir más allá, que ya somos mayorcitos y que todos conocemos cómo funciona el marketing tecnológico. Y, en segundo, hay que tener mucho cuidado con el uso de las metáforas. Cuando hablamos de “computación”, “información”, “estado de un sistema”, “símbolo” hay que saber muy bien que no tienen una existencia real tal como un circuito o un electrodo. Una cosa es una abstracción conceptual y otra un objeto concreto. Es lo que Francis Bacon ya denunciaba en el siglo XVII: los idola fori. Son errores conceptuales que surgen cuando creamos nombres para cosas que no existen o nombramos (definimos) mal cosas existentes.

Si caemos en ellos y, por ejemplo, pensamos que la computación, entendida como la capacidad de cálculo, es un ente real que, en cierta manera, existe con independencia del hardware del ordenador, podemos pensar que tiene poderes causales, es decir, que puede hacer cosas por ella misma sin necesidad de su soporte físico. Y de aquí un error que he visto varias veces: pensar que la mera computación, o el mero aumento de su complejidad, puede causar mente o consciencia. No, calcular, por muy grande y complejo que sea el cálculo, solo puede dar un resultado matemático interpretable, o bien por un humano, o bien por otro sistema de cómputo que realice nuevos cálculos con él. Nada más. O, de la misma forma, hay que tener cuidado de no pensar que términos típicos de la psicología popular tienen existencia real. Cuando decimos “Hizo esto porque creía que era lo justo” corremos el riesgo de pensar que una “creencia” tiene poderse causales, como si una entidad intangible e inmaterial pudiese mover nuestras fibras musculares. No, nuestra creencia debe estar codificada de alguna forma en nuestro cerebro y será esa configuración de estructuras y procesos la que desencadene causalmente nuevas estructuras y procesos. La palabra “creencia” es tan solo una etiqueta, una metáfora para resumir la ingente cantidad de procesos físicos que tendríamos que describir si quisiéramos hacer una descripción más realista de lo que verdaderamente ocurre. Leemos constantemente sobre “percepción” en máquinas ¿Perciben verdaderamente las redes convolucionales? Ni hablar. Nuestra forma de hablar no debería ir más lejos de decir “el programa recibe información del entorno a través de un sensor”, lo cual es muy, muy diferente a decir “El programa ve”.

Tenemos que tener mucho cuidado con no caer en errores categoriales (mezclar diferentes categorías o conjuntos de objetos) o falacias mereológicas (confundir el todo con la parte), y aplicar lo más posible la siempre saludable navaja de Ockham. Y, sobre todo, hay que evitar antropomorfizar la máquina. Y es que creo que ese ha sido el error de los errores desde el principio de la inteligencia artificial: otorgar a la máquina cualidades humanas de forma muy precipitada (como ya ilustré en esta entrada).

Feliz Navidad, máquinas.

Tal como sugirió Bacon con sus ídolos de la tribu, la maquinaria humana de reconocimiento de patrones tiende a dispararse en exceso, lo cual conlleva que creamos ver patrones en lo que en realidad es simple ruido. Hay un famoso experimento en el que este fenómeno produce el divertido resultado de que los sujetos humanos suelen rendir peor que las palomas y las ratas al afrontar la misma tarea. Al sujeto se le muestran dos lámparas, una roja y otra verde. A intervalos regulares, una de ellas se enciende y a los sujetos se les pide que predigan qué lámpara se encenderá a continuación. No se les informa sobre ningún mecanismo subyacente a la secuencia de encendidos de la lámpara roja y de la verde, pero lo cierto es que se encienden al azar, con un 0,8 de probabilidad para la roja frente a un 0,2 para la verde, independientemente de lo que haya sucedido antes. Los sujetos humanos observan la asimetría, intentan imitar el intrincado patrón de las luces, y predicen que la lámpara roja se enciende el 80% de las veces y la verde el 20% restante. De este modo acaban averiguando el correcto encendido aproximadamente 0,8 . 0,8 + 0,2 . 0,2 = 68% de las veces. Los animales más simples rápidamente averiguan cuál es la que se enciende con más frecuencia, con lo que aciertan un 80% de las veces. Ver, por ejemplo, Hinson y Staddon (1983), y Wolford, Miller y Gazzaniga (2000).

Häggström, Olle. Aquí hay dragones

Bacon tenía toda la razón del mundo: la metafísica tradicional tendió a ver en la realidad muchísimo más de lo que en ella había. La navaja de Ockham y el tenedor de Hume fueron una buena terapia aunque, parece ser que todavía no lo suficiente. Seamos humildes y aceptemos nuestro papel de intentar, al menos, ser unos buenos escépticos.

Véase, por supuesto, la superstición en las palomas de Skinner.

Durante mucho tiempo se pensaba que las leyes científicas se obtenían mediante un tipo de razonamiento o inferencia lógica denominado inducción. La inducción consiste simplemente en inferir una proposición universal a partir de una colección de datos particulares. Por ejemplo, si veo un cuervo de color negro, después otro y otro y otro, llegará un momento en que me parezca razonable establecer la afirmación “Todos los cuervos son negros”.

La inducción puede ser completa o incompleta. Completa sería cuando tenemos en cuenta todos los casos posibles para justificar nuestra aseveración. Por ejemplo, el enunciado “Todos los cuervos son negros” estaría plenamente justificado si hubiéramos registrado todo el Universo y no hubiésemos encontrado ningún cuervo de otro color. El problema reside, como ya vieron Francis Bacon o Stuart Mill, en que habitualmente nos encontramos con multitud de inducciones incompletas. Si yo no he registrado todo el Universo (como suele ocurrir) no tengo razón suficiente para decir que “todos los cuervos son negros”. Quizá en algún lugar existan cuervos blancos o rojos. No obstante, Bacon y Mill sostuvieron que era posible una inducción incompleta suficiente si lo que se predica como común en todos los sucesos constituye una característica dimanada de su misma naturaleza. No obstante, Hume o Comte, no quedaron muy convencidos y redujeron la validez de la inducción a la de un razonamiento meramente probable. Nunca podremos estar seguros al 100% de la veracidad de una afirmación inferida de una inducción incompleta.

Sin embargo, el más crítico con la inducción fue Karl Popper al sostener que el método de la ciencia no puede ser el inductivo ya que el número de experimentos que realicemos siempre será finito y, por lo tanto, la inducción será inevitablemente incompleta. A pesar de que 1.000 experimentos hayan probado que mi afirmación es verdadera, podría siempre suceder un experimento 1.001 que no la verificara. Y como el tiempo es potencialmente infinito hacia adelante, nunca podremos realizar todos los experimentos posibles. Por ello propuso el método deductivo, y no el inductivo, como el auténtico método científico.

Otro caso curioso de problema que presenta la inducción es la famosa paradoja de Hempel propuesta por el filósofo nacionalizado estadounidense Carl Gustav Hempel. La paradoja viene a decir que afirmar que “Todos los cuervos son negros” es lógicamente equivalente a “Todos los objetos no blancos son no cuervos”. Por lo tanto, cada vez que veamos un objeto que no sea negro y que no sea un cuervo estarmos verificando que todos los cuervos son negros. Ahora mismo en mi cuarto hay un montón de objetos no negros que no son cuervos… ¡cada objeto del Universo que no sea negro y no sea un cuervo verifíca nuestra hipótesis!

Hempel decía que eso no era un problema. Efectivamente, cada objeto no negro y no cuervo verificará que todos los cuervos son negros, lo que pasa es que lo hará en un grado muy pequeño, infinitésimo si habláramos de porcentajes. Lo que Hempel quería mostrar con todo esto es que hay que tener en cuenta la totalidad de los objetos del Universo a la hora de comprobar la fiabilidad de nuestras afirmaciones. Sin embargo, sí que hay un gran problema. Si tenemos dos proposiciones autoexcluyentes como “Todos los cuervos son negros” y “Todos los cuervos son blancos” y nos encontramos con el caso empírico de “Un canario amarillo”, ¡resulta que este caso verifica por igual a ambas proposiciones contradictorias!

Otro ejemplo de paradoja surgida de la inducción la podemos realizar con un sencillo mazo de naipes. Supongamos que lanzamos la siguiente hipótesis: “Las cartas de valor n nunca estarán en la posición n”. Barajamos y vamos sacando una a una cada carta, situándolas en orden encima de la mesa. Si, por ejemplo, el dos de tréboles sale la segunda o el cinco de corazones sale la quinta, nuestra hipótesis será refutada. Jugamos con cinco cartas (del uno al cinco de picas) y, vamos a imaginar que salen en el siguiente orden:

1-3, 2-4, 3-2, 4-1, 5…

El tres sale en primer lugar (confirma nuestra hipótesis), el cuatro en el segundo (confirma nuestra hipótesis), el dos en el tercero… Cada uno de los experimentos han ido verificando nuestra hipótesis pero si nos fijamos… ¿qué carta es la que nos queda por sacar? Comprobando las que ya han salido vemos que sólo queda por salir el cinco de picas en la posición cinco… si, por sí solo, cada experimento verificaba nuestra hipótesis, ¡Todos ellos juntos la refutan!