Posts etiquetados ‘Herbert Simon’

Continuamos las entradas anteriores sobre cosas cognitivas…

Principio de Hanlon: «Nunca atribuyas a la maldad lo que se explica adecuadamente por la estupidez». Con este principio desmontamos el 99,9% de las teorías conspiranoicas. Tenemos una gran capacidad para relacionar sucesos y crear narraciones coherentes, dando intencionalidad malvada a sucesos que, verdaderamente, no la tienen. Si analizamos concienzudamente la historia de la humanidad, no solemos ver complejos planes maquiavélicos. Las tramas político-militares no se suelen desarrollar a partir de sofisticadas maquinaciones de inteligencias superiores. Todo suele ser mucho más sencillo. Si analizamos bien vemos que la suerte, el error o la chapuza están detrás de muchísimas más cosas. Por ejemplo, siempre que el gobierno saca una nueva ley, muchísimos analistas se lanzan a proclamar que detrás de ella hay un plan oculto para hacer tal o cual maldad. No, en la inmensa mayoría de los casos, la ley es mala por la negligencia de los legisladores y no por lo pérfido de sus intenciones. Yo, por lo que conozco un poco más, que son las legislaciones educativas, doy fe de ello. La LOMLOE no es fruto de un plan para hacer a la población más imbécil y así poderla controlar mejor, sino que un amplio conjunto de factores, entre los que hay  mucha incompetencia y desconocimiento, hacen que se consiga accidentalmente tal despropósito. 

Ley de Brandolini: La cantidad de energía necesaria para refutar idioteces es un orden de magnitud mayor que la necesaria para producirlas. Esto unido a que nadie, jamás, por muchas pruebas o argumentos que les presentes, va a darte la razón, hace que casi nunca discuta con nadie. Jamás he visto a alguien decir: «Es verdad, todo lo que te he estado diciendo eran estupideces, muchas gracias por sacarme del engaño» (Yo tampoco lo he hecho nunca). Por eso cuando leo tesis que me parecen especialmente estúpidas, a no ser que ese día tenga un ánimo guerrero, que el interlocutor me parezca especialmente interesante, o que crea que se puede aprender mucho en la mera discusión (muchas veces es así), paso.

Nudge: palabra que aprendí hace muy poco leyendo La Filosofía Política de la Inteligencia Artificial de Mark Coeckelbergh. Consiste en manipular al personal modificando su entorno de elección. Por ejemplo, si queremos que la gente no coma comida basura, no la prohibimos, sino que ofrecemos también frutas y verduras en lugares publicitariamente destacados en un supermercado. O, si queremos que la gente escuche un tipo de música, modificamos los algoritmos de recomendación de Spotify para que allí aparezcan mayoritariamente los grupos que queremos que escuchen. Nótese que es una forma de manipulación mucho más sutil, y por tanto más eficaz, que la de obligar o prohibir directamente. Se trata de dejar que el individuo tenga la ilusión de que está eligiendo él con total y absoluta libertad cuando, verdaderamente, se le está empujando (de ahí nudge) a que decida en una dirección. En las sociedades occidentales del siglo XXI, en las que se valora mucho la libertad individual y se ve fatal la obligatoriedad, esta es la forma de manipulación preponderante.

Dilema de Collingridge: la ponderación de los riesgos sobre el uso de una tecnología solo puede calcularse adecuadamente cuando dicha tecnología está en un grado muy desarrollado y su uso está generalizado; y en la medida en que su uso está generalizado su control es más difícil. Es decir, en tecnología, a más predicción menos control y viceversa. Este dilema es muy útil para comprender lo que nos enfrentamos con la IA:  ahora no podemos predecir mucho, y cuando podamos empezar a predecir, muchos problemas estarán ya aquí y llegaremos tarde.

Leer sin acompañarhay mucha gente que, o no lee directamente a escritores que cree que no piensan como ella, o deja de leer si comienza a ver ideas que van en contra de su forma de pensar ¡Muy mal! Quizá porque en la carrera de filosofía analizábamos cientos de formas de pensar diferentes, aprendí a leer a autores que distaban mucho de mi enfoque sin que eso fuera algo malo. Es más, aprendí a leer sin siquiera saber si estaba o no de acuerdo con el autor porque, muchas veces, no se tienen los suficientes conocimientos o no se ha pensado con la suficiente calma y precisión para saber si uno está de acuerdo o no con lo que lee. Es muy arrogante leer a Kant y no estar de acuerdo con él. Hay que saber mucha filosofía para no estar de acuerdo con Kant. Así aprendí a respetar la filosofía de un autor no desde la perspectiva infantil y egocéntrica de comprobar si está en mi bando, sino por la calidad de tal filosofía. Hay que saber leer sin acompañar, y eso creo que se hace poco.

Ventana de Overton: es el rango de ideas políticamente aceptables en un determinado momento político. Por ejemplo, hoy en día en España sería impensable que un partido político defendiera con total normalidad en su discurso que Franco o Hitler fueron grandes líderes políticos, que los homosexuales son aberraciones o monstruos, que la pederastia es algo bueno o que los negros son una raza inferior. La ventana de Overton es interesante, precisamente, para conocer lo que una sociedad considera innegociable, para ver sus dogmas y creencias. La amplitud de su rango también puede decirnos lo abierta o fundamentalista que es dicha sociedad: una ventana muy pequeña podría describir una dictadura mientras que una grande describiría una deseable libertad de pensamiento y opinión ¿Qué tamaño tiene en la actualidad española? Creo que en contra de muchos catastrofistas, afortunadamente, es muy amplia.

Ideas y creencias: esta es la famosa distinción que hizo Ortega y Gasset en su obra homónima. Las ideas son creencias que van y vienen, y pueden cambiar fácilmente, mientras que las creencias son aquellas que nos parecen indudables, con las que contamos siempre como trasfondo de nuestro pensamiento. Por ejemplo, una idea puede ser mi opinión acerca de una persona mientras que una creencia puede ser que la Tierra es un planeta o que Madrid es la capital de España. Esta distinción podría utilizarse igual que la ventana de Overton, para ver qué considera una sociedad como sagrado, inviolable o indiscutible. Además, creo que es el deber de todo filósofo no solo quedarse en el marco del debate de ideas, sino atacar, precisamente, las creencias. El filósofo ha de poner en duda las creencias, violentarlas. Por ejemplo, podemos coger una creencia tan obvia como que Madrid es la capital de España y convertirla en algo muy interesante: ¿Por qué Madrid? ¿Desde cuándo? ¿Qué instancia determina cuál es la capital del país? ¿Qué ventajas o perjuicios otorga ser la capital con respecto a las demás ciudades?

Diccionario etimológico: me gusta, de vez en cuando, acercarme a mi diccionario etimológico (uso el clásico de Joan Corominas) y buscar la etimología de determinadas palabras, o de otras que surjan al azar de hojear el libro. No solo sirve para comprender mejor el significado de una palabra o fijarlo en la memoria, sino que te da esa visión fluida y viva del lenguaje. Es fantástico comprender cómo los significados cambian, evolucionan en función de las variables históricas con las que se asocian. El lenguaje se antoja entonces un organismo vivo, como una gran red micelar que envuelve la historia del hombre. Un ejemplo , la propia palabra «etimología» viene del griego ἔτυμος que significa «verdad», dando a entender que el significado originario de la palabra es su significado verdadero. Todos los significados posteriores falsearían el original, lo corromperían. Para la tradición metafísica occidental (y supongo que para todas) lo originario, lo primero, tiene más valor, es mejor que lo que llega más tarde.

Delegación de autoridad epistémica: existe la famosa falacia ad verecundiam o ad autoritas, que resalta el error de atribuir veracidad a una proposición solo porque el que la emite sea una supuesta autoridad en el tema. Sin embargo, dada la vastísima e inabarcable cantidad de conocimientos necesarios para que nuestras sociedades funcionen adecuadamente, tenemos que caer necesariamente en esa falacia: necesito creer que el arquitecto y los albañiles que construyeron mi casa, que los ingenieros y operarios que fabricaron mi coche, que el médico que me receta la pastilla, que todos los trabajadores que hacen funcionar el mundo, saben lo que hacen.  Esto nos hace pensar en la importancia de depositar confianza en el sistema educativo y formativo de un país. Por eso no entiendo, cómo en las llamadas sociedades de conocimiento, donde todo el mundo reconoce la importancia de una formación contínua y de calidad, la preocupación de los políticos por la educación no sea poco más que aparente. Una prueba muy visual de lo que digo: en todos los institutos de secundaria que he trabajado las aulas estaban hechas polvo: paredes que llevan décadas sin pintarse, pupitres viejos llenos de garabatos, ventanas antiguas sin ningún tipo de aislamiento, persianas rotas, a la mesa del profesor le falta siempre algún cajón… En verano llegamos a estar a cuarenta grados y la idea de que se ponga un aire acondicionado en cada clase suena a disparatada utopía… ¿Por qué no se invierte muchísimo más en educación? Se dirá que en España invertimos más o menos (verdaderamente algo menos) que los demás países de la unión europea ¿Y qué? ¿Es que acaso a ellos les va mucho mejor?

Satisfaciente: estrategia de compra acuñada por Herbert Simon en 1956, mezclando los conceptos de «satisfacción» y «eficiencia». Consiste en que, ante una abrumadora gama de opciones de compra, elegimos una que cumpla unas cláusulas de satisfacción aún a sabiendas que podría haber opciones mejores. Esta camiseta es de mi talla, es barata y me gusta; seguramente que si busco más encontraré una que me guste más a mejor precio pero no quiero pasarme toda la mañana en el centro comercial. Sencillamente, aplicamos el factor tiempo al valor de la compra. Creo que es una estrategia muy saludable no solo para comprar sino en todo en la vida. Antes de lanzarte a por algo, establece las cláusulas de satisfacción y guíate por ellas sin dejarte cegar por otros factores. Tengo muchos amigos y conocidos que cuando van a comprarse un móvil hacen casi una tesis doctoral para elegir el mejor modelo. Puedo aceptar ese tiempo invertido si, al menos, todo ese trabajo les resulta placentero. Es decir, si te gusta estar toda la mañana en el centro comercial, entonces vale, pero lo que en ningún caso puedes hacer es atormentarte porque no has comprado lo mejor. Esta actitud puede hacer que vivas en un estado de perpetua insatisfacción, ya que siempre existirá una posible elección mejor a la que has hecho ¿Cuántas mujeres se han quedado sin pareja, o al final se han tenido que agarrar a un clavo ardiendo, por esperar la llegada de su príncipe azul? Hace ya más de una década hice una entrada sobre otra famosa estrategia vital: quemar las naves.

Órgano vestigial: acabo de leer una versión de esta idea en la novela Sinsonte de Walter Tevis. Transcribo el texto:

— Yo he conocido a gente así — dije, masticando los duros copos. No había terminado de despertarme; no le miraba a él, sino la brillante foto de identificación en el lateral de la caja de cereales. Mostraba una cara que a cualquiera le es familiar — pero cuyo nombre casi nadie conoce —, una cara que sonreía ante un gran bol de lo que claramente eran copos de proteína sintética. La foto de los cereales es, por supuesto, necesaria para que la gente sepa lo que hay en la caja, pero yo pensaba mucho en la foto del hombre. Algo que debo reconocer a Paul es que siempre hacía que me cuestionara todo. Tenía más curiosidad por el significado de las cosas y por cómo te hacen sentir que ninguna otra persona que yo haya conocido. Debe haberme pegado parte de ese hábito.

La cara de la foto, me había dicho Paul, es la de Jesucristo. Se utiliza para vender muchas cosas. Paul había leído en alguna parte que la idea se denominó «Veneración vestigial», seguramente hace cien azules [unidad de tiempo en la novela], cuando todo se planeó. 

Me gusta mucho la idea evolucionista de «órgano vestigial», algo que tuvo una función biológica precisa en un momento determinado de la historia de una especie pero ahora lo ha perdido. Lo más interesante es pensar que nuestra mente se ha ido construyendo sobre múltiples posibles órganos vestigiales. Nuestro cerebro se ha erigido sobre estructuras que eran útiles para los mamíferos primitivos del cenozoico pero que, obviamente, ahora nos resultan inútiles. Eones de evolución en los que capas de órganos vestigiales se fueron superponiendo sobre otras de forma asincrónica. Y así, como tan bien sugiere Tevis en su novela, puede haber resurrecciones o reutilizaciones de vestigios. En su distopía la religión desapareció hace mucho tiempo, pero la función de veneración divina sigue en la mente de los hombres como vestigio. Así, el malvado Estado la reutiliza como herramienta de control.

  1. Allen Newell y Herbert Simon definieron computadora como un «manipulador simbólico», es decir, como un dispositivo en el que entran unos determinados símbolos que son «manipulados» para obtener unos determinados resultados (que serán nuevos «símbolos»).
  2. «Manipular» es un verbo de un significado tremendamente vago para hablar de lo que una computadora hace con los símbolos, ya que significa, prácticamente, hacer cualquier cosa con algo. Aunque me parece interesante que Newell y Simon no dijeran directamente que la computadora realiza computaciones, es decir, cálculos, con los símbolos, dando a entender que una computadora pretende ser más que una mera máquina de cálculos aritméticos.
  3. «Símbolo» es un término aún más complicado que el anterior, dando lugar a toda una rama de la lingüística a la que denominamos semiótica. Lo definiré de la forma más prosaica que he encontrado en la historia de la filosofía: símbolo es aquello que es capaz de estar en el lugar de otra cosa. Así, cuando yo veo la palabra «perro» escrita en un libro, en mi cerebro recreo la imagen de un perro sin la necesidad de tener un perro delante. La palabra «perro» como símbolo es capaz de ponerse en el lugar de un perro real (Esto no es más que la teoría de la supossitio de Guillermo de Ockham).
  4. ¿Qué «símbolos» manipula una computadora? Si nos vamos al nivel más bajo posible, al nivel más pequeño del hardware encontramos que las computadoras codifican («simbolizan») la información en bits utilizando flujos de corriente eléctrica. Una corriente de, aproximadamente, cinco voltios se va a simbolizar con un «1» y una corriente nula o con muy poquito voltaje se simbolizará con un «0». Nótese que aquí se da una traducción que, como tal, es una falsificación: se pasa de una corriente continua a una clasificación discreta. Digitalizar consiste precisamente en hacer eso, en interpretar lo continuo como si fuera discreto, falsear lo continuo. Ahora, siguiendo a Ockham, en vez de un flujo de voltaje tengo un «1».
  5. Importante ver que la relación entre el símbolo y su referencia no es del todo arbitraria, al contrario que lo que ocurre en nuestro lenguajes ordinarios. La palabra «perro» no se parece en nada a un perro real, pero, a pesar de que un flujo de electrones a un determinado voltaje no se parece en nada a un «1», la dualidad voltaje/no-voltaje tiene similitud con la dualidad 1/0, que pretende significar presencia o ausencia total. Habría, en mucho sentido, no una relación simbólica, sino una relación icónica entre las corrientes eléctricas y la paridad binaria. Esto vuelve más borrosa, si cabe, la distinción entre software y hardware.
  6. Téngase cuidado y piénsese que a nivel ontológico solo siguen existiendo los flujos eléctricos. Los ceros y los unos no existen en ningún lugar del computador más que en la mente del ingeniero. Siguiendo, de nuevo, a Ockham, no multipliquemos los entes sin necesidad. Creo que es muy recomendable intentar atenerse a una ontología materialista sensu stricto cuando se analizan las computadoras porque en este contexto surgen muchos espejismos ontológicos.
  7. Una fantasía muy evocadora consiste en pensar que si pudiésemos conseguir crear un ordenador con una memoria continua en vez de discreta, tendríamos una memoria infinita, ya que algo continuo es infinitamente divisible de forma que siempre podríamos dividirlo otra vez para crear un nuevo espacio de memoria.
  8. Tenemos entonces los símbolos primitivos, los átomos de la computadora ¿Qué tipo de «manipulaciones» hace con ellos el ordenador? Para hacerlo más fácil, pensemos en la versión simplificada par excellence de un ordenador: una máquina de Turing. Ésta solo hace cinco cosas: lee, escribe, borra, mueve la cinta a la derecha o mueve la cinta a la izquierda. Si nos ponemos exquisitos, una máquina de Turing solo cambia cosas de sitio (Véase que la instrucción Mov era una de las esenciales del lenguaje ensamblador). Y esto es lo verdaderamente alucinante: solo cambiando cosas de sitio conseguimos llegar hacer ingenios como ChatGTP o AlphaFold.
  9. Además, como lenguaje solo necesitamos dos tipos de símbolos (0 y 1), ya que podemos traducir todos los números y las letras, es decir, todo símbolo imaginable, a código binario. No hay nada que pueda hacerse con un conjunto de símbolos cualesquiera (pongamos el alfabeto chino) y que no pueda hacerse con código binario. Todo código es bi-reductible.
  10. Por eso, para fabricar un computador, lo único que necesitamos es encontrar, o fabricar, elementos biestables (flip-flop), es decir, cosas que puedan mantenerse de forma razonablemente estable en uno de dos estados posibles.
  11. Recapitulando: solo necesitamos un mecanismo capaz cambiar dos tipos de cosas de sitio para llegar hacer ingenios como ChatGPT o AlhaFold. Es completamente increíble el poder generativo de algo tan sencillo.
  12. En 2007 saltó la noticia de que la máquina de Turing (2,3) era universal, es decir, de que una máquina de Turing de dos estados y tres colores era capaz de realizar cualquier cálculo imaginable. Un chaval de veinte añitos, un tal Alex Smith, había sido el diseñador de la máquina (si bien todavía el asunto es controvertido y, hasta donde yo sé, no ha sido aclarado aún). Adjunto la tesis doctoral de Turlough Neary y un artículo de Yurii Rogozhin por si alguien quiere profundizar en las máquinas de Turing mínimas.
  13. Pero esto nos debe hacer desconfiar de las explicaciones reduccionistas. Reducir lo que es un ordenador a su mínima expresión puede tener cierto valor explicativo pero no es, para nada, toda la historia. Intentar explicar todo lo que es un programa como Windows por ejemplo, únicamente apelando a voltajes y tensiones, sería lo mismo que intentar explicar la literatura de Cervantes solo apelando a los átomos de un ejemplar del Quijote. La mejor explicación aparecerá en niveles intermedios y no en los inferiores.
  14. Los distintos lenguajes de programación que aparecieron progresivamente fueron echando capas simbólicas sobre el hardware. Lo que se pretendía era, sencillamente, hacer más fácil el uso del ordenador al programador. Programar directamente con código binario es un auténtico infierno, por lo que muy pronto se crearon instrucciones que ejecutaban conjuntos enteros de procesos y que resultaban más amigables para los pobres ingenieros. Así surgió el ensamblador y demás lenguajes que fueron subiendo más y más de nivel simbólico o de abstracción. Famoso fue COBOL, basado en las ideas de la simpar Grace Murray Hopper, que casi puede entenderse sabiendo inglés. Hoy en día lenguajes como Python son de altísimo nivel, edificios con muchísimas plantas de símbolos, de instrucciones que están en lugar de otras que, a su vez, están en lugar de otras, y así sucesivamente muchísimas veces. El último nivel sería el de la interfaz de usuario, en donde se intenta que una persona sin conocimientos informáticos sea capaz de manejar la computadora.
  15. Esto genera una sensación engañosa de simplicidad. Al usuario le parece que no hay nada entre que pulsa el icono en pantalla y el vídeo empieza a verse. Aquí viene al pelo la famosa frase de Clarke: “Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”. Y esto puede ser muy peligroso.
  16. En el famoso argumento de la habitación china, Searle critica que el comportamiento de la máquina siempre es sintáctico y nunca semántico, es decir, que la computadora trata los símbolos no como símbolos sino como «lugares», como cosas que cambia de sitio sin ningún tipo de comprensión de su significado. Eso es verdad y no lo es. Es cierto que la computadora solo cambia cosas de sitio, pero lo hace según unas reglas y esas reglas sí que son semánticas. Por ejemplo, si hacemos un circuito para conseguir una puerta lógica AND, es cierto que la máquina no comprende lo que hace ni sabe lo que es un AND, pero el circuito sí que crea una puerta AND que se comporta, con todas las de la ley, como tal y podrá ser utilizada para esa tarea. Me gusta utilizar la expresión «semántica prestada» para hacer referencia a que toda la semántica se la ha puesto el ingeniero. Ciertamente, tal como dice Searle, la computadora no comprende lo que hace, pero se comporta como si lo hiciera y sus resultados son completamente válidos: las inferencias a partir de la puerta lógica AND son correctas.
  17. ChatGPT no comprende nada de lo que hace y su forma de funcionar mediante modelos de lenguaje basados en semánticas distribuidas es muy estúpida. Sin embargo, su espectacular éxito se debe a lo bien que maneja la semántica que ya encontró en los millones de textos con los que fue entrenado. Si ChatGPT sabe que «Hoy hace un buen día porque…» encaja mejor con «…no llueve» que con «… hace una terrible ventisca», es porque alguien que sí comprendía semánticamente lo que escribía se lo dejó preparado.
  18. Lo interesante viene cuando cualquier programa de procesamiento de lenguaje se encuentra con que tiene que inferir nuevas semánticas a partir de las que ya tiene. Por ejemplo, si sabe que «parachoques» suele llevarse bien con «automóvil», ¿se llevará bien con «helicóptero» o con «barco»? ChatGPT, y sus modelos homólogos, buscan con su colosal fuerza bruta otros casos en los que «parachoques» aparezca junto a «helicóptero» o «barco» pero, ¿y si no aparecieran? Lo salvaje de estos modelos es que casi siempre aparecen de alguna forma, porque tienen en su memoria todo lo que jamás ha sido escrito y, hablando en esos órdenes de magnitud, es muy difícil sorprenderles. La fuerza bruta es mucho más poderosa de lo que hubiéramos pensado.
  19. Pero, si nos olvidamos de ella, lo interesante sigue siendo crear IA de la forma tradicional: enseñando a que piensen de verdad y no solo a que busquen correlatos estadísticos. Como defiende Judea Pearl, hay que enseñarles causalidad. ChatGPT relaciona «nubes» con «lluvia» pero no comprende qué relación causal hay entre ambas, solo sabe que las nubes causan lluvia porque lo ha leído mil veces así, pero aceptaría felizmente que la lluvia causara nubes si así lo hubiera leído. Eso además, hace a estos sistemas muy frágiles al engaño o al fallo absurdo.
  20. En esta línea estoy muy de acuerdo con Gary Marcus en que no podemos partir de un sistema que no sabe absolutamente nada y meterle millones de datos, sino que hay que introducirle mucho más conocimiento incorporado. Parece que hay que volver a la vieja IA simbólica y diseñar sistemas híbridos que aprovechen lo mejor de ambos mundos. Hay que volver a recuperar los viejos sistemas expertos.
  21. De igual forma hay que dar más importancia al diseño del hardware. Debido al error de creer en el argumento funcionalista de la independencia de substrato o realizabilidad múltiple, se ha pensado en que el hardware no tenía ni la más mínima importancia. Fatal confusión: la mente ha co-evolucionado biológicamente con el cuerpo durante eones. En este proceso evolutivo la mente ha ido determinando el diseño óptimo de su sustrato, mientras que el sustrato habrá impuesto limitaciones y posibilidades al desarrollo mental. La estructura y las propiedades físicas del material condicionan, sin duda, el pensamiento.
  22. Y no solo las propiedades físicas, sino las del entorno en el que la mente se ha desarrollado. El contexto, el ecosistema, las características del entorno quedan profundamente reflejadas en la naturaleza de nuestros pensamientos. De aquí las nuevas corrientes en ciencias cognitivas: la cognición corporeizada, embebida, situada o encarnada.

Es cierto que su «Alchemy and Artificial Intelligence» para la RAND Corporation fue demasiado agresivo. Es cierto que, a pesar de haber dicho que los programas de ajedrez jamás podrían superar el nivel amateur, perdió estrepitosamente jugando contra el programa MacHack del MIT (programado por R. Greenblatt); es cierto que muchas de las cosas que dijo que las máquinas no pueden hacer, al final, lo han hecho; y también es cierto que su enfrentamiento con los principales gurús de la IA ha parecido, a veces, obsesivo, casi como si tuviera contra ellos algo personal (Muchos dicen que utilizó un campo emergente como la IA para hacer valer su marca como filósofo). Seguramente, su mordacidad alejó a la gente a la que podía haber iluminado.

Pero también es cierto que el trato por parte de los rivales fue bastante malo. En general, excepto algunas breves reseñas y poco más, sobre todo por parte de Seymour Papert, la comunidad de IA decidió ignorarlo sin llegar a dar respuestas claras contra sus argumentos. Lo demás fueron descalificaciones que, prácticamente, solo argumentaban que Dreyfus no se enteraba de nada o que no era lo suficientemente inteligente para entender los programas que ellos diseñaban.  Allen Newell y Herbert Simon, objetivos primarios de Dreyfus, optaron por una estrategia muy cruel: pensaron que responderle era darle publicidad, por lo que lo mejor era ignorarlo. Y así lo hicieron.

El caso es que Hubert Dreyfus no era ningún charlatán, e independientemente de sus motivaciones, su forma de ser o su conducta, lo importante eran sus ideas y, a día de hoy, junto con Joseph Weizenbaum y John Searle, ha sido el más feroz crítico de la IA que ha existido y sus críticas, siendo intelectualmente honrados, deben ser respondidas adecuadamente y no pueden ser ignoradas sin más.

Vamos a hacer un somero resumen de sus planteamientos. Su crítica pueden dividirse en dos líneas: por un lado están las asunciones o presupuestos que los ingenieros de IA dan como autoevidentes y que, según Dreyfus, son solo hipótesis y, encima, muy discutibles; y por el otro están las cualidades esenciales al ser humano que la IA nunca será capaz de reproducir.

Presupuestos discutibles de la IA:

  1. Asunción biológica: la IA cree que la mente procesa la información en operaciones discretas mediante un equivalente biológico a los switches on-off  de los ordenadores, a saber, las neuronas. Según Dreyfus no hay evidencia científica de ésto y yo, honestamente, he de darle la razón hasta cierto punto. Estoy completamente convencido de que las neuronas realizan funciones mucho más amplias que el mero disparar un potencial de acción por su axón al ser excitadas según un cómputo de pesos sinápticos, siendo dichas funciones fundamentales para generar pensamiento. En general, creo que sabemos extremadamente poco del funcionamiento del sistema nervioso y que los modelos de redes neuronales artificiales son paupérrimos modelos de las auténticas, no solo por su simplicidad sino porque, incluso, creo que no replican adecuadamente su funcionamiento. Las redes neuronales artificiales, dado el estado actual del arte, darán más frutos como herramientas matemáticas para hacer un montón de cosas, que como imitadoras de la mente humana. Sin embargo, y en defensa de la IA, también hay que ser justos: es que por algo había que empezar. En un principio, nuestro modelos serán simples, pero esto no quiere decir que, mientras avance la disciplina, serán más completos y mejores. Dreyfus quizá confunde el estado del arte actual con las posibilidades futuras. Que ahora estemos lejos de conseguir algo no quiere decir que no lo consigamos en el futuro.
  2. Asunción psicológica: la IA cree que la mente es un mecanismo que opera sobre unidades discretas a través de reglas formales (en el fondo estamos hablando de la famosa hipótesis de la mente como sistema universal de símbolos propia de la IA clásica). Dreyfus reformula la famosa paradoja de la mente mecánica: si algo es mente no puede ser mecánico y si es mecánico no puede ser mente.  La mente está, según Dreyfus, muy lejos de ser igual a un ordenador.
  3. Asunción epistemológica: la IA cree que todo conocimiento puede ser formalizado, es decir, que todo lo que es comprensible puede expresarse, sin perder nada, mediante relaciones lógicas. Este es el gran problema que tuvieron los sistemas expertos: ¿cómo formalizar la conducta del experto cuando éste actúa guiado por una corazonada, por su intuición? Y, en el fondo, es un problema filosófico de amplio calado: ¿todo conocimiento es cuantificable o transformable en reglas? ¿Es posible la traducción absoluta de un lenguaje a otro? Dreyfus también recurre a la clásica distinción entre saber qué y saber cómo. El conocimiento de habilidades es, al menos en parte, un saber cómo que no puede ser transcrito a reglas ¿Podríamos aprender a montar en bicicleta, solamente, utilizando un manual de instrucciones?
  4. Asunción ontológica: la IA cree que el mundo es un conjunto de elementos discretos sin más. La IA no es sensible a la ambigüedad o a la continuidad (digamos analógica) que presenta la realidad. Todo lo que ocurre se da en un contexto dado tal que, para entender un objeto, es necesario comprender su situación. Nuestro conocimiento del mundo es, según Dreyfus, holístico.  Era cierto que las máquinas del siglo pasado tenían estos defectos, pero ya no. Por ejemplo, tenemos programas que funcionan con lógica borrosa y que, por tanto, son totalmente sensibles a cualquier tipo de ambigüedad. También, las redes neuronales actuales no tienen problema alguno al respecto e, incluso, hay proyectos de investigación muy interesantes en computación analógica.

Aspectos del ser humano que la IA no puede, ni podrá nunca, simular:

  1. El papel del cuerpo en la unificación y organización de nuestra experiencia de los objetos. Es cierto que la IA, con su tesis de la independencia de substrato, parece despreciar el cuerpo o hardware. Si, como ya decía Hobbes, el pensamiento es cálculo, y la tesis de Church-Turing es cierta (todo lo que puede ser calculable puede calcularlo una máquina de Turing), cualquier sustrato material que reúna las condiciones suficientes para construir con él una máquina universal de Turing, ya puede ser una mente. Como una máquina universal de Turing es algo relativamente sencillo, hay infinitud de sustratos que podrían ser una mente. Estamos diciendo algo tan chocante como que el pequeño procesador que controla tu lavadora, adecuadamente programado, puede hacer exactamente lo mismo que tu mente (aunque, seguramente, en mucho más tiempo). El cuerpo o sustrato en donde se da la mente, prácticamente, parece que no importa cuando, seguramente, sí que tiene mucha importancia (como no se ha cansado de repetir Searle con su chovinismo biológico). No obstante, la propia IA ya ha tenido eso en cuenta y hay muchísimos proyectos de programas que, de diferentes formas, tienen en cuenta su cuerpo. Véase la embodied cognition.
  2. El papel de la situación en la que se ubica el sujeto, a la hora de proporcionarle un horizonte de significado mediante el cual, la conducta puede ser regulada de modo flexible. A ver, para entender bien ésto hay que tener en cuenta la corriente filosófica a la que se adhiere Dreyfus: la fenomenología de Husserl y Heidegger. Para esta corriente, el hombre nace arrojado a la existencia, el individuo se encuentra en el mundo (es un dasein) y tiene que dar sentido a su vida. Esto es muy divertido: ¿cómo puedes hablarles a ingenieros de IA norteamericanos de filosofía alemana (además, de filosofía bastante compleja y oscura de entender) y decirles que sus máquinas no representan eso? Además, Dreyfus está haciendo su critica desde una perspectiva completamente opuesta a la visión materalista-naturalista-mecanicista que cualquier ingeniero que se precie, debe tener. Evidentemente si creemos que la mente no es algo material ni natural ni mecánico… pocas computadoras parecidas a humanos vamos a fabricar. De nuevo, aquí observamos el divorcio entre filosofía analítica y continental.
  3. El papel de los propósitos y las necesidades humanas para organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y accesibles para el sujeto. Una máquina sigue un proceso o algoritmo programado pero, realmente, no está motivado ni desea llegar a su objetivo. En este sentido, se pregunta ¿cómo una máquina diferencia lo relevante de lo accesorio para conseguir su objetivo? Dreyfus ve que un programa solo selecciona como relevante lo que le dice su programación, pero que es incapaz de decidir si algo es relevante por sí mismo. Creo que aquí se equivoca porque hace mucho tiempo ya que tenemos programas capaces de inferir por sí mismos lo relevante para realizar una tarea dada. De nuevo Dreyfus se queda estancado en la IA de su época. No obstante, sí que acierta en subrayar el papel afectivo-consciente a la hora de tomar decisiones. Sabemos muy bien que para decidir algo, las sensaciones, sentimientos y deseos, tienen un papel esencial y, desgraciadamente, a día de hoy esta parte de la IA es la más precaria: nadie sabe cómo hacer consciencia sintética. Sin embargo, ya existen muchos planteamientos al respecto como los de Rosalind Picard o Cynthia Breazeal en lo que se llama computación afectiva, o, en el campo más difícil de intentar crear consciencia artificial tenemos, por ejemplo, a Pentti Haikonen o Igor Aleksander, entre muchísimos otros.

Dreyfus llegó a decir que la IA era un programa de investigación degenerativo y, en cierto sentido, tuvo razón: la IA ha pasado por varios inviernos, por varias épocas en las que no se avanzó prácticamente nada y en las que se perdieron millones de dólares en inversiones (véase el fracaso de la quinta generación de computadores en Japón). No obstante, parece que ahora estamos en un cierto renacimiento con el machine learning y el big data, que ya veremos hasta donde nos llevan aunque parecen bastante prometedores. Dreyfus también criticó que las promesas de la IA nunca se llegaron a cumplir (ni se cumplirán). En esto hemos de darle una buena parte de razón: las promesas de Dartmouth estuvieron lejos de cumplirse y, seguramente, las mismas promesas que hoy nos hacen los líderes del sector, tampoco se cumplirán en los plazos que ellos dan (2045 para la singularidad tecnológica… ni de coña).

Hubert Dreyfus falleció el pasado 22 de abril. Por supuesto, los medios castellanoparlantes no hicieron mención alguna. Descanse en paz.

Imagen_2

Sigo leyendo y leyendo y por todos lados no hago más que encontrar un entusiasmo desbocado hacia las promesas de la Inteligencia Artificial.  Muchísimos investigadores siguen asumiendo acríticamente las tesis de la IA fuerte, a saber, la posibilidad de crear en un plazo muy corto de tiempo una mente mecánica, en principio idéntica, pero inmediatamente después superior a la humana. A esta idea la acompañan felizmente ocurrencias como la del mind uploading (poder descargar nuestra mente en una memoria electrónica), la de que vivimos en una simulación informática del tipo Matrix,  o la grave preocupación acerca de qué harán con la humanidad estos emergentes seres superiores cuando lleguen: ¿nos exterminarán al vernos como una amenaza o nos dejarán como mascotas? Si uno estudia detenidamente los logros reales de la ingeniería computacional de los últimos años comprueba con mucha facilidad que tal entusiasmo o temor son absolutamente infundados. No quiero ser el clásico pensador conservador vilipendiado por la historia que niega grandes avances de la ciencia. Nada más lejos de mi intención pasar por un Belarmino o un Wilberforce, pero considero que es mi deber intelectual sacar la falsedad a la luz. Que conste que a nadie le gustaría más que a mí que tales promesas fueran ciertas y posibles: he fantaseado miles de veces con hablar de metafísica mientras juego al ajedrez con HAL 9000.

Vamos a exponer en siete puntos las críticas que se pueden plantear a estas fantasiosas ideas:

1. Se hace demasiado hincapié en el rápido aumento de la capacidad de computación. Constantemente leemos noticias en las que se nos presenta un nuevo transistor del tamaño de una millonésima de millonésima de algo, capaz de realizar tropecientos millones de millones de operaciones por milisegundo. Estos avances están muy bien y, seguramente, son condiciones de posibilidad para crear una mente electrónica que iguale la capacidad de computo de la mente humana, pero con ellos se olvida que mucho más importante que poder calcular cantidades infinitas es saber qué pretendemos calcular con ello. Vale, tenemos un supercomputador impresionante pero, ¿qué hacemos con él?. ¿Cómo emulamos el hecho de que yo recuerde con nostalgia a mi abuela con millones de cómputos por milisegundo? Esta es la cuestión, y para ella no hay todavía respuesta alguna.

2. Estamos lejísimos de comprender el funcionamiento biológico del cerebro. Vamos sabiendo cada vez más cosas de la química neuronal pero todavía estamos a años luz de saber bien cómo funciona. Lo he dicho en muchas ocasiones: tenemos más de cien mil millones de neuronas altamente interconectadas que se comunican entre sí por impulsos eléctricos y químicos. Pues bien, si solo somos eso, no somos lo suficiente. Si solo somos flujo de información, no somos nada. La información sirve para hacer cosas, para activar procesos. Seguramente que necesito información que viaje por mis neuronas para crear la imagen de un tigre en mi mente, pero, aparte de esa información, necesito procesos físico-químicos que generen el miedo que siento ante la visión del tigre, y eso no es solo información, es un hecho físico. Y no tenemos ni la más remota idea de cómo un conjunto de redes neuronales genera un sentimiento, ni la más remota: ¿por qué entonces este entusiasmo en que vamos a conseguir copiar la mente en unos pocos años?

3. Una computadora o, un sistema universal de símbolos en términos de Herbert Simon, es únicamente eso: un sistema que transforma unos símbolos en otros según unas determinadas reglas. ¿Por qué presuponemos que un sistema que transforma símbolos va a ser capaz de realizar ciertos procesos físico-químicos como pueden ser los sentimientos? Yo puedo hacer un programa de ordenador que simule bastante bien el funcionamiento de las glándulas mamarias de una vaca, pero, ¿me dará ese ordenador leche? No, porque la tesis de la independencia de sustrato que muchos ingenieros sostienen ingenuamente no es plenamente cierta. Es posible que podamos construir una máquina de Turing en una cantidad muy amplia de sustratos físicos, pero es que una máquina de Turing solo puede calcular, no dar leche. O dicho de otro modo más claro: a lo mejor, es posible que algún tipo de neurotransmisor o de sustancia química del cerebro tenga una gran relación con los estados mentales. Por ejemplo, es posible que la dopamina, la adrenalina o el glutamato tengan que ver con lo que siento o pienso cuando siento o pienso. Estos compuestos tienen unas propiedades químicas únicas que es posible que sean imposibles de emular a no ser por otros compuestos muy similares. ¿Qué razones hay para pensar que un transistor de silicio puede hacer lo mismo que una molécula de serotonina? Seguramente que el pensamiento humano dependa mucho de las propiedades químicas de los componentes del cerebro, propiedades éstas de las que carecen por completo los componentes electrónicos de un ordenador. La independencia de sustrato podrá cumplirse para realizar todo tipo de cálculos, pero no para generar propiedades físicas. Para hacer fuego, necesito madera o algún elemento combustible; para hacer una mente, necesito algo que se parezca físicamente mucho a un cerebro.

4. Clarifiquemos en el siguiente esquema la confusión habitual:

ConfusiónIA

Los ingenieros de IA tienden a confundir el funcionamiento de un ordenador con los resultados físicos del funcionamiento del cerebro. Suelen afirmar que cuando un ordenador computa (manipula símbolos) está pensando, cuando no hay razón alguna para considerarlo así. Es posible que el cerebro humano realice computaciones, pero eso no es tener un estado mental. Los estados mentales son, en cualquier caso, los resultados de las computaciones, no las computaciones mismas. De nuevo, si yo veo un tigre, es probable que mi cerebro haga computaciones que fluyan a través de los axones de mis neuronas, pero el miedo (el estado mental) y la acción de salir huyendo (mi conducta) no son computaciones, son sucesos físicos (sentir miedo un proceso, fundamentalmente, químico y huir, fundamentalmente, un proceso mecánico). Hay que tener en cuenta que las computaciones de mi cerebro suceden a nivel inconsciente, mientras que mis estados mentales son conscientes. Cuando yo hablo no pienso a nivel consiente que detrás del sujeto va el predicado o que antes de un sustantivo he de poner un artículo. Eso lo hace mi cerebro por mí y mi mente consciente solo tiene acceso al resultado. Precisamente, el resultado es lo que solemos entender por mente.

5. Una vía de investigación algo más interesante es lo que se ha llamado programa conexionista y del que Pentti Haikonen es hoy uno de sus más célebres representantes. El plan es que en vez de intentar diseñar un maravilloso software capaz pensar, sentir y ser consciente de sí, mejor empezar por debajo: intentemos emular mecánicamente los elementos físicos del sistema nervioso, comenzando por los más simples, y sigamos avanzando hacia arriba a ver lo que pasa. Creo que es el camino correcto, pero dados los frutos que ha conseguido hoy en día, que son notables pero que van despacito, no es justificado ningún tipo de optimismo acerca tener a HAL 9000 en las próximas décadas.

6. La humanidad ha tendido históricamente a comparar al ser humano con el último avance tecnológico del momento. Se ha pensado que el cerebro era un sistema hidráulico o una centralita telefónica, y ahora pensamos que el cerebro es un ordenador cuando, insistimos, no hay evidencia disponible para sustentar tal afirmación de un modo completo. Yo pienso que el cerebro tiene componentes cuyo funcionamiento es similar al de un computador, pero nos falta mucho para que la metáfora sea perfecta. Quizá, en un futuro, sea posible fabricar computadores que se asemejen más, pero los actuales no son, ni de lejos, similares a la mente.

7. A la Inteligencia Artificial le ha ido mucho mejor cuando ha avanzado sin tener en mente el objetivo de simular al ser humano, que cuando lo ha tenido. El ordenador personal que utilizo para escribir ahora mismo es un instrumento maravilloso. Me sirve para reproducir música, vídeo, hacer operaciones matemáticas complejas, editar fotografías, etc. Que yo sepa, ningún humano tiene esas cualidades y, sin embargo, son fabulosas. Mi ordenador se fabricó sin la intención de ser un humano y así funciona maravillosamente bien. Quizá la Inteligencia Artificial deba seguir su camino sin la obsesión de emular al humano. Es más, quizá así será cuando consiga cosas incluso mucho mejores que un sapiens.

bahamas_2836_600x450

Dice Marvin Minsky que la mejor forma de comprender la mente es construyendo una. Estamos de acuerdo, así que vamos a ver uno de los intentos clásicos de hacerlo. En 1957, Simon, Shaw y Newell, diseñaron uno de los grandes hitos de la historia de la Inteligencia Artificial: el General Problem Solver. Era un programa creado para solucionar cualquier problema de tipo general, rompiendo con la preconcepción de que las máquinas solo podían resolver problemas muy específicos. Su estructura, muy simplificada, venía a ser la siguiente:

Sin título

El GPS funcionaba realizando una analogía entre su situación actual y el objetivo a cumplir, efectuaba un análisis de las diferencias entre ambos estados, utilizaba métodos para reducir las diferencias, y luego volvía a realizar la analogía inicial hasta que no existiesen diferencias entre el estado actual y el estado deseable. El diseño es muy interesante, sobre todo, por las similitudes que parece reflejar con respecto a la forma que tenemos los seres humanos de solucionar problemas, manteniendo, empero, una estructura muy simple:

1. Al realizar una comparación entre su situación y sus objetivos, tiene una cierta representación de sí mismo. Si quiero irme de viaje a las Bahamas, lo primero que tengo que saber es que YO no estoy en las Bahamas. Estaríamos todavía a años luz de la autoconsciencia, pero ya es un paso.

2. Para reducir las diferencias, el GPS podía suspender momentáneamente su objetivo principal para resolver sub-objetivos. Esto es una característica plenamente humana: suspender las urgencias del presente en pro de un objetivo futuro, es decir, planificar una acción en pasos. Si quiero irme a las Bahamas tengo que solucionar sub-problemas como pagar los billetes de avión, hacer las maletas, coger un taxi al aeropuerto, etc. Cuando queremos solucionar un gran problema, una buena forma de hacerlo es dividirlo en problemas más pequeños.

3. El GPS razonaba por analogía, quizá la forma humana más habitual de razonar. ¿Cómo sé que hay que hacer para viajar a las Bahamas? Porque antes he realizado otros viajes o porque he visto a otros hacerlos. Realizo analogías entre ese conocimiento previo y el problema al que me enfrento. Si yo viajé antes a Hawai, también hice las maletas y cogí un taxi al aeropuerto, pero a la hora de comprar los billetes de avión ahora tendré que comprarlos para Bahamas y no para Hawai y, probablemente, el precio será diferente. Hay similitudes que utilizaré sin problemas y diferencias que tendré que solucionar.

Sin embargo (ah, el siempre triste sin embargo), el GPS tenía el defecto que, hasta la fecha, no ha podido solucionarse (y del que ya hemos hablado en muchas entradas). Si realizar una analogía entre como estoy y lo que quiero hacer no parece presentar demasiados problemas, encontrar métodos de reducción de diferencias sí. Cuando nuestra máquina se encuentra en el aeropuerto y comprueba que «comprar un billete para Hawai» no le llevará a las Bahamas tiene que saber, de algún modo, que «en un aeropuerto pueden comprarse billetes a muchos sitios diferentes». Si no sabe eso, es imposible que pueda solucionar tan simple problema. Y es que el GPS solo funcionaba en entornos muy formalizados, no en el mundo real. Estamos ante el enigma del sentido común: si el GPS podía resolver teoremas matemáticos de gran complejidad, no podría comprar un billete de avión.

Una forma de entender este dilema se ha formulado afirmando que cuando realizamos cualquier acción existe un montón de conocimiento implícito que excede el conocimiento de una simple descripción simbólica como la que maneja un computador. Douglas Lenat nos ofrece un magnífico ejemplo de ello: analicemos la frase «Fred le dijo al camarero que él quería patatas fritas a la inglesa». ¿Qué tenemos que saber para entender esta afirmación?:

La palabra él se refiere a Fred, y no al camarero. Eso sucedía en un restaurante. Fred era un cliente que estaba cenando allí. Fred y el camarero se encontraban más o menos a un metro de distancia. El camarero trabajaba allí y en aquel momento estaba atendiendo a Fred.

Fred quiere patatas en rodajas finas, no en tiras. Fred no desea unas patatas determinadas, sino solo un tipo determinado de patatas.

Fred indica esto mediante las palabras habladas que dirige al camarero. Tanto Fred como el camarero son seres humanos. Ambos hablan el mismo idioma. Ambos tienen edad suficiente para poder expresarse, y el camarero tiene edad suficiente para trabajar.

Fred tiene hambre. Desea y espera que en unos minutos el camarero le traiga una ración normal, que Fred empezará a comer en cuanto le sirvan.

Asimismo podemos suponer que Fred supone que el camarero también supone todas esas cosas.

No hay más que decir: o el GPS sabe o puede deducir todo este conocimiento implícito, o jamás podrá resolver problemas que ocurran cuando tenga que pedir una ración de patatas en un restaurante. La solución que se dio fue la de crear sistemas expertos. Podríamos dotar al GPS de un montón de conocimiento sobre todos los pasos que hay que dar para realizar un viaje o comer en un restaurante. No obstante, al hacerlo, estamos incumpliendo nuestro propósito inicial, a saber, que nuestra máquina solucione cualquier tipo de problemas y no únicamente problemas específicos. Este es el asunto en el que la Inteligencia Artificial lleva estancada durante las últimas décadas y que no tiene demasiados visos de resolverse a corto plazo.

Véanse, en la misma línea:

Contexto o como no montar una orgía

Cero en conducta

El límite Winograd

El mismo Lenat lleva años intentando dotar a las máquinas de sentido común. En esta entrada hablé de su encomiable proyecto: la inteligencia son cien millones de reglas.