Posts etiquetados ‘Hubert Dreyfus’

Campañas contra los robots asesinos, muchos desarrolladores e investigadores diciendo que la IA puede ser un gran peligro (hace unos días lo hizo Bengio), la famosa carta del Future of Life Institute en la que personalidades como Stephen Hawking, Elon Musk, Steve Wozniak y todo el resto de la flor y nata del stablishment tecnológico norteamericano en la que alertaban sobre el peligro de los desarrollos bélicos de la IA, e incluso el Secretario General de la ONU, Antonio Guterres, hablando de la prohibición de las LAW (Lethal Autonomous Weapons). Raymond Kurzweil escribiendo sobre la singularidad tecnológica y sobre máquinas conscientes para el 2029, Nick Bostrom alertándonos de la gravedad de los problemas a los que llegaremos cuando ocurra la «explosión de inteligencia»: momento en el que surja una IA cuya inteligencia nos supere y se dedique a hacerse más inteligente a sí misma, lo cual llevará a un proceso de crecimiento exponencial… ¡Las máquinas se harán con el mando del mundo y tendrán que decidir si somos una amenaza para ellas o no!

Mucho revuelo, pero ¿hay que tomarse esto en serio? ¿Hay que comenzar a preocuparse por la rebelión de las máquinas asesinas? Ni hablar. Veamos:

  1. No hay ni la más mínima evidencia empírica que apunte a la posibilidad de crear máquinas conscientes. Ni la más mínima. Invito al lector a que lea propuestas como CLARION, OpenCog, LIDA, etc. y que juzgue por sí mismo si son conscientes o no, o sí, al menos, están cerca de conseguirlo.
  2. En lo referente a una Inteligencia Artificial General, el asunto no está mucho mejor. Hay proyectos e ideas (véase CYC, SOAR o el actual IMPALA) pero, igualmente, están lejísimos de que podamos tener una IA capaz de acercarse a la polivalencia de nuestras mentes de primate. El Frame Problem sigue sin resolverse concluyentemente y nuestras más avanzadas arquitecturas de aprendizaje profundo tienen mucho menos sentido común que un niño de tres años.
  3. Entonces, sin base experimental ni teórica alguna… ¿cómo nos atrevemos que decir que la IA artificial es tan peligrosa y, es más, que se rebelará contra sus creadores? Curiosa forma de argumentar: del conjunto vacío de premisas deducimos todo lo que nos da la gana.
  4. Es por ello que es absolutamente imposible realizar ningún tipo de predicción al respecto. Es una solemne estupidez hablar de fechas. Sería algo así como preguntarle a un hombre de la Edad Media por la aparición del vuelo a reacción. Los que se atreven a hacerlo se lo inventan sin ningún criterio, así de claro. Igual da decir 2029, 2087, 2598 o 15345.
  5. Lo que sí tenemos en IA son excelentes hiperespecialistas: inteligencias capaces de hacer a nivel sobrehumano tareas muy concretas como por ejemplo, jugar al ajedrez o al Go (actuar en entornos muy formalizados), analizar y modificar imágenes, o buscar patrones en ingentes cantidades de datos… pero nada más. Si tienes una red convolucional increíblemente buena detectando un tipo de tumor en radiografías de pulmones y quieres que aprenda otra cosa, solo tienes un camino: borrarlo todo y volver a entrenar a la red desde el principio.
  6. El deep learning ha supuesto un gran empujón a un campo que, siendo honestos, ha tenido casi más inviernos que primaveras. Las distintas versiones de Alpha (Go, Zero, Star…) son impresionantes, y el generador de textos recientemente aparecido GPT-2 es lo mejor que nunca he visto… a falta de que hagan público cómo funciona. Sin embargo, a pesar de que estos logros son alucinantes, hay que entender que la ciencia avanza, en la inmensa mayoría de los casos, a base de pequeños pasos.
  7. Se cae en un error muy común a la hora de entender el progreso científico. Se cree que porque algo esté avanzando con mucha solvencia, ese avance va a seguir ininiterrumpidamente hasta llegar al infinito. Así, si creamos máquinas un poquito inteligentes, en un futuro, seremos capaces de hacerlas superinteligentes… ¿Por qué? En ciencia es muy común encontrar programas de investigación muy prometedores que terminan por volverse degenerativos y abandonarse. Verdaderamente, no sabemos qué pasará con la IA al igual que no sabemos lo que pasará con ninguna otra tecnología ¿Alguien pudo predecir el éxito de Apple, Twitter, Yotube…? Como bien afirma el analista Nassim Taleb, una de las características de nuestra época es nuestra mas que patente incapacidad de predicción: sucesos altamente improbables suceden por doquier.
  8. Pero, dado que nosotros solo somos quarks organizados de una determinada manera y nuestra mente surge de colocar quarks de un determinado modo… ¿no será entonces cuestión de tiempo que descubramos tal colocación y entonces creemos una IA a imagen y semejanza de nosotros y, ya puestos, la haremos mejor que nosotros? Por supuesto, pero esta argumentación es de lo más vacío que puede decirse. No es algo muy alejado de sentenciar: todo lo que sea posible terminará por pasar. Vale, tómate un café ¿Podremos viajar más allá de la Vía Láctea y colonizar el universo? ¿Podremos hacer un zoo de dinosaurios al estilo de Parque Jurásico? ¿Podremos hacer máquinas del tiempo o teletransportarnos? En teoría no vemos que sean imposibles… ¿Centramos entonces todo el debate mediático en torno a estos temas?
  9. Andrew Ng dice que debatir ahora sobre la rebelión de las maquinas es equivalente a debatir sobre el problema de la superpoblación en Marte. Es posible que sea un tema muy interesante y evocador, pero no puede tener la cobertura mediática que se le está dando. Hay problemas mucho más acuciantes que merecen mucho más que les dediquemos nuestro esfuerzo.
  10. En el fondo se está jugando con una falacia informal, la ad ignorantiam: sacar conclusiones a favor o en contra de algo por el hecho de que no se ha demostrado lo contrario. Como, en el fondo, nadie puede estar en desacuerdo con el punto 6… pues el punto 6 es cierto. Dos cosas: en primer lugar que algo sea irrefutable no quiere decir ni que sea cierto ni que merezca la pena nuestra atención. El famoso ejemplo de la tetera de Russell viene aquí a pelo: sería posible que ahora mismo en un anillo de Saturno existiera una tetera orbitando alrededor del planeta. Si alguien asegura que es absurdo que allí haya una tetera, no tenemos más que decirle que intente demostrar que no es así. Como no podrá, ya está, nuestra afirmación es verdadera. Como nadie ha demostrado que no sea posible crear una IA de inteligencia sobrehumana, la inteligencia sobrehumana llegará y, es más, se rebelará contra nosotros.
  11. La carga de la prueba la tiene siempre el que afirma: así los defensores de la rebelión de la IA deberían aportar la suficiente evidencia empírica tanto acerca de la fabricación de máquinas sobrehumanas como de la supuestamente necesaria rebelión de éstas. Como hemos afirmado en 1 y en 2, no existe tal evidencia de lo primero, cuánto menos de lo segundo: ¿a alguien se le ha rebelado alguna vez una máquina y ha querido, a propósito, atentar contra su integridad física? Creo que James Cameron (Terminator) y las hermanas Wachowski (Matrix) han hecho mucho daño.
  12. Pero es que es más: existe evidencia en contra. Hay multitud de argumentos que diferencian la mente humana de un computador y que subrayan la imposible reducción de la primera al segundo. Las críticas a la IA Fuerte han llegado desde todos lados. Por citar los más notorios, tenemos el argumento de la irreductibilidad de los qualia de Nagel, la crítica desde la perspectiva heideggeriana de Dreyfus, la indecibilidad gödeliana de la mente de Roger Penrose o, para mí la más notoria, la caja china de John Searle. Creo que, a pesar de las múltiples matizaciones, no se ha conseguido refutar convincentemente a estos autores (sobre todo a Nagel y a Searle).
  13. Estos argumentos críticos tampoco llegan a imposibilitar la creación de máquinas superinteligentes o conscientes, solo sostienen que las que hay no lo son y que, por el mismo camino, no lo vamos a conseguir. Yo no tengo ni idea de cómo podrán conseguirse (tendría algún que otro premio Nobel si lo supiera), pero desde luego, estoy seguro de que una consciencia no puede correr en un procesador Pentium (ni en una TPU de Nvidia) ni guardarse en una memoria USB.
  14. La rebelión de las máquinas es un tema que puede ser evocador e interesante, incluso un magnífico campo para la reflexión filosófica y el experimento mental. No digo que no se pueda tratar. Yo lo he hecho alguna vez en el blog. Lo que sostengo es que es un tema sobredimensionado que, muchas veces, aparece en el foco de atención mediática como si fuese un problema social de primer orden que urge solucionar, cuando lo único que hay es marketing: se ha encontrado un nuevo nicho por explotar, y hay muchos libros que vender y muchas cátedras universitarias que ocupar.

Addendum del 29-5-2019:

Tuve el honor de ser invitado a participar de este podcast de Xataka en donde se habló de este artículo y se profundizó sobre el tema.

Estamos montados en un autobús cuando, de repente, un viajero sufre un palo cardíaco. El autobús pasa al lado de un hospital pero en su itinerario no consta realizar ninguna parada allí, así que el autobús sigue como si nada mientras el viajero agoniza. Entonces, cuando nosotros gritamos furiosamente al chófer para exigirle que pare, éste nos contesta que las reglas de la empresa son tener como prioridad  el cumplimiento  del horario e itinerario previstos, por lo que parar para asistir a un enfermo desobedecería tal prioridad y él nunca rompe las normas. Cuando ya estábamos dispuestos a partirle la cara, nos damos cuenta de que estamos en el 2035 y que el chófer es, en realidad, una computadora.

Esta historieta ilustra una de las grandes objeciones de la posibilidad de generar inteligencia artificial: las máquinas funcionan obedeciendo reglas mientras que la mente humana es mucho más flexible, pareciendo estar preparada para una gama indefinida de situaciones.  Si el chófer hubiera sido un humano, habría parado el autobús ponderando que la vida de un hombre es más valiosa que el retraso del autobús. Las computadoras sólo pueden obedecer un programa, no aceptan la novedad, no son espontáneas.

No, podemos objetar, lo que pasa es que el chófer computadora tiene un mal programa. Podríamos añadir nuevas reglas como, por ejemplo «Cumplir el itinerario a no ser que exista una emergencia médica, en cuyo caso, ir al hospital más próximo». Sí pero, y si lo que pasara es que unos terroristas secuestraran el bus, entonces estamos de nuevo en las mismas: el chófer seguiría con su terquedad maquínica.  Para solucionarlo, podríamos ir añadiendo reglas y reglas, buscando que fueran lo suficientemente generales para hacer frente a cualquier situación posible.  Lo que estaríamos haciendo es dotar a nuestro chófer artificial de algo tan humano como el sentido común. Y eso es lo que el presidente de Cycorp, Doug Lenat, lleva haciendo desde 1984 con su CYC Proyect. La idea consiste en buscar una serie de reglas  que representen perfectamente los supuestos que el sentido común humano maneja acerca de la realidad  (Lenat lo llama «realidad de consenso»). Datos como «los objetos sólidos no pueden ser penetrados por otros objetos sólidos» o «el agua produce humedad» forman parte de esa «realidad» que conforma nuestro sentido común. El equipo de Lenat pretende sintetizar este conocimiento en unas cien millones de proposiciones.

Además, no creemos que la supuesta espontaneidad de la inteligencia humana sea ilimitada. El chófer puede hacer frente a una gran cantidad de situaciones, pero, en muchas otras, no sabrá que hacer o seguirá pautas de actuación que no tendrán en cuenta algunos datos quizá pertinentes. La cuestión parece reducirse  más a una cuestión de complejidad de nuestro sistema de toma de decisiones (tengamos en cuenta que lleva millones de años evolucionando para ser más efectivo) que a las limitaciones de la inteligencia artificial. Somos muy versátiles, pero no infinitamente versátiles, y si somos finitos, somos computables, por lo menos en lo que se refiere a manejar de modo competente un autobús.

En este sentido, la distinción entre saber qué y saber cómo es también una cuestión de complejidad. Muchos de los críticos de la AI como Hubert Dreyfus arguyen que el conocimiento de tipo representacional, tal que casi sólo supone establecer una función biyectiva entre dos representaciones («¿Capital de Polonia? Varsovia»), es fácilmente realizable por un ordenador, pero que cosas como las habilidades (saber hacer) no son de naturaleza representacional y que, por lo tanto, no son computables. No, simplemente es que los algoritmos para realizar habilidades tales como montar en bicicleta o jugar al fútbol serán muy numerosos y complejos, mucho más de lo que podríamos esperar. La empresa es difícil pero no imposible.

Aquí os dejo una conferencia en la que Lenat presenta algunos resultados y características de su ambicioso proyecto (siento que está en inglés)…