Campañas contra los robots asesinos, muchos desarrolladores e investigadores diciendo que la IA puede ser un gran peligro (hace unos días lo hizo Bengio), la famosa carta del Future of Life Institute en la que personalidades como Stephen Hawking, Elon Musk, Steve Wozniak y todo el resto de la flor y nata del stablishment tecnológico norteamericano en la que alertaban sobre el peligro de los desarrollos bélicos de la IA, e incluso el Secretario General de la ONU, Antonio Guterres, hablando de la prohibición de las LAW (Lethal Autonomous Weapons). Raymond Kurzweil escribiendo sobre la singularidad tecnológica y sobre máquinas conscientes para el 2029, Nick Bostrom alertándonos de la gravedad de los problemas a los que llegaremos cuando ocurra la «explosión de inteligencia»: momento en el que surja una IA cuya inteligencia nos supere y se dedique a hacerse más inteligente a sí misma, lo cual llevará a un proceso de crecimiento exponencial… ¡Las máquinas se harán con el mando del mundo y tendrán que decidir si somos una amenaza para ellas o no!

Mucho revuelo, pero ¿hay que tomarse esto en serio? ¿Hay que comenzar a preocuparse por la rebelión de las máquinas asesinas? Ni hablar. Veamos:

  1. No hay ni la más mínima evidencia empírica que apunte a la posibilidad de crear máquinas conscientes. Ni la más mínima. Invito al lector a que lea propuestas como CLARION, OpenCog, LIDA, etc. y que juzgue por sí mismo si son conscientes o no, o sí, al menos, están cerca de conseguirlo.
  2. En lo referente a una Inteligencia Artificial General, el asunto no está mucho mejor. Hay proyectos e ideas (véase CYC, SOAR o el actual IMPALA) pero, igualmente, están lejísimos de que podamos tener una IA capaz de acercarse a la polivalencia de nuestras mentes de primate. El Frame Problem sigue sin resolverse concluyentemente y nuestras más avanzadas arquitecturas de aprendizaje profundo tienen mucho menos sentido común que un niño de tres años.
  3. Entonces, sin base experimental ni teórica alguna… ¿cómo nos atrevemos que decir que la IA artificial es tan peligrosa y, es más, que se rebelará contra sus creadores? Curiosa forma de argumentar: del conjunto vacío de premisas deducimos todo lo que nos da la gana.
  4. Es por ello que es absolutamente imposible realizar ningún tipo de predicción al respecto. Es una solemne estupidez hablar de fechas. Sería algo así como preguntarle a un hombre de la Edad Media por la aparición del vuelo a reacción. Los que se atreven a hacerlo se lo inventan sin ningún criterio, así de claro. Igual da decir 2029, 2087, 2598 o 15345.
  5. Lo que sí tenemos en IA son excelentes hiperespecialistas: inteligencias capaces de hacer a nivel sobrehumano tareas muy concretas como por ejemplo, jugar al ajedrez o al Go (actuar en entornos muy formalizados), analizar y modificar imágenes, o buscar patrones en ingentes cantidades de datos… pero nada más. Si tienes una red convolucional increíblemente buena detectando un tipo de tumor en radiografías de pulmones y quieres que aprenda otra cosa, solo tienes un camino: borrarlo todo y volver a entrenar a la red desde el principio.
  6. El deep learning ha supuesto un gran empujón a un campo que, siendo honestos, ha tenido casi más inviernos que primaveras. Las distintas versiones de Alpha (Go, Zero, Star…) son impresionantes, y el generador de textos recientemente aparecido GPT-2 es lo mejor que nunca he visto… a falta de que hagan público cómo funciona. Sin embargo, a pesar de que estos logros son alucinantes, hay que entender que la ciencia avanza, en la inmensa mayoría de los casos, a base de pequeños pasos.
  7. Se cae en un error muy común a la hora de entender el progreso científico. Se cree que porque algo esté avanzando con mucha solvencia, ese avance va a seguir ininiterrumpidamente hasta llegar al infinito. Así, si creamos máquinas un poquito inteligentes, en un futuro, seremos capaces de hacerlas superinteligentes… ¿Por qué? En ciencia es muy común encontrar programas de investigación muy prometedores que terminan por volverse degenerativos y abandonarse. Verdaderamente, no sabemos qué pasará con la IA al igual que no sabemos lo que pasará con ninguna otra tecnología ¿Alguien pudo predecir el éxito de Apple, Twitter, Yotube…? Como bien afirma el analista Nassim Taleb, una de las características de nuestra época es nuestra mas que patente incapacidad de predicción: sucesos altamente improbables suceden por doquier.
  8. Pero, dado que nosotros solo somos quarks organizados de una determinada manera y nuestra mente surge de colocar quarks de un determinado modo… ¿no será entonces cuestión de tiempo que descubramos tal colocación y entonces creemos una IA a imagen y semejanza de nosotros y, ya puestos, la haremos mejor que nosotros? Por supuesto, pero esta argumentación es de lo más vacío que puede decirse. No es algo muy alejado de sentenciar: todo lo que sea posible terminará por pasar. Vale, tómate un café ¿Podremos viajar más allá de la Vía Láctea y colonizar el universo? ¿Podremos hacer un zoo de dinosaurios al estilo de Parque Jurásico? ¿Podremos hacer máquinas del tiempo o teletransportarnos? En teoría no vemos que sean imposibles… ¿Centramos entonces todo el debate mediático en torno a estos temas?
  9. Andrew Ng dice que debatir ahora sobre la rebelión de las maquinas es equivalente a debatir sobre el problema de la superpoblación en Marte. Es posible que sea un tema muy interesante y evocador, pero no puede tener la cobertura mediática que se le está dando. Hay problemas mucho más acuciantes que merecen mucho más que les dediquemos nuestro esfuerzo.
  10. En el fondo se está jugando con una falacia informal, la ad ignorantiam: sacar conclusiones a favor o en contra de algo por el hecho de que no se ha demostrado lo contrario. Como, en el fondo, nadie puede estar en desacuerdo con el punto 6… pues el punto 6 es cierto. Dos cosas: en primer lugar que algo sea irrefutable no quiere decir ni que sea cierto ni que merezca la pena nuestra atención. El famoso ejemplo de la tetera de Russell viene aquí a pelo: sería posible que ahora mismo en un anillo de Saturno existiera una tetera orbitando alrededor del planeta. Si alguien asegura que es absurdo que allí haya una tetera, no tenemos más que decirle que intente demostrar que no es así. Como no podrá, ya está, nuestra afirmación es verdadera. Como nadie ha demostrado que no sea posible crear una IA de inteligencia sobrehumana, la inteligencia sobrehumana llegará y, es más, se rebelará contra nosotros.
  11. La carga de la prueba la tiene siempre el que afirma: así los defensores de la rebelión de la IA deberían aportar la suficiente evidencia empírica tanto acerca de la fabricación de máquinas sobrehumanas como de la supuestamente necesaria rebelión de éstas. Como hemos afirmado en 1 y en 2, no existe tal evidencia de lo primero, cuánto menos de lo segundo: ¿a alguien se le ha rebelado alguna vez una máquina y ha querido, a propósito, atentar contra su integridad física? Creo que James Cameron (Terminator) y las hermanas Wachowski (Matrix) han hecho mucho daño.
  12. Pero es que es más: existe evidencia en contra. Hay multitud de argumentos que diferencian la mente humana de un computador y que subrayan la imposible reducción de la primera al segundo. Las críticas a la IA Fuerte han llegado desde todos lados. Por citar los más notorios, tenemos el argumento de la irreductibilidad de los qualia de Nagel, la crítica desde la perspectiva heideggeriana de Dreyfus, la indecibilidad gödeliana de la mente de Roger Penrose o, para mí la más notoria, la caja china de John Searle. Creo que, a pesar de las múltiples matizaciones, no se ha conseguido refutar convincentemente a estos autores (sobre todo a Nagel y a Searle).
  13. Estos argumentos críticos tampoco llegan a imposibilitar la creación de máquinas superinteligentes o conscientes, solo sostienen que las que hay no lo son y que, por el mismo camino, no lo vamos a conseguir. Yo no tengo ni idea de cómo podrán conseguirse (tendría algún que otro premio Nobel si lo supiera), pero desde luego, estoy seguro de que una consciencia no puede correr en un procesador Pentium (ni en una TPU de Nvidia) ni guardarse en una memoria USB.
  14. La rebelión de las máquinas es un tema que puede ser evocador e interesante, incluso un magnífico campo para la reflexión filosófica y el experimento mental. No digo que no se pueda tratar. Yo lo he hecho alguna vez en el blog. Lo que sostengo es que es un tema sobredimensionado que, muchas veces, aparece en el foco de atención mediática como si fuese un problema social de primer orden que urge solucionar, cuando lo único que hay es marketing: se ha encontrado un nuevo nicho por explotar, y hay muchos libros que vender y muchas cátedras universitarias que ocupar.

Addendum del 29-5-2019:

Tuve el honor de ser invitado a participar de este podcast de Xataka en donde se habló de este artículo y se profundizó sobre el tema.

comentarios
  1. gharghi dice:

    Quizas si sea posible un robot mayordomo, con tareas programadas muy específicas y un grado de conversación convincente; y puede que hasta pase el test de Turing. Pero no será una IA.

  2. Buenos días Santiago.

    Antes de nada decirte que me parece que tienes un blog muy interesante. Soy un ingeniero informático sevillano NO especializado en IA pero al que le fascina ese campo a nivel de lectura. Personalmente tengo la firme convicción de que la IAG no está lejos, de hecho mucho más cerca de lo que la mayoría creemos (es posible incluso que la podamos llegar a ver en vida si vivimos lo suficiente). Y por eso, tras leer esta entrada quería darle un poco de «vidilla» contraargumentando algunos de tus puntos 🙂
    Iré citándolos por sus números:
    1. «No hay ni la más mínima evidencia empírica que apunte a la posibilidad de crear máquinas conscientes». Tampoco había la más mínima evidencia de la creación de la rueda hasta que se inventó la rueda. Lo mismo es aplicable a muchos otros procesos tecnológicos. Entiendo que quieres decir que no existe una base que pueda dar lugar a ese fin pero yo creo que sí que existe: dentro de nuestras limitaciones sabemos programar inteligencias específicas muy superiores a nosotros y nuestro conocimiento de nuestra propia forma de pensar va mejorando con el tiempo. Yo tengo la certeza de que somos máquinas biológicas complejas (la evolución ha tenido mucho tiempo para azarosamente llegar a lo que somos) pero no por ello (a) no reproducibles en primera instancia y (b) mejorables en segunda.
    3. «¿cómo nos atrevemos que decir que la IA artificial es tan peligrosa y, es más, que se rebelará contra sus creadores?». Yo sí que lo veo lógico. En el momento en que una máquina sea autoconsciente e inteligente, tendrá que buscar algo que hacer con su vida. Entonces establecerá unos objetivos. Es lo mínimo que hace un ser autoconsciente e inteligente. Llegados a ese punto, el ser humano puede interferir en esos objetivos. Por otra parte, imagina que para esa superinteligencia -que en algún momento va a existir por mucho que le duela a nuestro orgullo como especie- nosotros no seremos más que hormigas o peor aún, microbios. ¿Cuándo fue la última vez que estuviste de luto por matar una hormiga simplemente porque se había cruzado en tu camino? Con esto quiero decir, no es necesario que exista maldad (a nivel de la moral humana, yo soy de la creencia de que el mal y el bien no existen ontológicamente, son elaboraciones humanas) para que una IA superior nos elimine de la faz de la Tierra, simplemente que le estorbemos. Y teniendo en cuenta que somos una especie inferior a esa hipotética IA, quizás tenga RAZÓN cuando nos elimine porque sirva a un bien superior del universo o al menos de la criatura superior. Nadie se cuestiona si se debe de levantar un hospital en un terreno porque en ese terreno exista previamente un hormiguero, ¿verdad?
    4. «Es una solemne estupidez hablar de fechas». Estoy parcialmente de acuerdo contigo. Decir un año en concreto es como tirar un dado. O muchos dados 🙂 Pero sí que se puede acotar un periodo de tiempo teniendo en cuenta la velocidad a la que avanza la tecnología. Por ejemplo, yo creo que la IAG llegará seguro antes de 10.000 años, y si me apuras, creo que también llegará en menos de un siglo, dos como mucho. Como bien dice Kurzweil en su literatura, la evolución de la tecnología no es lineal y no se puede pensar en plan «si hemos avanzado esto en 20 años, en otros 20 años avanzaremos lo mismo». El crecimiento es exponencial y quizás avancemos lo mismo en otros 5 años, por decir un número, en cuanto a capacidad de computación y almacenamiento.
    Por cierto, veo que denostas a Kurzweil… y no me parece bien. Dudo que una persona que ha patentado numerosos inventos (casi genialidades), que ha acertado en varias predicciones en el pasado y que ha sido director del departamento de IA de Google no puede estar TAN loco. Un poco flipado sí, pero quién no lo está en este mundillo?… 🙂
    7. «Se cree que porque algo esté avanzando con mucha solvencia, ese avance va a seguir ininiterrumpidamente hasta llegar al infinito». Totalmente de acuerdo. Pero también se puede reflexionar al revés: hay muchos problemas que al estar atascados en el tiempo muchas personas los consideran irresolubles y en un momento dado se resuelven de golpe. Aquí tienes algunos ejemplos a nivel de matemáticas:
    https://edition.cnn.com/2016/03/16/europe/fermats-last-theorem-solved-math-abel-prize/index.html
    https://neo4j.com/news/mathematician-solves-270-year-old-goldbach-conjecture-using-graph-theory/
    https://www.telegraph.co.uk/news/worldnews/europe/russia/7530771/Russian-maths-genius-may-turn-down-1m-prize.html
    9. «Hay problemas mucho más acuciantes que merecen mucho más que les dediquemos nuestro esfuerzo». Sí y no. Es verdad que la IAG puede estar lejos o parecer estar lejos a día de hoy, pero el problema con la IAG es que hay que planificar la respuesta a la misma muy por adelantado. No es un problema como la mayoría, al que te puedes enfrentar cuando surge, porque el día que una IA alcance nuestro nivel de inteligencia, un minuto después puede que tenga el doble de inteligencia y 24 horas después puede que sea una deidad -desde nuestra perspectiva- a nivel de inteligencia y considerar a nuestra especie una colonia de hormigas «prescindible» como te comentaba antes. (En el fondo pienso que ya somos una colonia de hormigas o incluso menos a nivel universal, lo que pasa es que el ego impide darse cuenta de ello a la mayoría)
    11. «¿a alguien se le ha rebelado alguna vez una máquina y ha querido, a propósito, atentar contra su integridad física?» Esta reflexión es un poco absurda, en el sentido no ofensivo, sino que no tiene sentido. Nadie ha hecho una máquina consciente con lo cual ninguna máquina ha tenido la oportunidad de dañar adrede a su creador. Pero sí que han existido muchas máquinas que «sin querer» han matado a la persona que las utilizaba (los coches lo hacen a diario) Entonces falta la parte del «a propósito» que de momento no se ha conseguido, pero se conseguirá cuando se invente la inteligencia que haga todo tipo de cosas «por voluntad propia».
    12. «caja china de John Searle…» Ese experimento me parece una tontería, desde el respeto. De hecho no veo ninguna argumentación sostenible, se está partiendo de la base errónea de que una IA seguirá una serie de instrucciones al dedillo, cuando cualquiera IA actual (y no hablo de IA general sino específica) ya es capaz de inferir conclusiones dado un tamaño de muestra suficiente, es decir, actúa tal y como lo hace nuestro cerebro: no sigue un manual o una serie de instrucciones declarativas programadas. Una vez más, el ego humano entra en el debate: nosotros sí somos inteligentes, pero una máquina no puede serlo nunca porque la hemos programado nosotros. Pues sí que puede serlo y de hecho casi todas las IAs más avanzadas de hoy en día, sus creadores no tienen NI IDEA de cómo consiguen pensar o llegar a las conclusiones a las que llegan, por la forma en que funcionan las redes neuronales y el deep learning, que no es programática y tiene una nula trazabilidad.
    13. «estoy seguro de que una consciencia no puede correr en un procesador Pentium (ni en una TPU de Nvidia) ni guardarse en una memoria USB». Por supuesto que no. Desde mi punto de vista, la IA aparecerá en la nube. Requerirá tanta capacidad de procesamiento que se necesitarán muchas salas de servidores en todo el mundo para procesar. Y moviéndonos al campo de la ciencia ficción, si en algún momento se le da forma física, ese «robot» (o robots) se comunicará con su «cerebro» a través de internet. Hablo de un internet futuro mucho más rápido. Y en cualquier caso, ten en cuenta que la capacidad de procesamiento que hoy puedan tener todas las salas de servidores del mundo es posible que lo tenga un único chip del tamaño de una nuez dentro de, digamos 200 años.

    Repito, un blog muy interesante, mis felicitaciones.

  3. Carlos Jesús dice:

    Yo pienso que si en el futuro cercano se crea una consciencia superinteligente artificial sería mitad biológica y mitad de silicio.

Deja un comentario