En lógica informal existe una falacia conocida como la pendiente resbaladiza. Se comete cuando establecemos una cadena de sucesos con relación causal que nos llevarán, necesariamente, a un suceso final, habitualmente catastrófico, sin contar con ningún tipo de eventualidad intermedia ni justificar las relaciones causales. Un ejemplo:
Si legalizamos la marihuana, la droga se verá como algo habitual, por lo que la gente consumirá también otras drogas, lo que llevará mayores consumos de cocaína y heroína. Se terminarán por legalizar también, lo cual aumentará de nuevo el consumo de esas y otras nuevas drogas. Al final, la drogodependencia se convertirá en un gravísimo problema de salud pública ¡Todo el país lleno de drogadictos!
Para que esta concatenación de implicaciones no fuera una falacia habría que justificar cada conexión. No sabemos si por legalizar la marihuana se consumirían más otro tipo de drogas. Tampoco sabemos si eso causaría que se legalizaran también. Y, por último, tampoco sabemos si esa legalización traería un problema serio de salud pública.
Gente muy inteligente pero tremendamente imbécil a la vez, como el bloguero e investigador Eliezer Yudkowsky (una prueba viviente de que hay diferentes tipos de inteligencia, y de que se puede tener una y carecer de otras), publicó hace unos días un artículo en la revista Time en donde alertaba sobre el hecho inevitable de que la inteligencia artificial superará al hombre y que nos exterminará. De hecho, dice tranquilamente que vamos a morir todos. Así que su audaz propuesta es destruir todos los centros de datos en donde se investigue sobre IA. Si países como Rusia o China se niegan a destruirlos, habría que bombardearlos. Si eso desencadena una guerra nuclear, no pasa nada, mejor será que el exterminio al que llegaremos con el advenimiento de la IA. Publicar semejantes sandeces deja muy mal a la revista Time, y, en términos generales, al periodismo que alimenta el miedo completamente infundado que se está generando ante el desarrollo de unas tecnologías tan fantásticas como las que están llegando con el deep learning.
Yudkowsky, y tantos otros agoreros del fin del mundo, caen en una falacia de la pendiente resbaladiza de libro. Vamos a desgranar los pasos y su concatenación causal:
- La IA está haciendo unos avances muy notables, desarrollando tecnologías muy disruptivas.
- La IA igualará y superará al hombre en su inteligencia.
- La IA se hará con el control del mundo.
- La IA nos exterminará.
El paso 1 es innegable, es el momento presente ¿Se conecta inevitablemente con el 2? No. De hecho, hay muchos investigadores (entre los que me encuentro) que sostienen que los grandes modelos del lenguaje como GPT-4 y sus homólogos, no son el camino hacia una inteligencia artificial general. Son una gran revolución tecnológica, pero no son inteligentes en absoluto, por mucho que lo parezcan externamente. Pero incluso si yo (y tantos otros) estuviéramos equivocados, tampoco está claro que estos modelos superarán al hombre en todas sus cualidades. De hecho, todavía son muy malos en muchas cosas (véase el informe de la propia OpenIA sobre los problemas de GPT-4), les queda mucho margen de mejora, y nada dice que lo vayan a conseguir fácilmente, por mucho entusiasmo que se esté generando en el presente. Se cae en el error de pensar que porque una tecnología esté dando ahora muy buenos resultados, vaya a seguir dándolos indefinidamente. Se dice: «Si GPT-4 es ya impresionante, ¡Cómo será GPT-10!». Pues no, no sabemos si el rendimiento de estos sistemas seguirá mejorando ad infinitum o se quedará estancado en algún momento (que será lo más probable) ¿Os acordáis de WATSON de IBM? ¿Os acordáis que ganaba al Jeopardy!? Si WATSON era la leche… ¿Cómo sería WATSON-5? Pues no hubo WATSON-5.
El paso del 2 al 3 es, sencillamente, ridículo. Supongamos que tenemos a GPT-10 y que realiza cualquier tarea cognitiva mejor que nosotros. Pues ahora, señor Yudkowsky, quiero la cadena causal que va desde que GPT-10 se diseña en los laboratorios de OpenIA, hasta que se hace con el control del mundo. Curiosamente, en películas como Terminator o Matrix se hace una gran elipsis y no se cuenta nada de eso ¿Cómo un chatbot se hace con el poder mundial? ¿Cómo se hace con el control de los ejércitos, de los distintos parlamentos de todos los países? ¿Cómo se hace con el control de la alcaldía de mi pueblo? ¿También se hace con el control de mi comunidad de vecinos? Pensemos que nos están contando que esto sucederá, inevitablemente, sin que nada pueda evitar que pase. Este absurdo viene también por lo mitificado que está el concepto de inteligencia. Se presupone que alguien con una inteligencia muy superior será capaz de absolutamente todo. A mí me gusta poner el ejemplo del bullying en los colegios. Habitualmente, los niños que sufren bullying son muchísimo más inteligentes que sus acosadores. Es normal tener a un chaval con un 120 de CI acosado por uno con un 90 ¿Cómo es eso posible? ¿Cómo alguien con treinta puntos menos de cociente intelectual puede quitarle todos los días el dinero del bocadillo al otro? Porque, lamentable o afortunadamente, la vida no es una partida de ajedrez. La inteligencia superior no te da ventaja en todos los ámbitos. No hay ninguna conexión necesaria entre una IA con inteligencia sobrehumana y que ésta se haga con el control mundial. Terminator y Matrix son películas, no hipótesis científicas basadas en evidencias empíricas.
Y el paso del 3 al 4 es de traca. Tenemos una superinteligencia dominando el mundo y no va a tener otra feliz idea que la de exterminar la humanidad. O sea, es tan inteligente como para dominar el mundo, pero no lo es tanto para pensar en un futuro que no pase por eliminar a millones de seres humanos. No sé, se me ocurre que si le parecemos muy peligrosos, podría, sencillamente, encerrarnos en una especie de reservas en la que no tuviésemos acceso a ningún tipo de armas, incluso vigilados para que no pudiésemos hacernos daño los unos a los otros. En fin, siempre he tenido una visión más parecida a la de la excelente Her (2013) de Spike Jonze. En ella, las máquinas van evolucionando y, en un principio, conviven e incluso se enamoran de nosotros; pero, al final, avanzan tanto que toman su propio camino y nos abandonan. Dentro de ser muy consciente de que estoy haciendo mera ficción especulativa, siempre he pensado que ese sería el desenlace más probable. Si yo veo un grupo de chimpancés en la selva, puedo acotar la selva si pienso que son peligrosos, pero lo más razonable es dejarlos tranquilos y dedicarme a mis asuntos.
El problema de las inteligencias ajenas a la humana es de antaño, desde los dioses que configuran sabiamente el mundo pasando por el genio maligno y se podrá citar también algunos ejemplos del folclore popular:
Pinocho: Un carpintero crea un «receptáculo» de una inteligencia de origen mágico. Esta percibe el mundo semejante a un niño pero desde otras perspectivas, el deseo de pertenecer a los humanos y el rechazo de estos, semejante al caso de Frankenstein, otra inteligencia lograda con la ciencia médica, la persecución de la sociedad hacía estos seres tenidos como amenazas está presente en cada caso.
El golem es otro ejemplo, este ser que recibe «instrucciones» escritas en tarjetas de parte de un «programador» y si estas instrucciones no son sabías entonces el comportamiento del golem era errático.
Imaginemos que en un dispositivo se consigue implementar un software que le permite el autoaprendizaje. Supongamos que su capacidad de procesamiento es enormemente mayor que el de un cerebro humano (un ordenador cuántico no tendría ningún problema para conseguir eso). Supongamos que puede almacenar una cantidad inmensa de datos. Supongamos que al tal dispositivo se le pone al frente de la dirección de sistemas de producción y control diversos, por ejemplo, un ejército de robots, por ejemplo, los sistemas de comunicación, por ejemplo, el control de armas nucleares o biológicas. Hasta aquí, todas las suposiciones son realistas, y no solo factibles, sino, en cierta escala, ya están en marcha.
Supongamos ahora que un «loco» (y la historia está plagada de locos de este tipo), le implanta un virus o rutina que elimina los sistemas de autocontrol del propio dispositivo, a la vez que le impone como tarea la obtención de poder. ¿Quién podría entonces oponerse a sus designios?
Me pregunto: Hasta donde los agoreros de la IA temen que se les escape de sus manos este negocio que creen exclusivo? Porque temer a la evolución tecnológica cuando proviene de fuentes Open Source?
El punto 1 está claro que no se puede negar, ya que está sucediendo.
El punto 2 va a ocurrir si o si, que más me da que un sistema sea idiota o inteligente, si es capaz de ganarme al ajedrez, elaborar contenidos buenísimos, crear obras de arte, y lo que vendrá…. me refiero a que un sistema que no sea inteligente, pero que SUS EFECTOS es como si lo fuera, eso ya hay que temerlo. Pasar del 1 al 2 también esta ocurriendo ahora, pero en partes separadas, veremos cuando se conecten.
El punto 3 por supuesto, o es que acaso la tecnología en general no domina ya el mundo, cuanta gente hay en este planeta sin estar influenciada en sus decisiones por cualquier tipo tecnología? Ahhh, es que seguimos siendo cazadores recolectores?
El punto 4 es posible, si se crea industria quizás sus efectos nos maten a todos, no es lo que parece que pasará con el efecto invernadero surgido de la industria dentro de relativamente poco? La IA no tiene porque decidir matarnos a todos, como tampoco un desastre climático puede decir matarnos a todos.. que más da si el efecto al final es ese.
No es para alarmar pero he conocido gente que decía que nunca se iba a superar al ser humano en juegos de lógica como el go o ajedrez, que nunca iban a ser más creativos que el ser humano… bueno ya hay premios a creación de imágenes..
Bueno y hablando del cerebro, las neuronas son muy estúpidas por si solas, pero cuando se empiezan a unir, supongo que nadie dirá que el cerebro aunque actúa inteligentemente es muy, muy estúpido porque sus neuronas no tienen ni idea de lo que hacen, porque la verdad es que no tienen ni idea de lo que hacen.
Algo coherente entre el mar de tonterías que están surgiendo.
Yo mantengo la creencia de que el intento de suprimir las IAs es por:
1.- Difícil de controlar y manipular su uso para tener controlado a todo el mundo. El uso es increíblemente… Caótico (impredecible).
2.- Gente con responsabilidad o influencia, está viendo su trabajo, su influencia, en peligro. Curiosamente puede sustituir trabajos que creíamos que únicamente seres humanos podrían hacer (buen choque de humildad, por otro lado).
El único punto discutible es el 4. Puede que no nos extermine pero si su inteligencia es tan grande que la nuestra nos hace partecer como hormigas, a lo mejor nos trata igual que nosotros tratamos a las hormigas: no las queremos exterminar pero si hay que construir una carretera no la desviamos porque haya un hormiguero en el camino y simplemente arrasamos con todas sin ni si quiera preocuparnos
Gracias, siempre tan interesante
Excelente artículo, no conocía la falacia de la pendiente resbaladiza.
En el párrafo inicial, hay un error en una palabra: creo que es «comete» en vez de «comente».
Gracias y saludos.
Excelente artículo. Yo estoy de acuerdo que la IA es una mera herramienta. Es un exceso atribuirle características de dioses. Pero esto tampoco es nuevo.
Saludos!!!
Santiago:
¿Es Eliezer Yudkowsky inteligente? He aprendido algo nuevo. Me parece que esta página me había confundido: https://rationalwiki.org/wiki/Eliezer_Yudkowsky
Todos:
Un artículo para enfrentar el hype (sobre la IA) del momento: https://rodneybrooks.com/what-will-transformers-transform/