Yann LeCun citaba un tweet de Benedict Evans que decía así:

Existe una correlación muy alta entre las personas que piensan que el despegue de la IA es inminente y simple y que dominará el mundo y las personas que expresan regularmente ideas sorprendentemente simplistas sobre cómo funciona el mundo en el que ya vivimos.

Es una gran verdad. Vamos a desarrollarla.

Durante muchísimo tiempo se entendió la inteligencia como una serie de capacidades muy concretas y muy ligadas a lo académico. Por ejemplo, la escala Thurstone de 1920 hablaba de que la inteligencia estaba compuesta por siete habilidades primarias: comprensión y fluidez verbal, comprensión numérica, aptitud espacial, memoria asociativa, velocidad perceptiva y capacidad de razonamiento. Cómo vemos, ser competente en estas habilidades parece garantizarte el éxito académico. Y es que cuando Alfred Binet dio comienzo a la medición de la inteligencia, sus pretensiones eran únicamente disponer de herramientas para analizar o predecir el fracaso escolar. Así, pronto se vio que fuera de esas habilidades académicas, existían otras que quedaban completamente relegadas en los test: las habilidades emocionales estudiadas por John D. Mayer y Peter Salovey, y popularizadas por Daniel Goleman; u otras tantas defendidas en la teoría de Howard Gardner: inteligencia musical, espacial, corporal, interpersonal o intrapersonal. Estos tipos de inteligencia tienen, muchas veces, mucha más relación con el éxito en la vida que la inteligencia puramente académica. Si analizamos nuestras flamantes inteligencias artificiales  vemos que adolecen, por completo, de este tipo de inteligencias… Dicho de otro modo: la concepción de inteligencia que suelen manejar los apóstoles de la IA es muy simplona, se reduce a tareas lingüístico-matemáticas, sin tener en cuenta nada más.

El concepto de «inteligencia artificial general» a la que, supuestamente, vamos a llegar en tan solo unos años, es harto difuso. Si no tenemos claro qué es la inteligencia, tanto más cuál será la cualidad que la hace general. Es más, de hecho dentro de la psicología hay controversia sobre si la inteligencia es una habilidad general o si solo es una amalgama de habilidades concretas. Si observamos el concepto de cociente intelectual creado por William Stern solo es multiplicar por cien el resultado de la división entre tu edad mental, que surge del promedio de resultados en una serie de pruebas, y tu edad cronológica. El CI es solo un promedio, es decir, no mide una habilidad general. Tener un alto CI solo significa que eres bueno en muchas cosas, no que tengas una cualidad x superior. Entonces, ¿qué quiere decir que vamos a llegar a una AGI? ¿Qué vamos a tener un solo modelo de lenguaje que va a saber hacer muchas cosas diferentes? Pero, ¿cuántas cosas? ¿Qué cosas?

Entonces, esa mal definida y peor comprendida AGI llegará y, es más, se hará a sí misma más inteligente creando una super inteligencia muy por encima del hombre. Los defensores de esta idea no se cortan en sostener que esta nueva entidad nos verá como nosotros vemos ahora a los chimpancés… Y aquí llega el gran riesgo existencial: esa super inteligencia podría tener unos valores éticos no alineados con los nuestros de modo que no tendrá otra idea más peregrina que exterminarnos. Por supuesto, nada podrá pararla, al igual que los pobres chimpancés no podrían detenernos si decidiéramos aniquilarlos. Pero, ¿es esto necesariamente así? Si así fuera Eliezer Yudkowsky no andaría desacertado y habría que empezar a bombardear centros de datos ahora mismo. Muy sorprendente que grandes gurús de la IA hayan pedido ya en dos ocasiones mediante sendas cartas, parones o legislaciones para evitar todo esto. Sam Altman llegó incluso a pedirlo ante un comité del senado de los Estados Unidos. Lo sorprendente es que pidan que se les pare desde fuera… ¿No podrían ellos parar desde dentro? Pero, ¿esto va a ocurrir necesariamente? ¿Existe un riesgo palpable y cercano de que algo así vaya a suceder? Rotundamente no.

Tenemos una pobre definición de inteligencia y aún peor de AGI, tanto menos entendimiento de lo que sería una súper inteligencia artificial que decidiera exterminarnos. Pésimo punto de partida. Pero vamos a analizar ese proceso de automejora que nos llevaría indefectiblemente a la llegada de la súper inteligencia. Permitidme autocitarme en una entrada de este blog del 2014:

Pensemos que la humanidad en general no hubiera desarrollado tanto su neocórtex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70.  Un fastuoso día, el chamán de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Ergo, no tenemos evidencia razonable de que un proceso de automejora exponencial que lleve a una súper inteligencia invencible sea de alguna manera factible.

El filósofo chino Yuk Hui sostiene que mantenemos un cierto determinismo tecnológico hacia la llegada de esta superinteligencia, como si solo existiera la posibilidad de un único futuro. Esto me recuerda a la visión antropológica del evolucionismo unilineal de Morgan y Tylor, que defendía que todas las civilizaciones pasaban necesariamente por las fases de salvajismo, barbarie y civilización. El fin de la historia hacia donde todos íbamos estaba, por supuesto, en la Inglaterra del siglo XIX. Esta postura me resulta especialmente curiosa cuando la experiencia histórica en lo referente a la tecnología, y más en los últimos tiempos, es todo lo contrario: domina la impredecibilidad. No se previó el éxito de internet, de las redes sociales, de Youtube, de Twitter… ¿Alguien pensó, tan solo unos años antes de su aparición, que podría existir la profesión de youtuber? ¿Quién vaticinó el éxito de Netflix? ¿Alguien apostaba algo por Amazon cuando solo era una humilde tienda de libros? Curioso: tenemos cisnes negros por doquier pero con respecto de la llegada de la singularidad tecnológica causada por una IA que querrá exterminarnos estamos muy seguros. Aunque ahora nos parezca improbable debido a nuestro entusiasmo, es posible que la IA se queda estancada, es posible que los modelos del lenguaje no avancen mucho más o no puedan resolver los problemas que tienen. A lo mejor llega otra forma de abordar la IA que pase a ponerse de moda y deje relegado al deep learning. Recordemos que las redes neuronales artificiales estuvieron durante muchos años relegadas a un segundo plano en la historia de la informática, y que la propia IA ha pasado por varios inviernos poco fructíferos.

Noam Chomsky, probablemente el lingüista más importante del siglo pasado, sostiene que ChatGPT no es similar a los humanos usando el lenguaje. Los niños no leen millones de textos a partir de los que inducen patrones estadísticos para realizar predicciones. Los niños, con muchísima menos información, consiguen encontrar las causas relevantes de los acontecimientos, consiguen explicaciones y no solo predicciones. Siguiendo a Popper, Chomsky dice que lo interesante de las teorías científicas es que en ellas se realizan predicciones improbables que, contra todo pronóstico, consiguen resistir la prueba experimental. El deep learning es incapaz de la hipótesis perspicaz. Erik J. Larsson, en su muy recomendable El mito de la inteligencia artificial, insiste en las limitaciones del razonamiento puramente inductivo de los LLMs y en su incapacidad de abducción. Judea Pearl, en su algo menos recomendable, Libro del porqué, expresa la necesidad de enseñar razonamiento causal a estos sistemas, ya que carecen completamente de él.  Margaret Boden, subraya que las máquinas son incapaces de creatividad transformacional, es decir, que pueden explorar y llevar al límite estilos artísticos ya creados, pero que son incapaces de hacer formas de arte radicalmente nuevas. La razón es que son totalmente ineptos para comprender qué es arte y qué no lo es, adolecen de todo criterio estético. Si miramos en serio sus cualidades, ChatGPT y sus homólogos están todavía lejísimos del pensamiento humano, y me parece muy sorprendente que tantos ingenieros de IA estén tan asustados, más que como una inteligente maniobra de marketing. Y ya no hablemos de emociones o consciencia: por muchas idioteces que se digan, estos modelos carecen por completo de ellas y, aunque uno de los grandes logros de la IA ha sido mostrar que es posible la inteligencia sin consciencia, todavía no sabemos muy bien el papel que juega esta segunda en la primera: ¿y si la consciencia fuera fundamental para realizar ciertas tareas cognitivas?

No quiero parecer chauvinista con respecto al pensamiento humano. Creo que los hombres somos muy torpes y quién sabe si nuestra falta de capacidades sea la responsable de que gran parte de los enigmas del universo permanezcan irresueltos pero, por favor, creo que somos muchísimo más que un modelo de lenguaje que juega a un corta-pega estadístico con millones de tokens, sin comprender absolutamente nada de lo que hace. Lo siento pero me niego aceptar que estos loros estocásticos puedan compararse con nosotros y que sean, además, la causa de un gran optimismo hacia que nuevos modelos nos superen en muy poquitos años. Creo que todavía estamos muy lejos de entender cómo funciona nuestra mente, tanto más para construir una artificial.

Con todo este argumentario no estoy negando tajantemente la posibilidad de que llegara un momento de la historia en que apareciera la susodicha súper inteligencia artificial que terminará por exterminarnos, no se me entienda mal, solo estoy sosteniendo que su posibilidad es, a día de hoy, tan sumamente remota que no debe interceder en nuestra forma de legislar actual. Hacerlo sería algo así como prohibir el cultivo y la venta de setas porque sería posible una rebelión de los hongos tal y como se nos describe en la serie The Last of Us. También habría entonces que comenzar las prevenciones contra un apocalipsis zombi, una rebelión de los simios, invasión extraterrestre, glaciación repentina, muerte temprana del sol… ¡Todo esto también entra en el rango de la posibilidad!

Los LLMs son unos artefactos tecnológicamente fabulosos que, con total seguridad, van a cambiar muchas cosas en nuestra forma de trabajar y de realizar multitud de tareas. También tienen un obvio lado perverso contra el que hay que legislar. Sin embargo, hay que comprenderlos como una gran oportunidad más que como un riesgo existencial. Problemas tan acuciantes como el cambio climático o las crisis de diversa índole que asolan periódicamente nuestras frágiles democracias, pueden ser abordados con IA. Entonces, como bien sostiene Andrew Ng, no hay que parar el desarrollo de la IA, sino que hay que acelerarlo. Dejemos de preocuparnos por fantasías distópicas basadas en relatos de ciencia-ficción, y busquemos y fomentemos el enorme abanico de usos positivos que tiene esta potente tecnología.

comentarios
  1. Jordi Casado Sobrepere dice:

    Creo que te apoyas en una visión caduca de tu experiencia como informático. El paradigma imperativo o basarse en la simple ejecución de instrucciones como elemento definitorio de la computación.
    Esto te impide ver el hecho de la «autonomía» o «resultados inesperados» que son capaces de dar estos LLMs. Mucho menos evidentes teniendo en cuenta que están capados o censurados para mitigar este hecho de cara a su uso comercial.
    Creo que la cita » Lo bueno de un ordenador es que hace lo que se le dice, y lo malo es que SOLO hace lo que se le dice» está en cuestión. Y ese es el problema.
    Claro que de ahí a anticipar un futuro distópico mide un abismo. Yo me preocupo desde una cierta neutralidad porque desde pequeño me han enseñado a fijarme en la posibilidad de evidencia en base al criterio de expertos en la materia. Aparte de observar la tendencia y los resultados bajo mi prisma personal.

  2. Jesús Salazar dice:

    Excelente reflexión.
    Me parece que los difusores de la apocalipsis de la inteligencia artificial son muy ingenuos, el cine de ciencia ficción los ha afectado mucho. Saludos
    Jrsm

  3. Yack dice:

    Hubiera sido buena idea desarrollar y mejorar las IAs en laboratorios herméticos alimentándolas exclusivamente con información técnica de alta calidad y bajo exhaustiva supervisión para que nos proporcionaran soluciones a todos los problemas que nos agobian.

    Pero no, la hemos conectado directamente a Internet, es decir, al pensamiento humano en estado puro, con sus paranoias, maldades, estupideces, envidias y temores, lo que nos aboca a una IA que reproduce todos los defectos humanos, pero con una capacidad ejecutiva que puede crecer sin límites.

    De lo que salga de aquí en el futuro nadie puede estar seguro, pero sería inteligente contemplar el peor de los escenarios posibles. Claro que tal vez sea demasiado tarde, o siempre lo fue, porque la estupidez humana nunca se ha enfrentado a un asteroide de ese tamaño que se acerca a ojos vista.

    Esperemos acontecimientos y disfrutemos del espectáculo, que de momento es gratis.

  4. pharmakoy dice:

    De inicio me ha resultado muy interesante el contenido del artículo pero ahora no soy muy capaz de leerlo. Venía a hacerme publicidad de nuevo. He estado tonteando con blogspot y he llegado a un punto en el que me siento bien escribiendo. A veces pequeños relatos, digresiones epistemológicas, un poco de todo.

    Aquí se puede acceder a mi perfil y ver a mis pequeños en acción https://www.blogger.com/profile/02380390178681147172

  5. pharmakoy dice:

    Spin-Spacetime Censorship
    Jonathan Nemirovsky, Eliahu Cohen, Ido Kaminer
    https://arxiv.org/abs/1812.11450

    Pues no nos queda ni na. Jajaja. (Esto es un adelanto de mi proyecto fin DEL UNIVERSO, para que luego no digan que no me prodigo).

  6. pharmakoy dice:

    Yo creo que si pudiésemos crear una forma de vida (especialmente si es más inteligente que nosotros) nos reconocería como a sus legítimos progenitores y sentiría algo parecido al amor hacia nosotros. Porque somos una especie muy ligada a y muy dependiente de los comportamientos de cuidado y ese es, por decirlo de algún modo, el hiperparámetro de mayor profundidad en el modelo generativo de nuestra mente.

    Por mucho que a algunos les guste hacerse los duros y los Nostradamus con sus congéneres si no pertenecen al exclusivo grupo de los que fakean su culpabilidad volviéndose playmobiles de carne y hueso, armados hasta los dientes por lo que (saben) que puede (va a) pasar.

    El vocabulario psicológico no suele aportar mucho en estos debates, pero no vendría mal a más de uno (y de dos) empezar a comprender que las emociones y los sentimientos no son un cuento o una mera boutade, son patrones de inferencia activa con un significado muy preciso (nunca mejor dicho; aunque no siempre, por desgracia).

    Deeply Felt Affect: The Emergence of Valence in Deep Active Inference
    Casper Hesp, Ryan Smith, Thomas Parr, Micah Allen, Karl J. Friston, Maxwell J. D. Ramstead

    https://direct.mit.edu/neco/article/33/2/398/95642/Deeply-Felt-Affect-The-Emergence-of-Valence-in

  7. pharmakoy dice:

    Voy a meter aquí una poesía que escribí hacen un tiempo. No sé me parece un lugar apropiado para dejar constancia de ella.

    NOCICEPTIVO

    Sinacio menudo despacho
    Donde hay tanto vacío
    No hay lugar para el espacio
    Y el tiempo sin espacio…

    Siempre va pa’bajo
    pero por cansancio
    ver un dolor que no duele
    un amor que no quiere
    un sentir que no siente

    Nada
    de lo que olvidó en el camino
    presagia agoreros destinos
    Cerberos de fieros caninos
    fuego hasta en el intestino

    Hasta que coges el hilo
    de las condiciones sine quanon
    de una mente a cuadros
    que lanza sus dardos macabros
    ungidos con olor a rayos

    En las catacumbas
    del estiércol de caballo
    rechazo es solo machetazo
    arterias de humilde trabajo

    Pierden sangre cabizbajos
    sin tener con quién hablar
    echan horas a destajo
    para saber qué contrajo

    De dónde lo trajo
    por qué solo se mueve
    en su propio espacio
    por qué le parece tan trágico

    Si no tiene nada de mágico
    es un efecto nostálgico
    diferido en el espacio
    de unos deseos estáticos

    En el espacio vacío
    de una mente dividida
    entre lo bueno y lo malo
    sin saber que para él
    ya nada es malo

    Y lo bueno es solo un sueño
    de los de piedras y palos
    y envenenados regalos
    que mueve sus ojos sin manos

    Buscando lo que rechazó hace años
    en el cuerpo de un hermano
    que no sabe por qué le hace daño
    que no sabe que ya no hace daño

    Que ve ir pasando los años
    en el Jardín del Edén
    del tiempo bajo cero
    0 absoluto y certero

    La raíz fractal
    de mis hipótesis anidadas
    en la que ahora todo es nada
    nada cambia en su mirada

    Su red está desgastada
    no puede ver dónde caga
    baitearse a pleno sol
    cuando sabe que no hay nada

    Tan solo lo que buscaba
    una verdad demostrada
    una broma en su emboscada

    Comprende tu dolor
    neutraliza tu estupor
    es la magia de la vida
    así se siente el amor

    Si te robaron tu Dios
    diles que ahora sois dos
    que tú también tienes voz

    Vence ese miedo atroz
    a ver algo en el amor
    y no solo un miedo atroz
    multiplicado por dos

    Caminos cibernéticos
    hyperpriors multiétnicos
    siempre han estado en el tiempo
    esperando su momento

    Solo curan desde dentro
    o mueren en el intento
    pero nadie te ha obligado
    a sentirte intimidado

    Creer que han lanzado un dado
    y la muerte te ha tocado
    son las flechas del amor
    sobre un órgano dañado

  8. pharmakoy dice:

    FEP
    Esa teoría es ciencia
    Pura y dura
    De la que a mí
    Me la pone bien dura

    Incluso cuando el tiempo
    Apura
    Y has de beber
    Del agua más oscura

    Estamos hablando de robustez
    Señores
    En el curso de UNA vida
    Pidas lo que pidas

  9. pharmakoy dice:

    Nunca digas: de este agua no beberé
    Pero agua que no has de beber: déjala correr
    Y añado: todo lo que robo lo devuELBO

  10. pharmakoy dice:

    Y aquí ofrezco mi contestación una de las dos obras cumbre de la literatura universal. Como no me la he leído (por decisión propia) tampoco me duele ignorar su sublime belleza (o igual es por esto último por lo que no me la he leído).

    EN BUSCA DEL TIEMPO PODRIDO

    For yearns to come
    de anhelante irrealidad
    mi suerte es mi malestar
    la fuente de mi pesar

    Solo de eso puedo hablar
    como un mimo en el bazar
    busco mi oportunidad
    ¡pero se me da fatal!

    Cómo no iba a ser así
    cuando mi voz en off impostada
    que no significa nada
    solo me deja un papel

    El de acerada mirada
    y burlonas risotadas
    que despejan toda duda
    por si aún había alguna

    De que mi vida es tan dura
    me entran ganas de llorar
    pero no me vencerán

    no te vayas papá
    no te alejes de mí
    adios papá
    pensaré mucho en tiiii

    P.D.: Lo escribí en el cuartel cuando hice la mili, que tiempos aquellos ahí fue donde me pusieron el mote de Duracell… y tannnntas otras cosas de las que (creo, no sé) no puedo hablar.
    ¡No te vayas Papá! (uy perdón a veces me vence la melancolía del tiempo podrido)

  11. pharmakoy dice:

    SOBRE LA PSICOPATÍA

    Si sentir sienten, pero solo dolor y si no lo procesas tu todito por ellos te lo plantan en toda la cara como la mierda más horrorosa que te hayas dado el gusto de (no) pensar.

    Esss algún tipo dee incertidumbre. Llamémosle X. Can be ELBO (model evidence, sabiduría) or can be limited somehow depending in your own personal (existential) history of active inference.

  12. Sergio dice:

    El artículo tienes ideas interesantes pero creo que hay algunos puntos en los que no es del todo preciso. Por ejemplo no es necesario comprender la mente humana y su inteligencia para poder crear un artefacto tecnológico que lo iguale. Del mismo modo que no fue necesario conocer todos los mecanismos de un ave para poder fabricar aviones. Es más, más que un hándicap puede llegar a ser una virtud porque se pueden desarrollar artefactos que no están limitados por la evolución biológica.

    Por otro lado, no hace falta que una inteligencia tenga algo en particular contra nosotros para querer exterminarnos. Simplemente puede ocurrir que tenga otros objetivos que no estén alineados con los nuestros y que en el proceso acabemos siendo víctimas de ello. Del mismo modo que cuando construimos una presa no tenemos en cuenta a las hormigas y nos cargamos sus hormigueros. No es porque queramos exterminarlas es simplemente que no las tenemos en cuenta en los proyectos que realizamos.

    En cuanto a la idea de que una inteligencia se pueda encontrar con unos límites que le impida mejorarse, es una crítica muy interesante. No obstante, eso no quita para que se genere una enorme corriente de progreso de desarrollo que pueda servir de apoyo para futuros sistemas más sofisticados por lo que seguiríamos una tendencia exponencial con parones determinados. Como lo que ha pasado en otros años con los inviernos de la IA. Simplemente era un parón para luego volver a crecer de nuevo con nuevas ideas. Pero si se ve a largo plazo, la tendencia es exponencial.

    Quizá estemos lejos de una superinteligencia pero eso no quita que el ritmo acelerado que se está tomando no merezca tener en consideración esa idea.

Deja un comentario