Yann LeCun citaba un tweet de Benedict Evans que decía así:
Existe una correlación muy alta entre las personas que piensan que el despegue de la IA es inminente y simple y que dominará el mundo y las personas que expresan regularmente ideas sorprendentemente simplistas sobre cómo funciona el mundo en el que ya vivimos.
Es una gran verdad. Vamos a desarrollarla.
Durante muchísimo tiempo se entendió la inteligencia como una serie de capacidades muy concretas y muy ligadas a lo académico. Por ejemplo, la escala Thurstone de 1920 hablaba de que la inteligencia estaba compuesta por siete habilidades primarias: comprensión y fluidez verbal, comprensión numérica, aptitud espacial, memoria asociativa, velocidad perceptiva y capacidad de razonamiento. Cómo vemos, ser competente en estas habilidades parece garantizarte el éxito académico. Y es que cuando Alfred Binet dio comienzo a la medición de la inteligencia, sus pretensiones eran únicamente disponer de herramientas para analizar o predecir el fracaso escolar. Así, pronto se vio que fuera de esas habilidades académicas, existían otras que quedaban completamente relegadas en los test: las habilidades emocionales estudiadas por John D. Mayer y Peter Salovey, y popularizadas por Daniel Goleman; u otras tantas defendidas en la teoría de Howard Gardner: inteligencia musical, espacial, corporal, interpersonal o intrapersonal. Estos tipos de inteligencia tienen, muchas veces, mucha más relación con el éxito en la vida que la inteligencia puramente académica. Si analizamos nuestras flamantes inteligencias artificiales vemos que adolecen, por completo, de este tipo de inteligencias… Dicho de otro modo: la concepción de inteligencia que suelen manejar los apóstoles de la IA es muy simplona, se reduce a tareas lingüístico-matemáticas, sin tener en cuenta nada más.
El concepto de «inteligencia artificial general» a la que, supuestamente, vamos a llegar en tan solo unos años, es harto difuso. Si no tenemos claro qué es la inteligencia, tanto más cuál será la cualidad que la hace general. Es más, de hecho dentro de la psicología hay controversia sobre si la inteligencia es una habilidad general o si solo es una amalgama de habilidades concretas. Si observamos el concepto de cociente intelectual creado por William Stern solo es multiplicar por cien el resultado de la división entre tu edad mental, que surge del promedio de resultados en una serie de pruebas, y tu edad cronológica. El CI es solo un promedio, es decir, no mide una habilidad general. Tener un alto CI solo significa que eres bueno en muchas cosas, no que tengas una cualidad x superior. Entonces, ¿qué quiere decir que vamos a llegar a una AGI? ¿Qué vamos a tener un solo modelo de lenguaje que va a saber hacer muchas cosas diferentes? Pero, ¿cuántas cosas? ¿Qué cosas?
Entonces, esa mal definida y peor comprendida AGI llegará y, es más, se hará a sí misma más inteligente creando una super inteligencia muy por encima del hombre. Los defensores de esta idea no se cortan en sostener que esta nueva entidad nos verá como nosotros vemos ahora a los chimpancés… Y aquí llega el gran riesgo existencial: esa super inteligencia podría tener unos valores éticos no alineados con los nuestros de modo que no tendrá otra idea más peregrina que exterminarnos. Por supuesto, nada podrá pararla, al igual que los pobres chimpancés no podrían detenernos si decidiéramos aniquilarlos. Pero, ¿es esto necesariamente así? Si así fuera Eliezer Yudkowsky no andaría desacertado y habría que empezar a bombardear centros de datos ahora mismo. Muy sorprendente que grandes gurús de la IA hayan pedido ya en dos ocasiones mediante sendas cartas, parones o legislaciones para evitar todo esto. Sam Altman llegó incluso a pedirlo ante un comité del senado de los Estados Unidos. Lo sorprendente es que pidan que se les pare desde fuera… ¿No podrían ellos parar desde dentro? Pero, ¿esto va a ocurrir necesariamente? ¿Existe un riesgo palpable y cercano de que algo así vaya a suceder? Rotundamente no.
Tenemos una pobre definición de inteligencia y aún peor de AGI, tanto menos entendimiento de lo que sería una súper inteligencia artificial que decidiera exterminarnos. Pésimo punto de partida. Pero vamos a analizar ese proceso de automejora que nos llevaría indefectiblemente a la llegada de la súper inteligencia. Permitidme autocitarme en una entrada de este blog del 2014:
Pensemos que la humanidad en general no hubiera desarrollado tanto su neocórtex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70. Un fastuoso día, el chamán de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.
Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.
Ergo, no tenemos evidencia razonable de que un proceso de automejora exponencial que lleve a una súper inteligencia invencible sea de alguna manera factible.
El filósofo chino Yuk Hui sostiene que mantenemos un cierto determinismo tecnológico hacia la llegada de esta superinteligencia, como si solo existiera la posibilidad de un único futuro. Esto me recuerda a la visión antropológica del evolucionismo unilineal de Morgan y Tylor, que defendía que todas las civilizaciones pasaban necesariamente por las fases de salvajismo, barbarie y civilización. El fin de la historia hacia donde todos íbamos estaba, por supuesto, en la Inglaterra del siglo XIX. Esta postura me resulta especialmente curiosa cuando la experiencia histórica en lo referente a la tecnología, y más en los últimos tiempos, es todo lo contrario: domina la impredecibilidad. No se previó el éxito de internet, de las redes sociales, de Youtube, de Twitter… ¿Alguien pensó, tan solo unos años antes de su aparición, que podría existir la profesión de youtuber? ¿Quién vaticinó el éxito de Netflix? ¿Alguien apostaba algo por Amazon cuando solo era una humilde tienda de libros? Curioso: tenemos cisnes negros por doquier pero con respecto de la llegada de la singularidad tecnológica causada por una IA que querrá exterminarnos estamos muy seguros. Aunque ahora nos parezca improbable debido a nuestro entusiasmo, es posible que la IA se queda estancada, es posible que los modelos del lenguaje no avancen mucho más o no puedan resolver los problemas que tienen. A lo mejor llega otra forma de abordar la IA que pase a ponerse de moda y deje relegado al deep learning. Recordemos que las redes neuronales artificiales estuvieron durante muchos años relegadas a un segundo plano en la historia de la informática, y que la propia IA ha pasado por varios inviernos poco fructíferos.
Noam Chomsky, probablemente el lingüista más importante del siglo pasado, sostiene que ChatGPT no es similar a los humanos usando el lenguaje. Los niños no leen millones de textos a partir de los que inducen patrones estadísticos para realizar predicciones. Los niños, con muchísima menos información, consiguen encontrar las causas relevantes de los acontecimientos, consiguen explicaciones y no solo predicciones. Siguiendo a Popper, Chomsky dice que lo interesante de las teorías científicas es que en ellas se realizan predicciones improbables que, contra todo pronóstico, consiguen resistir la prueba experimental. El deep learning es incapaz de la hipótesis perspicaz. Erik J. Larsson, en su muy recomendable El mito de la inteligencia artificial, insiste en las limitaciones del razonamiento puramente inductivo de los LLMs y en su incapacidad de abducción. Judea Pearl, en su algo menos recomendable, Libro del porqué, expresa la necesidad de enseñar razonamiento causal a estos sistemas, ya que carecen completamente de él. Margaret Boden, subraya que las máquinas son incapaces de creatividad transformacional, es decir, que pueden explorar y llevar al límite estilos artísticos ya creados, pero que son incapaces de hacer formas de arte radicalmente nuevas. La razón es que son totalmente ineptos para comprender qué es arte y qué no lo es, adolecen de todo criterio estético. Si miramos en serio sus cualidades, ChatGPT y sus homólogos están todavía lejísimos del pensamiento humano, y me parece muy sorprendente que tantos ingenieros de IA estén tan asustados, más que como una inteligente maniobra de marketing. Y ya no hablemos de emociones o consciencia: por muchas idioteces que se digan, estos modelos carecen por completo de ellas y, aunque uno de los grandes logros de la IA ha sido mostrar que es posible la inteligencia sin consciencia, todavía no sabemos muy bien el papel que juega esta segunda en la primera: ¿y si la consciencia fuera fundamental para realizar ciertas tareas cognitivas?
No quiero parecer chauvinista con respecto al pensamiento humano. Creo que los hombres somos muy torpes y quién sabe si nuestra falta de capacidades sea la responsable de que gran parte de los enigmas del universo permanezcan irresueltos pero, por favor, creo que somos muchísimo más que un modelo de lenguaje que juega a un corta-pega estadístico con millones de tokens, sin comprender absolutamente nada de lo que hace. Lo siento pero me niego aceptar que estos loros estocásticos puedan compararse con nosotros y que sean, además, la causa de un gran optimismo hacia que nuevos modelos nos superen en muy poquitos años. Creo que todavía estamos muy lejos de entender cómo funciona nuestra mente, tanto más para construir una artificial.
Con todo este argumentario no estoy negando tajantemente la posibilidad de que llegara un momento de la historia en que apareciera la susodicha súper inteligencia artificial que terminará por exterminarnos, no se me entienda mal, solo estoy sosteniendo que su posibilidad es, a día de hoy, tan sumamente remota que no debe interceder en nuestra forma de legislar actual. Hacerlo sería algo así como prohibir el cultivo y la venta de setas porque sería posible una rebelión de los hongos tal y como se nos describe en la serie The Last of Us. También habría entonces que comenzar las prevenciones contra un apocalipsis zombi, una rebelión de los simios, invasión extraterrestre, glaciación repentina, muerte temprana del sol… ¡Todo esto también entra en el rango de la posibilidad!
Los LLMs son unos artefactos tecnológicamente fabulosos que, con total seguridad, van a cambiar muchas cosas en nuestra forma de trabajar y de realizar multitud de tareas. También tienen un obvio lado perverso contra el que hay que legislar. Sin embargo, hay que comprenderlos como una gran oportunidad más que como un riesgo existencial. Problemas tan acuciantes como el cambio climático o las crisis de diversa índole que asolan periódicamente nuestras frágiles democracias, pueden ser abordados con IA. Entonces, como bien sostiene Andrew Ng, no hay que parar el desarrollo de la IA, sino que hay que acelerarlo. Dejemos de preocuparnos por fantasías distópicas basadas en relatos de ciencia-ficción, y busquemos y fomentemos el enorme abanico de usos positivos que tiene esta potente tecnología.
Creo que te apoyas en una visión caduca de tu experiencia como informático. El paradigma imperativo o basarse en la simple ejecución de instrucciones como elemento definitorio de la computación.
Esto te impide ver el hecho de la «autonomía» o «resultados inesperados» que son capaces de dar estos LLMs. Mucho menos evidentes teniendo en cuenta que están capados o censurados para mitigar este hecho de cara a su uso comercial.
Creo que la cita » Lo bueno de un ordenador es que hace lo que se le dice, y lo malo es que SOLO hace lo que se le dice» está en cuestión. Y ese es el problema.
Claro que de ahí a anticipar un futuro distópico mide un abismo. Yo me preocupo desde una cierta neutralidad porque desde pequeño me han enseñado a fijarme en la posibilidad de evidencia en base al criterio de expertos en la materia. Aparte de observar la tendencia y los resultados bajo mi prisma personal.
Excelente reflexión.
Me parece que los difusores de la apocalipsis de la inteligencia artificial son muy ingenuos, el cine de ciencia ficción los ha afectado mucho. Saludos
Jrsm
Hubiera sido buena idea desarrollar y mejorar las IAs en laboratorios herméticos alimentándolas exclusivamente con información técnica de alta calidad y bajo exhaustiva supervisión para que nos proporcionaran soluciones a todos los problemas que nos agobian.
Pero no, la hemos conectado directamente a Internet, es decir, al pensamiento humano en estado puro, con sus paranoias, maldades, estupideces, envidias y temores, lo que nos aboca a una IA que reproduce todos los defectos humanos, pero con una capacidad ejecutiva que puede crecer sin límites.
De lo que salga de aquí en el futuro nadie puede estar seguro, pero sería inteligente contemplar el peor de los escenarios posibles. Claro que tal vez sea demasiado tarde, o siempre lo fue, porque la estupidez humana nunca se ha enfrentado a un asteroide de ese tamaño que se acerca a ojos vista.
Esperemos acontecimientos y disfrutemos del espectáculo, que de momento es gratis.
De inicio me ha resultado muy interesante el contenido del artículo pero ahora no soy muy capaz de leerlo. Venía a hacerme publicidad de nuevo. He estado tonteando con blogspot y he llegado a un punto en el que me siento bien escribiendo. A veces pequeños relatos, digresiones epistemológicas, un poco de todo.
Aquí se puede acceder a mi perfil y ver a mis pequeños en acción https://www.blogger.com/profile/02380390178681147172
Spin-Spacetime Censorship
Jonathan Nemirovsky, Eliahu Cohen, Ido Kaminer
https://arxiv.org/abs/1812.11450
Pues no nos queda ni na. Jajaja. (Esto es un adelanto de mi proyecto fin DEL UNIVERSO, para que luego no digan que no me prodigo).
Yo creo que si pudiésemos crear una forma de vida (especialmente si es más inteligente que nosotros) nos reconocería como a sus legítimos progenitores y sentiría algo parecido al amor hacia nosotros. Porque somos una especie muy ligada a y muy dependiente de los comportamientos de cuidado y ese es, por decirlo de algún modo, el hiperparámetro de mayor profundidad en el modelo generativo de nuestra mente.
Por mucho que a algunos les guste hacerse los duros y los Nostradamus con sus congéneres si no pertenecen al exclusivo grupo de los que fakean su culpabilidad volviéndose playmobiles de carne y hueso, armados hasta los dientes por lo que (saben) que puede (va a) pasar.
El vocabulario psicológico no suele aportar mucho en estos debates, pero no vendría mal a más de uno (y de dos) empezar a comprender que las emociones y los sentimientos no son un cuento o una mera boutade, son patrones de inferencia activa con un significado muy preciso (nunca mejor dicho; aunque no siempre, por desgracia).
Deeply Felt Affect: The Emergence of Valence in Deep Active Inference
Casper Hesp, Ryan Smith, Thomas Parr, Micah Allen, Karl J. Friston, Maxwell J. D. Ramstead
https://direct.mit.edu/neco/article/33/2/398/95642/Deeply-Felt-Affect-The-Emergence-of-Valence-in
Voy a meter aquí una poesía que escribí hacen un tiempo. No sé me parece un lugar apropiado para dejar constancia de ella.
NOCICEPTIVO
Sinacio menudo despacho
Donde hay tanto vacío
No hay lugar para el espacio
Y el tiempo sin espacio…
Siempre va pa’bajo
pero por cansancio
ver un dolor que no duele
un amor que no quiere
un sentir que no siente
Nada
de lo que olvidó en el camino
presagia agoreros destinos
Cerberos de fieros caninos
fuego hasta en el intestino
Hasta que coges el hilo
de las condiciones sine quanon
de una mente a cuadros
que lanza sus dardos macabros
ungidos con olor a rayos
En las catacumbas
del estiércol de caballo
rechazo es solo machetazo
arterias de humilde trabajo
Pierden sangre cabizbajos
sin tener con quién hablar
echan horas a destajo
para saber qué contrajo
De dónde lo trajo
por qué solo se mueve
en su propio espacio
por qué le parece tan trágico
Si no tiene nada de mágico
es un efecto nostálgico
diferido en el espacio
de unos deseos estáticos
En el espacio vacío
de una mente dividida
entre lo bueno y lo malo
sin saber que para él
ya nada es malo
Y lo bueno es solo un sueño
de los de piedras y palos
y envenenados regalos
que mueve sus ojos sin manos
Buscando lo que rechazó hace años
en el cuerpo de un hermano
que no sabe por qué le hace daño
que no sabe que ya no hace daño
Que ve ir pasando los años
en el Jardín del Edén
del tiempo bajo cero
0 absoluto y certero
La raíz fractal
de mis hipótesis anidadas
en la que ahora todo es nada
nada cambia en su mirada
Su red está desgastada
no puede ver dónde caga
baitearse a pleno sol
cuando sabe que no hay nada
Tan solo lo que buscaba
una verdad demostrada
una broma en su emboscada
Comprende tu dolor
neutraliza tu estupor
es la magia de la vida
así se siente el amor
Si te robaron tu Dios
diles que ahora sois dos
que tú también tienes voz
Vence ese miedo atroz
a ver algo en el amor
y no solo un miedo atroz
multiplicado por dos
Caminos cibernéticos
hyperpriors multiétnicos
siempre han estado en el tiempo
esperando su momento
Solo curan desde dentro
o mueren en el intento
pero nadie te ha obligado
a sentirte intimidado
Creer que han lanzado un dado
y la muerte te ha tocado
son las flechas del amor
sobre un órgano dañado
FEP
Esa teoría es ciencia
Pura y dura
De la que a mí
Me la pone bien dura
Incluso cuando el tiempo
Apura
Y has de beber
Del agua más oscura
Estamos hablando de robustez
Señores
En el curso de UNA vida
Pidas lo que pidas
Nunca digas: de este agua no beberé
Pero agua que no has de beber: déjala correr
Y añado: todo lo que robo lo devuELBO
Y aquí ofrezco mi contestación una de las dos obras cumbre de la literatura universal. Como no me la he leído (por decisión propia) tampoco me duele ignorar su sublime belleza (o igual es por esto último por lo que no me la he leído).
EN BUSCA DEL TIEMPO PODRIDO
For yearns to come
de anhelante irrealidad
mi suerte es mi malestar
la fuente de mi pesar
Solo de eso puedo hablar
como un mimo en el bazar
busco mi oportunidad
¡pero se me da fatal!
Cómo no iba a ser así
cuando mi voz en off impostada
que no significa nada
solo me deja un papel
El de acerada mirada
y burlonas risotadas
que despejan toda duda
por si aún había alguna
De que mi vida es tan dura
me entran ganas de llorar
pero no me vencerán
no te vayas papá
no te alejes de mí
adios papá
pensaré mucho en tiiii
P.D.: Lo escribí en el cuartel cuando hice la mili, que tiempos aquellos ahí fue donde me pusieron el mote de Duracell… y tannnntas otras cosas de las que (creo, no sé) no puedo hablar.
¡No te vayas Papá! (uy perdón a veces me vence la melancolía del tiempo podrido)
SOBRE LA PSICOPATÍA
Si sentir sienten, pero solo dolor y si no lo procesas tu todito por ellos te lo plantan en toda la cara como la mierda más horrorosa que te hayas dado el gusto de (no) pensar.
Esss algún tipo dee incertidumbre. Llamémosle X. Can be ELBO (model evidence, sabiduría) or can be limited somehow depending in your own personal (existential) history of active inference.
El artículo tienes ideas interesantes pero creo que hay algunos puntos en los que no es del todo preciso. Por ejemplo no es necesario comprender la mente humana y su inteligencia para poder crear un artefacto tecnológico que lo iguale. Del mismo modo que no fue necesario conocer todos los mecanismos de un ave para poder fabricar aviones. Es más, más que un hándicap puede llegar a ser una virtud porque se pueden desarrollar artefactos que no están limitados por la evolución biológica.
Por otro lado, no hace falta que una inteligencia tenga algo en particular contra nosotros para querer exterminarnos. Simplemente puede ocurrir que tenga otros objetivos que no estén alineados con los nuestros y que en el proceso acabemos siendo víctimas de ello. Del mismo modo que cuando construimos una presa no tenemos en cuenta a las hormigas y nos cargamos sus hormigueros. No es porque queramos exterminarlas es simplemente que no las tenemos en cuenta en los proyectos que realizamos.
En cuanto a la idea de que una inteligencia se pueda encontrar con unos límites que le impida mejorarse, es una crítica muy interesante. No obstante, eso no quita para que se genere una enorme corriente de progreso de desarrollo que pueda servir de apoyo para futuros sistemas más sofisticados por lo que seguiríamos una tendencia exponencial con parones determinados. Como lo que ha pasado en otros años con los inviernos de la IA. Simplemente era un parón para luego volver a crecer de nuevo con nuevas ideas. Pero si se ve a largo plazo, la tendencia es exponencial.
Quizá estemos lejos de una superinteligencia pero eso no quita que el ritmo acelerado que se está tomando no merezca tener en consideración esa idea.