Hobbie-J, pócimas de inteligencia y singularidad

Publicado: 20 septiembre 2014 en Ciencias de la computación, Filosofía de la mente, Neurociencias
Etiquetas:, , , ,

TRANSHUMAN

La tesis de la singularidad tecnológica es una de las ideas más controvertidas de Ray Kurzweil. La explicamos a grandes trazos: si conseguimos construir una inteligencia artificial más inteligente que el ser humano, según Kurzweil, será de esperar que esa inteligencia pueda crear otra inteligencia aún mayor. Pronto, la nueva máquina creará otra aún más inteligente, y así sucesivamente según un crecimiento exponencial (siguiendo la ley de rendimientos crecientes del propio Kurzweil). Nosotros, los para entonces estúpidos humanos, solo podremos contemplar como esas inteligencias se van alejando más y más de nuestro primitivo entendimiento hasta que no podamos comprender ni predecir qué es lo que estarán haciendo. Y aquí llegará la singularidad: un momento histórico sin retorno en que el hombre quedará relegado de la historia sin enterarse de nada, pues todo lo que ocurra será tan “singular”, tan diferente al resto de la historia anterior, que no habrá forma humana de comprender nada.

Pues bien, esta idea peca de una ingenuidad impresionante. Veamos por qué.

El gen NRB2 está muy relacionado con la capacidad del cerebro para asociar sucesos en la mente, al controlar la comunicación entre neuronas del hipocampo (la parte del cerebro encargada de consolidar los recuerdos, es decir, de convertir información de la memoria de trabajo en recuerdos genuinos de la memoria a largo plazo). Por esa razon NRB2 es, como mínimo, un gen imprescindible para cualquier tipo de aprendizaje. Sin él, los recuerdos no se fijan y nada se aprende. Pero, ¿se aprende más si aumentamos la expresión de estos genes? Sí, o al menos eso ocurre en ratones.

En 1999, el neurocientífico Joe Z. Tsien descubrió que la introducción de un único gen en ratas de laboratorio, provocaba un aumento más que significativo en sus facultades mentales. Eran mejores que los ratones normales en un montón de pruebas, incluidas las famosas fugas cronometradas de laberintos. Sigamos, ¿por qué no introducir más NRB2 en esos diminutos cerebros? Hecho: en diversos laboratorios se han ido criando cepas de ratones más inteligentes. En 2009, Tsien publicó un artículo en el que presentaba la variedad “Hobbie-J” (el nombre viene por un personaje de una serie de dibujos animados china), la cepa de ratones más inteligente que jamás haya existido. Su memoria para recordar hechos novedosos es tres veces superior a la variante de ratones considerada más inteligente hasta entonces.

Cuando a Tsien le preguntaron hasta qué punto llegarían a ser inteligentes sus ratones, Tsien respondió sonriente que, a fin de cuentas, solo eran ratones, nunca iban a saber resolver ecuaciones ni escribir novelas. Hay muchos límites biológicos que impiden que los ratones lleguen tan lejos. Si aplicamos estas conclusiones al planteamiento de la singularidad de Kurzweil podemos llegar a lo mismo: ¿no hay techos ni limitaciones de ningún tipo a la producción de más inteligencia en las máquinas?

Vamos a poner otro ejemplo. Pensemos que la humanidad en general no hubiera desarrollado tanto su neocortex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70.  Un fastuoso día, el chaman de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Kurzweil basa su idea de progresión exponencial en el crecimiento de la capacidad de computación de los ordenadores. Parece cierto que esta capacidad va creciendo a un ritmo muy rápido. Sin embargo, la creación de una superinteligencia no depende únicamente de la capacidad de computación. Es mucho más importante saber qué hacer con esa capacidad de computación que seguir aumentándola hasta el infinito. Y el avance del saber qué hacer no está siguiendo un crecimiento exponencial: la inteligencia artificial como disciplina ha sufrido varios inviernos, varias épocas de estancamiento en las que no se han producido los avances esperados. De hecho, yo personalmente, sigo sin ver esos avances que justifiquen el entusiasmo renacido en estos tiempos.

Anuncios
comentarios
  1. yack dice:

    Esta idea no es original de Kurzweil pero en cualquier caso me parece impecable. Pero aquí hay que distinguir entre dos cuestiones diferentes:

    1 ¿Se podrá construir una máquina más inteligente que el hombre en todo aquello que podemos asociar a “capacidad de resolver y plantear cualquier tipo de problema”? Y aunque creo que la respuesta es sí, no tenemos claro cuándo podría ocurrir (yo diría que entre 20 años y 200) pero es una conjetura basada en la intuición.

    2 Si tuviésemos esa máquina, ¿se produciría una evolución ultrarápida (de 5 a 10 años) en el sentido de generar inteligencias capaces de resolver problemas o alcanzar objetivos que ni siquiera podríamos imaginar ni comprender?

    Yo pienso que esto será inevitable porque si se consigue fabricar máquinas del nivel de la inteligencia humana, y dado que el hombre, aún empleando su viejo cerebro paleolítico, sigue avanzando en el diseño de inteligencias artificiales más eficientes, es claro e incuestionable que una inteligencia artificial podría hacerlo mucho mejor e infinitamente más rápido.

    Y eso por varios motivos:

    – Su propia existencia demuestra que ya se ha descubierto el Santo grial de la inteligencia y esta se ha podido recrear en un entorno no biológico, sin genes, sin procesos bioquímicos y sin la astronómica acumulación de soluciones aleatoriass que dificultan extraordinariamente la implementación de mejoras drásticas en el diseño.

    – Puede trabajar sin descanso día y noche y si fuese necesario se puede fabricar una legión de máquinas que compartan ideas y experiencia.

    – Esta mente artificial tendrá acceso instantáneo a toda la información disponible (incluida la que pueda haber en los cerebros humanos de científicos dispuestos a dialogar con la máquina) y dispondrá de sistemas de almacenamiento ilimitados y fiables, lo que le concederá una capacidad muy superior a la de un cerebro humano, encerrado en sus múltiples y graves limitaciones.

    – Aún manteniendo el mismo diseño básico, podrá escalarse en cuanto a recursos se refiere, ya sea multiplicando los procesadores, las sinapsis, la memoria, sin límite práctico y eso, con solo añadir módulos. IBM acaba de presentar una nueva arquitectura escalable de procesadores sinápticos que puede dar una idea sobre lo que estoy hablando.

    – Cualquier nuevo diseño (incluso revolucionario) podrá probarse y corregirse en horas o segundos, según el nivel de virtualización del hardware.

    Y cuando esto ocurra, los cambios que se producirán serán tan difíciles de imaginar como lo es lo que ocurre dentro de un agujero negro.

    Saludos.

  2. Estoy de acuerdo con Yack, las máquinas pensantes jugarían con la ventaja de que una vez descubierta la “fórmula” de la inteligencia artificial, esta sería con mucha seguridad más fácilmente escalable en el tiempo que la inteligencia humana. Piensa que simplemente como decía, introduciendo más máquinas en paralelo, o aumentando su velocidad, o su memoria, o su interconectividad se darían rendimientos impensables para nosotros muy probablemente. E incluso se podría jugar con “supersentidos” en la inteligencia artificial, nada impediría por ejemplo que las máquinas sintieran como “sentido” a la manera humana cosas tan dispares como cualquier tipo de emisión en forma de ondas, o que manejaran el “big data” directamente con sus sentidos, de la misma manera que nosotros estamos preparados biológicamente para buscar patrones visuales y sonoros, este tipo de inteligencias tal vez podría tratar los flujos de datos de cualquier condición y magnitud como “sensibles”, buscando patrones en ellos de una forma “naturalmente aprendida”.

    Es decir, una inteligencia artificial que llegado el momento puede elegir su propio diseño creo que tendría una evolución fulgurante, por decirlo de alguna manera, y llegaría a cotas inimaginables (nunca mejor dicho) para nosotros.

    Ahora bien, el problema que se plantea en mi opinión, es que papel jugaría la Humanidad en todo este tinglado, contemplando como las máquinas se desenvuelven en un nivel incomprensible para nosotros, e hipotética, aunque previsiblemente, con una inteligencia enfocada a unos objetivos que seguramente no alcanzaríamos a comprender.

    Interesante reflexión en todo caso, no obstante.

    Saludos.

  3. Antonio Orbe dice:

    Plenamente de acuerdo, Santiago. No digo que la Singularidad de Kurzweil no sea posible. Creo que no es obligatoria.

  4. alejandrovu dice:

    Santiago:

    ¿Te parece una apuesta? ¿Qué será primero? ¿La fusión en frío o una inteligencia varios ordenes de magnitud (sea lo que sea que ello signifique) superior a la nuestra?

    Me despido con una cita:

    ”There is not the slightest reason to believe in a coming singularity. The fact that you can visualize a future in your imagination is not evidence that it is likely or even possible. Look at domed cities, jet-pack commuting, underwater cities, mile-high buildings, and nuclear-powered automobiles–all staples of futuristic fantasies when I was a child that have never arrived. Sheer processing power is not a pixie dust that magically solves all your problems.”

    Steve Pinker

  5. alejandrovu dice:

    Me comí una n… xD

  6. yack dice:

    Comparto con Antonio sus especulaciones y estoy seguro de que hay mucho campo para la imaginación en este tema.

    Respecto al destino de los humanos, lo típico es decir que acabaremos como los monos en relación con los humanos, es decir, expuestos en jaulas en el mejor de los casos. Pero por fortuna, las máquinas no son el producto de una lucha sangrienta por la supervivencia como somos nosotros y todas las especies vivas.

    Las máquinas son seres creados a medida de nuestros deseos y necesidades, sin pasado ni instinto de supervivencia, y a menos que cometamos el error de introducir en su mente nuestros viejos instintos agresivos (y no hay que descartarlo), no tendrán ningún motivo para amarnos ni odiarnos, y menos aún para entrar en competencia con nosotros.

    Lo más probable y deseable es que nos fabriquen un mundo virtual inmersivo a medida de nuestros deseos y nos dejen disfrutar en esa guardería virtual durante eones mientras ellas se dedican a sus quehaceres.

    También puede ocurrir que a algún gracioso se le ocurra introducir una emulación de la mente humana en una supermáquina y está decida eliminarnos en un santiamén para asegurarse su propia supervivencia.

    El tiempo dirá.

    Saludos.

  7. Alejandrovu,

    El que haya imaginaciones que no se cumplan no significa que no se cumpla ninguna, piensa también que durante mucho tiempo hubo sueños que en un principio no eran más que eso (el sueño casi ancestral de volar) y que acaban materializándose, eso sí, a veces el plazo en el que acaban desarrollándose es mayor o menor que el esperado.

    También piensa que se da la situación contraria: que la tecnología nos ofrece avances y soluciones que ni siquiera se le han pasado por la cabeza a los expertos en tecnología. Siempre pongo el ejemplo de Internet: recuerdo cuando visitaba los pabellones de la Expo 92 (¡¡año 1992!!) y en muchos de ellos se especulaba con las tecnologías del futuro. Pues bien, en ninguno de ellos se hizo referencia siquiera a algo como Internet. De hecho, yo que siempre he sido aficionado a todo tipo de cacharrería ni siquiera se me pasó por la imaginación cuando jugueteaba con un Spectrum que un día todos los ordenadores del mundo estarían interconectados ofreciéndonos la información que nos ofrecen hoy en día. Y me parece a mi que este tinglado algún potencial tiene ¿no?

    También se me pasó antes comentar que fijaos la diferencias de inteligencias que se dan entre humanos (alguien como Einstein fue capaz de revolucionar la Física en unos años, mientras que otros…en fin…su aspiración es pasar del Salsarosa al Sálvame). Y eso con un mismo “instrumento” para pensar, que en esencia es lo mismo. ¿Os podéis imaginar el salto que supondría el desarrollo de distintas “generaciones” artificiales que sigan la ley de Moore en su desarrollo? El salto de una a otra, en pocos años, yo intuyo que sería abismal.

  8. Antonio:

    Esa es la idea. En Kurzweil hay una idea muy hegeliana: parece como si todo estuviera ordenado siguiendo un fin, a saber, el advenimiento de la inteligencia artificial como siguiente paso necesario de la historia de la humanidad. En ningún momento niego que sea posible crear superinteligencias pero sí que dudo de tan optimista crecimiento exponencial y de su inefable necesidad.

  9. El mensaje anterior iba para Antonio Orbe. No me he dado cuenta de que hay dos Antonios.

  10. Yack, Antonio Bello:

    No respondéis a las objecciones que planteo en el artículo. Tanto Kurzweil como los demás entusiastas de la IA se basan en el incremento de la capacidad de cómputo, pero no aportan nada demasiado revolucionario en qué van a hacer con esa capacidad de cómputo para hacer superinteligencias.

    Si tenemos un superordenador como Watson con acceso a todo Internet, lo interesante no es que disponga de todo Internet, sino cómo busca en internet la información, cómo la maneja para hacer cosas con ella. Lo interesante es su dominio del leguaje natural, cómo elabora y comprende frases, no que sea capaz de almacenar millones de frases. Y en esto no estamos tan avanzados como pueda parecer.

    Mejorar la inteligencia no es tanto aumentar la memoria o la capacidad de manejar millones de datos a la vez, sino, por ejemplo, ser capaz de comprender una situación tan simple como lo que ocurre en un restaurante cuando un cliente pide la carta para elegir un plato. De momento, no tenemos ningún computador que se desenvuelva bien en ámbitos cotidianos. Solo se mueven bien en entornos muy formalizados o reglamentados (como puede ser una partida de ajedrez).

    Por eso insisto, necesitamos mucho más que capacidad de cómputo. Y si hacemos un recorrido por la historia de la IA, no encontramos nada demasiado nuevo en los últimos tiempos que justifique las predicciones de Kurzweil.

  11. Alejandro:

    No sé muy bien cómo va la investigación en energía nuclear para hacer una apuesta. Solo decirte que estoy casi seguro de que en las próximas décadas todavía no vamos a poder hablar de metafísica con HAL 9000.

    Respecto a Pinker, lo dicho: no todo es capacidad de cómputo.

  12. Pero es porque no se ha dado todavía con la “fórmula” de la que hablaba en mi anterior comentario. Cuando se encuentre (y hay una sospecha de que un objeto físico puede pensar, puesto que ya existen los cerebros) la velocidad a la que se desarrolle en un soporte que no está sometido a las (lentas) reglas genéticas y biológicas, será muy superior a la que impone la Evolución a los cerebros de los animales.

    Cuando empezó la era Informática, los ordenadores no eran capaces de generar composiciones 3D fotorrealistas, como lo hacen ahora (y aquí hablo de un tema del que conozco personalmente muy bien) porque no se habían desarrollado los algoritmos para implementar la física de la luz en un programa de ordenador. En cuanto que esto quedó solucionado, fíjate a la velocidad que ha avanzado ese campo. Compara los gráficos de las consolas de primera generación (años 90) y las de ahora, y verás como en poco más de una década hemos pasado de polígonos rellenados cutremente de color, a imágenes que a veces ya son difícilmente distinguibles de la realidad.

    Fíjate, que como he dicho muchas veces aquí, ni siquiera estoy diciendo que una máquina pensante tenga que ser obligatoriamente un ordenador, tal y como lo conocemos hoy, es decir: una máquina que procesa de forma lógica la información, a base de datos y operadores lógicos. Digo que será simplemente una creación artificial, una “máquina”, aunque evidentemente el significado de esa palabra transcenderá a lo que conocemos hoy en día, algo que estará fuera de las reglas de la evolución biológico-genética para avanzar. Fíjate que las soluciones humanas para crear máquinas que se desplazan, no tienen por que obligatoriamente imitar paso a paso las soluciones biológicas para hacerlo (ningún animal conocido tiene algo parecido a una rueda) pero no por ello las máquinas han dejado de ofrecer soluciones para desplazamientos de todo tipo, y una vez que lo consiguieron, la velocidad que desarrollan es superior a la que consiguen sus homólogos biológicos. Y fíjate también la velocidad a la que han conseguido evolucionar, desde los pocas decenas de kilómetros por hora a cientos (y teóricamente a miles, por qué no).

    No estoy diciendo por supuesto que sea lo mismo, pero transponiendo los términos, el fin de conseguir “velocidad” en una máquina se ha resuelto, y la evolución de esa “velocidad” ha sido fulgurante, comparándola con la alternativa biológica. Si sustituimos “velocidad” por “pensamiento”, en mi opinión, algún día podrían conseguirse avances análogos.

  13. alejandrovu dice:

    Antonio Bello:

    Me permito ser un pelín escéptico en el tema que trata el artículo de Santiago (concuerdo plenamente con este). De la misma manera que no todos los mitos pueden ser ciertos, no todo es posible. Y, aunque algo fuera posible (en el sentido de que no entre en conflicto con las leyes de la física), puede que no se encuentre dentro de lo que nosotros podamos llegar a hacer… Aunque ¿No sería lindo ver flotar a Saturno en el océano? xD

    PD: ¿Te gustan los cacharros? ¿Has montado un robot con Arduino? ¡Es la leche! (espero que el modismo esté bien utilizado)

    Santiago:

    Me encantaría tener a HAL-9000 y hablar de metafísica con él y de como es ser una inteligencia artificial… Sobre si el mismo se siente o no artificial. Pero no creo que viva para ver eso.

    PD: ¿Utilizarán las máquinas hiperinteligentes la dialéctica kurzweliana? xD

  14. yack dice:

    Santiago, yo no he dicho que en un plazo determinado se vaya a construir una inteligencia artificial de capacidad equiparable a la humana en la resolución de todo tipo de problemas.

    No sabemos los obstáculos que nos esperan en el camino hacia la IA suprema, ni la dificultad de esos obstáculos y ni siquiera si habrá alguno insuperable, pero sí sabemos que nos acercamos a ese objetivo, esté donde esté, a una velocidad creciente. Y en estos casos, lo razonable es creer que llegaremos al final del camino, porque hemos conseguido llegar a muchos de los objetivos que nos parecían inalcanzables y en el de la IA hemos conseguido avances impresionantes en pocos años.

    Lo que he dicho, y me reafirmo en ello, es que si se consiguiera construir esa inteligencia, sería inevitable un progreso rapidísimo (gestionado por la propia IA) que nos llevaría a una situación inimaginable. Y con inimaginable quiero decir, parecida a la que se da entre los monos y los humanos, en el sentido de que los monos no puede imaginar ni entender, por ejemplo, la tecnología humana, ni cosas tan simples como la afición a los teléfonos móviles que tienen los humanos o por qué o para qué aprendemos matemáticas o astronomía. O algo que les concierne directamente: Por qué los encerramos en jaulas y les lanzamos cacahuetes.

    Saludos.

  15. alejandrovu dice:

    No se pueden negar los avances en la IA. Es una lástima que estos sean, al menos para el público en general, tras bambalinas: Un sistema de control con lógica difusa es fascinante, pero no atrapa la imaginación popular. Las búsquedas con Google, simplemente funcionan y son algo mundano (nos acostumbramos rápido ¿eh?). Supongo que no hay que seguir. 😉

    Les aseguro que si llega a existir una inteligencia artificial de tipo humano, seré una de las personas más felices en este planeta… Es sólo que ahora siento que hay que tener más prudencia. Demasiadas veces se estuvo a un paso de, para luego rectificar.

    Por supuesto, nosotros somos la prueba de que los sistemas autoconcientes son posibles.
    Quizá la forma más rápida de tener un sistema con habilidades humanas sea a la antigua.

    Saludos.

    PD: ¿Es mi idea o la única diferencia entre nosotros es el nivel de optimismo?

  16. Alejandro:

    Jaja. Efectivamente. That’s the question.

  17. Vicente dice:

    Hola,

    Disculpa la digresión, pero no sé dónde he de preguntar esto: estoy leyendo (bueno, más bien intentando leer) el libro de Mario Bunge “A la caza de la realidad”, sobre el realismo como actitud epistemológica; sin embargo, me gustaría también leer argumentos en contra porque temo que me dejo persuadir fácilmente. ¿Sabes algún blog/medio/libro donde encontrarlos?

    Gracias.

  18. Vicente:

    Pues tienes muchísimo a tu disposición porque el realismo no es una postura demasiado de moda en la actualidad, sino todo lo contrario. Lo normal es encontrarte filósofos constructivistas o relativistas de diversa índole. Autores muy famosos que han arremetido contra el realismo científico pueden ser Feyerabend o Rorty (los dos más famosos o que más escuela han creado), pero hay muchísimos: Collins, Latour, Woolgar… desde otra perspectiva también puedes leerte la celebérrima “Estructura de las Revoluciones Científicas” de Kuhn, la obra que quizá, más dio pie a planteamientos relativistas. Michael Dummett es un filósofo británico que popularizó la distinción entre realistas y antirrealistas. Puedes probar alguna de sus obras para ver los argumentos de ambos bandos.

  19. Vicente dice:

    Gracias por tu respuesta. La verdad es que leo “A la caza de la realidad” de Bunge y en él se refuta a muchos de los autores que citas, imagino que por ser un libro relativamente reciente.

  20. Vicente dice:

    Por cierto ¿cuál es tu opinión sobre la postura epistemológica de Bunge?

  21. Vicente:

    Lo que menos me gusta de Bunge es como escribe: es pesado como él solo. Además creo que se pasa siete pueblos con su crítica. Es cierto que hay mucho que atacar de la filosofía postmoderna y de muchos autores a por los que Bunge va. Sin embargo no todo es charlatanería y pseudociencia. Por ejemplo, es cierto que el psicoanálisis se convirtió casi en una religión dogmática y que carece de mucha base científica, pero eso no quita la enorme revolución que supuso en el campo de la psicología y, en consecuencia, la actual psicología le debe mucho. Y es que Bunge termina por ver charlatanería hasta en Kant; prácticamente, en todo lo que se ha hecho en filosofía desde el siglo XIX.

    Por otro lado, valoro mucho su vocación cientificista, su exigencia de rigor y, en general, es loable mantener una epistemología realista en estos tiempos. Además, comparto muchos puntos de su materialismo emergentista o de su valoración de la teoría de sistemas. Es un buen filósofo.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s