Posts etiquetados ‘Ray Kurzweil’

El funcionalismo es la postura filosófica de la actual psicología cognitiva. Por ende, también lo es de la mayoría de los ingenieros en Inteligencia Artificial. Es, por tanto, una postura compartida por gran parte de la comunidad científica dedicada al tema de la mente, el stablishment contemporáneo (donde más disidencias hay es entre los neurólogos y, como no podría ser de otra manera, entre los filósofos). Vamos a elaborar un pequeño análisis crítico viendo sus ventajas pero, sobre todo, los inconvenientes que hacen de esta posición algo inviable y subrayando como conclusión la disyuntiva entre abandonarla por completo o reparar algunas de sus partes.

Todo surge con el problema epistemológico de la mente. Si la psicología pretendía ser una disciplina científica, tenía que hacer de la mente un objeto de estudio claro y preciso, algo cuantificable, observable empíricamente. Como no podía, decidió hacer como si la mente no existiera. Eso es el conductismo: entender la psicología como la ciencia de la conducta (algo que sí puede observarse), por lo que intentó explicarlo todo mediante el binomio estímulo-respuesta (sin nada entre ellos). El fracaso fue rotundo, por lo que surgieron alternativas: una es la teoría de la identidad en sus distintas vertientes. Los defensores de la identidad sostienen que los estados mentales son idénticos a procesos neuronales. Un estado mental es exactamente lo mismo que una red neuronal concreta en funcionamiento. La virtud de esta perspectiva es que es perfectamente monista y materialista y casa a la perfección con los avances de las neurociencias. Además, su negación, parece absurda: ¿qué si no van a ser los pensamientos que sucesos neuroquímicos? Sin embargo, tiene dos problemas bastante graves:

1. Que sepamos, no hay nada en las reacciones físico-químicas de una red neuronal que pueda explicar, ni remotamente, un pensamiento o  una sensación. Las descargas eléctricas de los potenciales de acción que recorren los axones de las neuronas o las reacciones químicas que se dan en las sinapsis no son estados mentales.

2. Ponemos en problemas a los ingenieros de IA. Si un estado mental es idéntico a un estado neuronal, no es idéntico al proceso computacional que se da en un ordenador. Únicamente los seres con un sistema nervioso similar al humano podrían tener estados mentales. Las máquinas no.

HilaryPutnam

Y entonces llegó el funcionalismo, como una reacción al conductismo y como una solución a los problemas de la teoría de la identidad.  La clave está en definir los estados mentales como estados funcionales. ¿Qué quiere decir esto? Que un estado mental es siempre algo que causa un efecto o que es efecto de una causa, y se define exclusivamente por su función. Por ejemplo, un dolor de muelas es un estado mental porque es la causa de que yo me tome un analgésico. Uno de los fundadores del funcionalismo (si bien luego se retractó y se volvió muy crítico con su criatura) fue Hilary Putnam, quien entendió lo que era un estado mental a través de la tablatura de programa de una máquina de Turing. Este tipo de máquina, además de una definición de computabilidad, es un ordenador primitivo, una máquina capaz de hacer cálculos. Putnam afirmaba que las diversas órdenes que el programa da a la máquina son estados mentales (ya que tienen poderes causales). Esta concepción podría parecernos extraña a priori, pero soluciona un montón de problemas:

1. Para el funcionalismo, la relación entre estados físicos y mentales no es de equivalencia sino de superveniencia. Dos entes físicamente idénticos tienen los mismos poderes causales (realizan las mismas funciones), pero una misma función puede ser realizada por diferentes entes físicos. Dicho de otro modo: misma materia implica misma función pero misma función no implica misma materia. El funcionalismo con su superveniencia parece una gran idea: incluye la mente olvidada por el conductismo, salva la objeción de la teoría de la identidad hacia la Inteligencia Artificial, a la vez que no se lleva mal con la misma teoría de la identidad. Veamos eso más despacio:

a) El conductismo tenía un embarazoso problema con lo que llamamos estados intencionales o actitudes proposicionales (por ejemplo, las creencias o los deseos). Como prescindía de todo lo que no fuera conductual, no podía explicar el poder causal de una creencia. Por ejemplo, si yo creo que va a llover y por eso me pongo un chubasquero, una creencia causa mi conducta. Para el conductismo, como una conducta (respuesta) solo podía ser causada por otra conducta (estímulo) las creencias no podían causar nada, así que los conductistas no podían dar cuenta de algo tan sencillo y habitual como ponerse un chubasquero porque va a llover. El funcionalismo no tiene problemas con las creencias: una creencia es causa de un efecto, por lo tanto, es un estado mental.

b) El funcionalismo permite que los ingenieros de IA construyan máquinas con estados mentales. Siguiendo a Putnam, la orden que da un programa a un computador es un estado mental que puede ser idéntico al de un humano si cumple la misma función, a pesar de que el sistema físico que los genera es diferente (uno de silicio y otro de carbono). Es la gran virtud de la relación de superveniencia.

c) El funcionalismo permite cierta independencia a la psicología sobre la neurología. Como lo explica todo en términos funcionales, permite que no tengamos que hablar siempre en términos neuroquímicos. Por ejemplo, para explicar que la creencia de que llueva ha causado que me ponga un chubasquero, no es preciso que hable en términos de axones y dendritas. Puedo decir que la creencia causa mi conducta con funciones claramente adaptativas: si me mojo puedo ponerme enfermo y morir. Predecir el clima tiene una clara función adaptativa. Así, el funcionalismo se lleva fantásticamente bien con la psicología evolucionista, ya que ésta, igualmente, explica la mente en términos adaptativos, es decir, de funcionalidad biológica. Los funcionalistas permiten que la psicología pueda hablar en un lenguaje que no se reduce al fisicalista, lo cual es fantástico para los psicólogos, ya que no tienen que estar constantemente mirando por el microscopio y hablando de neuronas.

d) El funcionalismo es perfectamente compatible con la neurología. No tiene problema alguno en admitir que un estado mental es idéntico a un estado neuronal, sencillamente, puede hablar de él sin que la ciencia haya descubierto aún tal identidad. Podemos decir que la creencia en que va a llover causa que yo me ponga un chubasquero, aceptando que la creencia en que va llover es idéntica a un estado neuronal concreto y reconociendo que aún la neurología no ha descubierto tal estado neuronal. Incluso si la neurología descubriera cada correlato neural de todos nuestros estados mentales, el funcionalismo podría seguir hablando en términos funcionales sin contradicción alguna. Simplemente diría que mi creencia es un estado neuronal x que, igualmente, causa que yo me ponga mi chubasquero, lo cual tiene una función claramente adaptativa.

e) Incluso el funcionalismo no tiene ningún compromiso ontológico con el monismo materialista. Podríamos ser funcionalistas y dualistas. Un estado mental podría no ser algo material y tener, igualmente, poderes causales sobre mi conducta. Algunos dualistas que, por ejemplo, para explicar la mente se basan en la distinción informática entre hardware (base física) y software (programas), sosteniendo que mientras el hardware es material, el software no lo es, pueden ser perfectamente funcionalistas. Por el contrario, si un funcionalista quiere ser materialista, solo tiene que añadir otra condición a la tesis de que los estados mentales son funcionales, a saber, que toda relación causal es material, que una causa y un efecto siempre son dos entes materiales. ¡El funcionalismo vale para todos los gustos!

Comprobamos que el funcionalismo es una gran teoría debido a sus grandes ventajas. De aquí su éxito en la actualidad. Sin embargo, tiene dos serios problemas, a los que a día de hoy, nadie ha encontrado una solución satisfactoria:

1. El problema de la conciencia fenomenológica o de los qualia. El funcionalismo no puede explicar de ninguna manera el hecho de que tengamos sensaciones conscientes (sentience). Cuando me duelen las muelas y, debido a ello, me tomo un analgésico, siento conscientemente el dolor de muelas. Una computadora no siente ningún dolor cuando algo falla en su sistema, aunque lo detecte y tome medidas para repararlo. Una computadora, a pesar de que pudiese tener una conducta muy similar a la humana, no siente que hace lo que hace, no desea hacerlo, no se enfada ni se pone nerviosa cuando se equivoca… ¡Una máquina no es consciente de absolutamente nada! No poder dar cuenta de la distinción entre estados conscientes e inconscientes es un gravísimo problema del funcionalismo: ¿por que la selección natural ha gastado tantos recursos en hacer que sintamos cuando podría haber conseguido lo mismo generando organismos totalmente inconscientes? Es la objeción de los zombis de Chalmers ante la que el funcionalismo calla.

2. El problema semántico expuesto por John Searle.  Estamos ante el archiconocidísimo argumento de la caja china que no voy a entrar a explicar. La idea tiene como trasfondo el concepto de intencionalidad de Franz Brentano: los estados mentales tienen la cualidad de siempre referirse a algo que no son ellos mismos. Su contenido siempre es otra cosa diferente a ellos, siempre apuntan a otra cosa. En este sentido, los estados mentales son simbólicos. Si analizamos el funcionamiento de un ordenador, la máquina trata todo con lo que trabaja como objetos físicos y no como símbolos. Un computador que traduce del español al chino, no entiende realmente ninguno de los dos idiomas. Trata las palabras como objetos físicos que intercambia siguiendo unas pautas sin entender nada de lo que está haciendo. La conclusión de Searle es que las máquinas no tienen semántica sino tan solo sintaxis. Es un argumento bastante fuerte y aunque se han hecho muchos intentos de refutarlo, ninguno lo ha conseguido del todo.

FranzBrentano

No he conocido ninguna teoría que, ya desde su comienzo, no haya tenido serios problemas. El funcionalismo no es diferente, pero debe resultarnos chocante que el sustrato filosófico que hay debajo de la psicología actual más comúnmente aceptada por la comunidad científica sea deficiente. A mí no deja de resultarme difícil de digerir como conocidos científicos cometen errores garrafales por no tener ni idea de lo que están hablando cuando hablan de la mente. Entre otros, me refiero al popular Ray Kurzweil, el cual ignora completamente la filosofía de la mente a la vez que habla constantemente de temas por ella tratados (y además, tiene el atrevimiento de decir que muy pronto vamos a construir una mente indistinguible de la humana). Nos quedan dos alternativas: o lo abandonamos completamente y pensamos algo radicalmente nuevo (o volvemos a otras posturas más viejas), o intentamos arreglar los desperfectos. Hay algunos intentos: por un lado está el interesante materialismo anómalo de Donald Davidson o, el mismo David Chalmers de los zombis, quien intenta una especie de compatibilismo entre los qualia y el funcionalismo. Hablaremos de ellos otro día.

TRANSHUMAN

La tesis de la singularidad tecnológica es una de las ideas más controvertidas de Ray Kurzweil. La explicamos a grandes trazos: si conseguimos construir una inteligencia artificial más inteligente que el ser humano, según Kurzweil, será de esperar que esa inteligencia pueda crear otra inteligencia aún mayor. Pronto, la nueva máquina creará otra aún más inteligente, y así sucesivamente según un crecimiento exponencial (siguiendo la ley de rendimientos crecientes del propio Kurzweil). Nosotros, los para entonces estúpidos humanos, solo podremos contemplar como esas inteligencias se van alejando más y más de nuestro primitivo entendimiento hasta que no podamos comprender ni predecir qué es lo que estarán haciendo. Y aquí llegará la singularidad: un momento histórico sin retorno en que el hombre quedará relegado de la historia sin enterarse de nada, pues todo lo que ocurra será tan “singular”, tan diferente al resto de la historia anterior, que no habrá forma humana de comprender nada.

Pues bien, esta idea peca de una ingenuidad impresionante. Veamos por qué.

El gen NRB2 está muy relacionado con la capacidad del cerebro para asociar sucesos en la mente, al controlar la comunicación entre neuronas del hipocampo (la parte del cerebro encargada de consolidar los recuerdos, es decir, de convertir información de la memoria de trabajo en recuerdos genuinos de la memoria a largo plazo). Por esa razon NRB2 es, como mínimo, un gen imprescindible para cualquier tipo de aprendizaje. Sin él, los recuerdos no se fijan y nada se aprende. Pero, ¿se aprende más si aumentamos la expresión de estos genes? Sí, o al menos eso ocurre en ratones.

En 1999, el neurocientífico Joe Z. Tsien descubrió que la introducción de un único gen en ratas de laboratorio, provocaba un aumento más que significativo en sus facultades mentales. Eran mejores que los ratones normales en un montón de pruebas, incluidas las famosas fugas cronometradas de laberintos. Sigamos, ¿por qué no introducir más NRB2 en esos diminutos cerebros? Hecho: en diversos laboratorios se han ido criando cepas de ratones más inteligentes. En 2009, Tsien publicó un artículo en el que presentaba la variedad “Hobbie-J” (el nombre viene por un personaje de una serie de dibujos animados china), la cepa de ratones más inteligente que jamás haya existido. Su memoria para recordar hechos novedosos es tres veces superior a la variante de ratones considerada más inteligente hasta entonces.

Cuando a Tsien le preguntaron hasta qué punto llegarían a ser inteligentes sus ratones, Tsien respondió sonriente que, a fin de cuentas, solo eran ratones, nunca iban a saber resolver ecuaciones ni escribir novelas. Hay muchos límites biológicos que impiden que los ratones lleguen tan lejos. Si aplicamos estas conclusiones al planteamiento de la singularidad de Kurzweil podemos llegar a lo mismo: ¿no hay techos ni limitaciones de ningún tipo a la producción de más inteligencia en las máquinas?

Vamos a poner otro ejemplo. Pensemos que la humanidad en general no hubiera desarrollado tanto su neocortex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70.  Un fastuoso día, el chaman de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Kurzweil basa su idea de progresión exponencial en el crecimiento de la capacidad de computación de los ordenadores. Parece cierto que esta capacidad va creciendo a un ritmo muy rápido. Sin embargo, la creación de una superinteligencia no depende únicamente de la capacidad de computación. Es mucho más importante saber qué hacer con esa capacidad de computación que seguir aumentándola hasta el infinito. Y el avance del saber qué hacer no está siguiendo un crecimiento exponencial: la inteligencia artificial como disciplina ha sufrido varios inviernos, varias épocas de estancamiento en las que no se han producido los avances esperados. De hecho, yo personalmente, sigo sin ver esos avances que justifiquen el entusiasmo renacido en estos tiempos.

Dos dificultades esenciales:

1. ¿Cómo es posible que desde la relativamente poca información codificada por nuestro ADN se generen organismos de una complejidad tan alta? ¿Cómo es posible que con unos escasos menos de 30.000 genes del homo sapiens pueda generarse algo tan complejo como un cerebro? ¿Cómo con 30.000 instrucciones puedes construir la exponencial complejidad de las interconexiones neuronales, algo que supera con mucho la potencia de nuestros más avanzados supercomputadores?

2. Al analizar los genomas de diversas especies y compararlas con el humano vemos que compartimos una altísima cantidad de genes con ellas. Si con la levadura compartimos un 40% del genoma o si entre el ratón o el chimpancé y el hombre, sólo existe la diferencia de unos escasos percentiles, ¿cómo es posible que tengamos diferencias fenotípicas tan obviamente abrumadoras?

Apliquemos la teoría de la información a la biología (es maravilloso mezclar disciplinas). Hasta el fabuloso descubrimiento de Watson y Crick, la comunidad científica pensaba que los genes debían de estar codificados en las proteínas ya que éstas muestran una capacidad de combinación más alta que la del ADN. Sin embargo, y esto es una muestra más de que Darwin tenía toda la razón, descubrimos que el código estaba escrito en las bases del ácido desoxirribonucleico. La evolución es chapucera. Pero la selección natural comienza a funcionar y, con total seguridad, empezó a optimizar este, en principio ineficiente, sistema de codificación de la información. Seguramente, la codificación de la información también evolucionó. La evolución es chapucera, pero no tanto: trabaja con lo que tiene (ADN) pero pronto lo optimiza. ¿Cómo puede mejorarse el almacenamiento de información?

1. Compresión: ¿Cómo funcionan los compresores de información típicos de nuestros ordenadores? Sencillamente, buscan patrones que se repiten. Si, por ejemplo, queremos comprimir una imagen de 100×100 píxeles que representa un sencillo cuadrado rojo, solo hace falta un algoritmo que diga: “proyecta un píxel rojo 100 veces de abajo a arriba y hazlo 100 veces en horizontal”, en vez de uno, bastante poco eficiente, que vaya yendo píxel por píxel indicando el color de cada uno. Con dos instrucciones conseguimos hacer lo mismo que, siguiendo el segundo algoritmo, con 10.000. Entonces podemos tener genes que codifiquen instrucciones de muy amplio calado con muy poca información.

2. Iteración de las mismas propiedades fenotípicas. Somos repetitivos: las fibras musculares lisas, los linfocitos B, los hematíes, las células de la piel, etc. son todas iguales. De la misma forma, hay un montón de diseños que se repiten por doquier en el mundo natural: patas, aletas, ojos, sistemas nerviosos y basculares, etc. Así se explica muy bien por qué la mayor parte de los organismos del reino animal son simétricos: nos ahorramos la mitad de la información. Las instrucciones genéticas para fabricar un animal simétrico pueden ser muchas para hacer un lado del individuo, pero solo una para hacer el otro: “Repite lo mismo que has hecho antes”. También explicamos muy bien por qué los organismos son tan poco irregulares. Cada nueva forma que no sea una repetición requiere nueva información: un organismo muy irregular requiere muchas más instrucciones para su desarrollo que uno más regular y simétrico.

Tenemos un tipo de algoritmos que son una perfecta expresión de los dos principios anteriores (compresión e iteración fenotípica) y que, además, se encuentran por doquier en el mundo vivo: los fractales probabilísticos (los alvéolos pulmonares o las redes neuronales son claros ejemplos).

Un fractal probabilístico añade un elemento de incertidumbre. Mientras que un fractal determinista tiene el mismo aspecto cada vez que se presenta, un fractal probabilístico cambia de aspecto (aunque mantiene características similares). En un fractal probabilístico, la probabilidad de que cada elemento generador sea utilizado es menor que 1. De esa manera, los diseños resultantes poseen una apariencia más orgánica. Los fractales probabilísticos son utilizados en programas de gráficos para generar imágenes realistas de montañas, nubes, orillas, follajes y otros parajes naturales. Un aspecto esencial de un fractal probabilístico es que permite la generación de una gran cantidad de complejidad aparente, incluyendo abundantes variaciones en los detalles, partiendo de una cantidad de información sobre el diseño relativamente pequeña. La biología utiliza el mismo principio. Los genes proporcionan la información sobre el diseño, pero los detalles de un organismo exceden en mucho la información genética sobre el diseño.

Ray Kurzweil, La singularidad está cerca

fractales-660x350

 3. Reutilización: tenemos la idea de que un fragmento de información solo realiza una función. Por ejemplo, solemos pensar que para el color de los ojos de un individuo hay un trozo de ADN que codifica exclusivamente esta información. Así, establecemos una función biyectiva entre cada gen y una propiedad fenotípica. Al hacerlo nos quedamos muy cortos: ¿cómo es posible que con la poca información que contiene el ADN los organismos muestren diferencias fenotípicas tan inmensas? La solución consiste en que podemos utilizar cada fragmento de información para varias funciones diferentes. Veamos un ejemplo: supongamos que tenemos una célula madre capaz de generar una serie de organismos diferentes. La información tiene que codificarse en una matriz de 7×7 bits de información, es decir, que tenemos 49 casillas en donde poner un único bit (en este caso una letra del abecedario). La instrucción que debe darse es el nombre del animal que queremos conseguir, siendo los animales posibles los siguientes: humano, perro, asno, alacrán, hormiga, pulpo, medusa, araña, foca y pavo. ¿Cómo guardamos todos esos nombres en la matriz? Aceptando que podemos colocar las palabras en horizontal y en vertical es imposible. Si, por ejemplo, las colocamos así:

A

L A C R A N

H

O R M I G A

M

E D U S A P

H

U M A N 0

E

P U L P O  

R

A R A Ñ A  

R

F O C A    

0

 

nos quedan fuera sapo, asno y pavo. Pero si, colocando igualmente las palabras en horizontal y vertical, reutilizamos algunas letras para varias palabras, como en una vulgar sopa de letras, sí que nos cabe toda la información.

H

U M A N O  

O

P E R R O  

R

U D A S N O

M

L U Ñ   F

V

I P S A P O

A

G 0 A N   C

P

A L A C R A

N

Como vemos la “h” de humano puede usarse también para hormiga, la “p” de perro para pulpo, o varias letras de medusa para humano, perro, sapo y alacrán. Usando los mismos bits para diferentes instrucciones podemos conseguir hacer más cosas con la misma cantidad de información. Y en este ejemplo porque las instrucciones tenían que ser una serie de palabras concretas con sentido. Si partimos de que las instrucciones pueden ser cualquier conjunto de letras sin significado alguno (como ocurre realmente con el ADN, cuyas combinaciones de bases son totalmente convencionales), volvemos a optimizar el sistema. Si, otro ejemplo, cada conjunto de siete letras en horizontal o vertical  constituye una instrucción (“IPSAPOA”=construye un humano), en esa misma matriz de 7×7 bits, el número total de instrucciones posibles sube a 14 (en vez de las 10 del ejemplo inicial): 7 horizontales y 7 verticales. Si además, la instrucción es diferente si la leemos de derecha a izquierda que de izquierda a derecha y de arriba a abajo que de abajo a arriba (“IPSAPOA” es diferente que “AOPASPI”), tenemos ahora 28 instrucciones posibles. Hay muchísimas formas de aumentar la cantidad de información contenida en un código si podemos reutilizarla. Y es que hay muchos tipos de genes cuya información actúa de diversas formas. Escribíamos hace unos cuatro años en el blog:

Pero es que la cosa se ha complicado mucho desde Mendel. Existe la dominancia incompleta (cuando el gen dominante no llega a vencer al recesivo y ambos se expresan), hay genes que modifican el efecto de otros genes (epistasis), genes que afectan a muchas características (pleiotropía), rasgos que son fruto de la interacción acumulada de muchos genes (herencia poligénica), genes que se expresan en diverso grado (expresividad variable) o, haciendo el cálculo en poblaciones, genes que aparecen mucho menos de lo que deberían (penetrancia incompleta). Y además, el fenotipo puede verse afectado por alteraciones no ya en los genes sino en los cromosomas (no sólo afectando a fragmentos o a un cromosoma como en el Síndrome de Down o en el de Turner, sino a dotaciones completas).

El descubrimiento y decodificación del genoma humano ha sido un gran paso, pero solo es el comienzo de una historia mucho más interesante.

By the year 2099:

There is a strong trend toward a merger of human thinking with the world of machine intelligence that the human species initially created.

There is no longer any clear distinction between humans and computers.

[¿Tendremos monitor y teclado? ¿Cuál será nuestro ratón…?]

Most conscious entities do not have a permanent physical presence.

[¡Ala! ¡Viva el dualismo! ¿Hay algún tópico de la AI que no acepte este hombre? ]

Machine-based intelligences derived from extended models of human intelligence claim to be human, although their brains are not based on carbon-based cellular processes, but rather electronic and photonic equivalents. Most of these intelligences are not tied to a specific computational processing unit. The number of software-based humans vastly exceeds those still using native neuron-cell-based computation.

Even among those human intelligences still using carbon-based neurons, there is ubiquitous use of neural-implant tecnology, wich provides enormous augmentation of human perceptual and cognitive abilities. Humans who do not utilize such implants are unable to meaningfully participate in dialogues with those who do.

[No cambiará mucho con respecto a la actualidad. A mí me resulta complicado hablar de astrofísica con mi frutero]

Because most information is published using standard assimilated knowledge protocols, information can be instantly understood. The goal of education, and of intelligent beings, is discovering new knowledge to learn.

[Ya me veo diciendo a alguno de mis alumnos (porque, con casi toda certeza, todavía no me habré jubilado en el 2099): “Mira, tengo que suspenderte. Es que no has descubierto ninguna ley fundamental de la naturaleza en este trimestre”]

Femtoengineering (engineering at the scale of femtometers or one thousandth of a trillionth of a meter) proposals are controversial.

Life expectancy is no longer a viable term in relation to intelligent beings.

[Efectivamente, ya no me jubilaré nunca]

Some many millenniums hence…

Intelligent beings consider the fate of the Universe.

[¿Y qué cree Kurzweil que cambiará en nuestros estatutos epistemológicos de modo que sólo hagan falta algunos milenios más para llegar a descubrir el sentido de todo (y no sólo cien años o diez días o cuatro minutos)? Si partimos de que el Sapiens lleva en la tierra unos 200.000 años, y si creemos que desde su aparición ya se preguntaba por ello, llevamos doscientos milenios luchando contra la peliaguda preguntita. ¿Qué va a pasar en los próximos milenios para que la cosa llegue a buen puerto? ¿Sólo será una cuestión de capacidad de computación (que es lo único de lo que Kurzweil nos ofrece pruebas de que vaya a avanzar hasta límites insospechados)? Es la predicción más espuria de todas]

Raymond Kurzweil, The Age of Spiritual Machines (1999)

Si os han hecho gracia, las predicciones más cercanas: 2049 y 2072, 2029 y 2019.

Os dejo una Ted Talk del señor Kurzweil: