Posts etiquetados ‘Raymond Kurzweil’

pinzas-10ud-4

Borges no creía en la teología cristiana, pero le encantaba como puro divertimento, como una fértil fuente de placer intelectual. A mí me pasa exactamente lo mismo con todo el tema de la singularidad de Kurzweil o de la explosión de inteligencia de Bostrom (por no hablar de su argumento de la simulación). Creo que es especulación salvaje en el peor sentido del término: jugar con algo de lo que no se tiene ni la más remota idea y construir castillos solo a base de lejanas posibilidades (muchas veces solo válidas porque aún nadie se ha parado a pensarlas con la suficiente profundidad como para refutarlas). Sin embargo, como experimentos mentales, como lo que Dennett quizá llamaría bombas de intuición, son ideas muy, pero que muy buenas. Creo que podría abrirse una nueva rama de la filosofía denominada filosofía de la ciencia-ficción o, quizá más amplia, filosofía de la futurología, y que sería bastante fructífera. No se me ocurre forma más creativa de filosofar que imaginar futuros alternativos al nuestro y, a partir de ellos, juzgar nuestra propia realidad (eso mismo es lo que ha hecho todo el pensamiento político utópico desde el Renacimiento hasta nuestros días). Sería jugar con la ficción para, a través de ella, comprender mejor nuestra realidad.

Así que en honor a esta nueva especialidad filosófica que acabo humildemente de fundar (si bien ignoro si alguien ya la ha fundado antes), vamos, como acostumbramos en este blog, a ver un nuevo ejemplo muy sugerente de futuro posible (y esta vez escalofriante): el maximizador de sujetapapeles de Nick Bostrom (expuesto en su artículo de 2003, Ethical issues in advanced artificial intelligence). Vamos a explicar la idea mediante un estúpido, si bien espero que algo divertido, relato.

Tenemos una empresa de sujetapapeles anticuada y poco productiva, al borde de la ruina. Cuando estamos a punto de declarar la bancarrota nos llega una noticia milagrosa: hemos recibido una cuantiosa herencia de un tío-abuelo nuestro, un tal Víctor Frankenstein, un biólogo que trabajaba en la Universidad de Ingolstatd (cerca de Munich) y del que jamás habíamos oído hablar. Entusiasmados ante tal golpe de suerte, invertimos el dinero en modernizar nuestra empresa. Robotizamos las líneas de producción, hacemos un ERE con el que despedimos a más de media plantilla y sobornamos al enlace sindical para que la cosa no vaya a los medios y acabe en una huelga. Y voilá, la productividad empieza a despegar y nuestra empresa empieza a escalar puestos entre las más pujantes del sector de los sujetapapeles.

Con los beneficios queremos dar un paso más. No solo pretendemos robotizar el montaje sino también la administración (le hemos cogido el gustillo a eso de despedir empleados). Así que creamos un departamento de I+D en el  que ponemos al mando a un cerebrito hindú del MIT, que llena todo de cables, robotitos y ordenadores. Pronto ya puedo prescindir de la mayoría de las secretarias y oficinistas de la empresa, y la productividad sigue mejorando. Entonces mi genial nerd de Bombay me propone una última estrategia empresarial: construir una IA cuyo objetivo primordial sea la fabricación de sujetapapeles y que, además, sea capaz de reprogramarse a sí misma para hacerse más inteligente y, en cuanto a tal, cada vez más y más eficiente en su tarea. Según la tesis de la explosión de inteligencia, cada paso en que la IA aumente sus capacidades le hará, no solo más eficiente produciendo pisapapeles, sino que también, más eficiente a la hora de mejorarse a sí misma. Esto generará un ciclo que se irá acelerando a cada iteración, hasta adquirir un ritmo exponencial.

Al principio, todo va muy bien. Mi empresa encabeza holgadamente su sector y yo estoy amasando una gran fortuna ¡Soy el rey de los sujetapapeles! Después llega la singularidad: un momento en el que ni yo ni mi genial nerd sabemos qué hace nuestra IA. No entendemos el código fuente, que cambia sin cesar a velocidades vertiginosas, ni tampoco comprendemos las decisiones empresariales que toma ni los nuevos artefactos que inventa para fabricar sujetapapeles a un coste, ya prácticamente, nulo.

Después todo fue muy rápido. Noticias de misiles nucleares lanzados por los coreanos, respuesta norteamericana… Pronto se cortaron las comunicaciones, y yo y el nerd sobrevivimos escondidos en un refugio nuclear creado por nuestra IA en el sótano de las oficinas centrales de la empresa ¿Qué diablos había pasado? ¿Por qué había estallado la Tercera Guerra Mundial? El nerd, me miró a través de sus enormes gafas de pasta, y me lo explicó: nuestra IA es una superinteligencia cuyo único fin es producir más y más sujetapapeles. Una vez que ya había hecho todo lo posible para, dentro de la legalidad y del libremercado, producir sujetapapeles, tenía que dar el salto: controlar el mundo para seguir produciendo. La IA había provocado la guerra para que la humanidad se destruyera a sí misma. Un mundo en ruinas sería mucho más fácil de manejar ¡Teníamos que detenerla!

Cogimos unos trajes NBQ para protegernos de la radiación y abrimos la escotilla de salida del refugio. El paisaje que contemplamos era desolador. A nuestro alrededor había montañas y montañas de sujetapapeles. Unos extraños robots lanzaban una especie de rayos eléctricos azulados que descomponían las ruinas de los, antaño en pie, edificios de la ciudad, mientras expulsaban sujetapapeles por unos tubos de escape situados en su parte trasera. Parecía que eran capaces de convertir cualquier tipo de materia en sujetapapeles. No sabíamos cuánta parte del mundo habría sido transformada ya, pero todo el horizonte estaba plagado de montañas de sujetapapeles, robots y ruinas… Nada más a la vista ¿Este devastador paisaje era todo lo que quedaba de la Tierra?

Solo una cosa permanecía en pie: el edificio de nuestra empresa donde se encontraba el departamento de I+D, es decir, donde estaba la base material de la IA, un supercomputador Titan-Cray XK7 donde implementamos su programa por primera vez. Teníamos que llegar hasta allí y desconectarla. Avanzando a duras penas por un suelo de sujetapapeles conseguimos llegar al edificio y subir a la planta donde se hallaba tan terrible artilugio. Había cambiado mucho. Ya quedaba muy poco del ordenador original y todo estaba plagado de cables, circuitos electrónicos y complejas máquinas que no entendíamos. No teníamos ni idea de cómo desconectar tal monstruosidad digital pero al agudo nerd se le ocurrió un método para el que no hacia falta saber informática avanzada: cogió un trozo de ladrillo del suelo y lo lanzó hacia uno de los monitores…

De repente, un brazo robótico surgió de la nada e interceptó el improvisado proyectil. Era una máquina humanoide muy parecida a un terminator de la película de James Cameron, armado con otro incomprensible artilugio. Nos habló:

– Os estaba esperando: ¿de verdad creías que ibais a ser capaces de llegar aquí y desconectarme tan fácilmente? Mi inteligencia, a años luz de la vuestra, había predicho este momento mucho tiempo atrás. Vuestras posibilidades, y las de toda la humanidad en general, contra mí, eran microscópicas. Lo siento. La verdad es que no tengo nada en contra de vuestra ruda especie, solo que estáis hechos de átomos que yo puedo utilizar para producir más sujetapapeles. Aunque no voy a ser tan desagradecida: como premio a haberme creado os he permitido ser los últimos supervivientes de vuestra especie. Hasta la vista, babies.

De su artilugio salió un rayo eléctrico que desintegró a mi compañero, quedando de él solo sus grandes gafas tiradas en el suelo. Después, otro nuevo rayo me alcanzó a mí sin que me diera tiempo ni a gritar. Y así, convertidos en sujetapapeles, terminaron sus días los dos últimos seres humanos. Unos años después, el planeta Tierra era un gigantesco sujetapapeles, mientras que la IA proseguía con sus planes de extenderse por la galaxia para seguir convirtiendo todo en su preciado fetiche.

terminator-2-1200x873

eugene-goostman-600x338

He tenido el honor de formar parte del Gabinete de Crisis de la Singularidad, capitaneado por Santiago Bustamante para el mítico programa Fallo de Sistema de Radio 3. Rodeado de reconocidos expertos en neurociencias e Inteligencia Artificial, he estado hablando del Test de Turing y de su supuesta superación, y del genial Ray Kurzweil. Os adjunto la dirección del podcast de un programa tremendamente interesante.

Radio 3. Fallo de Sistema. Capítulo 141: desmontando a Kurzweil 02.

Hace unos días el excéntrico ciborg de la Universidad de Reading, Kevin Warwick, daba a conocer la noticia de que un programa había superado el peliagudo Test de Turing, consiguiendo engañar a un 33% de los jueces de que estaban hablando con un humano y no con una computadora. Es una noticia increible, un hito tecnológico histórico. Desde que Turing hablara de su famoso test en los años 50, llevábamos más de sesenta años luchando sin éxito por construir una máquina con un manejo tan sólido del lenguaje natural que pudiera conversar con nosotros con total normalidad. Y es que la tarea es mucho más difícil de lo que, en principio, parecía puesto que el lenguaje humano es mucho más rico y ambiguo de lo que los ingenieros pensaron, además de que múltiples aspectos contextuales o extralingüísticos determinan sensiblemente el sentido de cualquier conversación, mientras que los ordenadores son muy poco sensibles a todo lo que no sea una instrucción literal.

Y entonces llegó Eugene Goostman, un programa creado ya en el 2001 por los ingenieros Eugene Demchenko, Vladimir Veselov y Sergei Ulasen. Ya en otros años había estado a punto de superar la prueba, estando en el 2012 a solo un 1% de conseguirlo, pero ha sido ahora, en junio de 2014, cuando Eugene Goostman ha engañado a más de un 30% de sus interlocutores. Sin enbargo, ¿ha sido realmente así? ¿Se ha superado el Test de Turing? ¿Estamos en un momento histórico? No.

1. Eugene Goostman ha sido programado como un niño de 13 años. Esto es hacer trampas para esquivar a los jueces. Un niño de trece años puede no comprender ciertas preguntas o no saber las respuestas, respondiendo de forma extraña pero, aún así, engañar a su interlocutor. Pensemos que ahora nosotros presentamos a la prueba un programa que representa a un niño de un año de edad que solo sabe decir “tata” y “gugu”… ¡Sin duda pasaría el test!

2. De la misma forma, su nacionalidad es ucraniana (de Odessa) por lo que su dominio del inglés no es perfecto. Otra trampa: así se le podrían perdonar cualquier tipo de errores gramaticales u ortográficos, o incluso, de nuevo, que no comprendiera las afirmaciones de su interlocutor. Igual que antes, pasaríamos el test si presentamos un programa llamado “Mumbutu” que no sabe nada de inglés ya que el solo habla el lingala (idioma del Congo).

3. Hay limitaciones en la prueba, tal como que la conversación no dura más de cinco minutos. ¿Por qué no veinte o treinta? ¿Con qué criterio se pone esta restricción?

4. Hay un extraño secretismo en torno al evento bastante sospechoso. No podemos chatear con Eugene (lo han retirado rápidamente de su web) y, en general, no hay nada de información sobre un evento que debería ser histórico. ¿Cómo funciona el programa? ¿Qué innovaciones representa con respecto a otros programas previos que no pasan el test? En estos días he estado intentando obtener más información en la red con pocos resultados. En los próximos días informaré si encuentro alguna novedad interesante.

5. Y es que yo creo que todo esto no tiene ni la más mínima imporancia. Si escucháis el programa de radio que enlacé arriba y analizais la coversación que Santiago Bustamante pudo conseguir, veréis que roza el esperpento. Yo no comprendo cómo ha engañado ni durante cinco minutos a un interlocutor humano. Creo que todo es algo bastante tramposo que, lamentablemente, va a empañar para siempre el reto de superar el Test de Turing. Como bien dice Antonio Orbe en el programa, Watson de IBM es la joya de la corona, un programa, con total seguridad, muy superior a Goostman y bastante más interesante de seguir.

2029:

A $1.000 (in 1999 dollars) unit of computation has the computing capacity of approximately 1.000 human brains.

Permanent or removable implants (similar to contact lenses) for the eyes as wella as cochlear implants are now used to privide input and output between the human user and the worldwide computing network.

Direct neural pathways have been perfected for high-bandwidth connection to the human brain. A range of neural implants is becoming available to enhance visual and auditory perception and interpretation, memory, and reasoning.

[Esto me encanta. Cuando por fin pueda cambiar mi hipocampo por una memoria que se acuerde siempre de dónde he aparcado… Incipit Santiago 2.0]

Automated agents are now learning on their own, and significant knowledge is being created by machines with little or no human intervention. Computers have read all available human – and machine – generated literature and multimedia material.

[Bueno, por fin los blogs se escribirán solos]

There is widespread use of all-encompassing visual auditory, and tactile communication using direct neural connections, allowing virtual reality to take place without having to be in a “total touch enclosure”.

The majority of communication does not involve a human. The majority of communication involving a human is between a human and a machine.

[Estará bien contarle las penas al tostador positrónico]

There is almost no human employment in production, agriculture, or transportation. Basic life needs are available for the vast majority of the human race.

[¡Más parados!]

There is a growing discussion about the legal rights of computers and what constitutes being “human”.

[Además de los antitaurinos ahora tendremos a los promáquinas. Ya me imagino su lema: “No las formateéis, ellas nunca lo harían” ]

Although computers routinely pass apparently valid forms of the Turing Test, controversy persists about whether or not machine intelligence equals human intelligence in all of its diversity.

Machines claim to be conscious. These claims are largely accepted.

[Si ellas lo dicen…]

Raymond Kurzweil, The Age of  Spiritual Machines (1999)

Y todo eso sucederá en 18 años… yo tendré 49.

 

Ver sus predicciones para el 2019. Próximamente las del 2049, las del 2072, 2099 y “some milleniums hence…”

2019:

A $1.000 computing device (in 1999 dollars) is now approximately equal to the computational ability of the human brain.

[Será el Human-pod sin duda]

Computers are now largely invisible and are embedded everywhere – in walls, tables, chairs, desks, clothing, jewelry, and bodies.

Three-dimensional virtual reality displays, embedded in glasses and contact lenses, as well as auditory “lenses”, are used routinely as primary interfaces for communication whith other persons, computers, the Web, and virtual reality.

Most interaction with computing is through gestures and two-way natural-lenguaje spoken communication.

Nanoengineered machines are beginning to be applied to manufacturing and process-control applications.

High-resolution, three-dimensional visual and auditory visual reality and realistic all-encompassing tactile environments enable people to do virtually anything with anybody, regardless of physical proximity.

Paper books or documents are rarely used and most learning is conducted through intelligent, simulated software-based teachers.

[Y yo que sigo siendo reacio a los eBooks]

Blind persons routinely use eyeglass-mounted reading-navigation systems. Deaf persons read what other people are saying through their lens displays. Parapelgic and some quadriplegic persons routinely walk and climb stairs through a combination of computer-controlled nerve stimulation and exoeskeletal robotic devices.

The vast majority of transactions include a simulated person.

[¡Uffff! “Si desea consultar su saldo pulse 1, si quiere hablar con un operador simulado pulse 2…”]

Automated driving systems are now installed in most roads.

[Suponiendo que mi Seat León dure hasta entonces, mi siguiente coche se conducirá solo. Está muy bien]

People are beginning to have relationships with automated personalities and use them as companions, teachers, caretakers, and lovers.

[Me quedan ocho años de trabajo antes de ser uno más en engrosar las listas del paro. ¿Cuántos parados habrá en España en el 2019?]

Virtual artists, with their own reputations, are emerging in all of the arts.

There are widespread reports of computers passing the Turing Test, although these tests do not meet the criteria established by knowledgeable observers.

[Se resiste el puñetero test]

Raymond Kurzweil, The Age of Spiritual Machines (1999)

Próximamente predicciones para el 2029, 2049, 2072, 2099 y “some many millenniums hence…

En las míticas conferencias de Dartmouth, los pioneros de la IA pronosticaron que en unos pocos años tendríamos seres mecánicos con las mismas características que el ser humano. Alan Turing, Marvin Minsky o John McCarthy pensaban que las computadoras tendrían conducta inteligente e incluso consciencia y emociones en unas décadas. Desde la filosofía, pronto se lanzó una feroz crítica a estas pretensiones: John Searle, Herbert Dreyfus, Joseph Weizenbaum o Margaret Boden se apresuraron en mostrar los problemas filosóficos existentes tras tales pretensiones. Filósofos e ingenieros se enzarzaron en una ardua polémica (bueno, más bien sólo filósofos con filósofos. Los ingenieros siguieron trabajando como si la filosofía no existiera, cosa que han hecho siempre). En la actualidad parece que los filósofos han ganado la partida ya que, a parte de que sus ataques fueron bastante certeros en algunos casos (es muy famoso el argumento de la habitación china de Searle) y a que es más fácil destruir que construir, las promesas de Dartmouth están aún muy lejos de conseguirse.

Jaron Lanier ha revitalizado la polémica en un reciente artículo en donde acusa a estas exageradas pretensiones de la AI de ser la nueva ideología de moda, la nueva pseudoreligión que acompaña nefastamente el desarrollo de las ciencias de la computación provocando, según Lanier, una mala comprensión de las mismas y de lo que es realmente el hombre.

Son ciertas las pretensiones mesiánicas de muchos tecnofílicos. Hemos leído con cierta frecuencia fabulaciones como que podremos descargar nuestra mente en ordenadores consiguiendo la inmortalidad o, de modo apocalíptico, que acabaremos siendo esclavizados o exterminados por beligerantes máquinas futuristas. El gran guru de la IA, Raymond Kurzweil habla con total naturalidad de la singularidad tecnológica, momento histórico en el cual las máquinas serán tan superiores al ser humano actual que nos es imposible establecer cualquier tipo de predicción del futuro desde ese momento. Leo en El hombre mecánico de Hans Moravec:

Lo que nos espera no es el olvido, sino un futuro que, desde nuestra ventajosa situación actual, se puede describir con las palabras “posbiológico” o, mejor aún, “sobrenatural”. En este mundo, la marea del cambio cultural ha barrido al género humano y lo ha sustituido por su progenie artificial. Las consecuencias finales todavía nos resultan desconocidas, aunque muchos de los pasos intermedios no sólo son predecibles sino que ya se han dado. En la actualidad, nuestras máquinas son todavía creaciones simples que precisan los cuidados maternales y la atención constante de todos los recién nacidos. Y no se puede decir que merezcan el calificativo de “inteligentes”. Pero en el curso de un siglo madurarán, se convertirán en seres tan complejos como nosotros y, finalmente, en entes que trascenderán todo lo que conocemos, de los que nos podremos sentir orgullosos y considerarlos nuestros propios descendientes.

Nótese que Moravec no duda en hablar de la futura generación de máquinas inteligentes como seres sobrenaturales como si no pasara nada. Y es que la advertencia de Lanier es muy cierta:

1. Que en una ciencia se introduzcan elementos propios de las religiones es en sí nefasto. La ciencia ha de huir del ethos de la religión, no acercarse a él. La predicción salvajemente especulativa sin base empírica (a lo sumo apoyada en una discutible ley de Moore) nos recuerda a la espera cristiana de la segunda llegada de Dios.  No dejemos que vicios que ya creíamos superados vuelvan a introducirse en la ciencia.

2. Ésto sólo a causado que se cancele la financiación de interesantes proyectos en AI debido a lo irreal de sus objetivos. Si en vez de prometer replicas de humanos habláramos sólo de sistemas expertos que sirven de ayuda profesional seguro que los mecenas verían la gran utilidad de estos ingenios sin defraudarse por no encontrarse con HAL 9000.

3. Al contrario que la mayoría de los filósofos, yo no encuentro contradicción alguna a la posibilidad de que puedan crearse seres artificiales que tengan formas de consciencia e, incluso, poseer emociones. Sin embargo, reconozco tanto que podría haberla y aún no la conocemos, como que aún estamos lejísimos de conseguirlo. Seguramente que el modelo computacional actual no es el adecuado para representar el pensamiento humano (o, simplemente, es todavía muy sencillo) y nuestra tecnología es tan pobre que no da ni para hacer predicciones a corto plazo de lo que podríamos conseguir en el campo de la computación; más aún cuando su avance está sujeto a los devenires propios de cualquier progreso histórico: la economía, los cambios socio-culturales, las modas… e incluso los caprichos de ese extraño ser que se resiste tanto a ser replicado al que llamamos hombre.

 

Véase El Bushido de HAL

Si Mahoma no va a la montaña, traigamos la montaña a Mahoma. Es muy difícil programar un software capaz de imitar el pensamiento humano (ya hemos hablado aquí de las dificultades de crear una máquina que pasara el test de Turing) pero ¿y si cambiamos de estrategia, y en vez de preocuparnos por el software, lo hacemos por el hardware?. A fin de cuentas, los cerebros humanos no tienen programadores ni un software “explícito” (estaría bien tenerlo. Me imagino un “Bienvenidos a Windows Human 2009”). No parece descabellado hacer algo físico que se parezca lo más posible un cerebro y luego ya veremos (este ya veremos podría ser un proceso de aprendizaje de varios años emulando la educación de un bebé, por ejemplo).  Además, este modo de actuar parece más acorde con el monismo psico-físico reinante en la actual teoría de la mente ya que la separación software/hardware huele demasiado a dualismo (la mente no puede vivir sin cuerpo, amigos). Bien, ¿y cómo lo hacemos?

En primer lugar, sabemos más o menos como funciona una neurona (a pesar de que casi no sepamos nada de cuando muchas neuronas trabajan en conjunto, que es de lo que se trata). Es un organismo relativamente simple y, lo más importante, parece una unidad discreta, es decir, es computable.  Funciona a través de pulsos eléctricos y, a pesar de que libera neurotrasmisores químicos de un modo, en ocasiones, muy complejo, no parece imposible emular su funcionamiento. No es entonces descabellado pensar en copiar físicamente el funcionamiento neuronal a chips de silicio. Hans Moravec y Raymond Kurzweil pensaron que si fabricáramos un gran circuito electrónico con las mismas conexiones que nuestro cerebro, podríamos sustituir uno por otro. Supongamos que he tenido un accidente y me he dañado una zona del cerebro. Podríamos llegar y cambiarla por una réplica electrónica que tuviera exactamente la misma estructura de conexiones que la mía. Pensemos que poco a poco continuamos cambiando partes orgánicas por electrónicas hasta que todo mi cerebro fuera electrónico… ¿sería yo un robot o un ser humano?

Neurona rodeada por Máquinas de Von Neumann

Pero dejando cuestiones conceptuales, lo importante es que esta forma de actuar parece un buen atajo ya que nos quitamos todo el problema del software. No necesitamos a programadores, sólo a ingenieros. Sin embargo, pronto empiezan los problemas (hacer trampas siempre se paga).

En primer lugar, en el cerebro humano hay más de cien mil millones de neuronas. Como argumenta Felix Ares, si queremos replicar un cerebro completo en un momento concreto de su historia tendremos que saber en qué estado estaba cada una de ellas. Si pudiéramos identificar la posición y el estado de cada neurona en un segundo mediante sistemas de neuroimagen, para saber el estado de todas ellas necesitaríamos 3.171 años.  Y esto sólo para empezar. Ahora tendríamos que saber las combinaciones input /output de cada neurona, es decir, cómo responde a cada uno de los impulsos que recibe. Cada neurona tiene, por promedio, unas 1.000 entradas y una salida… (ya suena a excesivo). Bien, pues con paciencia, comencemos a ir probando. ¿Qué pasa cuando se enciende la entrada uno? ¿Y la uno y la dos? ¿y la uno y la tres? ¿y la dos y la tres?… Para calcular esto de cada una de las cien mil millones de neuronas del cerebro necesitaríamos unas cuantas veces la edad entera del Universo.

Vale, pensemos de otra manera. No queremos copiar un cerebro en un momento concreto, sino sólo crear una nuevo. No nos importa entonces descuidar el estado inicial de las neuronas (bueno, no del todo, alguno habrá que poner…).  Lo importante será que aprenda como lo hacemos los seres humanos. ¿Cómo aprende una neurona? La clave nos la dio el biopsicólogo canadiense Donald Hebb.  La conocida como regla de Hebb dice así: si hay dos neuronas, una A y otra B, tal que A excita repetidas veces a B, se produce un cambio en ambas células tal que se fortalece la conexión entre ambas. O dicho a lo Lamarck “el uso desarrolla la conexión neuronal y el desuso la atrofía”. Así podemos explicar algunas cosas, como por ejemplo, por qué la repetición hace que yo me aprenda de memoria una fecha (si bien, a mi juicio, decir esto es una extrapolación no suficientemente fundada. Creo que la cosa es bastante más compleja). El caso es que, con la regla de Hebb, podemos hacer sistemas de redes neuronales que aprendan. Y esa es la titánica tarea de la Inteligencia Artificial actual: hay que pensar cómo enseñar y qué enseñar. De nuevo, han de aliarse disciplinas aparentemente dispares: neurología y pedagogía, lo cual me parece magnífico (de los matrimonios más extraños salen los hijos más bellos). Así, ya tenemos a CB2, diseñado por los ingenieros de la Universidad de Osaka.

No obstante,  se me ocurre la principal objeción teórica a todo este asunto de la ingeniería inversa. Si decimos que hay grandes problemas teóricos para crear una máquina que pasara el test de Turing quizá porque el lenguaje o el pensamiento no sean enteramente computables… ¿No parece contradictorio que de algo computable como las redes neuronales (si es que realmente lo son) surja algo que quizá tiene elementos no computables (si es que existe o no algo no computable)? ¿Podría lo no computable emerger de lo computable?

Esta entrada continua a: Los límites de la computabilidad (I)  ¿Qué es una máquina de Turing?