Posts etiquetados ‘Test de Turing’

eugene-goostman-600x338

He tenido el honor de formar parte del Gabinete de Crisis de la Singularidad, capitaneado por Santiago Bustamante para el mítico programa Fallo de Sistema de Radio 3. Rodeado de reconocidos expertos en neurociencias e Inteligencia Artificial, he estado hablando del Test de Turing y de su supuesta superación, y del genial Ray Kurzweil. Os adjunto la dirección del podcast de un programa tremendamente interesante.

Radio 3. Fallo de Sistema. Capítulo 141: desmontando a Kurzweil 02.

Hace unos días el excéntrico ciborg de la Universidad de Reading, Kevin Warwick, daba a conocer la noticia de que un programa había superado el peliagudo Test de Turing, consiguiendo engañar a un 33% de los jueces de que estaban hablando con un humano y no con una computadora. Es una noticia increible, un hito tecnológico histórico. Desde que Turing hablara de su famoso test en los años 50, llevábamos más de sesenta años luchando sin éxito por construir una máquina con un manejo tan sólido del lenguaje natural que pudiera conversar con nosotros con total normalidad. Y es que la tarea es mucho más difícil de lo que, en principio, parecía puesto que el lenguaje humano es mucho más rico y ambiguo de lo que los ingenieros pensaron, además de que múltiples aspectos contextuales o extralingüísticos determinan sensiblemente el sentido de cualquier conversación, mientras que los ordenadores son muy poco sensibles a todo lo que no sea una instrucción literal.

Y entonces llegó Eugene Goostman, un programa creado ya en el 2001 por los ingenieros Eugene Demchenko, Vladimir Veselov y Sergei Ulasen. Ya en otros años había estado a punto de superar la prueba, estando en el 2012 a solo un 1% de conseguirlo, pero ha sido ahora, en junio de 2014, cuando Eugene Goostman ha engañado a más de un 30% de sus interlocutores. Sin enbargo, ¿ha sido realmente así? ¿Se ha superado el Test de Turing? ¿Estamos en un momento histórico? No.

1. Eugene Goostman ha sido programado como un niño de 13 años. Esto es hacer trampas para esquivar a los jueces. Un niño de trece años puede no comprender ciertas preguntas o no saber las respuestas, respondiendo de forma extraña pero, aún así, engañar a su interlocutor. Pensemos que ahora nosotros presentamos a la prueba un programa que representa a un niño de un año de edad que solo sabe decir “tata” y “gugu”… ¡Sin duda pasaría el test!

2. De la misma forma, su nacionalidad es ucraniana (de Odessa) por lo que su dominio del inglés no es perfecto. Otra trampa: así se le podrían perdonar cualquier tipo de errores gramaticales u ortográficos, o incluso, de nuevo, que no comprendiera las afirmaciones de su interlocutor. Igual que antes, pasaríamos el test si presentamos un programa llamado “Mumbutu” que no sabe nada de inglés ya que el solo habla el lingala (idioma del Congo).

3. Hay limitaciones en la prueba, tal como que la conversación no dura más de cinco minutos. ¿Por qué no veinte o treinta? ¿Con qué criterio se pone esta restricción?

4. Hay un extraño secretismo en torno al evento bastante sospechoso. No podemos chatear con Eugene (lo han retirado rápidamente de su web) y, en general, no hay nada de información sobre un evento que debería ser histórico. ¿Cómo funciona el programa? ¿Qué innovaciones representa con respecto a otros programas previos que no pasan el test? En estos días he estado intentando obtener más información en la red con pocos resultados. En los próximos días informaré si encuentro alguna novedad interesante.

5. Y es que yo creo que todo esto no tiene ni la más mínima imporancia. Si escucháis el programa de radio que enlacé arriba y analizais la coversación que Santiago Bustamante pudo conseguir, veréis que roza el esperpento. Yo no comprendo cómo ha engañado ni durante cinco minutos a un interlocutor humano. Creo que todo es algo bastante tramposo que, lamentablemente, va a empañar para siempre el reto de superar el Test de Turing. Como bien dice Antonio Orbe en el programa, Watson de IBM es la joya de la corona, un programa, con total seguridad, muy superior a Goostman y bastante más interesante de seguir.

Anuncios

Terry Winograd es el genio de la informática que diseñó SHRDLU, un programa que, allá por finales de los 60, era capaz de una notable comprensión del lenguaje. Con un entorno muy simplificado (lo que desde entonces se ha llamado mundo de bloques), podría realizar múltiples interacciones (coger un cono y ponerlo entre el cubo y la pirámide) obedeciendo mandatos lingüísticos (SHRDLU, coge el cono y ponlo entre el cubo y la pirámide). Se le podía preguntar sobre el historial de acciones y la justificación de su conducta. Un ejemplo de conversación que muestra los poderes de este programa sería (en cursiva las respuestas de SHRDLU):

¿Puede una pirámide sostener otra pirámide?

No lo sé.

Apila dos pirámides

(SHRDLU lo intenta y fracasa). No puedo.

La pirámide azúl es mía.

Entiendo.

Yo poseo los bloques que no son rojos pero no poseo nada que sostenga una pirámide.

Entiendo.

¿Poseo la caja?

No

¿Poseo algo que esté dentro de la caja?

Sí, dos cosas: el bloque azul y la pirámide azul.

¿Hay algo que sea mayor que cualquier pirámide que no sea tan ancho como la cosa que lo sostiene?

Sí, el bloque azul.

¿Sostiene algo verde la cosa más corta que sostiene el soporte de la pirámide más alta?

Sí, la pirámide verde.

¿De qué color es?

Supongo que te refieres a la cosa más corta que sostiene el soporte de la pirámide más alta. Rojo.

Una torre.

Lo siento, no conozco la palabra torre.

Una “torre” es un apilamiento que contiene dos cubos verdes y una pirámide.

Entiendo.

¿Hay alguna torre ahora?

No.

¿Puedes apilar, por favor, los dos bloques rojos y un cubo verde o una pirámide?

De acuerdo (SHRDLU hace lo que le ordenan).

[…]

¿Has tocado alguna pirámide antes de poner una sobre el bloque verde?

Sí, la verde.

¿Cuándo la cogiste?

Cuando estaba apilando un cubo rojo, un cubo verde grande y un bloque rojo grande.

¿Por qué?

Para quitarla.

¿Por qué hiciste eso?

Para despejar el cubo rojo.

[…]

¿Por qué hiciste eso?

Porque me lo pediste tú.

Extraído de Jack Copeland, Inteligencia Artifical

Una conversación tan impresionante auguraba que en unos pocos años tendríamos máquinas que pasaran con creces el Test de Turing, e innegable inteligencia artificial a la vuelta de la esquina. ¡Si parece que estamos conservando con HAL 9000! ¿Qué pasó entonces? ¿Por qué no estoy ahora mismo charlando de la crisis con mi tostadora? SHRLDU se movía bastante bien en su micromundo. Se pensó que lo único que había que hacer era ir aumentando progresivamente la complejidad de ese mundo hasta hacerlo tan grande y complejo como el nuestro. Pero aquí estuvo el gran problema: la complejidad de multiplica exponencialmente, no siendo nada fácil pasar de un mundo de simples formas geométricas a la realidad humana. El mundo simbólico del hombre es insondablemente más complicado de lo que nadie pudiese imaginar. Pero es más, ¿y si no sólo fuera muy complejo de la forma en que progresivamente, con arduo y lento trabajo, podamos acercarnos a él, sino que fuera insuperablemente complejo? SHRDLU es un programa trivial si lo comparamos con un ser humano enfrentándose a la realidad y, sin embargo, su creador Terry Winograd, a pesar de poseer un grandísimo talento para la programación, confesaba:

El código presenta una masa densa, con pocos asideros. Incluso yo, que he escrito el programa, me encuentro cerca del límite de lo que puedo retener en la cabeza. Después de abandonarlo unos pocos meses, es muy difícil responder a las preguntas sobre partes específicas, o anticipar los efectos de cambios propuestos.

Y es que el cerebro humano tiene una cantidad tan grande de conexiones sinápticas, su complejidad es tal que, ¿nadie se ha planteado la posibilidad de que sea imposible sin más tener un modelo matemático de él? ¿Nadie se ha planteado la, desalentadora sin duda, idea de que hay cosas que nuestra limitada capacidad intelectual no podrá hacer? Yo no puedo memorizar dos millones de números. Si para diseñar tal o cual ingenio hace falta memorizarlos… ¿no será que no puedo y punto? ¿No existirá un límite Winograd para llegar a comprender o descubrir ciertas cosas?

Los del CYC ahí siguen, insensibles al desaliento.

1. Un chimpancé no pasaría el test a pesar de que no dudaríamos en decir que un chimpancé piensa. Tampoco lo pasaría un programa que jugara al ajedrez o que calculara. El Test de Turing es indebidamente  logocéntrico, en el sentido en que equipara ilegítimamente lenguaje con pensamiento. ¿No existe pensamiento no linguístico?

2. La prueba es absolutamente conductista. A Skinner le hubiera parecido suficiente, pero si no queremos prescindir del concepto de mente, la prueba no vale. Podríamos hacer programas que tuvieran conducta verbal sin que por ello dijésemos que piensan:

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un computador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de palabras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en el programa […]. Cuando el interrogador escribe su primera intervención, Superparry – como llamaban al programa del alienígena- selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las conversaciones que comienzan con las tres intervenciones ya hechas y así sucesivamente.

Jack Copeland, en Inteligencia Artificial

3. La prueba es muy ambigua: ¿cuánto tiempo tiene que estar la computadora engañando a su interlocutor? ¿Todas las preguntas están permitidas? ¿Puedo preguntarle al computador sobre su biografía? Las precisiones que se hagan al respecto son vitales para entender cómo debería ser una máquina que superara el test. Verbigratia, la Eliza de Weizenbaum está programada como si fuera un psicoanalista para centrarse en hacer preguntas y no en dar respuestas. Si la conversación con ella es muy corta y el programa tiene suerte (tres o cuatro preguntas y respuestas) no hay forma de diferenciarla de un humano. Sin embargo, si la conversación es más larga y el interlocutor va buscando las cosquillas a la máquina, Eliza está lejos de superar el test.

4. Sólo se pide que el computador engañe a su interlocutor, ha de fingir que piensa, no pensar realmente. Para construir una máquina que pasara el test podríamos centrarnos en fomentar esa habilidad de engaño más que en diseñar una máquina pensante. Precisamente la Eliza de Weizenbaum está hecha de esta manera. Simular que uno piensa no es lo mismo que pensar. Y no es bueno que nuestros ingenieros diseñen robots únicamente para pasar el test, ya que diseñarán máquinas expertas en mentir, no en pensar.

5. El test no especifica qué tipo de máquina puede superarlo (1). Esto no es una objeción contra el test sino contra aquellos que afirman que una máquina no puede pensar en base a lo que son las máquinas actuales. Es como si pensáramos que con un modelo tecnológico de pesas y poleas podemos llegar a Marte. Seguramente que el modelo de máquina realmente pensante será muy diferente a los modelos computacionales contemporáneos.

La clave del asunto es que todo depende de cómo definamos pensar. Si suponemos que para pensar hace falta autoconsciencia o consciencia de algún tipo, una máquina podría pasar cierto test de Turing sin tener conciencia alguna, mientras que si creemos que pensar es, simplemente, realizar algún tipo de operación lógica sin que haga falta tener consciencia de ella, el ordenador desde el que escribo esto piensa en toda regla aunque no pueda pasar el test. En ambos casos el test de Turing no me dice absolutamente nada de si las máquinas piensan.

La pregunta con respecto a la Inteligencia Artificial debería dejar de apuntar hacia el concepto de inteligencia o conducta inteligente (en el sentido del Test de Turing, de conducta lingüística inteligente). En esta línea de investigación creo que ya se han conseguido logros lo suficientemente importantes para decir que tenemos máquinas con conducta inteligente (a pesar de que todavía quede mucho por hacer). La dirección a seguir (y que ya se sigue desde muchos ámbitos) sería la de hacer máquinas que generaran consciencia. Aquí es donde está el reto, debido fundamentalmente a que no tenemos ni idea de cómo nuestro cerebro la genera: ¿qué mecanismo hace que un complejo sistema de redes electroquímicas den lugar a la consciencia? El camino estará en, a falta de más conocimientos desde la neurología, replicar tales procesos electroquímicos y esperar a ver que pasa. De este modo no sólo podremos diseñar máquinas conscientes, sino que tendremos un fantástico campo de pruebas experimental para entender qué es la misma consciencia.

Aquí os dejo una serie de enlaces a programas que intentan pasar el test para que converséis con ellos y comprobéis lo lejos que están de conseguirlo.

Eliza

Doctor Abuse

Solutecia

Paula SG 11

 (1) Turing afirma que en el test podría participar cualquier ingenio tecnológico que la ciencia tuviera a disposición, si bien él enseguida nos habla de máquinas automáticas de estado discreto, es decir, de computadores digitales. La objeción podría tener sentido afirmando que un computador digital nunca podría pasar el test de Turing… Lo cual sólo podrá ser respondido con el tiempo.

El primer computador electrónico con un programa incorporado en la memoria fue el Manchester Automatic Digital Machine (MADM), también conocido como el Manchester Mark I.  Una versión mejorada de este voluminoso cacharro (4.500 válvulas. En la foto sólo mostramos la consola) fue diseñado por la Ferranti Limited y tenía un generador de números aleatorios que utilizó Turing para programar la primera carta de amor escrita por un ser no humano:

Querida Prenda

Tú eres mi ávido sentimiento amigo.

Mi afecto pende curiosamente de tu deseo apasionado. Mi

Cariño implora tu corazón. Tú

Eres mi triste simpatía: mi

Tierno cariño.

Tuyo rendidamente.

Computador de la Universidad de Manchester

Poema que pasa perfectamente el Test de Turing de los poemas. Parece ser que ya se adelantaron 60 años a mi Lord Byron Mecánico.

La sugerente forma con la que Chalmers plantea el problema duro de la conciencia va a tener una interesante aplicación al problema del origen evolutivo de la misma. Supongamos que la evolución (o los ingenieros de AI) diseñan una entidad, ya sea orgánica o mecánica, que puede realizar las mismas funciones fenoménicas que un ser humano pero sin tener ningún tipo de autoconciencia ni de estados internos ni emociones o deseos (sin los famosos qualia). Esas entidades serían capaces de resolver ecuaciones, escribir libros, o cualquier otra acción de la que fuera capaz un humano, de tal modo que pasarían el Test de Turing a todos los niveles. Chalmers adjetiva con humor a estos seres como “zombis” recalcando la idea de que, a pesar de que “parecieran humanos” en todas sus características, al no tener subjetividad, estarían de algún modo “desalmados” como los zombis hollywoodienses, habría algo tétrico, inhumano en ellos.

Si estos zombis fueran posibles se plantearían una serie de dilemas filosóficos. En primer lugar, la idea parece apuntar a un dualismo. Si los zombis son físicamente idénticos a nosotros y pueden realizar nuestras mismas funciones, la única cosa que nos diferencia de ellos es que tenemos estados internos, tenemos subjetividad. Como somos físicamente idénticos, lo físico no puede explicar lo mental o, como mínimo, lo mental no puede ser reducido a físico. Los zombis serían nuestras tristes copias monistas, siendo el ser humano un compuesto de materia y mente, dos sustancias diferentes. Materia y mente quedan separadas en una vuelta al cartesianismo. Y en segundo lugar, ¿qué sentido tendría el hecho de que tengamos conciencia si una entidad sin ella podría realizar las mismas cosas y con la misma efectividad que nosotros? ¿Por qué la evolución se habría preocupado en generar conciencia cuando con sólo crear zombis hubiera conseguido los mismos resultados? ¿No es la conciencia algo redundante en términos evolutivos? Esta perspectiva podría constituir una prueba de que la mente no es explicable desde la teoría darwiniana, consecuencia lógica de lo anterior: la mente no se reduce a lo físico como tampoco a lo biológico, ha de ser explicada desde otras instancias.

Ingenioso dilema si no fuera porque el planteamiento de Chalmers es erróneo. Si los zombis fueran físicamente exactamente iguales a los seres humanos generarían necesariamente conciencia. Si la evolución o la AI consiguieran hacer estructuras físicas idénticas a las humanas, tendrían subjetividad exactamente igual que nosotros. Afirmar que un ser físicamente igual que nosotros no tendría conciencia es como pensar que diseñamos dos relojes despertadores idénticos, y uno suena y otro no, no habiendo causa física para que el segundo no suene. La posibilidad de los zombis nos haría aceptar que un sistema físico pierde “por arte de magia” una de sus características.

Sin embargo, podría objetarse que sería posible crear zombis que fueran funcionalmente idénticos a nosotros aunque físicamente no lo fueran. Sólo haría falta que pudieran imitarnos a la perfección en todo lo que hacemos de modo que pasaran el Test de Turing a pesar de ser, por ejemplo, un manojo de chips de silicio. Es el caso de los programas de ajedrez: no habría forma de saber si uno juega contra un programa o contra un humano a pesar de que los mecanismos psicológicos que utiliza el ser humano para planificar y realizar sus jugadas no tienen nada que ver con los que hace la máquina (que realiza millones de jugadas por segundo). Aceptando el caso de que pudiéramos crear zombis funcionales para la totalidad de las características del ser humano (es un hecho que lo hemos conseguido para muchas, pero quizá improbable para todas) eso no implicaría que estuviéramos ante un ser humano sino sólo ante una excelente copia cuya estructura es diferente. Estos pseudohumanos podrían engañarnos en apariencia, pero si tuviésemos acceso a su estructura comprobaríamos que no son realmente humanos, al igual que cuando tenemos acceso al software de un programa de ajedrez comprobamos que no estamos ante una mente humana. Y es que el argumento de Chalmers cae en una petición de principio. En sus premisas ya se esconde el dualismo al que parece llegarse en la conclusión. Al partir del hecho de que unos zombis sin estados internos son físicamente indistinguibles de los reales ya se está dando por supuesto el dualismo. Precisamente, un zombi sin estados mentales sí sería físicamente distinguible de un hombre si partimos de un monismo materialista o fisicalista. A la postre, el dilema de los zombis no sirve ni para defender el dualismo ni el monismo, no sirve para nada.

Los desalmados zombis de Chalmers tan fallidos como defensa del dualismo como pésimas son las películas de George A. Romero (excepto para los amantes de la serie B). En cualquier caso, si os encontrárais con alguno recordad que hay que dispararles a la cabeza, si puede ser, con buenos argumentos. Yo habitualmente suelo encontrarme con unos treinta por clase.

Si Mahoma no va a la montaña, traigamos la montaña a Mahoma. Es muy difícil programar un software capaz de imitar el pensamiento humano (ya hemos hablado aquí de las dificultades de crear una máquina que pasara el test de Turing) pero ¿y si cambiamos de estrategia, y en vez de preocuparnos por el software, lo hacemos por el hardware?. A fin de cuentas, los cerebros humanos no tienen programadores ni un software “explícito” (estaría bien tenerlo. Me imagino un “Bienvenidos a Windows Human 2009”). No parece descabellado hacer algo físico que se parezca lo más posible un cerebro y luego ya veremos (este ya veremos podría ser un proceso de aprendizaje de varios años emulando la educación de un bebé, por ejemplo).  Además, este modo de actuar parece más acorde con el monismo psico-físico reinante en la actual teoría de la mente ya que la separación software/hardware huele demasiado a dualismo (la mente no puede vivir sin cuerpo, amigos). Bien, ¿y cómo lo hacemos?

En primer lugar, sabemos más o menos como funciona una neurona (a pesar de que casi no sepamos nada de cuando muchas neuronas trabajan en conjunto, que es de lo que se trata). Es un organismo relativamente simple y, lo más importante, parece una unidad discreta, es decir, es computable.  Funciona a través de pulsos eléctricos y, a pesar de que libera neurotrasmisores químicos de un modo, en ocasiones, muy complejo, no parece imposible emular su funcionamiento. No es entonces descabellado pensar en copiar físicamente el funcionamiento neuronal a chips de silicio. Hans Moravec y Raymond Kurzweil pensaron que si fabricáramos un gran circuito electrónico con las mismas conexiones que nuestro cerebro, podríamos sustituir uno por otro. Supongamos que he tenido un accidente y me he dañado una zona del cerebro. Podríamos llegar y cambiarla por una réplica electrónica que tuviera exactamente la misma estructura de conexiones que la mía. Pensemos que poco a poco continuamos cambiando partes orgánicas por electrónicas hasta que todo mi cerebro fuera electrónico… ¿sería yo un robot o un ser humano?

Neurona rodeada por Máquinas de Von Neumann

Pero dejando cuestiones conceptuales, lo importante es que esta forma de actuar parece un buen atajo ya que nos quitamos todo el problema del software. No necesitamos a programadores, sólo a ingenieros. Sin embargo, pronto empiezan los problemas (hacer trampas siempre se paga).

En primer lugar, en el cerebro humano hay más de cien mil millones de neuronas. Como argumenta Felix Ares, si queremos replicar un cerebro completo en un momento concreto de su historia tendremos que saber en qué estado estaba cada una de ellas. Si pudiéramos identificar la posición y el estado de cada neurona en un segundo mediante sistemas de neuroimagen, para saber el estado de todas ellas necesitaríamos 3.171 años.  Y esto sólo para empezar. Ahora tendríamos que saber las combinaciones input /output de cada neurona, es decir, cómo responde a cada uno de los impulsos que recibe. Cada neurona tiene, por promedio, unas 1.000 entradas y una salida… (ya suena a excesivo). Bien, pues con paciencia, comencemos a ir probando. ¿Qué pasa cuando se enciende la entrada uno? ¿Y la uno y la dos? ¿y la uno y la tres? ¿y la dos y la tres?… Para calcular esto de cada una de las cien mil millones de neuronas del cerebro necesitaríamos unas cuantas veces la edad entera del Universo.

Vale, pensemos de otra manera. No queremos copiar un cerebro en un momento concreto, sino sólo crear una nuevo. No nos importa entonces descuidar el estado inicial de las neuronas (bueno, no del todo, alguno habrá que poner…).  Lo importante será que aprenda como lo hacemos los seres humanos. ¿Cómo aprende una neurona? La clave nos la dio el biopsicólogo canadiense Donald Hebb.  La conocida como regla de Hebb dice así: si hay dos neuronas, una A y otra B, tal que A excita repetidas veces a B, se produce un cambio en ambas células tal que se fortalece la conexión entre ambas. O dicho a lo Lamarck “el uso desarrolla la conexión neuronal y el desuso la atrofía”. Así podemos explicar algunas cosas, como por ejemplo, por qué la repetición hace que yo me aprenda de memoria una fecha (si bien, a mi juicio, decir esto es una extrapolación no suficientemente fundada. Creo que la cosa es bastante más compleja). El caso es que, con la regla de Hebb, podemos hacer sistemas de redes neuronales que aprendan. Y esa es la titánica tarea de la Inteligencia Artificial actual: hay que pensar cómo enseñar y qué enseñar. De nuevo, han de aliarse disciplinas aparentemente dispares: neurología y pedagogía, lo cual me parece magnífico (de los matrimonios más extraños salen los hijos más bellos). Así, ya tenemos a CB2, diseñado por los ingenieros de la Universidad de Osaka.

No obstante,  se me ocurre la principal objeción teórica a todo este asunto de la ingeniería inversa. Si decimos que hay grandes problemas teóricos para crear una máquina que pasara el test de Turing quizá porque el lenguaje o el pensamiento no sean enteramente computables… ¿No parece contradictorio que de algo computable como las redes neuronales (si es que realmente lo son) surja algo que quizá tiene elementos no computables (si es que existe o no algo no computable)? ¿Podría lo no computable emerger de lo computable?

Esta entrada continua a: Los límites de la computabilidad (I)  ¿Qué es una máquina de Turing?