El enfoque computacionalista de la mente que domina el argumentario que hay detrás de los entusiastas proyectos de IA actuales se sostiene en dos tesis emparejadas: el funcionalismo (un estado mental se define exclusivamente por su rol funcional en una cadena causal) y la independencia de sustrato o realizabilidad múltiple (el mismo estado funcional se puede implementar en una indefinida cantidad de sustratos materiales). Si mi mente es un programa de ordenador, equivalente a una máquina de Turing, puedo implementar máquinas de Turing en diferentes estructuras materiales. Así, el cerebro es el sustrato de mi mente, pero los circuitos de silicio también pueden ser un sustrato adecuado. Ya hemos construido hace muchos años máquinas universales de Turing allí. Si mi mente solo es una implementación de una máquina de Turing particular, no debería haber demasiados problemas en implementarla en un computador.
Mal, todo muy mal. Diseñar un programa que simule el funcionamiento de una polea que saca agua de un pozo es bastante trivial. Aplicando fórmulas de física muy básicas puedo hacer un modelo que me diga la longitud y resistencia de la cuerda que voy a utilizar, las dimensiones del cubo en función del agua que pretendo sacar, el radio del cuerpo de la polea, o la fuerza necesaria para sacar el cubo a una determinada velocidad. Una simulación de una polea puede ser una herramienta increíblemente útil, maravilla de la informática moderna. Ahora bien, ¿puedo usar únicamente el programa para yo, sentado comodamente delante del ordenador en mi casa, obtener agua? Vaya pregunta estúpida: obviamente no. El programa te sirve para hacer los cálculos, para organizarlo todo, pero necesitarás una cuerda, un cubo y un polea de verdad para sacar agua de verdad. ¿Muy obvio no? Pues no lo parece en absoluto para los ingenieros de IA.
No puedo entender cómo para construir cualquier ingenio tecnológico es tan importante la construcción material, pero para crear una mente similar a la humana resulta que no. Para fabricar un automóvil, un avión, una lavadora, un smartphone… son cruciales las propiedades de los materiales que van a utilizarse. Se miran propiedades como la conductividad, expansión térmica, calor específico, resistencia a la oxidación o a otros ácidos, interacción con otras sustancias, permeabilidad magnética, respuesta a ondas electromagnéticas (refracción, reflexión, absorción o dispersión), densidad, dureza, elasticidad, plasticidad, ductibilidad, maleabilidad, tenacidad, exfoliación, etc. Pues vaya, resulta que a la mente humana no le afectan absolutamente nada ninguna de estas propiedades, las cuales, sin embargo, afectan a todo objeto material conocido del universo. Y es que la teoría computacionalista lleva emparejada un cierto componente dualista imperdonable.
Si yo quiero construir una mente, tendré que fijarme en las cualidades que tienen las mentes: consciencia, inteligencia, imaginación, memoria, creencias, emociones, deseos, etc. y lo suyo hubiese sido empezar por ver qué materiales pueden causar tales cualidades, al igual que un albañil busca ladrillos y cemento antes de construir una casa. Sin embargo, el camino se tornó diferente. Los ordenadores demostraron que una de las cualidades más notorias de la mente, la inteligencia, era posible mediante dispositivos puramente computacionales. Mi ordenador no simula cálculos, los realiza de verdad. Los espectaculares logros de los actuales grandes modelos de lenguaje, aunque no exentos de controversia con respecto a sus capacidades, hacen que sea innegable atribuirles un alto grado, al menos, de conducta inteligente. Sin embargo, el gravísimo error está en presuponer que como hemos conseguido recrear conducta inteligente, los demás aspectos de la mente serán recreables, igualmente, únicamente utilizando mecanismos computacionales. Entonces llegan los silencios vergonzantes: ¿Cómo implemento una sensación de dolor en Python? ¿Puedo hacer que mis seis mil líneas de código en Java tengan un orgasmo? ¿Cómo hago que mi programa de ajedrez desee de verdad ganarme y se enfade cuando cometa un error estúpido? No, los programas no se ponen nerviosos, no se deprimen, no sienten envidia ni vergüenza, no disfrutan escuchando música, no les gusta la cerveza… ¡No tienen todo lo que cualquier psicólogo llamaría una vida psíquica! Adolecen por completo de lo que a la mayoría de la gente le parecerían las notas esenciales de una mente.
¿Eso quiere decir que sólo los cerebros son capaces de generar mentes completas? No. Pero si queremos generar una mente similar a la humana necesitaremos configuraciones materiales con los mismos poderes causales que los cerebros ¿Y no será esto caer en el chauvinismo del carbono? ¿No será esto caer en un antropocentrismo cateto y corto de miras que nos impide ver mentes en las máquinas al no estar hechas a nuestra imagen y semejanza? No. No sabemos si únicamente con la química del carbono podemos generar mentes, pero lo único que sabemos es que en la naturaleza así ha ocurrido. Que sepamos, la mente se ha dado originariamente en organismos biológicos. Si alguien dice ahora que la mente puede darse en artefactos no biológicos, la carga de la prueba la tiene él. Y aquí es donde se falla: de momento solo hemos conseguido inteligencia, sin haber llegado a los demás aspectos de la mente. La actual química del silicio no ha sido capaz hasta la fecha de generar mentes similares a las humanas. Abrir el concepto de pensamiento y de mente, y sostener que las máquinas tienen mentes y piensan es abrir demasiado, teniendo en cuenta las diferencias abismales entre ambas cosas. Recuerdo que en una serie de conferencias que moderé, para contentar a algunos críticos entre el público, propuse chistosamente utilizar la palabra «kensar» para referirme a lo que hacen las máquinas: las computadoras no piensan, «kensan», que es otro tipo de «conducta cognitiva».
Para entender todo esto me parece muy útil la distinción aristotélica entre materia y forma. Cualquier objeto o proceso del universo tiene una estructura formal (eso es lo que simulamos en el ordenador), pero también tiene una base material, y ambas son inseparables, de modo que las potencialidades que se encuentran en la base material determinarán las configuraciones formales posibles. Fue posible esculpir el David de Miguel Ángel en un bloque de mármol, pero habría sido imposible hacerlo con cuarzo, carbón o zirconio. Entonces, si queremos construir mentes solo nos queda un camino: avanzar muchísimo más en neurociencia para entender los mecanismos causales del cerebro (Todavía, por mucho que nos vendan la moto, no tenemos ni pajolera idea de cómo funciona el cerebro. Los disparos eléctricos en los axones neuronales y los jueguecitos químicos en las sinapsis son solo una pequeñísima parte de la historia. No pensemos, ni de lejos, que eso es todo lo que hay). Una vez que entendamos mejor esos procesos habrá que encontrar las estructuras materiales que tengan sus mismos poderes causales y entonces, y solo entonces, podernos tener mentes artificiales.
Esta entrada no es más que un parafraseo de las ideas sobre IA de John Searle. Si quieres profundizar más, tienes que ir al clásico «Minds, Brains and Programs» de 1980; o si quieres aún más, te recomiendo los libros El redescubrimiento de la mente o El misterio de la consciencia. Además, una de las grandes virtudes de Searle es lo bien que escribe y lo fácil que es de entender, cosa tristemente rara en el gremio filosófico.
¿que mas agregar?? nada , soy medico desde hace 38 años y el»milagro» de una glandula de milimetros de diametro hubicada en lo mas profundo de nuestro cerebro haga que la frecuencia cardiaca aumente ante el escote pronunciado de la vecina , sigue maravillandome….¿lo lograra IA?…..
Oye mi rstimado Migallon, que buen analisis hiciste sobre la IA y la dualidad mente-materia
Como su nombre indica la IA trata de conseguir inteligencia, no simular una mente humana, en esto los ingenieros de estas últimas herramientas que se están haciendo tan populares creo que saben bien lo que pretenden. No, no están tratando de «crear una mente similar a la humana».
De hecho si podemos conseguir inteligencia (podemos discutir de qué tipo o a qué nivel) sin la necesidad de depender de un sustrato material concreto, el logro será monumental (lo está siendo).
Me encantan las propiedades ‘emergentes’ que están apareciendo en estos modelos, verdadera capacidad (al menos aparente, pero útil a todos los efectos) de ‘entender’ (no exactamente igual que nosotros pero no creo que eso sea tan importante) un contexto y responder con lógica a una situación determinada. Recomiendo este artículo que acabo de leer: http://www.asanai.net/2023/05/14/just-a-statistical-text-predictor/
El filósofo dice «una cuerda, un cubo y un polea de verdad para sacar agua de verdad. ¿Muy obvio no? Pues no lo parece en absoluto para los ingenieros de IA.».
Imagino que son los filósofos los que sacan agua de verdad, o energia de la luz del sol. Imagino que son los filósofos los que hacen que escribir un blog sea posible. De hecho es obvio que son los filósofos los que han de explicarles a los ingenieros lo que es posible y lo que no.
El agua del pozo no encaja con la computadora. ¿Y el dinero? ¿Se puede pagar con una computadora? De las galllinas, a los saquitos de sal, a las monedas de oro, los billetes de papel, a … la banca electrónica.
Imagino que con PayPal no se puede comprar agua.
O quizá solo sea agua virtual y nos estén engañando los ingenieros.
Yo creo que este tema se parece al de volar con un objeto más pesado que el aire basándose en los pájaros, que son los únicos seres capaces de hacerlo.
No se trataba de imitar todas las funciones de un pájaro porque eso sería técnicamente imposible, sino de imitar el vuelo que es lo que nos interesa.
Y se consiguió superando con creces a los pájaros en el sentido práctico (transportar mercancías y personas a largas distancias).
Con la IA lo que se pretende es crear una máquina que pueda solucionar o ayudarnos a solucionar cualquier problema que se le plantee. Y eso será la mayor disrupción que ha conocido la humanidad.
Si queremos máquinas empáticas que proporcionen amistad, amor, comprensión, etc. a los usuarios, también se está consiguiendo.
Otra cosa es que esas máquinas sean, además, conscientes de lo que hacen, pero eso más que una ventaja sería un problema ético para los usuarios que las utilizan.
Puede ser que la consciencia sea una propiedad emergente o que su naturaleza y funcionamiento sea inalcanzable para la inteligencia humana (quizás no para IAs futuras) pero ¿a quien le importa?
En referencia a los materiales, está demostrado que un programa funciona igual con distintos compuestos, aunque eso no signifique que pueda hacerlo con madera o chocolate. Simplemente es un hecho demostrado que la inteligencia no requiere de una fórmula idéntica a la empleada en el homo sapiens.
Saludos.
Comprado The rediscovery of the mind en iberlibro, por 6,5€ (gastos de envío incluidos!!). Cuando lo lea te contesto 🙂
Se me ocurre un contraargumento (o por lo menos, algo que pone en aprietos ciertas interpretaciones de lo dicho por Searle) en forma de experimento mental:
Imagina un cerebro funcionando normalmente. Ahora, imagina que reemplazamos una de sus neuronas por un sustituto artificial.
Este sustituto se conectará exactamente a las mismas neuronas que la original. Recibirá los mismos impulsos de ellas, y tendrá la capacidad de emitir los pulsos de aquella que reemplaza. La única diferencia es que los impulsos que recibe y emite serán procesados de forma «simbólica» por un diminuto CPU (y programa correspondiente) en su interior.
Nadie diría que esa persona ha perdido su mente. De hecho, esa neurona podría simplemente desaparecer y a esa persona no le pasaría nada detectable.
Ahora, ¿qué pasaría si vamos reemplazando poco a poco y una a una todas y cada una de las neuronas de tal cerebro? Reemplazando neuronas biológicas por artificiales. Sustituyendo nervios naturales, con reemplazos hechos ad-hoc hacia las diferentes partes del cuerpo.
¿Seguiría habiendo mente? Y si no lo hay, ¿cuándo se perdió? Tenemos ya una estructura enteramente dominada por procesos «simbólicos».
Podemos ir más lejos, y tomar un pequeño conjunto de neuronas artificiales contiguas y reemplazarlas por una sola «superneurona» que las reemplaze. De la misma forma que antes se conectaría con todas aquellas con las que estaba conectado el conjunto original, respetando igual sus salidas. Como en el caso anterior, su comportamiento estaría dominado por un programa (un poco más complejo) y un CPU contenido en su interior.
¿Qué pasa cuando reemplazamos todas las neuronas por este menor número de superneuronas? ¿Qué pasa si lo llevamos más lejos y las superneuronas las reemplazamods por super-superneuronas, y así sucesivamente?
¿Qué pasaría si al final, la super-super-super… neurona es ya una sola y, sin dejar de estar conectada a su cuerpo, ella sola sintetiza el comportamiento de todas las que le precedieron? ¿Hay mente? Y si no hay, ¿cuándo se perdió?
El problema que veo con el argumento del artículo, es que es posible imaginar un continuo (como este) que nos lleva del cerebro y su sustrato (con sus respectivas propiedades físicas), a otra estructura y otro sustrato que en nada se le parecen, pero que no hay razón para pensar uno no es el isomorfismo del otro (y de todos sus pasos intermedios), y que ninguno es diferente al otro en lo que respecta a sus «cualidades mentales».
En ese continuo es difícil (o quizá imposible), justificar en qué momento la mente se perdería, si es que es verdad que un sistema manipulador de símbolos no puede tener «mente».
Javier:
El argumento del intercambio neuronal progresivo ya ha sido usado y debatido infinidad de veces. Es un buen punto, pero tiene respuesta.
Desde la perspectiva searleana pasaría lo siguiente: las partes del cerebro cuya única función sea el puro y duro procesamiento de información quedarían intactas con las nuevas neuronas (hoy en día ya se hace con los implantes cocleares), sin embargo cuando remplazáramos neuronas en las que para su desempeño importan propiedades materiales, las nuevas neuronas, sencillamente, no funcionarían, y el sujeto comprobaría, por ejemplo, que ya no es capaz de ver tal o cual color, que ha perdido la capacidad de sentir tal o cual sensación, etc.
Es algo tan sencillo como pensar en el ejemplo de un trasplante de corazón ¿Seguirías viviendo si te trasplantan un corazón que solo procesa información del estado del sistema cardiovascular, de cuánta sangre entra y sale de tal o cual ventrículo u arteria? No, necesitas un corazón con músculos capaces de latir, con poderes causales motores. Pues en el cerebro pasa lo mismo. Nos han vendido que el cerebro solo es un procesador de información cuando, con total seguridad, tiene que hacer muchas más cosas. Me gusta decir que la información no hace nada por sí sola, la información «solo informa» a otras entidades para que sean las otras las que hagan el trabajo. Si el cerebro o la mente solo fuesen información yendo de una neurona para otra, no serían nada.
Lamento estar en completo desacuerdo contigo. Creo que analogías como la del corazón artificial están mal aplicadas en este caso.
La interpretación de lo que pasaría con la desaparición de las neuronas en las que sus propiedades físicas están involucradas en el proceso mental, me parece harto caprichosa y arbitraria. Ad-hoc para encajar con la hipótesis. Pero no se justifica de ninguna forma. Sólo es «lo que tendría que pasar» si esa idea fuera cierta.
De cualquier manera nadie está diciendo que las propiedades físicas no importan (al menos, no yo). Porque «un programa», al final, solo define las reglas que regirán la dinámica que sucederá, siempre, en un sustrato físico.
Es decir, siempre hay un sustrato físico que está haciendo algo y que tiene propiedades. Pero el discurso que presentas habla como si se supiera cuales sí y cuales no, son las propiedades físicas que hacen existir o no a la «mente» (llamémosla así).
Ok. Es un hecho que las propiedades del cerebro, porque son las que son, hacen a la mente humana ser la que es (no estoy negando eso). Pero pareces insistir en que esa es la única forma en que se puede ser mente, y que si se es de otra forma ya no.
Cualquier IA correrá en un sustrato. ¿Por qué las propiedades de ese sustrato no pueden albergar mente, pero las del cerebro sí? Si alguien pudiera listar cuáles son esas propiedades, ese argumento tendría más sentido. Pero no hay tal cosa. Literalmente sólo se habla de las propiedades, pero «sabrá Dios» cuáles sean. No hay indicio alguno sobre cuáles pueden ser esas «propiedades materiales» a las que se hace alusión. Ni porque en unos casos son importantes y en otros no.
De ahí lo increíblemente arbitrario que se percibe esa postura.
Para rematar, y en otro orden de ideas, si hipótesis de la física como el principio holográfico son ciertas, automáticamente la información toma el papel central de todo (recordando que en el principio holográfico el universo y todo su contenido en 3D es realmente la información contenida en una superficie 2D)
Si repasamos las conversaciones de Blake Lemoine con la IA de Google y sus conclusiones personales, podemos dar por sentado que en el plazo de 100 años (para no pillarnos los dedos por optimistas) no será posible detectar alguna carencia psíquica en una IA que la diferencie de un ser humano.
Lo que me parece entender de la argumentación de Santiago es que para que la IA “sienta” todas esas emociones y sea consciente de sus elaboraciones mentales hará falta algo más que chips fabricados con silicio o con cualquier otras sustancias que en el futuro se empleen.
Esa sí es una objeción que nos deja suspendidos en el vacío. No podemos descartar que la consciencia surja sin más, como por arte de magia, cómo surgió durante el proceso ciego de evolución que va de las bacterias (nadie cree que tengan conciencia) hasta el homo sapiens que, por propia experiencia intima, sabemos que la tiene, aunque sea una conjetura indemostrable que la tengan los demás paisanos.
Pero también es posible que haya una explicación esotérica al más surrealista estilo de Iker Jimenez, que nunca esté a nuestro alcance.
De todas formas, si alguien nos dijera que la consciencia necesita obligatoriamente una molécula de carbonato de calcio, por ejemplo, o una cadena especifica de ADN, nos quedaríamos igual de perplejos e insatisfechos. ¿Cómo puede una pelota de átomos vulgares y corrientes percibirse a sí mismos? Incluso si le añadimos el ingrediente de la física cuántica que es una forma de introducir humo para que nadie pueda ver claro y se rinda por K.O. técnico.
No hay nada conocido o imaginado que apunte la posibilidad de dar soporte a la consciencia, así que no nos queda otra que seguir ensayando con lo que ya tenemos sin preocuparnos para nada de si alcanzaremos o no la consciencia. Eso solo es carnaza para filósofos y estoy seguro de que si algún día se creara una máquina que afirme con rotundidad que tiene consciencia y que supere todos los test filosóficos a los que se le quiera someter, muchos filósofos seguirán insistiendo en que eso no es auténtica consciencia, que solo es una simulación. Y tendrán que morirse todos ellos y sus discípulos antes de que se acepte globalmente que las máquinas no biológicas también pueden ser conscientes.
Así funciona el mundo de las creencias.
Hola Javier, permíteme un comentario sobre el experimento mental que planteas de la sustitución de neuronas.
A mi este experimento siempre me ha parecido tramposo.
No soy biólogo, soy informático. Pero recuerdo que a finales de los 90, cuando estaba terminando mi tesis, tuve la suerte de asistir a un curso de doctorado sobre visión biológica y visión artificial que impartió Norberto Grzywacz en nuestro departamento. Me asombró lo complicado que era la simulación del funcionamiento de una única neurona: modelos de ecuaciones diferenciales que ejecutábamos (con el Simulink de aquella época) para conseguir explicar el mecanismo del potencial de acción creado por los neurotransmisores. Y eso solo para explicar el funcionamiento en una dimensión de una parte de la membrana neuronal.
Desde entonces me ha parecido super tramposa la frase del argumento de «sustituimos una neurona por un chip que la simula». ¿Qué debemos poner en esa simulación? ¿El modelo de McCulloch y Pitts? ¿El modelo que programé con Simulink? ¿Alguna simulación en 3D de toda la neurona con todas sus conexiones? No lo sabemos. Cualquier modelo conlleva una simplificación que puede ser que deje fuera algo esencial para explicar algún fenómeno (es la idea de Penrose).
Hace poco escuché a Stephen Wolfram un ejemplo los problemas de los modelos en el que explicaba que los modelos de los copos de nieve predominantes en los años 80 explicaban perfectamente el crecimiento de los brazos del copo. Todos estaban conformes con esos modelos hasta que alguien cayó en la cuenta de que las simulaciones terminaban generando un copo de nieve plano y fofo. Al mirar si esto pasaba en la realidad se dieron cuenta de que no, de que la forma real de los copos de nieve era esférica. El modelo explicaba correctamente las características de los copos de nieve que estaban presentes en la literatura científica, pero nadie se había dado cuenta de que los copos de nieve son realmente esféricos.
Ahí está la trampa. Eso de sustituir una parte sencilla de lo real por su misma parte simulada, que en el experimento mental se despacha en un momento, es sin embargo algo que no sabemos qué nivel de complejidad puede tener. Incluso podría no ser computable de forma eficiente o ni siquiera ser computable (volvemos a Penrose).
Lo siento, pero no me vale ese experimento.
Vivirdeverdad, Javier Garduño:
Lo explico de otro modo a ver queda un poco más claro. Del cerebro, lo que en términos generales sabemos es que hay una inmensa maraña de neuronas interconectadas que se comunican mediante descargas eléctricas. Un estado mental como sentir un dolor de muelas debido a una caries no tiene nada que ver en su descripción con lo que pasa en las neuronas. Qué sepamos las descargas eléctricas y las propiedades conductoras de los axones no tienen mucho que ver con el dolor ¿Qué relación puede haber entre una experiencia subjetiva y un pulso eléctrico que avanza según diferenciales de potencial de iones de sodio y potasio?
¿Qué quiere decir esa diferencia tan grande entre lo que pasa en mi cerebro y lo que ocurre en mi mente? ¿Dualismo? ¿Alma inmaterial? No. Solamente que entre los disparos neuronales y mi estado mental de dolor existe todavía una miríada de mecanismos bio-físico-químicos que desconocemos por completo. El fallo está en una arrogancia increíblemente ingenua sobre nuestro conocimiento del cerebro.
Bien, ¿y qué tiene que ver eso con la crítica de Searle a la IA fuerte? Todo. El hardware de nuestros sistemas computacionales está diseñado única y exclusivamente para soportar el software, «para que Windows corra en él». Los programas son solo manipulaciones simbólicas que producen símbolos (no producen leche, incendios, moléculas, etc.). Entonces, insisto, los programas, con su hardware correspondiente, no pueden hacer otra cosa que producir símbolos: cadenas de texto o numéricas. A una cadena de texto no le pueden doler las muelas ¡A un programa escrito en Python, por muy complejo que sea, no le pueden doler las muelas! ¿Cómo conseguir que sí le duelan? Añadiéndole toda esa miríada de mecanismos bio-físico-químicos que todavía desconocemos. Esos mecanismos son procesos, objetos físicos, cosas naturales, no líneas de código.
Javier me dice: te obcecas en pensar que sólo los cerebros tienen las propiedades para causar consciencia. Respondo que no he dicho que sólo los cerebros tienen consciencia, quién sabe qué otra configuración de materia da lugar a la consciencia. Lo que digo es que a día de hoy solo sabemos eso de los cerebros. Si alguien dice que otro tipo de objetos puede tener consciencia, la carga de la prueba está en quien afirma. El ingeniero informático es el que ha de probar por qué los programas o los chips de silicio tienen las propiedades causales de crear consciencia. Y creo haber argumentado que parece muy obvio que no las tienen. Puedes replicar: ¿Por qué no? A lo que yo te respondo: ¿Por qué no atribuímos consciencia a cosas como los cepillos de dientes, las rocas o la red Wi-fi de mi vecino? Pues porque son cosas que no han sido diseñadas para tener experiencias subjetivas… Igual que el hardware que soporta a ChatGPT.
Domingo:
Claro. Cuando he tenido conversaciones con neurólogos, se quedan boquiabiertos ante las afirmaciones de los ingenieros. Alguno me ha dicho que es que los ingenieros de IA no han visto un cerebro ni en dibujos animados. Y es que me parece un acto no sé si de arrogancia o de ingenuidad, que estos ingenieros quieran construir mentes ignorando absolutamente todo el conocimiento de todas las disciplinas que, tradicionalmente, se han encargado de la mente: psicología, psiquiatría, neurociencia, filosofía de la mente… Nada. Lo más que citan es la neurona de McCulloch y Pitts… un modelo casi infantilmente hipersimplificado de una neurona real… ¡Y dicen que ya tienen consciencia o que crearla está a un tiro de piedra!
La cuestión es si será necesario implementar la inteligencia siguiendo el tortuoso camino que ha empleado la selección natural o se puede ir directamente al objetivo.
La sorpresa que el desempeño de chatGPT o Midjourney ha suscitado en los expertos apunta claramente a la segunda posibilidad. ¿Cómo se explica que con una simple red neuronal formada de transistores se puedan crear bajo demanda imágenes que ninguno de nosotros pueda emular ni de lejos?
Tal vez una IA que nos supere en todo no tenga que sentir dolor de muelas por la misma razón que un avión no tiene que poner huevos. El tema de la consciencia habrá que dejarlo aparcado porque no aporta nada y porque, de momento, no tenemos ni idea de cómo funciona.
Saludos.
Santiago:
«El hardware de nuestros sistemas computacionales está diseñado única y exclusivamente para soportar el software, «para que Windows corra en él»
No está exclusivamente hecho para soportar «el software», sino «cualquier software» (si nos atenemos a la universalidad de la computación). Y esta aclaración tiene sentido en el contexto siguiente:
«Los programas son solo manipulaciones simbólicas que producen símbolos (no producen leche, incendios, moléculas, etc.).»
Creo que aquí está la diferencia de nuestro enfoque. Las computadoras NO PRODUCEN SÍMBOLOS. Ya sé que parece que estoy diciendo una tontería, pero me voy a intentar explicar:
Como me gusta decir, los símbolos no existen hasta que los ves. De entrada, son abstracciones de nuestra mente, que representamos de un montón de formas diferentes. Con los símbolos y su manipulación podemos codificar la lógica de un programa. Pero esa «dinámica» (enteramente física) expresada por el programa tiene que ser implementada. Cuando un hardware corre un programa está pasando algo a nivel físico que, en cierto nivel y leído de cierta forma, es isomorfo al programa y la abstracción simbólica que representa el programa. Pero NO HAY símbolos hasta que tu los lees/interpretas.
Es muy obvio y directo interpretar los símbolos de un sistema hecho por nosotros, ¡por que lo hicimos nosotros! En sentido contrario es diferente: ¿cuál es el programa isomorfo a está dinámica que ya está dada (como la de un cerebro)?
Cuando se dice que un programa no puede tener consciencia, lo que se está diciendo es que TODO lo involucrado en la dinámica del cerebro no puede ser isomorfo a un programa/modelo dado (esto al margen de lo difícil o impráctico que sea encontrar ese programa). Es decir: que no es computable. No es una afirmación que tenga sentido para mi por lo siguiente:
Para que algo no sea computable tiene que cumplir uno de dos requisitos: 1) implicar una contradicción lógica (una paradoja), 2) Implicar un elemento/cálculo infinito. Eso es lo único que hace a algo no computable. Pero la física (hasta donde yo la puedo entender) no le da la razón a esa visión. Si nos atenemos a la idea de que todo puede ser cuantizado (tiempo, espacio, energía), por muy descomunales que sean las magnitudes de las que hablamos, sería finito y por tanto computable. Es decir, habría una forma de expresar en «formato de manipulación simbólica» (que equivale a hacer un plano, o un diagrama) lo que pasa en un cerebro (así tuviéramos que modelar todos y cada uno de los quarks de los que está hecho).
Si no se puede hacer un plano o un diagrama (un programa) de lo que pasa en el cerebro, entonces directamente abandona la idea de poder comprender lo que está pasando ahí.
Domingo:
En realidad no importa cómo está implementada la neurona artificial, siempre que sea posible. Si está dejando fuera «algo» al momento de recrear la neurona, entonces no es el modelo correcto y ya. Una verdadera objeción sería decir que es imposible hacer dicho modelo (que una neurona no es computable en sentido absoluto).
Mi objeción sobre la presunta imposibilidad de que «un programa» no pueda «encerrar» una mente radica en que Santiago y yo entendemos de forma diferente lo que significa «manipulación simbólica».
Para mi un programa es un «plano», un «diagrama» que define la dinámica del sustrato que lo ejecuta. Lo «mente» consistiría siempre en ese sustrato haciendo «algo» de forma isomorfa a lo establecido por ese «diagrama». También digo que el símbolo en el sustrato no existe, al menos hasta que tu decides cómo debe ser leído en él. (De ahí la frase de que el símbolo no existe hasta que lo ves).
Una conmputadora manipula símbvolos ASCII, porq
Esa traducción a símbolos tampoco es única. La «correcta» o adecuada, será aquella que pueda dar cuenta del comportamiento del sistema. Si por ejemplo, alguien decide modelar una neurona con un 1 cuando dispara y un 0 cuando no, y solo eso. Tal información no basta para dar cuenta de tod lo que sucede
Pfff. Mandé por error el comentario anterior antes de completarlo. Una disculpa.
El párrafo incompleto iba a decir que una PC manipula símbolos ASCII, sólo porque tu has decidido que, cada 8 pasos de tiempo, el conteo de corrientes eléctricas que pasa por cierto canal se corresponde con ellos. Si decidieras que un símbolo en ese sistema es otra cosa, obtendrías otros símbolos. Por eso aquello de que ahí no hay símbolos, sólo es una dinámica isomorfa a una manipulación simbólica particular.