La Inteligencia Artificial aún no está aquí

Publicado: 18 octubre 2014 en Ciencias de la computación, Filosofía de la mente
Etiquetas:, ,

Imagen_2

Sigo leyendo y leyendo y por todos lados no hago más que encontrar un entusiasmo desbocado hacia las promesas de la Inteligencia Artificial.  Muchísimos investigadores siguen asumiendo acríticamente las tesis de la IA fuerte, a saber, la posibilidad de crear en un plazo muy corto de tiempo una mente mecánica, en principio idéntica, pero inmediatamente después superior a la humana. A esta idea la acompañan felizmente ocurrencias como la del mind uploading (poder descargar nuestra mente en una memoria electrónica), la de que vivimos en una simulación informática del tipo Matrix,  o la grave preocupación acerca de qué harán con la humanidad estos emergentes seres superiores cuando lleguen: ¿nos exterminarán al vernos como una amenaza o nos dejarán como mascotas? Si uno estudia detenidamente los logros reales de la ingeniería computacional de los últimos años comprueba con mucha facilidad que tal entusiasmo o temor son absolutamente infundados. No quiero ser el clásico pensador conservador vilipendiado por la historia que niega grandes avances de la ciencia. Nada más lejos de mi intención pasar por un Belarmino o un Wilberforce, pero considero que es mi deber intelectual sacar la falsedad a la luz. Que conste que a nadie le gustaría más que a mí que tales promesas fueran ciertas y posibles: he fantaseado miles de veces con hablar de metafísica mientras juego al ajedrez con HAL 9000.

Vamos a exponer en siete puntos las críticas que se pueden plantear a estas fantasiosas ideas:

1. Se hace demasiado hincapié en el rápido aumento de la capacidad de computación. Constantemente leemos noticias en las que se nos presenta un nuevo transistor del tamaño de una millonésima de millonésima de algo, capaz de realizar tropecientos millones de millones de operaciones por milisegundo. Estos avances están muy bien y, seguramente, son condiciones de posibilidad para crear una mente electrónica que iguale la capacidad de computo de la mente humana, pero con ellos se olvida que mucho más importante que poder calcular cantidades infinitas es saber qué pretendemos calcular con ello. Vale, tenemos un supercomputador impresionante pero, ¿qué hacemos con él?. ¿Cómo emulamos el hecho de que yo recuerde con nostalgia a mi abuela con millones de cómputos por milisegundo? Esta es la cuestión, y para ella no hay todavía respuesta alguna.

2. Estamos lejísimos de comprender el funcionamiento biológico del cerebro. Vamos sabiendo cada vez más cosas de la química neuronal pero todavía estamos a años luz de saber bien cómo funciona. Lo he dicho en muchas ocasiones: tenemos más de cien mil millones de neuronas altamente interconectadas que se comunican entre sí por impulsos eléctricos y químicos. Pues bien, si solo somos eso, no somos lo suficiente. Si solo somos flujo de información, no somos nada. La información sirve para hacer cosas, para activar procesos. Seguramente que necesito información que viaje por mis neuronas para crear la imagen de un tigre en mi mente, pero, aparte de esa información, necesito procesos físico-químicos que generen el miedo que siento ante la visión del tigre, y eso no es solo información, es un hecho físico. Y no tenemos ni la más remota idea de cómo un conjunto de redes neuronales genera un sentimiento, ni la más remota: ¿por qué entonces este entusiasmo en que vamos a conseguir copiar la mente en unos pocos años?

3. Una computadora o, un sistema universal de símbolos en términos de Herbert Simon, es únicamente eso: un sistema que transforma unos símbolos en otros según unas determinadas reglas. ¿Por qué presuponemos que un sistema que transforma símbolos va a ser capaz de realizar ciertos procesos físico-químicos como pueden ser los sentimientos? Yo puedo hacer un programa de ordenador que simule bastante bien el funcionamiento de las glándulas mamarias de una vaca, pero, ¿me dará ese ordenador leche? No, porque la tesis de la independencia de sustrato que muchos ingenieros sostienen ingenuamente no es plenamente cierta. Es posible que podamos construir una máquina de Turing en una cantidad muy amplia de sustratos físicos, pero es que una máquina de Turing solo puede calcular, no dar leche. O dicho de otro modo más claro: a lo mejor, es posible que algún tipo de neurotransmisor o de sustancia química del cerebro tenga una gran relación con los estados mentales. Por ejemplo, es posible que la dopamina, la adrenalina o el glutamato tengan que ver con lo que siento o pienso cuando siento o pienso. Estos compuestos tienen unas propiedades químicas únicas que es posible que sean imposibles de emular a no ser por otros compuestos muy similares. ¿Qué razones hay para pensar que un transistor de silicio puede hacer lo mismo que una molécula de serotonina? Seguramente que el pensamiento humano dependa mucho de las propiedades químicas de los componentes del cerebro, propiedades éstas de las que carecen por completo los componentes electrónicos de un ordenador. La independencia de sustrato podrá cumplirse para realizar todo tipo de cálculos, pero no para generar propiedades físicas. Para hacer fuego, necesito madera o algún elemento combustible; para hacer una mente, necesito algo que se parezca físicamente mucho a un cerebro.

4. Clarifiquemos en el siguiente esquema la confusión habitual:

ConfusiónIA

Los ingenieros de IA tienden a confundir el funcionamiento de un ordenador con los resultados físicos del funcionamiento del cerebro. Suelen afirmar que cuando un ordenador computa (manipula símbolos) está pensando, cuando no hay razón alguna para considerarlo así. Es posible que el cerebro humano realice computaciones, pero eso no es tener un estado mental. Los estados mentales son, en cualquier caso, los resultados de las computaciones, no las computaciones mismas. De nuevo, si yo veo un tigre, es probable que mi cerebro haga computaciones que fluyan a través de los axones de mis neuronas, pero el miedo (el estado mental) y la acción de salir huyendo (mi conducta) no son computaciones, son sucesos físicos (sentir miedo un proceso, fundamentalmente, químico y huir, fundamentalmente, un proceso mecánico). Hay que tener en cuenta que las computaciones de mi cerebro suceden a nivel inconsciente, mientras que mis estados mentales son conscientes. Cuando yo hablo no pienso a nivel consiente que detrás del sujeto va el predicado o que antes de un sustantivo he de poner un artículo. Eso lo hace mi cerebro por mí y mi mente consciente solo tiene acceso al resultado. Precisamente, el resultado es lo que solemos entender por mente.

5. Una vía de investigación algo más interesante es lo que se ha llamado programa conexionista y del que Pentti Haikonen es hoy uno de sus más célebres representantes. El plan es que en vez de intentar diseñar un maravilloso software capaz pensar, sentir y ser consciente de sí, mejor empezar por debajo: intentemos emular mecánicamente los elementos físicos del sistema nervioso, comenzando por los más simples, y sigamos avanzando hacia arriba a ver lo que pasa. Creo que es el camino correcto, pero dados los frutos que ha conseguido hoy en día, que son notables pero que van despacito, no es justificado ningún tipo de optimismo acerca tener a HAL 9000 en las próximas décadas.

6. La humanidad ha tendido históricamente a comparar al ser humano con el último avance tecnológico del momento. Se ha pensado que el cerebro era un sistema hidráulico o una centralita telefónica, y ahora pensamos que el cerebro es un ordenador cuando, insistimos, no hay evidencia disponible para sustentar tal afirmación de un modo completo. Yo pienso que el cerebro tiene componentes cuyo funcionamiento es similar al de un computador, pero nos falta mucho para que la metáfora sea perfecta. Quizá, en un futuro, sea posible fabricar computadores que se asemejen más, pero los actuales no son, ni de lejos, similares a la mente.

7. A la Inteligencia Artificial le ha ido mucho mejor cuando ha avanzado sin tener en mente el objetivo de simular al ser humano, que cuando lo ha tenido. El ordenador personal que utilizo para escribir ahora mismo es un instrumento maravilloso. Me sirve para reproducir música, vídeo, hacer operaciones matemáticas complejas, editar fotografías, etc. Que yo sepa, ningún humano tiene esas cualidades y, sin embargo, son fabulosas. Mi ordenador se fabricó sin la intención de ser un humano y así funciona maravillosamente bien. Quizá la Inteligencia Artificial deba seguir su camino sin la obsesión de emular al humano. Es más, quizá así será cuando consiga cosas incluso mucho mejores que un sapiens.

Anuncios
comentarios
  1. gharghi dice:

    Hace unos años leí algo acerca de biochips… ¿no sería el camino para simular cerebros?

  2. Linnk dice:

    Me tocará ser el abogado del diablo porque, aunque puntos muy buenos, otros no tanto. Aclaro, de filosofía no se mucho, pero de Inteligencia Artificial se algo; fue mi especialidad en la universidad y me dedico parcialmente a ello. Aclaro que tampoco creo que estamos a la vuelta de la esquina de tener «Inteligencia Humana Artificial», pero igual me gustaría aclarar algunas cosas. Dicho lo anterior, vamos por puntos:

    1. Este punto que mencionas es correcto. El aumento de “capacidad de computación” exponencial está llegando a su fin. Hay un límite para miniaturizar un transistor y lo estamos alcanzando.

    2. Al final cualquier proceso físico-químico tiene inferencia en la red de información neuronal (aquí es donde empezamos a diferir), de lo contrario no tendrías eso que llamas «sentimientos». Tener sentimientos, en otras palabras «sentir» (sí, sentir, no estoy confundiendo significados) es ingresar información al «sistema mental» (por llamarle de un modo). Esa inferencia es computable, pues ni que fuera metafísico. El resultado de dicha computación que puede ser por ejemplo «nostalgia», es lo que denominamos abstracto.

    3. Estás reduciendo al absurdo con la comparación del transistor de silicio y la molécula de adrenalina. ¡Por supuesto que no son lo mismo! Un neuroreceptor por sí sólo tampoco tiene sentimientos, es la suma de los componentes lo que hace al significante. La regla es muy sencilla, si algo tiene «propiedades físicas», es computable. No sabemos cómo funciona el proceso físico-químico, pero podemos reconstruir sus disparadores y sus inferencias.

    4. Me da la impresión de que estás mistificando mucho los estados mentales. En parte es entendible, pues es cierto que aun no los comprendemos en su totalidad, pero estás a un paso antes de topar con el “perímetro de la ignorancia” que menciona Neil deGrasse Tyson. «Sentir» es ingresar información y la computamos tan bien que nos produce inferencias mentales. Cierto es que aun no lo comprendemos del todo, pero lo mistificas y es como cerrar directamente la puerta.

    5. 6. y 7. Estoy totalmente de acuerdo. De hecho por eso hice un hincapié al principio sobre la «Inteligencia Humana Artificial». Al menos del lado industrial esto está descartado. Por ejemplo, un agente de Big Data no pretende encontrar patrones como lo haría un humano, al contrario, pretende ser mejor. Y no es muy difícil, por la sencilla razón de que en realidad nosotros somos muy malos para ese tipo de tareas no-humanas. Aquí es donde podría empezar otro debate: ¿Que sea no-humano ya no lo hace «inteligente»? ¿La única inteligencia es la humana?

    Hablando personalmente, creo que la inteligencia humana está sobrevalorada. 🙂

    Saludos de un apasionado al tema.

  3. Sabemos de sobra que la “inteligencia natural” (o sea, la humana) no consiste en una mera “manipulación de información”, sino que es el resultado de un montón de procesos cerebrales en los que las emociones desempeñan un papel fundamental, por no hablar de la distinción entre pensamiento lógico-discursivo y pensamiento intuitivo-heurístico, ambos con diferentes relaciones con la parte emocional. No podemos pensar bien si no sentimos bien. Creo que es un error de quienes se dedican a la “inteligencia artificial” no haber prestado suficiente (por decir algo) atención a esta peculiaridad de nuestras capacidades cognitivas. Mientras no avancemos en la construcción de una máquina que tenga emociones, no creo que vayamos por el buen camino para crear “máquinas (auténticamente) inteligentes”.

  4. pharmakoi dice:

    Yo pienso que aún estamos lejos de simular el comportamiento humano (lo que pasaría en última instancia por construir cyborgs indistinguibles de nosotros; y aún vendría chalmers a decir que son zombis).

    Pero también coincido con lo que dice Linnk, sentir y tener emociones es también procesar información. Esto a mi parecer no lo niega Santiago,, ya que afirma que el conexionismo asume estas cuestiones (al menos en parte). También Jesús comenta sobre la diferencia entre pensamiento lógico-discursivo y heurístico-intuitivo (antes se había diferenciado entre consciente o mental, e inconsciente). Esto se asemeja al debate representacional vs no-representacional o simbólico vs subsimbólico en psicología cognitiva.

    No se, quizá sea un problema en el lenguaje o de niveles de análisis, La experiencia humana se puede representar de muy diversas maneras. De todas formas que el nivel de análisis del conexionismo use un lenguaje más alejado del lenguaje natural, no quiere decir que lo que representa sea más inconsciente o más emocional. Esto tiene que ver más bien con las estructuras implicadas, el sistema límbico se suele relacionar con las emociones y el pensamiento intuitivo, y las regiones corticales con el procesamiento discursivo y consciente.

  5. pharmakoi dice:

    Lo que también es cierto es que emocional no significa irracional. Es bien sabido que cuando aprendemos algo, al principio aplicamos un procesamiento consciente o secuencial, y utilizamos más áreas corticales para ello. Pero estas acciones posteriormente se procesan de un modo más intuitivo y automático dejando “espacio” a otros procesos conscientes. Además los expertos en un tema enfocan los problemas de manera diferente y no siguen los mismos tipos de razonamiento.

  6. Es cierto que todo lo que hace el cerebro es “procesar información”, tanto lo que hace al generar pensamientos, como al generar emociones, o como al generar un movimiento reflejo. Pero también es cierto que todo lo que hace el cerebro es “llevar materia y energía de un lado a otro”. O también lo que hace un río es “procesar información”. El caso es que la “inteligencia artificial” está (si no me equivoco) completamente a ciegas acerca de la cuestión de qué tipos de “procesamiento de la información” constituyen esa cosa tan singular que llamamos “experimentar emociones”.

  7. Solrac dice:

    La inteligencia artificial es solo una herramienta como lo es un martillo. No le veo utilidad económica a programarle (si eso fuera posible) a un computador el instinto de supervivencia, y las emociones y reacciones evolucionadas por los humanos (como a HAL9000). La utilidad de la inteligencia artificial es solo procesar cantidades enormes de información y darnos una respuesta para nuestros fines, no los del propio software o los del computador. Para qué convendría tener un piloto automático que filosofe dilemas éticos entre sus intereses y los míos?

    Tener softwares con la capacidad de programarse a sí mismo, o mejorar automáticamente rutinas de su propio programa para evolucionar (ante circunstancias no programadas originalmente por nosotros) hacia la máxima eficiencia intelectual, es decir tener aprendizaje y limitada sabiduría, también es útil solamente como un medio, siempre que los fines sean nuestros propios intereses.

  8. Soriac: no hablo necesariamente de utilidad práctica, sino de mera curiosidad científica y tecnológica, por el reto de fabricar un cacharro que tenga emociones y realmente piense de manera parecida a la nuestra.

  9. Solrac dice:

    Lo de sensar y emocionarse lo veo relativamente fácil; ahora lo de pensar como un humano sí es difícil porque implica todo lo que es ser humano: una historia, unas relaciones sociales, prioridades determinadas por el instinto de supervivencia, memoria emocional individual, experiencia; va mucho más allá de poseer diferentes tipos de razonamientos lógico intuitivo, inductivo e deductivo. No creo que la actual tecnología de procesamiento secuencial binario y memoria a base de transistores de silicio pueda manejar las cantidades de procesos simultáneos e informaciones cruzadas que supuestamente se dan en el cerebro biológico.

  10. Solrac, si lo de que una máquina se emocione lo ves fácil, te ruego que derrames sobre mí alguna explicación de cómo se podría lograr. Ojo, no me refiero a “actuar COMO SI se tuvieran emociones”, sino a TENERLAS, es decir, a que la máquina las SIENTA, con independencia de si le apetece manifestárnoslas o no.

  11. Linnk:

    Es que hay que hacer una distinción crucial que pareces no tener en cuenta:

    Representación, modelo: tenemos los patrones matemáticos o la descripción de cómo se comporta algo y lo podemos simular en un computador.

    Fenómeno natural: hecho real con unas determinadas propiedades físicas.

    Nosotros podríamos llegar a tener una representación muy buena de un sentimiento y la podríamos simular en el ordenador. Sin embargo, el ordenador no tendría sentimiento alguno. Un ejemplo muy tonto: yo puedo compilar un sencillísimo programa cuya función es que cada vez que pulso la tecla “d” del teclado, en el monitor aparece la expresión “¡ay!”. Evidentemente eso no es sentir dolor.

    Creo firmemente que los estados mentales dependen mucho de las propiedades físicas del cerebro. Puse el ejemplo de los neurotransmisores para ilustrar bien eso. Si un sentimiento tiene mucho que ver con las propiedades químicas de la serotonina, podremos copiar el patrón de comportamiento de esa molécula en el ordenador, pero esa copia no tendrá realmente las propiedades químicas de la serotonina. Lo repito: un modelo matemático de una vaca no da realmente leche.

    Y no, no estoy mistificando los estados mentales. Es más, estoy hablando de ellos en términos del más simple materialismo reduccionista. Los estados mentales son fenómenos naturales como pueden ser la fotosíntesis o la homeostasis celular. Lo que quiero dejar claro es que estamos lejísisimos de comprenderlos a día de hoy. Seguramente que en el futuro sabremos más, pero a día de hoy cero patatero.

  12. Masgúel:

    De metafísica, lo que es de metafísica no habla con la pobre computadora 😀

  13. Masgüel dice:

    “estoy hablando de ellos en términos del más simple materialismo reduccionista. Los estados mentales son fenómenos naturales como pueden ser la fotosíntesis o la homeostasis celular.”

    En términos del más simple materialismo reduccionista no explicas los estados mentales, la fotosíntesis ni el metabolismo celular.

  14. Santiago
    Me suena bien la idea de que los procesos mentales (no sólo las emociones) pueden depender de la “materia” con que se llevan a cabo (aunque, al fin y al cabo, las diferencias entre una materia y otra son diferencias formales), pero “artificial” no significa necesariamente “digital”. Al fin y al cabo, otros bichos en otros planetas, con una bioquímica distinta de la nuestra, tal vez también tengan algo que no nos quedara más remedio que considerar emociones o sensaciones.
    .
    Masgüel:
    la explicación está muy sobrevalorada.

  15. Estimados:

    El principal problema para abordar la inteligencia artificial fuerte radica justamente en los limites implícitos en el paradigma del procesamiento de información, que es la base de lo que los computadores efectivamente hacen, y muy bien. Sin embargo la capacidad de cómputo, tal como está fórmula plantea, ignora que la información en un sistema biológico tiene un valor y sentido sistémico específico.

    El paradigma computacional o de la capacidad de cómputo no requiere y por lo tanto no se hace cargo del origen de la información, simplemente asume que ésta existe como un hecho independiente de los propios sistemas de computo.

    Por otra parte, se sobre entiende y asume (porque no queda otra) que el hecho de sentir o tener emociones condiciona el sentido de los procesos computacionales y por lo tanto son imposibles de replicar por un sistema mecánico que no pueda generar estos estados cerebrales.

    La cuestión puede resolverse satisfactoriamente haciendo un cambio en el paradigma, es decir, asumiendo lo que los fríos hechos han demostrado una y otra vez, y esto es, que las sensaciones y emociones constituyen la base de la información, que es la que permite, por ejemplo, que un bebé pequeño genere sus recuerdos, los que posteriormente utilizará.

    Esto implica que es el propio organismo el que genera la información (no solo un procesador), y que el procesamiento está directamente relacionado con el valor de significación orgánica de esta información.

    Vistas así las cosas, los algoritmos en que se basa el cómputo deben, para empezar a alcanzar la inteligencia artificial fuerte, simular el valor sistémico (o conductual) de lo que llamamos estados cerebrales. Así pues el miedo, por ejemplo, representa conductas de rechazo.

  16. Masgüel:

    Estoy de acuerdo (ya sabes que no soy ni siquiera materialista). Solo lo he hecho por mor de la argumentación, para que el lector no pueda sospechar que albergo algún tipo de “vitalismo” o de “espiritualismo” o que me estoy saliendo del stablishment cientificista más ortodoxo.

  17. Jesús:

    No estoy diciendo que para generar estados mentales tengamos necesariamente que utilizar exactamente los mismos elementos que componen un cerebro humano. Solo digo que necesitamos elementos que tengan similares propiedades. Por ejemplo, si queremos hacer una casa, no solo podemos construirla con ladrillos, pero sí que necesitamos cosas que tengan, por ejemplo, la propiedad de la “solidez” para que la casa no se nos venga abajo. A lo mejor podemos generar consciencia sin la química del carbono, pero, con la “química del silicio” desde luego, no tenemos ni idea de cómo hacerlo.

  18. Masgüel dice:

    Y tanto. Todo apunta a que en breve solucionaremos muchos problemas mediante algoritmos evolutivos que no seremos capaces de entender. Ya se hace. ¿Cuál es la forma más eficiente para un parámetro cualquiera de una pieza industrial de precisión?. Pon a evolucionar una simulación, métele ruido y lo que salga, a la impresora, aunque parezca un gusano reventao.

    Pero eso no quita para que, lo que sí queramos comprender, tengamos que ponernos a intentar explicarlo. Y el más simple materialismo reduccionista se convierte en un obstáculo para explicar los fenómenos naturales cuando se empeña en negar poder causal a la organización de nuevas estructuras macroscópicas y a las nuevas relaciones funcionales que se establecen entre ellas. Describir el proceso de la fotosíntesis a nivel molecular no explica el fenómeno natural si no se explica además qué es una función biológica. Que un murciélago sienta lo que solo se siente siendo un murciélago, es lo que le hace falta para sobrevivir. Que el significado de las palabras no sea algo material sobre lo que podamos poner el dedo, no impide que los juegos lingüísticos organicen efectivamente nuestra conducta.

  19. Totalmente de acuerdo, Santiago

  20. Masgüel dice:

    Perdón. El “y tanto” era para la explicación sobrevalorada.

  21. Masgüel,
    no sé lo que entiendes por “materialismo reduccionista simple”. El materialismo reduccionista ilustrado no “niega poder causal a las estructuras organizativas”. Más bien niega poder causal a todo (sólo importan las regularidades; “causa” es un concepto metafísico que a veces ilumina, pero a menudo confunde), y asume el principio de superveniencia (dos sistemas idénticos en lo micro son también idénticos en lo macro). Si sobre lo macro sólo podemos encontrar regularidades, sin poderlas conectar de absolutamente ningún modo con regularidades micro, pues diremos que tenemos un hecho empírico del que no tenemos aún explicación; no diremos que hemos encontrado una “explicación macro”. Pero, como decía arriba, la “explicación” está muy sobrevalorada: es un concepto demasiado subjetivo como para que importe mucho en la ciencia.
    De hecho, una vez se me ocurrió hacer una búsqueda en “Nature” para buscar artículos que contuvieran “lenguaje explicativo”, y me salía un número despreciable. Si los científicos intentan “explicar”, no parece que les interese ponerlo muy a la vista.

  22. Masgüel dice:

    Lo del más simple lo he parafraseado de Santiago.

    “Si sobre lo macro sólo podemos encontrar regularidades, sin poderlas conectar de absolutamente ningún modo con regularidades micro, pues diremos que tenemos un hecho empírico del que no tenemos aún explicación; no diremos que hemos encontrado una “explicación macro”.”

    Ese “podelas conectar” es muy ambíguo. Si las regularidades macro no se deducen de las regularidades micro. Si la estructura o dinámica organizativa resulta de un proceso histórico no determinado por, solo compatible con, las regularidades micro, la explicación del fenómeno natural habrá de ser macro, digo yo.

  23. Masgüel dice:

    No lo he parafraseado. Lo he copiado. Debería asegurarme de entender una palabra antes de usarla.

  24. Masgüel

    Dices “Si las regularidades macro no se deducen de las regularidades micro”… Bueno, eso es lo que estaba asumiendo en mi ejemplo, que no podemos “conectar” (en sentido de deducir) las regularidades macro a partir de las micro. Pero luego dices ” Si la estructura o dinámica organizativa resulta de un proceso histórico…”, y el problema lo veo en ese “resulta”. Si lo que quieres decir es que la estructura macro “resulta-en-el-sentido-de-que-se-deduce” del proceso histórico, pues creo que en general será una “deducción” vacua, pues el “proceso histórico” no es más que la suma de cada uno de los estados de su estructura. Más bien describimos el proceso histórico como la serie de estados de la estructura macro, no “deducimos” ésta a partir de aquel.
    en cambio, si lo que quieres decir es que la estructura macro “resulta-en-el-sentido-de-que-es-el-efecto-causal” del proceso histórico, eso es trivial, pero también es trivial que es el resultado causal del estado micro que la estructura tenía en los momentos anteriores. Proceso no hay más que uno, y la diferencia macro-micro es una diferencia en nuestra descripción de él. Es obvio que, si hay causalidad, la estructura está causada por cómo era antes, pero el problema es que, ni a nivel macro ni a nivel micro, sabemos a menudo cómo inferir esa estructura a partir de regularidades que no sean un mero resumen de lo que sabemos a nivel macro.

  25. Solrac dice:

    Jesús, una máquina no se va a emocionar jamás como un ser viviente, porque la emoción implica una serie de mecanismos biológicos casi imposibles de replicar con metal y cables, por decir alguna tecnología física. La informática de las emociones sí se puede replicar, pero sería solo de la forma que llamas COMO SI, o sea simples reacciones programadas a algo posible para una máquina; porque las emociones biológicas (deseo de placer y vivir, miedo al dolor y a morir, etc.) están ligadas al instinto o necesidad de supervivencia, que no estamos seguros si solamente es exclusivo de los sistemas bioquímicos y no es transferible a los físicos. Y eso que ni siquiera hemos tocado el tema de que una máquina adquiera conciencia de sí misma, que es informáticamente más complejo que una emoción.

    No creas que pienso que crearemos a Pinocho algún día.

  26. Solrac
    supongo que dentro de unos siglos o milenios, nuestra limitación de “crear máquinas con cables y metal” les parecerá tan primitiva como a nosotros la tecnología de la edad de piedra.
    En todo caso, tampoco me parece un tema tan difícil el de averiguar qué carajo es lo que pasa en las neuronas y sus interconexiones que conduce a que nos emocionemos, en vez de a que pensemos que 2 y 2 son cuatro (que tampoco es un tema sencillo).

  27. Masgüel dice:

    “también es trivial que es el resultado causal del estado micro que la estructura tenía en los momentos anteriores.”

    ¿Qué explica la diferencia?. Esa es la pregunta cabal para introducir las causas en una explicación, sin ponerse metafísico. ¿Qué explica la situación en el tablero de una pieza de ajedrez?. ¿Las propiedades de los átomos del jugador o su función en la organización biológica y cultural que posibilita el juego?.

  28. Masgüel

    Insisto, “explicar” está muy sobrevalorado. Dejémoslo en “poder decir alguna cosa interesante sobre X”. Obviamente, podemos decir muchas cosas interesantes sobre el ajedrez sin entrar en la estructura neurológica de los jugadores.

  29. Masgüel dice:

    Me vale. Pero si lo interesante a decir respecto a un fenómeno natural, además de las regularidades microfísicas que suponemos universales, es la dinámica organizativa que lo disntingue de los demás, el naturalismo no es materialismo reduccionista.

  30. Masgüel

    Es reduccionismo ontológico (o sea, superveniencia), no reduccionismo epistemológico (que ya sabes que no defiendo, ni creo que nadie sensato defienda)

  31. Masgüel dice:

    Siempre que por reduccionismo ontológico no queramos colar un eliminativismo o epifenomenalismo ontológico, también me vale.

  32. pharmakoi dice:

    Jesús, sobre descripción y explicación te remito aquí y aquí. Son entradas tuyas, aunque no se si lo has dicho antes más o menos, la explicación vendría a ser la descripción de lo que viene antes de la descripción. Vamos, que explicar sería extender la descripción y añadir más regularidades.

    En cuanto a la polémica sobre el reduccionismo, coincido con lo que decís (al menos por lo que entiendo) aunque tampoco descarto el reduccionismo epistemológico, siempre que no sea eliminativista. Este tema me recuerda a la configuración de las redes neuronales, la capa más superficial tiene un mayor número de unidades, y el número de unidades en las capas ocultas va disminuyendo, ya que en cada nivel aumenta la abstracción que se hace de los datos. Pero para que la red pueda funcionar son necesarias todos los tipos de neuronas (o conceptos en mi metáfora) y sus interacciones.

  33. pharmakoi dice:

    No se ha publicado mi anterior comentario, ya saldrá. Iba a matizar porque lo de las redes neuronales no está muy bien descrito. Matemáticamente tiene que ver con reducir la dimensionalidad de los datos, está relacionado con el análisis factorial o de componentes principales.Según decían por ahí (un tal hinton) entrenar una red mediante aprendizaje no supervisado (sin feedback supongo que significa esto) es como realizar un ACP no lineal y servía para calcular los pesos de las unidades ocultas o algo así, pero todo el aspecto matemático no lo termino de entender.

    Pués eso, el caso es que las RN no siempre tienen porqué tener menos unidades en cada capa ni na de eso me parece, pero la idea tiene sentido al menos matemáticamente.

  34. A ver Santiago, comprendo tus reservas con el triunfalismo de la IA, pero me temo que fuerzas un poco los razonamientos para llegar a la conclusión que tú quieres, y mezclas unas cosas con otras.

    Tu argumento principal es que para crear un cerebro, hace falta la materia y las propiedades físicas de un cerebro, y esto es un poco perogrullada en sí mismo, pero tal vez es que no se trata de fabricar un cerebro, si no de fabricar algo que nos sirva como un cerebro, que tenga sus mismas funciones. Y para eso no tengo tan claro que hagan falta los mismos materiales que usa un cerebro, de la misma manera que para crear una máquina que vuele no nos hacen falta ni músculos, ni huesos ni plumas, y es más, con otros materiales y otros planteamientos, como he dicho aquí en muchas ocasiones, se consigue más eficiencia que con el diseño de los pájaros.

    Haces la comparación de que se puede simular a una vaca en un ordenador, pero que esta simulación no producirá leche. Bueno, creo que esta comparación es injusta, porque para cada fin que queramos conseguir, tendremos que diseñar una respuesta tecnológica adecuada, es más, esto mismo lo hace la naturaleza con la evolución: un animal para andar no usa cerebros, sino que usa huesos y músculos. De la misma manera, un ordenador es una máquina para simular y calcular, por lo cual no se le puede pedir que produzca leche, sería injusto, no existe una “máquina universal” (no en el sentido de Turing) que lo haga todo. Ahora bien, si nos planteamos que queremos construir una máquina que produzca leche, podemos diseñarla, reproduciendo un sistema digestivo, etc…no a base de chips y circuitos integrados.

    Precisamente por eso, intentamos simular el cerebro con ordenadores, porque por ahora, es la solución tecnológica que más se adecua a lo que queremos conseguir, lo cual no quiere decir que sea la que finalmente produzca el resultado que queremos. De hecho, ya hay intentos de modificar el diseño de los ordenadores para adaptarlos al funcionamiento del cerebro. Como siempre digo, yo no afirmo que la máquina que finalmente produzca pensamientos tenga que ser exactamente como los ordenadores actuales. Y una vez más apunto, que a menos que pensemos que el pensamiento es algo metafísico, existe la prueba de que hay objetos físicos capaces de pensar (por ejemplo los cerebros). Y si existe un objeto físico capaz de pensar, yo sinceramente pienso que ese funcionamiento puede ser reproducido por una máquina, lo mismo que hay máquinas capaces de reproducir otros aspectos y comportamientos de los animales: volar, desplazarse, emitir sonidos, realizar tareas sencillas… Y si se puede reproducir ese funcionamiento, se puede mejorar respecto del original, de la misma manera que los aviones en algunos aspectos vuelan mejor que los pájaros. De hecho, entre los mismos humanos, ya hay cerebros que funcionan mejor que otros, con lo cual se trataría de implementar esas mejoras en las máquinas capaces de pensar.

    Respecto a lo de las emociones, tampoco me parece que sea algo especialmente difícil de reproducir, puesto que solo se trata de un sistema que recompensa o penaliza los comportamientos en la medida que son favorables o no a los fines evolutivos para los que se diseñaron, otra cosa es si implementar esas emociones es conveniente o no, puesto que en más de una ocasión las emociones son o bien irrelevantes (¿hace falta emocionarse para solucionar un problema de física?) o bien contraproducentes (¿queremos que las máquinas se “peleen” entre ellas o se pongan nerviosas cuando se sientan intimidadas o amenazadas de alguna manera?). Es posible que se pudiera diseñar un sistema de incentivos y penalizaciones más adecuado que las emociones específicamente creado para las máquinas y sus/nuestras necesidades.

    En fin, no me extiendo más, creo que mi postura ha quedado clara.

    Saludos.

  35. Antonio: muy buena comparación, la de la leche.
    La pregunta del millón es: ¿experimentar una emoción (y realizar los procesos cognitivos que en el caso de los humanos dependen de eso) es como multiplicar dos números, o es como segregar leche?

  36. Masgüel dice:

    Y la pregunta del medio millón es: ¿Lo que hace una computadora es multiplicar dos números o un proceso electrónico que solo un cerebro puede interpretar como la multiplicación de dos números?.

  37. Pero es que no tiene que ser ni como una cosa ni como la otra, es más, el ordenador no solo multiplica números, sino que además hace más cosas, intentar reducirlo a eso me parece absurdo.

    Sería como preguntarse si es lo mismo volar con músculos, huesos y plumas que con metal, o como preguntarse si el avión siente lo mismo que el pájaro cuando vuela. El avión se diseña para transportar a los pasajeros por el aire, no para que el avión tenga los mismos sentimientos que el pájaro al volar.

    De la misma manera, los ordenadores realizan ciertas tareas que los humanos también realizan, pero para ello no tienen por que sentir lo mismo que el humano cuando las lleva a cabo. Por ejemplo, los ordenadores mediante hardware y software son capaces de reconocer rostros, pero no tienen que sentir lo mismo que los humanos cuando reconocemos uno, simplemente nos basta con que lo hagan con precisión y como esperamos que lo hagan.

    Puede que los sentimientos y las emociones sean relevantes para ciertas tareas, por ejemplo si queremos que un ordenador componga una sinfonía o escriba un poema. O lo mismo ni para eso, porque me consta que los ordenadores ya lo hacen, y entiendo que sin sentimientos. Pero para otras cosas los sentimientos no son relevantes, como decía antes. Las emociones son importantes para nosotros porque tenemos que sobrevivir, alimentarnos, procurarnos seguridad, reproducirnos, pero puede que no lo sean tanto para otra clase de tareas que queremos que haga una máquina. Aunque como decía antes, tampoco veo imposible que procesos parecidos a las emociones se implementen en una máquina adaptados a las tareas que queramos asignarle a la máquina, que al fin y al cabo, es de lo que se trata.

    Es que me da la sensación de que algunos queréis llegar a la cuestión de si una máquina puede sentir como un humano, pensar como un humano, hacer lo que hace un humano, y parecer como un humano, pero para eso, ya tenemos al humano, y puede que no se trate de eso siquiera. Lo que queremos es una máquina que realice las operaciones mentales de un humano, que piense como un humano, que resuelva los problemas que resuelve un cerebro humano, pero tal vez no necesitamos que “sienta” o se emocione como un humano, o que lo viva como un humano. No necesitamos que la máquina sienta ganas de orinar o que tenga gases para que nos resuelva los problemas que queremos encomendarle. Fijaos además que ni siquiera entre humanos pasa eso, es decir, ante un mismo estímulo o problema un humano sentirá una cosa, y otro otra completamente diferente, y en última instancia, tampoco puedes estar seguro de que el humano que tienes enfrente sienta las cosas de la misma manera que tú.

  38. Masgüel dice:

    “Lo que queremos es una máquina que realice las operaciones mentales de un humano, que piense como un humano, que resuelva los problemas que resuelve un cerebro humano”

    Que una máquina resuelva los mismos problemas que un cerebro humano es una cosa y que piense o realice operaciones mentales es otra. Una computadora es un ábaco sofisticado.

  39. Pues es lo que estoy intentando decir, a mi si una máquina resuelve la teoría cuántico-gravitacional a su manera, aunque no lo haga “como un humano”, o sin “sentirlo” como un humano, o sin emocionarse, como que me da lo mismo.

  40. Ah…y por cierto…no estoy tan seguro de eso de que “una computadora es un ábaco sofisticado”. Aunque claro, depende del grado de sofisticación en el que estés pensando, o si la sofisticación te permite dar un salto cualitativo. Por ejemplo un ábaco no realiza operaciones condicionales, o booleanas, y no tiene el “juego de instrucciones” de un procesador moderno.

  41. Antonio
    Obviamente, depende de PARA QUÉ queramos construir una máquina que “piense”.

  42. Solrac dice:

    Creo que al crear una máquina que piense, esta al final pensará igual que su creador: hay que programarle un vocabulario y una gramática para comunicarse con otros y con su propia memoria; lógica para filosofar o hacerse preguntas; estrategias ante los problemas y opciones a escoger entre ellas (y puede que hasta un hábito y un temperamento); un paradigma vigente de dónde elaborar argumentos, y otros atajos lógicos para que cree ideologías y religión (no estoy seguro que se pueda evitar las falacias ni siquiera como estrategia de argumentación); métodos de aprendizaje, y de evolución y mejora con cada nuevo proceso de razonamiento realizado; y por supuesto una memoria que escoja qué se queda como útil a la experiencia y qué se desecha (ni siquiera he mencionado recuerdos emocionales); una ética para decidir ante dilemas éticos propios de humanos si se le presentan.

    Creo que esa máquina nos ganará como siempre jugando ajedrez, pero… terminará asociando, creando y teorizando mejor que nosotros? Para un alumno superar a un maestro necesita absorber toda su experiencia y experimentar otras nuevas que aumenten no solo la cantidad sino también la calidad estratégica y de valor involucrado.

  43. Me parece que no se entiende la verdadera naturaleza del problema.

    Recrear las operaciones que dan paso a la inteligencia artificial (humana) implica reproducir todos los procesos asociados con la generación de respuestas humanas, puesto que la adquisición de conocimiento o aprendizaje consiste precisamente en la memorización de esas respuestas.

    Pretender que el conocimiento puede ser independiente de las respuestas humanas, o meras abstracciones carentes de significación sensible, es exactamente lo que a dado paso a la creencia de que es posible reproducir solo una parte del sistema, aquella que se supone tiene la capacidad de computar datos al margen de cualquier intencionalidad.

    Las intenciones son fruto de la operación orgánica. El conocimiento se adquiere durante el transcurso de búsquedas que satisfagan requerimientos orgánicos, no mecánicos. Si buscamos construir un sistema que replique los propósitos de búsquedas humanas, debemos proveerle de intencionalidad, de lo contrario jamas hará algo por cuenta propia.

    La intencionalidad la provee en primera instancia la capacidad de reaccionar orgánicamente a la percepción sensorial con conductas como por ejemplo: agrado, gusto, placer, o bien, desagrado, temor, etc. Conductas que determinarán la continuidad o ejecución de nuevas búsquedas. Si el sistema artificial no siente la necesidad de moverse y dirigir sus pasos en la dirección que satisfaga algún requerimiento originalmente biológico, no irá a ninguna parte. Y si se programan de antemano sus acciones entonces no replicará un sistema orgánico, será nada más que un autómata, una calculadora o un computador.

    Una ser humano artificial, para que en verdad lo sea, deberá aprender exactamente igual que cualquier ser humano, puesto que el conocimiento solo tiene valor y coherencia cuando se adquiere por la vía de la experimentación sensible, del mismo modo que no basta con juntar todos los materiales para reproducir una bioprótesis, hay que relacionarlos mediante diferentes procesos de crecimiento celular. Luego lo artificial esta en la generación de las condiciones para lograr determinado crecimiento, no en el fundamento biológico en sí.

    En el caso de un ser humano artificial, el proceso de formación del conocimiento y las redes neuronales en que éste se sustenta, deben crearse siguiendo la misma lógica del proceso natural, aunque sus materiales sean otros.

    Por último, ¿para qué queremos seres humanos sintéticos? pues para que realicen operaciones que los de carne y hueso no podemos hacer, como por ejemplo, vivir cientos de años que les permitan viajar al cosmos y preparar la emigración humana.

  44. Masgüel dice:

    “Por último, ¿para qué queremos seres humanos sintéticos? pues para que realicen operaciones que los de carne y hueso no podemos hacer.”

    Quizá un ser humano sintético pueda vivir cientos de años y otras maravillas, pero seguirá siendo de carne y güeso. Porque solo hay dos maneras de crearlo. Una es sintetizando todo el metabolismo celular, tomando el actual como modelo. Ya lo están intentando con modelos bacterianos. La otra, mucho más sencilla, es tomar un cigoto y modificar su ADN. Intentar una célula sintética completa sigue mereciendo la pena, simplemente por toddo lo que se puede aprender durante el proceso. Conviene, sin embargo, moderar nuestro entusiasmo. Este artículo de Laura Nuño es el mejor argumento para la precaución que he leído hasta ahora:
    http://vientosur.info/IMG/pdf/VS131_L_Nun_o_Puede_ser_vida_objeto_ingenieria.pdf

  45. Antonio Bello:

    Creo que no me has entendido del todo bien porque estoy completamente de acuerdo con todo lo que dices (menos con respecto al interés en recrear un humano) y eso no quita un ápice de veracidad a mi crítica. El triunfalismo hacia la IA reside en pensar que en muy pocos años (unas décadas según Kurzweil o Moravec) tendremos máquinas que puedan realizar todas las funciones de un ser humano (incluido sentir o ser conscientes de sí mismas). Como tú mismo dices, con la estructura actual de los ordenadores, máquinas universales de Turing, no se puede hacer eso. Mi crítica tiene toda la vigencia: si actualmente la tecnología disponible, no puede, ¿qué razones hay para decir que podrán en muy poco tiempo?

    Es cierto que los cerebros son “sencillamente” unas máquinas biológicas capaces de pensar. ¿Qué razón hay para creer que no podremos hacer otras máquinas con idénticas funciones? Ninguna, pero ¿qué razón hay para pensar que con la actual tecnología, que en tan poco se parece a un cerebro, podamos construir cerebros en poco tiempo? Muy, muy poca. Realmente, no tenemos ni la más remota idea de cómo de un conjunto de redes neuronales surge una idea, un sentimiento o la consciencia de tenerlos. ¿Por qué entonces ese entusiasmo? Yo lo entendería si ya tuviéramos algo, si tuviéramos alguna máquina que pudiese sentir, por ejemplo, emociones o deseos simples, y el problema solo residiera en ir aumentando la complejidad. Pero no. El supercomputador Watson de IBM tiene la misma autoconsciencia que mi tostadora.

    Mi crítica no es injusta, lo que es injusto es el entusiasmo. Si no lo hubiera yo no tendría nada en contra de los excelentes trabajos en IA. El hecho de tener un ordenador en mi casa ya me parece de por sí algo grandioso. Ahora, mi ordenador no tiene nada, nada, nada, de HAL 9000.

    Con el tema del interés en recrear humanos si que difiero contigo. Recrear un ser humano significará que tenemos un grado de comprensión de su funcionamiento jamás conocido hasta la fecha. Si sabes crear un humano es que conoces perfectamente lo que es un humano. Y de eso se trata, ¿no?, de saber lo que somos. Supón que saber perfectamente como funciona el cerebro significará combatir con igual perfección todas las enfermedades mentales.

    Otra cosa es que a la IA le vaya bien yendo por otros lares (como ya he escrito en el punto 7 de la entrada).

  46. Masgüel dice:


    .

  47. pharmakoi dice:

    Parece que al único que no le salen los mensajes es a mí, era este, pero con links que no me voy a estar en poner (además ya de poco sirve porque está totalmente fuera de contexto).

    Jesús, sobre descripción y explicación te remito aquí y aquí. Son entradas tuyas, aunque no se si lo has dicho antes más o menos, la explicación vendría a ser la descripción de lo que viene antes de la descripción. Vamos, que explicar sería extender la descripción y añadir más regularidades.

    En cuanto a la polémica sobre el reduccionismo, coincido con lo que decís (al menos por lo que entiendo) aunque tampoco descarto el reduccionismo epistemológico, siempre que no sea eliminativista. Este tema me recuerda a la configuración de las redes neuronales, la capa más superficial tiene un mayor número de unidades, y el número de unidades en las capas ocultas va disminuyendo, ya que en cada nivel aumenta la abstracción que se hace de los datos. Pero para que la red pueda funcionar son necesarias todos los tipos de neuronas (o conceptos en mi metáfora) y sus interacciones.

  48. pharmakoi dice:

    Para resolver un problema de física sí es necesario emocionarse, para hacer cualquier cosa se tienen activar sistemas motivacionales. Si eso que tienes delante te produce una total indiferencia ni siquiera te moverías, de hecho no le prestarías atención ni te vendría a la mente.

    En cuanto a la IA, yo no veo tanto entusiasmo, gente como Geoffrey Hinton, uno de los mayores expertos en ANN (redes neuronales), saben para que sirven estos modelos y conocen sus limitaciones, Y no les he visto decir que piensen que estamos a un paso de replicar la cognición o la emoción humana ni nada parecido. Respecto al tipo de procesamiento de las computadoras actuales, no se si ese es el mayor problema. La GPU, por ejemplo, puede llevar a cabo muchas operaciones en paralelo.

    De todas formas, aunque replicásemos al ser humano no creo que eso implicase necesariamente un conocimiento tan profundo. No es lo mismo tener un conocimiento a priori sobre algo (por muy prefecto que sea) que estudiarlo empíricamente. El ingeniero o el mecánico no tienen porqué ser buenos pilotos. Cuando se hace un videojuego es necesario testearlo, y aún así te sigues encontrando con cosas inesperadas. Las propiedades emergentes hacen que usar varios niveles de análisis sea lo más eficaz, eliminar términos de una ciencia y pretender reducirlos a los de otra no funciona.

  49. Bueno, al menos yo no he sugerido que deba replicarse necesariamente al ser humano como sistema biológico alternativo, el cual obviamente tendría otro tipo de problemas y limitaciones biológicas. Lo que creo es que distintos algoritmos pueden simular las funciones relacionadas con las respuestas sensibles. Esto, como punto de partida a la construcción del conocimiento. Es decir, el computo no ya como procesamiento de datos independientes, sino como parte de la respuesta conductual. Después de todo toda conducta, y por lo tanto, manifestación del conocimiento, responde a la activación de algún requerimiento orgánico, expresado como condición sensible (psicológica dicen algunos), ya sea que ésta sea activada por el organismo, en el marco de sus procesos metabólicos o bien como reacción a la percepción sensorial. Dicho de otro modo, sin la activación de un mecanismo que genere “sensibilidad” o disposición a la búsqueda, no hay respuesta conductual y por supuesto tampoco movimiento.

    La cuestión es que todo es programable, el chiste está en los tipos y funciones de los algoritmos.

    Si por un momento imaginamos que podemos ver desde afuera a los seres humanos, sin saber que son y porque hacen lo que hacen, lo único que apreciaríamos serían sus conductas y de ellas podríamos deducir como unas conductas dan lugar a otras. Hay coherencia en toda secuencia conductual. En cambio si un ser humano está en un estado tal que no puede manifestar absolutamente nada, por muy vivo que esté, estará como muerto. La vida “interior”, si no puede expresarse, es como si no existiera, porque no tiene ningún efecto.

  50. pharmakoi dice:

    Hay enfoques como la CEM (causal entropy maximization) o el free energy principle ,que basándose en ideas de la termodinámica y la mecánica estadística tratan de simular la intencionalidad o la disposición a la búsqueda, pero me parece que tampoco tienen mucho alcance por el momento. Aunque si han permitido replicar algunos procesos de modo coherente con lo que se sabía hasta el momento.

  51. Pharmakoi

    Siguiendo un poco en este orden de ideas, se pueden reducir mediante algoritmos los efectos reales de las sensaciones, como generadoras de conductas, a expresiones de acercamiento o alejamiento. En este sentido, las sensaciones que provoquen conductas de acercamiento, serán las que tengan valores de “gustos” positivos, y negativos los que induzcan conductas de alejamiento.

    La fijación de estos valores como conexiones sinápticas en las redes neuronales artificiales, constituirán la memoria. Puesto que al final toda conducta respecto de cualquier cosa no es más que el resultado de la aplicación de los recuerdos sobre los acercamientos y alejamientos que los diferentes objetos produjeron.

    Cada conducta o serie de conductas por muy compleja que sea puede expresarse matemáticamente como una suma vectorial, ello, teniendo presente que las conductas no son más que series de movimientos. La magnitud, la dirección y el sentido de cada vector resultante indicará las características de los acercamientos y alejamientos. Así pues el amor, desde el punto de vista conductual estará representado, en general, por una variedad de conductas de acercamiento y en menor cantidad, por algunas de alejamiento.

    Tal vez parezca de una simplificación exagerada, pero no los puede parecer porque nuestro sistema orgánico genera (automáticamente) un sentido a las conductas que nos induce a realizar. De lo contrario estas no tendrían ninguno. El hecho de que le atribuyamos, por ejemplo, al amor, un gran valor, significa que el sistema está cumpliendo su función, nada más. Ningún observador ajeno a los humanos sería capaz de ver algo más que conductas.

  52. pharmakoi dice:

    Estoy de acuerdo, aunque las conductas no implican necesariamente movimiento. Las conductas cognitivas (pensar, recordar, sentir, etc) se pueden representar de un modo simbólico (matemático o no), y generar modelos mediante los que deducir y contrastar hipótesis experimentalmente. Igualmente se suele hablar de “conductas” fisiológicas, que serían los correlatos fisiológicos de la conducta (por ejemplo, la intensidad de ciertas señales en el ECG).

  53. Pharmakoi

    En realidad, el pensamiento como yo lo entiendo, es el proceso de “búsqueda” (automática) al interior de la memoria (en las redes neuronales) de los recuerdos necesarios, o sus fragmentos, para satisfacer una búsqueda externa, ello, dadas ciertas condiciones perceptivas que sean coincidentes (al menos en parte) con las características de los recuerdos que se poseen. Luego, si bien del pensamiento finalmente se derivarán conductas (obvio), el pensamiento mismo equivaldría a un proceso estrictamente interno de evaluación del contenido de la memoria. El cual no requiere de la ejecución de conductas para ejecutarse.

    Si en la realidad observamos ciertas conductas durante el proceso de pensar (particularmente en la construcción de ideas), se debe a que los tramos parciales de los recuerdos encontrados, y activados durante la búsqueda de la solución, igual podrán ir desencadenando conductas. Puesto que todo recuerdo activado, está desde el inicio de su formación asociado con conductas, siendo algunas tan simples como enfocar la mirada.

    Es en este sentido que entiendo el correlato del que hablas, puesto que todo recuerdo está íntimamente asociado con conductas y o respuestas conductuales. Digamos que sería imposible bajarse de la cama si no recordamos como hacerlo. Así que el solo pensar en dirigirse al baño está asociado a un enorme conjunto de conductas ejecutadas con una secuencialidad estricta.

    Cuando uno va a un hotel tiene que mirar e incluso recorrer toda la habitación para saber donde está cada cosa en relación a las otras, solo así se puede formar un recuerdo funcional.

  54. Masgüel dice:

    El reduccionismo conductista hace agua por toas partes. Como todo entusiasmo teórico, tiene sus virtudes. La consciencia es una función biológica de los animales. Como dice Rodolfo Llinás, los animales son conscientes porque necesitan moverse. Los tropismos de las plantas son automatismos de atracción y evitación pero no generan consciencia. Porque el problema del reduccionismo conductista es que finalmente reduce la consciencia a epifenómeno. Con motivo evitas hablar de “psicología”. Lo que sea que ocurra en la caja negra será un automatismo y, si produce experiencia consciente, será ruido en la máquina. Esto hace décadas que no se sostiene. Los procesos cognitivos conscientes no son meros automatismos de búsqueda en un catálogo de conductas. Otro despropósito es pretender reducir la realidad a lo que se pueda medir que un reloj y un metro. Por exigencias del guión, se excluye cualquier realidad relativa a un observador, cualquier realidad subjetiva. Sin caer en la cuenta de que también la observación de la conducta ajena es subjetiva. No puede ser otra cosa. Y la pretensión de que toda conducta es programable también es una herencia mecanicista que se da de narices con la noción actual de los organismos como sistemas abiertos, no lineales.

    “si un ser humano está en un estado tal que no puede manifestar absolutamente nada, por muy vivo que esté, estará como muerto. La vida “interior”, si no puede expresarse, es como si no existiera, porque no tiene ningún efecto.”

    La vida “interior” de una piedra es cualitativamente muy distinta a la de cualquier enfermo con síndrome de enclaustramiento. En la diferencia entre existir y “como si no existir” cabe Brigadoon. “Unicorns and cannonballs. Palaces and piers. Trumpets, towers and tenements. Wide oceans full of tears. Flags, rags, ferryboats, scimitars and scarves. Every precious dream and vision underneath the stars.”

    https://www.youtube.com/watch?v=CecAbmELolY o cualquier conferencia de John Searle. Para descalcificar esas certezas.

  55. yack dice:

    Creo que es un error pensar que para construir una IA que nos supere, hace falta insuflarle sentimientos, emociones, deseos, conciencia o inyectarle sangre y proteínas para que se parezca a un cerebro humano. Todo sea para justificar el empecinamiento en que “esto no puede ser y además es imposible”. Y como último recurso: “pero ocurrirá dentro de mucho, muchiiiisimo tiempo” como si esto fuese un argumento relevante o sostenible más allá de la expresión de un temor, una esperanza o un deseo.

    Nuestro cerebro se conformó a partir de lo que estaba disponible en aquel momento (células y proteínas) y fue programado por la SN para resolver problemas de supervivencia competitiva dentro de un entorno muy complejo y peculiar. Y todo ello dentro de un ambiente muy restrictivo en recursos (alimento, espacio craneal, suministros de compuestos biológicamente vitales, etc.).

    La IA se desarrolla en otro ambiente radicalmente distinto y bajo otras directrices totalmente diferentes. No existen problemas de suministro, porque basta un cable eléctrico para proporcionarle toda la energía y nutrientes que pueda necesitar. No tiene que atender a problemas de supervivencia ni de reproducción porque ya los tiene resueltos. No tiene deseos ni emociones porque serán sus cuidadores quienes decidan lo que deba hacer en cada momento. Tampoco tiene que activar estados anímicos para reorganizar los recursos cerebrales cada vez que tenga que afrontar desafíos críticos como reproducción, combate, huida, miedo, etc.

    Un programa de ajedrez es un claro ejemplo que ilustra el hecho de que para ganar a un supercampeón mundial cargado de adrenalina y agresividad, con autoconciencia, emociones en ebullición, deseos intensos y una vida dedicada al ajedrez, no se requiere otra cosa que un hardware y un software adecuados. Ni emociones, ni deseos, ni premios, ni castigos, ni conciencia, ni sangre, ni nervios, ni leches.

    La IA que nos interesa desarrollar sólo debe ser capaz de resolver los problemas que nosotros no sabemos resolver (y eso ya está ocurriendo), y solo tiene sentido que emule los sentimientos humanos en funciones concretas de apoyo emocional a los seres humanos.

    Pero para conseguirlo basta con una simulación convincente como ya está ocurriendo en programas sencillos de interacción emocional. No es necesario que la máquina se emocione para inducir emociones en un humano. Basta con que mueva las cejas y los ojos de plástico de una determinada manera, suelte una lagrimita de agua destilada y emita, con una entonación apropiada, alguna cursilada almacenada en su base de conocimiento emocional.

    Saludos.

  56. Yack

    La cuestión no es si la IA “nos supera” o nos deja de superar. Ya hay montones de cosas que un ordenador puede hacer mucho mejor que un humano, y que el humano simplemente es del todo incapaz de hacer.
    La cuestión inicial (al menos la que yo planteaba) era que muchos de los procesos cognitivos humanos contienen de manera inevitable aspectos emocionales, y decía que tal vez para emular de la manera más eficaz posible dichos procesos sería necesario construir sistemas de inteligencia artificial que tuvieran emociones. Puede que la IA, de seguir por el camino meramente digital, consiga diseñar ordenadores que descubran las leyes últimas del universo (pero no puedan hacérnoslas comprender a nosotros), pero también puede que, de seguir por ese camino, la IA no consiga diseñar un ordenador capaz de enamorarse o de odiar, e incapaz, por tanto, de hacer algunas cosas que nosotros hacemos gracias a que amamos y odiamos.

  57. yack dice:

    No creo que el objetivo que se persigue desarrollando la IA sea el de emular al ser humano, porque seres humanos hay de sobra.

    Lo que trataban de conseguir los hermanos Wright no era una máquina que trinara, pusiera huevos y construyera nidos, sino una máquina que hiciera lo que el hombre envidiaba de los pájaros: volar.

    Los ingenieros de la IA tratan de construir una máquina que sea capaz de hacer, tan bien como sea posible, esa cosa portentosa que solo los seres humanos saben hacer: pensar.

    Y pensar es, en lo que respecta a los ingenieros de la IA, capacidad para resolver problemas, o dicho de otro modo, para responder preguntas difíciles, tan difíciles que ningún hombre puede contestar.

    Y no por pura diversión, no para hacer crucigramas ni resolver acertijos, sino para expandir los límites del territorio donde los deseos humanos pueden cumplirse.

    Y todo lo demás es filosofía.

    Saludos.

  58. Yack
    No he hablado en ningún momento del “objetivo” de la IA. Cada cual que tenga los objetivos que le dé la gana, faltaría más. Lo que pongo en cuestión es el restringido concepto de “pensar” y de “inteligencia” que predomina en la IA. Muchos problemas y muchos procesos cognitivos (aquellos que dependen de factores emocionales, entre otras cosas) serán, sencillamente, inabordables mientras se mantenga ese concepto, aunque manteniéndolo se logren maravillas con respecto a otros objetivos. Y, por supuesto, lo que digo es filosofía. Mal iríamos si la prohibiéramos.

  59. yack dice:

    No sé si lo que estás proponiendo es fabricar un avión que ponga huevos gigantes.

    Pero cualquier problema, de la naturaleza que sea, no deja de ser un problema: Un objetivo y unos recursos para alcanzarlo.

    Una máquina que resuelva todo tipo de problemas puede tratar los sentimientos humanos como un parámetro más del problema, (Amo a Juani. ¿Qué me recomiendas para vencer la aversión que me profesa?) sin por ello tener que experimentar emociones que influyan sobre su proceso mental.

    Una IA que sintiese emociones, en el mismo sentido que nosotros y se dejara influir por ellas, sería el mayor peligro que pudiésemos concebir y espero que a nadie se le ocurra intentarlo.

    Saludos.

  60. Yack
    tú estás pensando en la IA como una mera herramienta para “resolver problemas”. Yo estoy hablando de un problema en particular, que es el de comprender las capacidades cognitivas humanas e intentar replicarlas. Eres muy libre de que te la reflanflinfle ese problema. Tal vez construir una máquina capaz de emocionarse sea un peligro, o tal vez no, pero es un aspecto de la realidad que entrará sin duda dentro de la curiosidad de muchos científicos del futuro.
    Por otro lado, dudo mucho que lo que hace un ordenador sea un “proceso mental” si se limita a ejecutar ciertos algoritmos; como mucho, sería un proceso que SI LO HICIERA UN CEREBRO HUMANO, sería un proceso mental.

  61. yack dice:

    Si estoy hablando de una IA que supera la capacidad humana para resolver todo tipo de problemas, me parece natural y descriptivo llamar proceso mental a lo que ocurre en su interior. Ahora bien, si definimos “mental” como lo que ocurre en un cerebro humano, te doy la razón porque no deseo involucrarme en discusiones semánticas.

    Yo no sé si esa IA funcionará con algoritmos o con otra cosa, pero sí se que el cerebro humano funciona con algoritmos o con otra cosa y no veo ninguna imposibilidad para que una máquina (un montón de átomos) pueda hacer lo mismo que un cerebro (otro montón de átomos).

    Y no solo creo que la IA es una mera herramienta para resolver problemas, sino que creo que la inteligencia, en general, es una mera (o no mera) herramienta para resolver problemas, porque sino, ¿para qué se ha desarrollado un órgano que consume el 25% de la energía de nuestro organismo si no es para resolver el gran problema de mantenernos vivos y reproducirnos?

    Saludos.

  62. yack

    Para comenzar, nadie sabe exactamente como se construye la información en el cerebro, menos aún cómo esa información se transforma en ideas e incluso en teorías físicas o conceptos matemáticos, que eventualmente ayudarán a resolver los problemas que podríamos llamar “objetivos”, y que son al parecer los que le preocupan.

    Algunas personas, entre ellas yo mismo, pensamos que las sensaciones, con todo lo subjetivas que puedan parecer, juegan un rol central y determinante en la formación del conocimiento, cualquiera sea el aspecto que este abarque, luego, no se trata solo investigar el origen del conocimiento relacionado con los aspectos puramente psicológicos (relaciones interpersonales), sino de aquella parte de ese conocimiento que se transformará en las ideas que permitan la formulación de hipótesis y teorías.

    Es un hecho que las sensaciones guían las conductas, pero más importante aun, en ese mismo proceso impulsarán la toma de decisiones de todo tipo. De este modo nos encontramos en presencia de un mecanismo de origen orgánico que no solo actúa a veces, sino que lo está haciendo todo el tiempo y respecto de cualquier objeto o situación que sea perceptible. Toda conducta, incluidas las empleadas para escribir en este foro, tienen que ver con las sensaciones que el tema y las opiniones de los participantes provoquen y que inducen a responder en la forma en que se hace, independientemente de los argumentos conceptuales que se tengan para hacerlo. Es decir, basta con tener las “ganas”, o con “querer” hacerlo (las “cosas” subjetivas, sensibles), para participar, así no se sepa de que se está hablando.

  63. Yack, te recuerdo que no sólo el cerebro, sino todos nuestros órganos, tienen la función de “resolver problemas”. El estómago, el corazón, la piel… Todos ellos se dedican única y exclusivamente a resolver problemas. Pero no llamaríamos “mental” a lo que esos órganos hacen.

  64. pharmakoi dice:

    Este documental está interesante es sobre IA,
    Plug and pray

    Para verlo cerrar los ads y poco más, igual se puede encontrar mejor en otro sitio.

  65. Solrac dice:

    Recién acabo de enterarme de lo que son los bots y la química artificial, pienso que lo de la IA más que epistemológico es tecnológico, y asunto de tiempo.

  66. yack dice:

    Tienes razón, Jesús, pero la diferencia entre un riñón y un cerebro es que el primero está diseñado para resolver un único problema y el cerebro lo está para resolver todo tipo de problemas, incluso el de la diálisis, si el riñón pierde su capacidad para resolver su problema.

    Es la misma diferencia que hay entre una pinza para el pelo y una IA. Y la inteligencia es lo que nos concede la ventaja abismal sobre el resto de especies. En la medida que desarrollemos la inteligencia, más allá de las limitaciones biológicas, expandiremos sin límite nuestras capacidades y expectativas, que es el objetivo de la ciencia y la tecnología.

    Y “mental” me vale para referirme a la actividad propia de un órgano/máquina orientada a resolver problemas de tipo general.

    Sergio, yo creo que las emociones son la forma en que nuestra conciencia visualiza las diferentes estrategias que nuestro cerebro pone en marcha automáticamente para afrontar los desafíos que nos plantea un entorno cambiante y agresivo.

    Nuestro cerebro es una máquina de supervivencia para desenvolverse en un medio hostil y peligroso, que gestiona un organismo que está siempre al borde del colapso (cansancio, hambre, enfermedad, heridas, lesiones, etc) y sometida a riesgos letales que pueden surgir en cualquier instante.

    Desde esa perspectiva, es comprensible que las emociones cambien continuamente y sean las que parecen mover nuestras acciones, pero eso no debe ser así en una IA, diseñada para realizar las tareas que nos conviene a nosotros. Podemos pedirle a una IA que de 4 a 5 se dedique por entero a explorar una terapia para el cáncer y de 5 a 7:30 que desarrolle un nuevo combustible limpio y económico.

    Y toda la experiencia acumulada sobre IA justifica este planteamiento y el hecho de invocar a las emociones como ingrediente esencial, es solo un intento de “copiar” literalmente al cerebro humano en la esperanza de resolver así los problemas de diseño que todavía no entendemos.

    Es como si los hermanos Wright hubieran añadido a sus primeros prototipos un mecanismo para poner huevos, a ver si así conseguían los mismos resultados que los pájaros en relación al vuelo.

    Saludos.

  67. Yack
    Sin duda el cerebro humano puede resolver muchos más problemas que cualquier otro órgano, pero no me parece que “mental” signifique algo así como “relativo a la solución de problemas de tipo general”. Hay muchos procesos mentales que son extraordinariamente específicos y relativos a un único problema (la sensación de hambre o de frío, p.ej.). El caso es que los humanos resolvemos muchos problemas gracias a la mente, mientras que los ordenadores no tienen mente, y por lo tanto, no pueden tener procesos que CUANDO ELLOS LOS REALIZAN sean “mentales”: en todo caso, serían procesos mentales si los realizáramos nosotros.
    Saludos

  68. pharmakoi dice:

    pienso que lo de la IA más que epistemológico es tecnológico

    Dependerá de si piensas en la IA como un fin, o como un medio. Un cuaderno de renglón doble también es tecnología. La cuestión es si esa tecnología tiene algún valor epistemológico, y cuál (un defensor de la metáfora de los cuadernos de renglón doble fuerte te diría que pensar es como abrir el cuaderno de la mente e ir escribiendo, y si te sales de los renglones es que estás un poco mal).

  69. pharmakoi dice:

    + robozs

    El final es de lo más interesante aunque no es sobre IA exactamente, es sobre lo que llaman en español “gamización” (sip, no se les ocurrió otro nombre por lo visto. Vamos a gamizar en la página beb).

  70. Estimado Yack

    Ya que estamos en esto, y que no hay ninguna razón para no abordarlo con el mayor rigor posible, dentro de las limitaciones de tiempo y espacio, consideremos las diferencias entre los hechos y lo estrictamente especulativo.

    Ninguna función orgánica está diseñada, esta es una premisa fundamental. Sea como sea toda función orgánica ha sido fruto de la evolución (como quiera que ésta se produzca). Así pues ningún órgano está diseñado para resolver “problemas”. Los órganos funcionan o no, eso es todo, si hacen esto o aquello se debe exclusivamente a que está en sus instrucciones.

    Vistas así las cosas el cerebro es parte de un sistema funcionalmente coherente, no hay ninguna razón para suponer que el cerebro tenga una “agenda” funcional propia, independiente del resto del sistema, como tampoco la tiene el corazón, los riñones, etc. De hecho ninguno tiene agenda de ningún tipo, simplemente funcionan y lo hacen de modo interdependiente.

    Aun la conciencia, que no sabemos que es, debe poder explicarse partiendo de las características del procesos que hacen posible su manifestación. No hay razón alguna para suponer que los esos procesos orgánicos permitan el desarrollo (surgimiento, emergencia, etc.) de un ente (cualquiera sea su grado de materialidad) que sea independiente del estado de los procesos metabólicos y orgánicos en general.

    En tu análisis atribuyes la intencionalidad del todo (el ser humano como sistema) a las partes, cito:
    “Sergio, yo creo que las emociones son la forma en que nuestra conciencia visualiza las diferentes estrategias que nuestro cerebro pone en marcha automáticamente para afrontar los desafíos que nos plantea un entorno cambiante y agresivo”. En esta frase, las partes adquieren las propiedades del todo, suponiéndolas de hecho independientes. Según se desprende, la conciencia es capaz de visualizar por sí misma, independiente de los procesos que la generan, más aun, la conciencia puede evaluar las emociones en términos de estrategias.

    Reconozco que esta forma “metafórica” de expresarse está muy difundida en todo tipo de ámbitos, incluido el científico, pero, no solo no es correcto, sino y lo más importante, es que no conduce ni a la comprensión del problema ni tampoco a su explicación.

    Antes de afirmar que es lo que puede o no hacer la conciencia, primero hay que encontrar qué es lo que es. Mientras ello no ocurra, al menos desde el punto de vista científico, ningún atributo o propiedad que se le atribuya tendrá valor probatorio o demostrativo de nada.

    Estimado Yack, he desarrollado una teoría que explica el sentido sistémico de las funciones cerebrales, en la cual se describen las operaciones de los subsistemas de modo ínterrelacionado y coherente para producir todas las respuestas que normalmente se atribuyen a la mente.
    ( http://www.evolucionhumana.cl/Teoria_de_la_funcion_cerebral.pdf )

    En este modelo la conciencia no es de ningún modo un ente, ni emergente ni de ningún otro tipo, la conciencia está dada por la capacidad de evaluar los recuerdos propios (recordarse) frente a cualquier circunstancia. Luego, por una parte su origen o materialidad está en los recuerdos, y por la otra, su manifestación se producirá en el transcurso del proceso de pensar, o lo que es igual, en el proceso de activación y evaluación de recuerdos.

    De esto se desprende que no es posible verificar la conciencia en otra persona (tercera persona) si ella no muestra signos o conductas derivadas del proceso de pensar (hablar, movimientos coherentes, etc.). La conciencia propia existirá siempre que nos refiramos a ella, porque al pensar seremos simultáneamente conscientes, por el contrario, seremos inconscientes mientras no pensemos.

    Por último, en esta teoría, las sensaciones serán el resultado de la activación de (al menos) una neurona que provocará una respuesta conductual y simultáneamente la generación de un enlace
    entre esa neurona y la red neuronal a la que pertenecen los demás recuerdos del contexto en que se está (como activar un punto específico en un mapa previo, que en el caso de los bebés podría estar en blanco)

    Como puedes ver, al menos para mi y mi teoría, las sensaciones no son cualquier cosa, son el origen de la memoria adquirida y el inicio de la capacidad de elaborar ideas.

    Saludos

  71. yack dice:

    Jesús, voy a tratar de plantearte la cuestión con un ejemplo: Una criatura procedente del espacio exterior, de piel bruñida como el acero y textura similar a la piel humana se sitúa ante ti. Le hablas y ella contesta. Demuestra con su comportamiento que entiende todo lo que dices, y que puede responder con coherencia a cualquier pregunta que le hagas.

    ¿Te parece inadecuado hablar de actividad mental de la criatura? ¿sería necesario saber si el órgano que gestiona su actividad esté formado por transistores, neuronas o redes cristalinas? ¿Y cambiaría algo que pudiera sentir temor, asco o apreciar la música? Para mí, desde luego, no.

    Si solemos llamar “mental” a la actividad característica del cerebro humano, lo hacemos porque es el máximo exponente, con diferencia, en el procesamiento sofisticado de información. Pero si tuviésemos una IA que nos superara en la resolución de todo tipo de problemas, que es la esencia de la inteligencia, no veo el inconveniente de concederle el estatus de “mental” o incluso atribuirle otro (hipermental, por ejemplo) de mayor rango, si somos justos.

    Prefiero establecer similitudes conceptuales entre todo tipo de inteligencias que trazar compartimentos infranqueables basados más en lo accidental que en lo esencial. Empezamos a comprender la mente humana cuando dejamos de considerarla intrínsecamente diferente a la de los animales, y por la misma razón tenemos que empezar a buscar similitudes entre nosotros y la IA si queremos comprender la inteligencia como fenómeno universal e independiente de los seres vivos, y no solo como una peculiaridad exclusiva e irreproducible del cerebro de la especie homo sapiens,

    Sergio, es práctico hablar de diseños, intenciones y finalidades cuando se discute sobre seres y objetos teleonomicos. Ya sabemos que los seres vivos no han sido diseñados por nadie, pero funcionan y actúan, a todos los efectos, como si lo hubieran sido. Cuando descubrimos un órgano desconocido en una nueva especie, lo analizamos desde la perspectiva de que ha sido diseñado con una finalidad, y gracias a ese enfoque finalista obtenemos respuestas útiles sobre ese órgano o esa criatura.

    Si nos limitamos a inventariar sus singularidades y nos conformamos con la explicación de que todo eso está ahí porque sí, no habría ciencia ni progreso.

    Saludos.

  72. Yack
    No me cabe duda de que la inteligencia puede darse en seres de constitución material distinta de nosotros. Sólo estoy planteando que mi concepto de “lo mental” parece distinto que el tuyo. Nuestro cerebro hace montones de cosas que yo no llamaría “mentales”, en el sentido de que no van asociadas a nuestra consciencia, “nuestra mente” no se da cuenta de ellos, así que no todo lo que hace el cerebro es “mental”. “Inteligencia” y “mente” no son sinónimos: podemos decir que la forma que tienen las plantas de resolver algunos problemas es muy “inteligente”, pero tampoco por eso vamos a atribuir una mente a las plantas.
    Los robots que pones en tu ejemplo, supongo que les atribuiríamos el mismo tipo de conciencia que atribuimos a los humanos, si su conducta fuera lo suficientemente parecida. Pero también podríamos plantearnos algunos problemas que no tengo tan claro como solucionar (y que, por cierto, estaría bien ver cómo esos robots nos podrían ayudar a resolverlos). P.ej., ¿tendríamos que reconocer LOS MISMOS DERECHOS a esos robots y a nosotros, por el hecho de que su conducta es tan parecida a la nuestra? Si llegamos a la conclusión de que ellos no tienen sensaciones ni emociones, es decir, si actúan de forma compleja pero sin enterarse conscientemente, ¿estaría MORALMENTE mal desenchufarlos o destruirlos? Al fin y al cabo, cuando decimos que está mal torturar a un animal, no es tanto por cómo de inteligente es, sino por cuánto suponemos que el animal es capaz de SUFRIR.
    Un saludo

  73. yack dice:

    ¿Estaría MORALMENTE mal desenchufarlos o destruirlos? Esta es fácil: Depende de si hubiera consecuencias desagradables o no. Si respetamos o protegemos a otros seres, incluidos nuestros semejantes, es porque, de no hacerlo, habría consecuencias negativas para nosotros. O como poco, nuestras neuronas espejo, bajo ciertas circunstancias, nos inducirían dolor al contemplar el sufrimiento ajeno, y eso también es una consecuencia desagradable.

    De todas maneras, la cuestión sobre lo que significa “mental” carece de interés porque eso depende del uso que se le quiera dar.

    Sí puede ser interesante discutir si se requiere conciencia o autoconciencia para resolver, al menos, todos los problemas que un ser humano puede gestionar. Y no creo que se requiera la capacidad de sentir los colores para manejarlos, porque un ordenador puede procesar colores o cualquier otra cosa sin “sentirlos” en el sentido que nosotros atribuimos a esa palabra.

    Creo que queremos hacer la IA más complicada de lo que es, poniéndole atributos arbitrarios que por azar evolutivo compartimos los humanos.

    Saludos.

  74. Yack

    Hombre, me refiero a que si hay algo moralmente condenable en destruir o desenchufar un robot, EN RELACIÓN CON EL PROPIO ROBOT, no con su dueño o con algún humano que le haya cogido simpatía. Es como destruir un coche: puede ser moralmente malo si no es tuyo, pero no porque el coche vaya a sufrir. Al fin y al cabo, lo peor que tendría de malo torturarte a ti no sería la pena que les daría a otros (aunque eso también sería condenable), sino tu propio sufrimiento. En este sentido, el coche no tiene derechos: es el dueño el que los tiene. La cuestión, entonces, es: ¿qué pasaría con los robots?, ¿tendrían los mismos derechos que un humano? Y, last but not least, ¿cómo resolver este problema a base de programas informáticos?

  75. yack dice:

    Lo que nos preocupa de que alguien o algo sufra, no es SU sufrimiento, sino el dolor que el conocimiento de ese sufrimiento pueda producirnos.

    No tenemos la capacidad de actuar en función del sufrimiento ajeno, sino sólo del nuestro. Lo que ocurre es que el sufrimiento ajeno y el nuestro están relacionados a través de conexiones sinápticas urdidas por la SN y la socialización, que no podemos controlar y de ahí que actuemos bajo la creencia de que el sufrimiento ajeno es importante para nosotros. Pero no lo es en absoluto, cuando no está vinculado a nuestro propio sufrimiento.

    Imagina que tienes que apuñalar a un sonrosado bebé que te mira con ojos llenos de afecto y ternura, pero que por alguna razón, te consta que no siente nada, aunque actúa como si sintiera.

    El condicionamiento social automatizado de tu cerebro se activará y te impediría llevar a cabo el crimen, por el procedimiento de causarte un dolor insoportable.

    Somos máquinas programadas para vivir y colaborar en grupo y no hay nada más allá de rutinas automáticas de optimización de nuestra compleja conducta social.

    Como dije antes, los sentimientos solo son la visualización, por parte de nuestra conciencia, de las diferentes estrategias de actuación que nuestra máquina cerebral pone en funcionamiento en cada situación.

    Saludos.

  76. Yack
    Creo que cometes una falacia. Es trivial que si ME preocupa el sufrimiento ajeno, es porque ME preocupa a mí. Pero obviamente, debe HABER ese sufrimiento para que me preocupe. Si un robot no sufre, no ME puede preocupar que sufra. Si sufre mi hijo, obviamente ME preocupa. Pero eso es irrelevante: la cuestión es si debería preocuparME el sufrimiento de los robots, y por lo tanto, si debería considerar que los robots inteligentes son sujetos de derechos IGUAL que considero que lo es mi hijo o incluso alguien cuyo bienestar me la reflanflinfle, pero aún así creo que tiene derecho a que no le cause dolor.
    Por otro lado, no tienes que convencerme de que nuestros juicios morales son producto de la evolución. Eso es justo lo que creo. Pero la cuestión no es de dónde nos vienen esos juicios, sino cuál es el juicio moral que DEBERÍAMOS hacer en el caso de un robot: si tendríamos que tratarlo como un coche (que sólo pensamos que está mal destruir por el mal que eso pueda causar a su dueño), o si tendríamos que tratarlo como a un humano (que es capaz de experimentar sufrimiento, no como un coche).

  77. yack dice:

    Un niño se divierte infringiendo dolor a su compañero de clase, millones de seres humanos han sido aniquilados por mil razones distintas. No parece que el hecho de que sientan sea un obstáculo insalvable. Lo único que cuenta es si la destrucción o preservación produce placer o dolor al ejecutor. Y eso depende de muchos factores individuales, sociales, politicos, culturales, etc.

    Si alguna vez se construyen máquinas inteligentes se les dará el estatus que la sociedad consensúe y todos estaremos obligados a asumir ese estatus, que se convertirá en una verdad moral universal.

    Probablemente se respete su existencia mientras sean útiles y no den problemas, pero si no es así se establecerá alguna teoría que justifique moralmente su aniquilación. Por ejemplo, “ya ha cumplido su ciclo vital. Su vida carece de sentido y además no sentirá dolor cuando la desconectemos. Ni siquiera sabrá que la vamos a desconectar”.

    ¿Sienten los pollos y las terneras? Todo indica que sí, pero no parece que eso les libre de ejecuciones masivas y sistemáticas. La comodidad y la utilidad prevalece sobre el hecho de que sufra o no cuando la victima no puede defenderse y devolver el golpe.

    Al final la moral se ajusta a la utilidad general, porque la moral ha surgido, como tú sabes, para ayudarnos a conseguir nuestros objetivos y no para entorpecerlos. Siempre habrá una oportuna teoría a mano para solventar las contradicciones morales que puedan plantearse, como cuando se decidió bombardear Hiroshima.

    Saludos.

  78. Solrac dice:

    La empatía construye la moral, pero el instinto de supervivencia y sus poderosos intereses puede poner en juego toda esa construcción. Mientras no exista esa cualidad entre robots y humanos no se construirá ninguna moral que implique derechos y deberes entre unos y otros. Podemos matar pollos, e incluso enemigos, pero no solemos asesinar nuestras mascotas.

  79. Solrac dice:

    Cuando digo moral, me refiero a moral social; y respecto a los intereses de la supervivencia, me refiero a intereses individuales o individualistas.

  80. Yo, en cambio, cuando digo “moral”, me refiero a la moral: esa antigualla sobre los derechos, deberes, el imperativo categórico, y tal y cual.

  81. yack dice:

    En referencia a la ética que habría que aplicar en nuestra relación con las máquinas inteligentes, se me ocurren las siguientes ideas:

    – Las normas éticas siempre las han establecido los que dominan la situación, y lo hacen en base a sus intereses.

    – Una máquina inteligente puede no tener conciencia y sin embargo tener instinto de supervivencia.

    – Una máquina inteligente podría tener conciencia y no tener instinto de supervivencia, lo que evitaría los problemas éticos subsiguientes.

    Damos por hecho que, puesto que el ser humano es, por autodefinición, lo más noble y digno de salvaguardar, todos los atributos propios de nuestra mente son igualmente respetables, necesarios y trascendentes.

    Así, suponemos que la conciencia o la autoconciencia implica el deseo desesperado de seguir viviendo, cuando son cosas totalmente independientes.

    Podemos (y ya lo estamos haciendo) construir máquinas inteligentes a la que les sea indiferente lo que ocurra en el instante siguiente. ¿Sería ético desenchufarlas?

    Podemos construir una maquina programada para sobrevivir a cualquier precio, apelando si fuese necesario a nuestra sensibilidad, a nuestro sentimentalismo o a el imperativo categórico, sin por ello tener atisbo de conciencia. ¿Sería ético desenchufarla ignorando sus súplicas, sus convincentes lagrimas de agua destilada, sus apelaciones dramáticas y bien fundamentadas a su derecho a existir?

    El objetivo de la ingeniería no es construir seres iguales a nosotros, sino máquinas que nos ayuden a resolver problemas, y por eso cabe suponer que las diseñaremos para que solucionen nuestros problemas y no para que nos creen otros nuevos.

    Ya se inventará la ética “positronica” que haga falta para optimizar la relación con esas máquinas en base a nuestro propio beneficio, siempre y cuando mantengamos el control de la situación.

    Y para ello, mi recomendación es no poner a prueba sus circuitos positronicos enseñándoles filosofía, ni dotarlas del innecesario y peligroso instinto de supervivencia.

    Saludos.

  82. yack dice:

    Solrac: ni a nuestros teléfonos móviles.

  83. joanrse dice:

    Muy buen artículo !! Les iría bien leerlo a muchos ingenieros informáticos …

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s