La inteligencia son cien millones de reglas

Publicado: 10 abril 2010 en Filosofía de la mente, Tecnología
Etiquetas:, , ,

Estamos montados en un autobús cuando, de repente, un viajero sufre un palo cardíaco. El autobús pasa al lado de un hospital pero en su itinerario no consta realizar ninguna parada allí, así que el autobús sigue como si nada mientras el viajero agoniza. Entonces, cuando nosotros gritamos furiosamente al chófer para exigirle que pare, éste nos contesta que las reglas de la empresa son tener como prioridad  el cumplimiento  del horario e itinerario previstos, por lo que parar para asistir a un enfermo desobedecería tal prioridad y él nunca rompe las normas. Cuando ya estábamos dispuestos a partirle la cara, nos damos cuenta de que estamos en el 2035 y que el chófer es, en realidad, una computadora.

Esta historieta ilustra una de las grandes objeciones de la posibilidad de generar inteligencia artificial: las máquinas funcionan obedeciendo reglas mientras que la mente humana es mucho más flexible, pareciendo estar preparada para una gama indefinida de situaciones.  Si el chófer hubiera sido un humano, habría parado el autobús ponderando que la vida de un hombre es más valiosa que el retraso del autobús. Las computadoras sólo pueden obedecer un programa, no aceptan la novedad, no son espontáneas.

No, podemos objetar, lo que pasa es que el chófer computadora tiene un mal programa. Podríamos añadir nuevas reglas como, por ejemplo “Cumplir el itinerario a no ser que exista una emergencia médica, en cuyo caso, ir al hospital más próximo”. Sí pero, y si lo que pasara es que unos terroristas secuestraran el bus, entonces estamos de nuevo en las mismas: el chófer seguiría con su terquedad maquínica.  Para solucionarlo, podríamos ir añadiendo reglas y reglas, buscando que fueran lo suficientemente generales para hacer frente a cualquier situación posible.  Lo que estaríamos haciendo es dotar a nuestro chófer artificial de algo tan humano como el sentido común. Y eso es lo que el presidente de Cycorp, Doug Lenat, lleva haciendo desde 1984 con su CYC Proyect. La idea consiste en buscar una serie de reglas  que representen perfectamente los supuestos que el sentido común humano maneja acerca de la realidad  (Lenat lo llama “realidad de consenso”). Datos como “los objetos sólidos no pueden ser penetrados por otros objetos sólidos” o “el agua produce humedad” forman parte de esa “realidad” que conforma nuestro sentido común. El equipo de Lenat pretende sintetizar este conocimiento en unas cien millones de proposiciones.

Además, no creemos que la supuesta espontaneidad de la inteligencia humana sea ilimitada. El chófer puede hacer frente a una gran cantidad de situaciones, pero, en muchas otras, no sabrá que hacer o seguirá pautas de actuación que no tendrán en cuenta algunos datos quizá pertinentes. La cuestión parece reducirse  más a una cuestión de complejidad de nuestro sistema de toma de decisiones (tengamos en cuenta que lleva millones de años evolucionando para ser más efectivo) que a las limitaciones de la inteligencia artificial. Somos muy versátiles, pero no infinitamente versátiles, y si somos finitos, somos computables, por lo menos en lo que se refiere a manejar de modo competente un autobús.

En este sentido, la distinción entre saber qué y saber cómo es también una cuestión de complejidad. Muchos de los críticos de la AI como Hubert Dreyfus arguyen que el conocimiento de tipo representacional, tal que casi sólo supone establecer una función biyectiva entre dos representaciones (“¿Capital de Polonia? Varsovia”), es fácilmente realizable por un ordenador, pero que cosas como las habilidades (saber hacer) no son de naturaleza representacional y que, por lo tanto, no son computables. No, simplemente es que los algoritmos para realizar habilidades tales como montar en bicicleta o jugar al fútbol serán muy numerosos y complejos, mucho más de lo que podríamos esperar. La empresa es difícil pero no imposible.

Aquí os dejo una conferencia en la que Lenat presenta algunos resultados y características de su ambicioso proyecto (siento que está en inglés)…

Anuncios
comentarios
  1. Alejandro dice:

    Yo el principal problema que le sigo viendo a la IA es que lo que nosotros llamamos “inteligencia” es una función vinculada a una realidad corpórea, y en la que por tanto se mezclan estados físicos, reacciones químicas, temperatura corporal, sistema nervioso, manipulación de objetos exteriores, etc., etc. No sé hasta qué punto la IA podrá desarrollarse sin el soporte de un organismo.

  2. Hola Alejandro:

    Sí, durante mucho tiempo se ha centrado demasiado la atención en el software, es decir, en encontrar programas que emularan lo más posible al ser humano, olvidándose del hardware (la base física), cayendo en un cierto dualismo que premiaba al espíritu en detrimento del cuerpo. Creo que el futuro está en el replanteamiento de las relaciones con “el organismo”, una “vuelta al cuerpo”.

  3. José Manuel dice:

    Sin embargo, la principal objeción que yo contrapondría a la inteligencia artificial, no sería la inteligencia en sí misma, sino el deseo. El deseo de todo ser vivo. El interés por supervivir, alimentarse y reproducirse. Difícil de simular. Todo un reto.

  4. yack dice:

    Hay que recordar que el cerebro de los seres vivos se conformó como una herramienta de supervivencia y por eso se mueve en base a deseos, miedos e interacciones físicas con el medio.

    Pero una inteligencia artificial, como han demostrado los programas de ajedrez, puede ser más eficiente que la nuestra sin que tenga que experimentar pasiones, odios, temores o interacciones físicas con el medio.

    Sería un gran error intentar fabricar inteligencias artificiales emocionales que hereden nuestros peligrosos instintos.

    Saludos.

  5. José Manuel:

    Con respecto al deseo sí que se pueden construir algoritmos que emulen conductas deseantes. Podemos establecer una política de necesidades que la máquina intenta satisfacer de tal manera que parecería que actúa sintiendo deseos. Pero el problema, o el reto al que haces mención, hace referencia a los famosos “qualia”: que el computador sienta realmente deseo, una experiencia subjetiva. Aún estamos muy lejos de algo así, pero el camino a seguir será construir las estructuras físicas que hacen posible tal experiencia: sistemas nerviosos artificiales.

    Jack:

    Es interesante plantearse los objetivos de la AI: ¿Realmente queremos hacer seres humanos artificiales? ¿No sería mejor hacer algo diferente, algo realmente mejor? De hecho, hoy en día, la mayoría de las investigaciones en ciencias de la computación no van encaminadas a ello, sino a hacer herramientas útiles, que suplan las limitaciones humanas. Eso es lo que es nuestro ordenador personal, nada que se parezca a un ser humano.

  6. yack dice:

    Interesante artículo Jose Manuel. Me parece una buena estrategia inspirarse en el sistema de pensamiento más avanzado que existe, pero no creo que las emociones (odio, pereza, amor, miedo, competencia, territorialidad, etc.) formen parte indisoluble de la inteligencia (capacidad para resolver problemas y alcanzar objetivos).

    Las emociones y los sentimientos sólo son las instrucciones genéticas relacionadas con la supervivencia, pero si un ordenador está enchufado a la red eléctrica no tiene ninguna de las preocupaciones de los seres vivos, que están diseñados para competir en un mundo de recursos escasos.

    Otra cosa es que nos sería muy útil interfaces humanizadas que nos permitieran interaccionar amablemente con los ordenadores, pero en este caso deberían ser simulaciones de las emociones humanas perfectamente estancas y autocontroladas para ser siempre “amables”.

    ¡ Pero es que no te he dicho ya mil veces que no toques esa tecla, pedazo de animal!

    Ya hemos visto en muchas películas lo que puede ocurrir cuando un ordenador dotado de sentimientos humanos, se enfada o no está conforme con las opiniones de su creador.

    Una máquina tan poderosa, con sentimientos humanos que controlen su conducta, es la cosa más peligrosa que podemos imaginar.

    Santiago, estoy de acuerdo con tu planteamiento. La IA debe intentar resolver los problemas que nosotros no podemos resolver, pero no pretender construir mentes humanas que intenten imponer sus criterios por la fuerza bruta, como hacemos los humanos.

    Todo lo más, interfaces amables, de apariencia humana, pero cuidadosamente aisladas del sistema de control central.

    Saludos.

  7. irichc dice:

    Cien millones de reglas son cien millones de reglas. La inteligencia es la capacidad de entenderlas y de ir más allá de los cien millones.

  8. Irich:

    Dos respuestas:

    1. La inteligencia no tiene por qué reducirse sólo a comprender. El cálculo, entendido como una sintaxis, no requiere propiamente más que el uso de unas reglas. Yo puedo sumar y multiplicar sin comprender los fundamentos de la aritmética.

    2. ¿Podrían existir unas reglas para la comprensión? ¿O nuestra comprensión no obedece a nada? Es más, por ejemplo, para el segundo Wittgenstein comprender el significado de algo es aprender el uso de una regla y utilizarla…

  9. yack dice:

    El juego de ajedrez es sólo un conjunto de reglas. El ordenador puede ganar, sin comprenderlas, a un jugador humano que sí las comprende.
    ¿cual es la diferencia entonces?
    Probablemente asistiremos al momento en que la IA sea indistinguible de la inteligencia humana a efectos prácticos y entonces quedará claro que eso que se llama “comprender” no es sino una sensación subjetiva, la sensación subjetiva de ser capaz de hacer una buena jugada en un determinado ámbito de complejidad. Cuando sabes jugar al ajedrez, “sientes”que comprendes el juego, pero te lleva algunos cientos de partidas llegar a sentirlo. Durante esos cientos de partidas han acumulado e integrado experiencia hasta disponer de un sistema integrado de reglas capaz de ofrecer reacciones aceptablemente buenas, siempre que no juegues con un maestro, en cuyo caso te dará la sensación de que no has entendido nada.

    Saludos.

  10. irichc dice:

    No explicáis en qué consiste la subjetividad. Las reglas pueden estar escritas sobre el papel o programadas en código binario, pero no son más que reglas. El hecho de ejecutarlas e integrarlas en una determinada dirección exige algo distinto, aunque se deba guiar por ellas en todo caso. Además, como ya he defendido en otras ocasiones, un ser vivo no puede dejar nunca de pensar y de actuar aun desconociendo los motivos que lo empujan a ello, a diferencia de una máquina artificial, que encontrará situaciones en las que no tendrá respuesta alguna, entrando en un bucle infinito por el que todas sus funciones serán temporal o definitivamente suspendidas.

  11. Leon dice:

    Su autor no lo plantea como “inteligencia” sino como “sentido común”.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s