Definir fragilidad

Publicado: 8 septiembre 2010 en Ética y moral
Etiquetas:, ,

Es significativo que muchos sistemas complejos se definan por su fragilidad, por su extrema dependencia a una minúscula parte. Es el caso de la mayoría de nuestros artificios electrónicos, en los que la avería en una pequeña pieza los hace inservibles, y también es el caso de nuestros sistemas socio-económicos. ¿Qué pasaría si careciéramos de luz eléctrica, pongamos por un mes? En esto, los sistemas vivos superan con mucho a nuestros productos. Un ser vivo sólo se rompe cuando se dan una serie de errores graves, teniendo una enorme tolerancia a fallos en sus partes  constituyentes, autorreparándose continuamente (si es que acaso un ser vivo no se defina exclusivamente por ser un sistema de autorreparación).

De la misma forma, la teoría del caos nos dice que existen determinados sistemas en los que un pequeñísimo cambio en las condiciones iniciales puede tener graves consecuencias en el resultado final. Un sistema caótico es el sistema más frágil por definición. Quizá, como ingeniosamente nos muestra la publicidad de WWF, si el aleteo de una mariposa puede provocar un tsunami al otro lado del mundo, talar un solo árbol podría tener consecuencias desastrosas, a fortiori si el sistema medioambiental se caracteriza por su inestabilidad y desequilibrio.

Anuncios
comentarios
  1. Juanjo dice:

    Creo que entiendes mal el concepto de caos. No es lo mismo caos en el sentido físico-matemático de la teoría de idéntico nombre, que fragilidad ni que inestabilidad. Se le llama caos determinista. Por ejemplo, si buscas el google “Chaos in cardiology” encontraras miles de referencias al sistema caótico de…. nuestro corazón. Y nuestro corazón, en la mayoría de casos, pese a ser frágil en el sentido de ser caótico cómo tu dices, no por ello deja de ser duradero. De hecho nos dura una vida entera ( Repito, a la mayoría…)
    Solé y Manrubia, en el libro “Orden y caos en sistemas complejos” UPC, ponen ese mismo ejemplo, que considero muy ilustrativo; el que el sistema cardiaco sea “caótico” significa entre otras cosas que no sepamos la duración exacta del latido sístole-diástole, ni su intensidad exacta, y muchas veces ni siquiera aproximada, lo que no impide que podamos sacra conclusiones. Estos autores muestran un diagrama de fases, de a) Un corazón sano; b) Un corazón con una cardiopatía congénita; c) Un corazón durante una taquicardia ventricular; y d) de un sujeto que “ALGUNA VEZ TUVO UNA TAQUICARDIA VENTRICULAR”(Te puedo enviar una copia de esa página; a mí siempre me ha resultado muy espectacular, por lo visual que resulta ser) La parte de cálculo de los mismos, el llamado “exponente de Lyapunov”, permite pues mediante un valor numérico discriminar ( aunque evidentemente de forma no exacta) cada uno de esos casos, simplemente mediante el análisis de un Electrocardiograma. Hay pues una parte de discriminación global, aunque inexactitud local. No estoy muy seguro( No recuerdo la refrencia exacta donde lo leí), pero creo que ya se incorpora como un valor numérico más en algunos hospitales.

    Igual pasa con el clima. Lorenz, que acuño el nombre de “efecto mariposa”demostró que no es posible predecir a medio plazo muchos aspectos de la meteorogía, o tal y como tu dices, pequeñas variaciones en las condiciones iniciales, pueden provocar grandes alteraciones en el resultado final.

    Pero no es el clima el único sistema con dinámica caótica. De hecho a estas alturas sabemos que hay muchos más sistemas caóticos ( en este sentido ) que sistemas no caóticos. Ejemplos: las fluctuaciones de las cotizaciones (en bolsa que además son fractales, tal y como demostró Mandelbrot), muchos aspectos de la economía, los electrocradiogramas y electeroencefalogramas muestran que tambien son caóticos nuestros sistemas cardíaco y nuestro cerebro, y tambien ciertos aspectos de la dinámica de nuestro sistema solar(Un investigador en este área, aunque ya de hace unos 20 años, era Laskar). Un hecho que me pareció curioso pero que luego me dí cuenta de que tiene sentido, es que los diagramas de fases sacados de un ECG y de un EEG de una persona sana y de una persona enferma están “al revés”: El diagrama de fases de un electrocardiograma de una persona sana muestra dos lóbulos( imprecisos, pero visibles) que se corrresponden con la sístole y la diástole del latido normal de un corazón. Si se trata de una persona durante una taquicardia se ve que los dos lóbulos están muy deformados, difusos, dispersos ” caóticos”. Sin embargo, los diagramas de fases de un electroencefalograma de una persona sana, son precismente lobulos dispersos, “caóticos”, pasando a estar mucho más marcados y definidos en, por ejemplo, un paciente de esquizofrenia, o alguien con psicopatologías repetitivas.

    Saludos.
    PD: Mis referencias fundamentales en este tema son ” Caos” de James Gleick, y el libro de Solé y Manrubia antes mencionado.

  2. Masgüel dice:

    “el sistema medioambiental se caracteriza por su inestabilidad y desequilibrio.”

    No es desequilibrio, sino equilibrio inestable. Su equilibrio depende de la continua reparación y sustitución de sus componentes, que son a su vez los que realizan esa tarea (autopoiesis). La biosfera se parece mucho más a un organismo vivo que a una máquina. Sus sistemas son homeostáticos. Esa es la aportación de Lovelock. Un sistema caótico no es un sistema desordenado, pero una fluctuación excesiva puede llevarlo a un punto de bifurcación en el que se reorganiza en un patrón más complejo, o colapsa.

  3. Tenéis razón. Sí, he dado unas nociones confusas. Aclaremos.

    Es cierto que el sistema caótico en cuanto a sistema no es frágil. Tanto el corazón como la atmósfera, en tanto que sistemas, son muy duraderos (crucemos los dedos); están constantemente en desequilibrio pero tienden a él (e incluso generan nuevos patrones de equilibrio); es decir, son inestables pero no es adecuado decir que propiamente desequilibrados o frágiles.

    Lo que sí es frágil, en el sistema medioambiental, que es de lo que hablaba la entrada, somos nosotros en cuanto a partes sacrificables sin que varíe la estructura general autopoietica del sistema (o incluso llegando a variar, ya que no es indestructible). Es decir, en un sistema caótico, lo frágil es lo que depende de su estabilidad.

    Habéis hilado fino. Con lectores así he de andar con cuidado 🙂

    PD: Juanjo, mándame el enlace.

  4. Masgüel dice:

    Lo característico de nuestra especie es que nuestra fragilidad se debe, paradójicamente, a nuestra adaptabilidad. Por eso la analogía vírica resulta tan convincente. Podemos dejar al “organismo” que nos hospeda en condiciones tan lamentables que ya no sea capaz de seguir haciéndolo. Con el tiempo se recuperará de la infección, pero para entonces, de nosotros, es posible que no quede ni rastro.

  5. yack dice:

    Sólo por llevarte la contraria, Santiago, voy a decir que el hombre es la especie menos fragil del planeta y, si nos dan un par de siglos, estaremos a salvo de cataclismos planetarios.

    Solo necesitaremos de un poco de energía (y sabemos extraerla hasta de las piedras) y de una ración de atomos para sobrevivir.

    Al fin y al cabo, la evolución es una búsqueda de la durabilidad, y nosotros vamos a la cabeza y en solitario.

    Saludos.

  6. ¡Masgüel! ¿No serás realmente el agente Smith? 🙂

  7. Masgüel dice:

    Al igual que Yack y el agente Smith, yo también albergo esperanzas de curación. No es casualidad que el movimiento ecologista aparezca cuando la destrucción de los ecosistemas se acelera. Hay otra analogía que manifiesta la otra cara de la moneda. La humanidad como la corteza cerebral del planeta, que le permite tomar conciencia de sí y gobernar su futura evolución. Es una variante de la hipótesis Gaia en que la biosfera no es un organismo consciente de sí hasta que desarrolla una especie que funciona como un sistema nervioso planetario.

  8. Yack:

    Bueno, eso sería entrar en el debate de la bondad o estupidez de la naturaleza humana, lo cual casi depende del optimismo o pesimismo con que se la mire.

    Hace unos años, en plena guerra fría, con misiles intercontinentales apuntándose unos a otros, nadie daba un duro por nuestra especie. También, hace unos años, Hawking dijo que teníamos los días contados debido a las armas biológicas (claro que Hawking dice una chorrada cada x tiempo para salir a la palestra mediática). Aunque es para pensarlo: ¿Qué pasará cuando la bioingeniería esté tan avanzada que, casi cualquiera en su casa, pueda montar un laboratorio y generar virus a la carta?

    Sin embargo, a mí no me gusta hablar de futuribles porque creo que no hay datos para estar seguros de nada. En cualquier caso siempre suelo apostar por el hombre porque es una profecía de autocumplimiento: si fallo, nadie habrá para reprocharme que he fallado, y si acierto, todos me felicitarán. 😛

  9. yack dice:

    Tienes razón. Hay un glorioso futuro que nos precede y justifica el optimismo, pero sobre todo hay que ser optimistas porque es la única apuesta que podemos ganar.

    Es posible que la apuesta que ha hecho la Naturaleza con nosotros implique cierto riesgo (como que generemos un agujero negro que se chupe el planeta) pero seguro que ha hecho sus cálculos y le compensa el riesgo. A lo mejor sólo uno entre un millón de experimentos no acaba en desastre, pero hay muchos planetas disponibles, y sólo es cuestión de tiempo y de paciencia. Tal vez seamos unas de las semillas de un universo autoconciente y tal vez la evolución sí tenga un sentido que sólo podemos imaginar. El tiempo lo dirá, aunque no estaremos aquí para verlo.

    Saludos.

  10. juanjo dice:

    Curiosa ambigüedad polisémica, Santiago. Cuando decía de enviarte la “página”, me refería a una copia de la página del libro.. De hecho tengo el libro físico, la copia de esa página del libro y por alguna parte tendgo una copia digital del libro ( cosa de la que estoy seguro; tan seguro como de que no soy capaz de saber en que carpeta lo tengo….). No tengo pues ninguna dirección de internet a la que enlazar. He buscado tu correo por aquí pero no lo encuentro ( Cosa que hoy no es de extrañar, tengo un día muy negro…). Si me mandas un mail a mi correo te envio la copia de la página ( del libro…..)

    Sl2

  11. Juanjo:

    Mi e-mail: circumdatus@yahoo.es (Es normal que no lo encuentres. No está por ningún lado).

  12. Adolfo dice:

    Sólo comento una cosa:

    Los sistemas electrónicos que usamos a diario tienen múltiples puntos de fallo únicos, que vienen a ser partes del sistema que si dejan de funcionar, no funciona el sistema en su conjunto. Esto es sólo porque los sistemas electrónicos de uso doméstico tienen un requisito más importante que su capacidad de tolerancia a fallos: su precio.
    La tolerancia a fallos es muy muy cara, y si quisiéramos que nuestro PC no tuviera ningún punto de fallo único quizá tendríamos que pagar 10.000 euros (por poner una cifra) por él.

    De la misma forma ha habido muchas propuestas de máquinas y redes de máquinas que autodetectan fallos en ellas y al hacerlo se reconfiguran para poder seguir funcionando y dar una calidad de servicio semejante. La última cuestión que he oído en este sentido es el llamado “self-healing”. Hay mucha bibliografía al respecto, pero es muy técnica, no la recomiendo.

    Con todo, un ser vivo NO puede definirse como un ser que se autorrepara.

    Un saludo,
    Adolfo

  13. Hola Adolfo:

    También habría que decir que los seres vivos tienen una alta tolerancia a fallos pero cuando se rompen… ¡Se rompen para siempre! Las máquinas, en cambio, siempre son reparables.

    ¿Por qué es tan cara la tolerancia a los fallos?

    ¿Por qué un ser vivo no puede definirse por ser un ser que se autorrepara? Una de las tesis más de moda es la de la autopoiesis de Maturana y Varela: un ser vivo es algo que, a pesar de estar en constante desequilibrio termo-químico, está constantemente autorganizándose, luchando siempre por mantener su estructura a pesar de que cambien sus componentes.

    Un saludete.

  14. Adolfo dice:

    ¿Por qué es tan cara la tolerancia a los fallos?

    Pues por dos motivos: hay que generar redundancia de recursos y hay que coordinar esa redundancia.
    Piensa en un PC que necesite 2 GB de memoria y 500 Gb de diisco y 2,25 GHz de procesador (no diremos más cosas). Si queremos que no haya punto de fallo único entonces habría que duplicar (al menos) las tarjetas de memoria y el disco duro, y además configurarlo de alguna manera para que en caso de que casque algo se siga pudiendo utilizar. Por ejemplo, lo más sencillo es que se usa un recurso hasta que se casque y cuando lo haga se usa el otro, que queda simplemente de seguridad.
    Bueno, hasta aquí todo barato, duplicar la tarjeta y el disco serían unos 100 euros, además cualquier placa base lo soporta.
    Pero… necesito un sistema que me haga una copia de seguridad periódica de mi disco duro al de seguridad. Bueno, hay software libre que lo hace y un técnico que me lo instale no será caro: 300 euros más.
    El procesador es otra cosa, porque ahora necesitaré dos procesadores (otros 100 euros más) y una placa base que me soporte los dos procesadores (aumentamos en 200 euros el precio de la nueva placa).

    Vale, pues ya está…. o no… resulta que sigo teniendo un punto de fallo único: la placa base. Mecachis, habrá que hacer algo…. ¿quizá poner dos placas y cada una con sendas tarjetas? Pero claro, dos placas coordinadas para que arranque una u otra o las dos de manera coordinada. No tengo ni idea de cuánto vale eso, pero ya estamos hablando de palabras mayores, varios miles de euros de presupuesto a mayores.

    Pero… ¿y si me casca la fuente de alimentación o el ventilador? Jobar, no había pensado en eso!! Necesito que la nueva placa esté en un segundo equipo.

    Vale, ya lo tengo todo y por unos 10.000 euros tengo mi PC tolerante a fallos, pero ¿y si se va la luz? ¿y si se me cae el router? ¿y si Telefónica tiene un fallo y no puedo conectarme a Internet? ¿y si se me quema la casa? ¿y si cae una bomba nuclear en mi ciudad?…
    Imagínate el coste para que mi sistema sea robusto a todos esos fallos. Así nació Internet 😀

    “un ser vivo es algo que, a pesar de estar en constante desequilibrio termo-químico, está constantemente autorganizándose, luchando siempre por mantener su estructura a pesar de que cambien sus componentes.”

    Google está en constante desequilibrio térmico-químico, las granjas de máquinas que lo forman se autorganizan constantemente y tiene unos algoritmos que le proporcionan una estructura coherente, y la misma de cara al exterior, a pesar de que continuamente estén cambiando las máquinas que lo forman.
    ¿Google es un ser vivo?

    saludos,
    Adolfo

  15. Masgüel dice:

    ¿Google produce las mismas máquinas que lo forman?. Si los componentes que lo forman no son capaces de producirse entre sí, no forman un sistema autopoietico.

    Sin embargo, desde la perspectiva de Kevin Kelly, Internet supone una reorganización del sistema autopoietico que es la biosfera. La teconología es un nuevo reino de la vida, con el homo sapiens como su vector biológico y simbólico.

  16. yack dice:

    Lo realmemte costoso es convertir una maquina que no es tolerante a fallos en otra que si lo es como dice Adolfo. Pero si el diseño incluye esta propiedad (un Host) no tiene porque serlo.

    De todos modos no todos los fallos son iguales. Un pequeño trombo en un mal sitio te deja en una silla de ruedas o te lleva al más allá en un santiamén. Un pequeño error lógico en un programa puede crear un cataclismo en un sistema informatico “resistente a fallos”.

    Saludos.

  17. Adolfo:

    ¿Y no hay otras maneras de tolerar fallos que no sean tener dos ordenadores en vez de uno? ¿No hay formas no basadas en la redundancia?

  18. Adolfo dice:

    ¿No hay formas no basadas en la redundancia?

    No.

    Que un sistema sea tolerante a fallos significa que haya un error en una de sus partes y el global del sistema pueda seguir funcionando. Necesito tener otro elemento de antemano para poder ser tolerante a ese fallo.
    El cuerpo humano es semejante: somos tolerantes a fallos en el riñón, en el ojo o en el oído, puesto que podemos seguir viviendo, y con una calidad de vida aceptable, si nos falla. Sin embargo, no somos tolerantes a fallos en el corazón, en el páncreas o en el hipotálamo.

    Otra cuestión es la fiabilidad. Que un sistema sea fiable significa que tardará mucho en que en él se produzca un error. Un sistema puede ser fiable y al mismo tiempo no tolerante a fallos, por ejemplo nuestro hipotálamo (poca gente se muere por mal funcionamiento de esa glándula, pero si falla nos morimos); de igual modo puede ser tolerante a fallos y poco fiable, por ejemplo las granjas de ordenadores de Google (miles y miles de ordenadores baratos que fallan con relativa frecuencia, pero no en su global).

    Tanto la fiabilidad como la tolerancia a fallos son características muy caras y hasta qué punto son necesarias es una de las cuestiones más críticas en el proceso de diseño de un sistema.

    saludos,
    Adolfo

  19. Adolfo dice:

    “Lo realmemte costoso es convertir una maquina que no es tolerante a fallos en otra que si lo es como dice Adolfo. Pero si el diseño incluye esta propiedad (un Host) no tiene porque serlo.”

    no entiendo ese comentario. Un host puede ser o no tolerante a fallos (por cierto ¿qué fallos?).

  20. Adolfo:

    ¿De verdad que no habría otras formas? El cuerpo humano repara sus tejidos mientras siguen funcionando, se regenera mientras continua. ¿No habría algo parecido a la regeneración electrónica?

    Por ejemplo (y esto lo sabrás tú mucho mejor que yo), recuerdo que había métodos matemáticos para corregir los errores que se producían por las interferencias en la emisión de un mensaje. Si el mensaje se emitía mediante bits binarios, había formas de detectar y corregir muchos errores. Si mal no recuerdo, uno muy sencillo era lo que se llamaba paridad. Sería un ejemplo de una forma de corrección de errores no basado en la redundacia.

  21. yack dice:

    Por ejemplo, los primeros Windows eran poco o nada tolerantes a fallos porque si una aplicación se colgaba, habia que reiniciar el ordenador. Ahora es más resistente a fallos porque puede aislar la aplicación que falla y seguir funcionando. ¿Es más caro este Windows que el otro? Posiblemente, pero dado que es, fundamentalmente, software, no creo que sea un coste significativo para el usuario final.

    Un host (un odenador muy gordo) tiene que ser tolerante a fallos porque está ejecutando miles de aplicaciones a la vez y muchas de ellas fallan con frecuencia. Si no fuera tolerante a fallos, el coste se haría prohibitivo, así que en este caso, es mucho más económico hacerlo tolerante a fallos.

    Tener dos riñones es una estrategia tolerante a fallos y no significa tener doble costo. Se trata de repartir el trabajo entre dos riñones y así se mejora la tolerancia a fallos. Si un sistema informatico necesita 50.000 discos, se puede diseñar para que se bloquee con un solo fallo o que pueda seguir funcionando cuando se estropee algún disco. Todo depende del diseño. Si solo tienes un disco duro en tu PC, hacerlo resistente a fallos es más dificil y costoso porque no está diseñado para eso. Necesitarías un hardware y un software ad hoc. Algo así como ponerle a un animal dos corazones a base de cirugia.

    El corazón no está duplicado porque el diseño inicial no lo contempló y después fue demasiado costoso y complicado hacerlo. Los arreglos en el diseño, cuanto más tarde se hacen, más caros resultan, en especial cuando no se puede partir de cero, como es el caso de los seres vivos.

    En fin que la tolerancia a fallos es una propiedad que puede tener un costo variable según se implemente en el diseño básico o se quiera añadir a posteirori.

    Y un fallo es todo aquello que no forma parte de lo previsto, que no es coherente con el proyecto para el cual el sistema fue diseñado, que lo pone en peligro, como cuando tropiezas y te rompes la cabeza.

    Saludos.

  22. juanjo dice:

    Santiago, los métodos de detección y corrección de errores no son capaces de corregir todo tipo de errores. Cada método viene acompañado siempre por los tipos de errores que detecta y que corrige, en su caso, junto con la tasa máxima de errores que puede tolerar, si estos aparecen ó no en rachas, la longitud de las mismas, etc. Por ejemplo, en los DVDs y CDs de audio se usa ( creo, hablo de memoria) los códigos de intercalación cruzada Reed- Solomon. Entendamos intercalación cómo una especie de acción de barajar los datos y distribuirlos en zonas próximas pero no consecutivas del disco. Esto provoca que un error masivo en un grupo de datos no los corrompa del todo sino que sea recuperables mediante el uso del resto de parte, “or jemplo, i limino a rimera etra e ada alabra, ún sí, s ácil ntender l ensaje”. He eliminado 17 letras no consecutivas y la probabilidad de que el mensaje sea corregido es mucho mayor que si hubiera hecho lo propio con 17 letras consecutivas. (creo que una obra de S. Pinker había un ejemplo parecido, Tal vez en “Cómo funciona la mente”). Por este motivo en algunos botes de líquido para limpiar cds recomiendan acertadamente que es mejor limpiarlos en sentido radial que en sentido tangencial, ya que las posibles ralladuras que se les hagan serían en todo caso menos dañinas.
    Aunque en teoría de códigos se defina en sentido estricto la redundancia cómo la duplicación del mensaje, en realidad añadir ciertos datos de paridad, por ejemplo, es cómo una redundancia comprimida, donde los datos extra permiten, si es posible, reconstruir las partes dañadas del mensaje. Asi que todo, en definitiva es redundancia, bien cómo datos duplicados ( vs. órganos duplicados) ó cómo instrucciones para regenerarlos ( Cuidado: ¿ Donde están las instrucciones para regenerar un riñón, por ejemplo?, es lo que nos falta en el caso del ser humano).

    Por último, tanto en teoría de códigos cómo en teoría del caos, hay un elemento más en común, que además nos vuelve a llevar al origen de este post: la entropía. No es casualidad que el primer capítulo del libro de Solé y Manrubia que antes cité se titule prfecisamente “Entropía, información y complejidad”.

    Saludos.

  23. Adolfo dice:

    Vamos a ver, el tema es complejo y creo que Juanjo se ha explicado bien. Cuando se habla de tolerancia a errores hay que pensar ¿a qué errores? Yo sólo estaba hablando de errores hardware, si son errores software o de comunicación la cosa cambia, pero también es necesaria la redundancia.

    Si mi medio de comunicación es poco propenso al ruido (v.g. una fibra óptica, que quizá confunda un bit de cada millón transmitidos) entonces necesitaré poca tolerancia a fallos sobre la comunicación, porque ésta es muy fiable. Si mi medio es mucho más ruidoso (v.g. un cable telefónico) entonces requeriré mucha más.
    Pensemos en la paridad, que ha dicho Santiago. Un ejemplo podría ser que yo transmito 7 bits y el octavo sale por unas operaciones matemáticas que indican si es 0 ó 1. De esta forma, se reproducen las operaciones en el otro extremo de la comunicación y se puede saber si ha habido un error de hasta 1 bit en la comunicación (si hay errores de más de un bit no los podremos detectar).
    Pero fíjate que ahora tengo que transmitir 8 bits para poder comunicar 7 bits. Y no sólo hay que transmitirlos, también hay que almacenarlos y hay que hacer ciertas operaciones para generar el octavo bit y para comprobar que la comunicación ha sido correcta.
    Mecachis, resulta que ahora la comunicación es más tolerante a fallos, pero también más costosa en términos de tiempo invertido, energía consumida… vuelve a haber redundancia.
    Otro ejemplo es un CD de música, que tiene una sobredimensión de 7 (creo recordar). Es decir, que tiene 7 veces más datos de los que nuestra oreja podría percibir, y toda esa redundancia es para que el sonido sea bueno.

    “El cuerpo humano repara sus tejidos mientras siguen funcionando, se regenera mientras continua.”

    Eso es lo que se suele llamar “reparación en caliente”, y es tener un sistema que sea capaz de que, detectado un fallo el sistema no tenga que dejar de funcionar para poder repararse.
    Si hablamos de redes de ordenadores hay muchos algoritmos de encaminamiento que permiten que la red siga funcionando aunque se caiga una de las máquinas. Si hablamos de servidores comerciales, que se pueda cambiar una tarjeta sin tener que apagar el sistema es una característica MUY cara.

    “Un host (un odenador muy gordo) tiene que ser tolerante a fallos porque está ejecutando miles de aplicaciones a la vez y muchas de ellas fallan con frecuencia. ”

    Un host no es un “ordenador muy gordo” http://es.wikipedia.org/wiki/Host

    Me imagino que te refieras a un servidor comercial. Son tolerantes a fallos, pero son MUY caros; algo medianamente decente para producción de verdad puede costar en torno a 200.000 euros.

    “Ahora es más resistente a fallos porque puede aislar la aplicación que falla y seguir funcionando. ¿Es más caro este Windows que el otro? ”

    La tolerancia a fallos software es diferente. Ahí no tengo demasiada idea porque no dimos apenas nada de sistemas operativos en la carrera.

    “Si un sistema informatico necesita 50.000 discos, se puede diseñar para que se bloquee con un solo fallo o que pueda seguir funcionando cuando se estropee algún disco”

    Claro, pero si un sistema necesita 50.000 discos y quieres ser tolerante a que fallen 10 discos a la vez y aún así seguir dando el mismo servicio necesitarás 50.010 discos, lo cual supone aumentar el coste.

    saludos,
    Adolfo

  24. yack dice:

    Adolfo, creo que estamos diciendo lo mismo. Yo sólo pretendo hacer incapié en que la tolerancia a fallos no tiene que ser, necesariamente, una pesada carga.

    La tolerancia a fallos tiene un costo, pero ese costo puede ser de más del 100% (como hacer tu PC tolerante a fallos del disco duro) o puede representar un 1% o menos, según los casos. Y la bondad del diseño, las características del sistema, el tipo de errores y el nivel de tolerancia que se busca es esencial para determinar el costo final.

    Una salamandra tiene un soberbio sistema de tolerancia a fallos (reponer miembros amputados) sin que se aprecie en ella un costo significativo. La vida, que representa al mejor diseño conocido, ha demostrado lo que se puede hacer en materia de tolerancia a fallos a un costo mínimo, así que yo no consideraría el costo como un obstáculo. La solución pasa por diseñar el sistema con la vista puesta, desde el principio, en una tolerancia eficaz y, por tanto, de bajo coste. Bajo coste significa que sale más caro no hacerlo.

    Un host vale tan caro no porque sea tolerante a fallos sino por todo lo demás y es tolerante a fallos porque si no lo fuera, nadie lo compraría porque sería prohibitivamente caro pasarte la mayor parte del tiempo con el ordenador parado.

    Y gracias por la aclaración. Tampoco creía yo que un host es un ordenador muy gordo. Era una forma humorística de decir lo que “Host” significaba, para mí, en el contexto en el que hablaba. Pero supongo que eso ya lo sabías y me has querido devolver la broma.

    Saludos.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s