La definición de información In, parte de una
situación "desinformada" donde de antemano pueden suceder un
número grande P0 de cosas o estados diferentes con igual
probabilidad a priori. Aquí I0 = k ln (P0/P0) = 0. Si uno mide y se informa, resulta un número menor P1 de dichas cosas diferentes que pueden suceder.
Entonces
La constante k en teoría de la
información binaria es igual a (ln 2)-1, mientras que en problemas
físicos es la constante de Boltzmann. Combinado con la
interpretación probabilística de la entropía,
Gas==> Líquido==> Cristal==> Vehículo del mensaje de DNA |
mientras la información crece hacia la derecha de dicha lista, la entropía avanza hacia la izquierda. Cabe aclarar que el DNA se caracteriza por ser una estructura de átomos de carbono asimétricos (Prigogine Y Nicolis). En la asimetría está la información. El mensaje es un paquete de información medible en bits, el vehículo es una hebra de la doble cadena polimérica, donde la asimetría de esta hebra es una de las condiciones necesarias para que pueda vehiculizar al mensaje. Por ejemplo,
A los efectos de la biotermodinámica, se llama aquí información a todo lo que conduce a un óptimo orden biológico, óptimo porque la evolución de la población debiera mantenerse en general, nó en la zona de estricto orden, sino en la fértil subzona límite entre el orden y el caos.
La información I, medida en bits, está relacionada por un lado a una cierta contribución de conducta ordenada (regular, asimétrica, ligada como está a la "ignorancia" o a la "especificación incompleta" del sistema) y por otro lado caótica (que a veces deja emerger nuevas formas y patrones).
En resumen, la coexistencia del orden y del caos da origen a este nuevo concepto de la información, que puede emerger de esa coexistencia con probabilidad no-nula. (P y Nicolis, p. 191). Como la zona lindera entre el orden y el caos está en pleno ámbito de la complejidad, se puede suponer que la información es la emergencia más notable de la complejidad propiamente dicha: esa información emergente se establece alejándose del referido límite y lo hace hacia la plena zona de orden. Está claro que el orden puede surgir de una condición previa no-lineal, irreversible en el tiempo y alejada del equilibrio y que el caos contribuye a la información con sus no infrecuentes nuevas formas, nuevos patrones, nuevas potencialidades.
La "información requerida para caracterizar un sistema", por ej. la cantidad de parámetros b0...b5 en la ec. (2), es alta si el sistema es complejo y es baja si el sistema es simple. Ejemplo de sistema simple es la ec. (2) con b3 nulo o con sólo b0 no-nulo. Para un sistema simple, le resulta fácil al analista que la estudia sentirse "informado". Por lo contrario, la "información accesible por adelantado (a priori) al analista" es muy escasa en los sistemas complejos. Todo esto se enriquece con la reciente teoría de la información "jerárquica".
Un sistema complejo ofrece de suyo la posibilidad de alta sorpresa, ya que eso es lo señala como caracteristica de la complejidad la definición de Herbert Simon del par. 6.
A una alta sorpresa se la llama información I en la teoría de la información de Shannon. Shannon concreta que la información es la reducción de la incertidumbre.
Por ejemplo, una fábrica de zapatos manda todos los días un dato dentro de una reducida banda con la cantidad de docenas de zapatos fabricados: entonces, la entropía S (probabilidad) de cada dato en la lista es muy alta y la sorpresa I de los datos tomados en conjunto es muy baja. Planteado el caso límite de cantidades diarias siempre iguales (entropía S máxima) y sorpresa I nula, resulta un caso límite de la ec. de Evans, que
|
siendo K una constante numérica sin dimensiones (en bits), como S e I.
I es alta si es alta la desinformación o incertidumbre a priori contrastada por una gran sorpresa y gran certidumbre a posteriori. I es baja en el otro caso: el de la fábrica. Los datos de operación tienden a ser los más probables y uniformes a priori y nada sorprendentes a posteriori de constatarlos. S puede ser alta o baja segun lo explicado en el par. 3. De la ec. de Evans (3) se despeja que en la fábrica de zapatos la entropía S del mensaje es máxima, valiendo K, ya que la información I de ese mismo ensaje es nula, porque la probabilidad del dato recibido es día
Derivando la (3) y combinando con (1), la conservación de la información queda descartada para el caso general. Tambien queda descartada reflexionando que al entregar información, el sistema que la entrega no la pierde, como se pierde la masa o la energía. Se verifica que mientras la entropía crece espontaneamente, la información se agota espontaneamente, la sorpresa disminuye con el hecho de haber revelado el dato sorprendente la primera, segunda,... vez. Tambien, la información se crea y amplifica en el contexto de una situación desordenada que se ordena, lo cual está dentro de las espontáneas posibilidades de los sistemas complejos,
La típica desinformación a priori del analista frente a un sistema complejo, se liga con la alta sorpresa a posteriori, cuando descubre en la operación de ese sistema una propiedad asombrosa no previsible del estudio profundo de cada uno de sus subsistemas. En la ec. (2) equivale a un significativo parámetro de interacción b3 entre dos subsistemas x 1 y x2 . El término de la derecha de (4), interpretado como I a posteriori menos I a priori, con signo cambiado, resulta en -dI << 0. El término entrópico de la izquierda de (4) puede ser, segun la (1), dS < 0, en circunstancias especiales. Ya se ha señalado que corresponde a deS < 0, o sea flujo de entropía desde el sistema no-adiabático hacia el entorno. Más en detalle, el entorno de un sistema complejo se deja robar orden porque admite que el sistema le transfiera, como flujo de calor, la fracción más entrópica de su inventario energético.
Como ya se ha afirmado, la sorpresa a posteriori de recibir el mensaje o la desinformación a priori, I, aparece con probabilidad no-nula en los sistemas complejos. En los sistemas simples esto ya no es así. Muchos sistemas, supuestamente complejos, fracasan en llegar a serlo. En el sistema "un ciclista pedaleando" se pueden dar no menos de tres grandes posibilidades de fracaso: que el ciclista sea mal deportista, que la bicicleta sea un mal artefacto y que ambas circunstancias coincidan. Algo que parecería ser un sistema complejo, no alcanza a esa real categoría segun la definición de Herbert Simon. El sistema complejo se verifica cuando se ve que la bicicleta, que debiera caerse estando quieta, se logra estabilizar estando en movimiento por pequeños desplazamientos del cuerpo y de las manos del ciclista. Si es una buena bicicleta y la monta un buen ciclista, los datos que resultan pueden ser sorprendentes la primera vez y aún algunas adicionales.
En los sistemas complejos (con capacidad de una eventual autoorganización) de Simon, debido a la desinformación inicial, aparecen con la operación grandes novedades que no serían tales si todo se supiera de entrada. Entre esos casos de gran novedad, uno puede ser la aparición de una respuesta muy simple emergente de un sistema muy complejo, cuando se lo analiza desde un nivel superior (par. 6.f).
En cambio para sistemas muy simples con b3 insignificante o nulo, al analista no le cuesta estar informado a priori de cómo funcionan y sus funcionamientos no le ofrecen sorpresas. Todo se sabe de entrada y no hay sorpresas. En el caso del "ciclista pedaleando", éste ni siquiera ha adquirido su bicicleta, que está en una vidriera.
Un conjunto de moléculas gaseosas en el equilibrio, observadas macroscopicamente, no ofrecen nada sorprendente y su conducta es la predicha por el "orden" de Boltzmann, caracterizada por la distribución
Para intentar clarificar esta situación, se puede señalar que cuanto mayor sea el número de parámetros no-nulos que hay en un modelo del tipo de la ec. (2), tanto mayor será el desconocimiento a priori del analista y con ello tanto mayor será la entropía, relacionada con la desinformación (par. 3). La desinformación creciente se explica por la progresiva complejidad de la ec.(2) cuando va incorporando más y más sumandos. Si en cambio tiende a la simplicidad, se conoce más facilmente y aquello que se conoce a priori tiende a tener entropía nula.
En el apéndice 2 se muestra una analogía inspiradora de nuevas ideas. En condiciones locales (quizás no universales), cuanto más curvada resulta una raya, tanto más entrópica es. Las definiciones usadas son plausibles fisicamente. Por lo contrario, cuanto más recta y paralela al eje de las abcisas1es una raya o línea, tanto mayor es su orden y tanto más se acerca a cero su entropía.
Entonces, cuanto más curvada sea una línea, será tanto más compleja, con las definiciones para la complejidad basadas en una nada breve codificación de longitud mínima. Por lo tanto no cabe sorprenderse si se señala que la tendencia a la complejidad no está divorciada de la tendencia entrópica. A veces, lo espontáneo para un sistema simple es que con el tiempo se vuelva complejo, tanto más si está sujeto a alguna superposición, al azar, con otro sistema. Esto no se contradice con un universo que tiende a maximizar la entropía. Existe una propensión espontánea de las formas complejas a envolverse sobre si mismas, cuando resultan expuestas a gradientes externos, para complicarse todavía más y relajar dichos gradientes (2a ley). (Wagensberg y apéndice 2).
La coevolución de subsistemas más y más complejos tiene una probabilidad no-nula de
a) generar con el tiempo, una autoorganización, que emerge en forma neta en toda evolución observada macroscópicamente, a vuelo de pájaro y
b) que esa generación muestre simplicidad en un nivel jerárquico superior (par. 6.f).
Se puede traer a colación ahora, como una de las bases de la biotermodinámica a construír, la hipótesis de S. Kauffman segun la cual la evolución es el matrimonio entre la autoorganización y la selección natural. Lleva a comprender que la posible autoorganización de un sistema complejo responde a una ley biotermodinámica. Ella está relacionada con la teoría de los sistemas complejos adaptivos donde debiera tener su lugar la "teoría del andamio". Puede resultar en un proceso localmente espontáneo, o dicho en forma aún más comprometida, localmente entrópico. La selección natural darwiniana es otra muy importante ley general biotermodinámica, que castiga constantemente a la especies lentas en su utilización del recurso escaso, la bioenergía.
29.mar.2000
Pulsar tecla de vuelta
Vuelta a índice de Biotermodinámica del Cerebro
Raúl Barral - Carlos von der Becke: Biotermodinámica del Cerebro - 2000