difusivo, generando un efecto único, un flujo "conjugado" único, denominado difusotérmico. En este caso, k vale 1; n es el número de fuerzas impulsoras totales (2), n-k el número de fuerzas impulsoras libres y k el número de fuerzas impulsoras esclavizadas. Se generan así n-k flujos que decaen al acercarse al estado estacionario. Esto siempre en condiciones alejadas con respecto a una transición de fase.
Cuando hay orden cero (k = 0), se está en el caso límite de un estado estacionario que coincide con un equilibrio alejado de las transiciones de fase, motivo por el cual el estado no está sujeto a restricciones externas ni a ligaduras. Al no haber ningun flujo, la variación de la entropía diS = 0. El gas, Fig 2, estado 1, posee todos sus eventuales grados de libertad en plena vigencia y en forma irrestricta. Cualquier perturbación microscópica que lo aleja del equilibrio, es vencida o amortiguada tensando algunos de esos grados de libertad y se relaja de nuevo hacia el caso límite, el equilibrio.
En condiciones cercanas a una transición de fase, resulta 0< k =< n (ya sea clásica o de Onsager). Algunos de los grados de libertad ya están tensados por esa cercanía y sin embargo, los cálculos indican que las perturbaciones o fluctuaciones pequeñas alrededor del estado estacionario, si aparecen, no progresan ni trascienden macroscopicamente. En cambio, se relajan hacia el estado estacionario. La explicación: estos estacionarios muestran, con su mínima creación de entropía, que el sistema no se halla en la situación de resbalar hacia condiciones aún más entrópicas, ya que no existen en sus cercanías.
Se reitera que este análisis sólo rige para condiciones de Onsager cercanas al equilibrio, situaciones donde se verifica una dependencia lineal entre las fuerzas impulsoras libres y los flujos conjugados.
El intento de explicar los sistemas complejos del par. 2 con esta ayuda tiene el límite recién mencionado, ya que en su contexto no aparecen predicciones sobre otras transiciones de fase en pleno desequilibrio. La termodinámica lineal del desequilibrio sigue siendo gobernada por el mismo "principio de orden de Boltzmann" de la termodinámica clásica, expresión eufemística (Margalef) que se puede interpretar así: en el desorden máximo también surge un cierto "orden", ya que todo el sistema está uniformemente desordenado y casi todos los grados de libertad microscópicos se hallan activos en el estado estacionario. En el equilibrio, todos.
Propuesta por la escuela belga de Prigogine, su teoría es, hasta ahora, la más afín al tema planteado en los par. 1 y 2. La termodinámica clásica está muy fuertemente condicionada por el hecho de estar restringida al equilibrio, fuera del cual solamente rige la cinética. La termodinámica de Onsager está muy fuertemente restringida porque las fluctuaciones no- lineales decaen y se pueden ignorar cerca del equilibrio, lo cual no es cierto lejos de él. A partir de ciertos valores críticos del apartamiento con respecto al equilibrio (como, por ejemplo, el valor crítico del grupo de Rayleigh para la convección de Bènard), las ecuaciones cinéticas pasan a ser no-lineales.
9.
Aparecen soluciones múltiples. Hay un nuevo principio de orden, diferente del "orden" de Boltzmann: principio denominado "orden por fluctuaciones". En el "orden" de Boltzmann, que garante la aparición del desorden generalizado, las perturbaciones/fluctuaciones provocan transición de fase del equilibrio cuando el sistema se halla en sus cercanías o provocan atenuación en la dirección de alguna transición de fase del equilibrio cuando el sistema no lo está. Se comparan ahora estas nuevas fluctuaciones en pleno desequilibrio con las anteriormente descriptas. Difieren en que las nuevas no muestran posibilidad matemática de autoatenuarse si están lejos de una transición de fase del desequilibrio. Como antes, provocan una transición de fase del desequilibrio si están en sus cercanías y varían tambien en su dirección. El orden de magnitud de estas fluctuaciones supera al de las fluctuaciones atenuables de Onsager. Las de Onsager son fluctuaciones cercanas al equilibrio, por ejemplo las fuerzas impulsoras locales que establecen un pequeño valor por encima de 0ºC que permiten que funda el hielo, en contacto con agua líquida. Las aquí mencionadas son fluctuaciones importantes por presencia de una mayor energía ambiental, con el caso especial del cerebro humano donde a los 18 años se generan 2,6 MJ/día en 1,3 L, por combustión de glucosa y oxígeno.
Cerca de una transición de fase del desequilibrio en que ha de aparecer un nuevo orden (por ejemplo, con predictibilidad mayor de la ubicación de partículas en el espacio) se aprecia una paulatina coherencia colectiva de trayectorias. Por ejemplo, en la convección de Bènard en trance de iniciarse, se observa en las simulaciones matemáticas que las trayectorias moleculares, expuestas a fluctuaciones significativas, inician por azar una avalancha progresiva direccionalmente coherente.
Sea una aproximación al estudio de estas grandes fluctuaciones: un reactor químico contínuo agitado adiabático con dos reacciones químicas irreversibles exotérmicas en serie (una oxidación en dos niveles, una nitración de dos posiciones aromáticas). Hay cinco estados estacionarios, en que el balance de masa coincide con el balance de calor, Fig 3.
! CALOR Avance de las ! MASA reacciones en ! serie ! ! ! ! ! ! -------------------------------------------------temperatura
Fig 3.- Cinco posibles estados estacionarios en la intersección entre el balance de masa (doble curva sigmoide) y el balance de calor (recta). Puede ser el caso de la oxidación del naftaleno en un reactor continuo idealmente agitado adiabático. Los únicos puntos con sentido físico del gráfico son las cinco intersecciones numeradas.
Son el inferior (ausencia de conversión x, cercano a un equilibrio), el superior (conversión x casi completa, cercano a otro equilibrio) y otros tres puntos que se pueden estabilizar con inteligencia, con el expediente de proveerles una camisa o serpentín refrigerantes bien diseñados, que modifiquen el balance de calor (solución no mostrada en la Fig 3, con la recta tendiendo a ser vertical). En cualquiera de los puntos 3 y 5, el sistema pasa a ser
10.
Con perturbaciones desestabilizantes, el segundo o el cuarto de los estados estacionarios, puede sufrir saltos de un estado a otro vecino. El estado está al principio en condiciones de mínima creación de entropía, mientras haya ausencia de fluctuaciones desestabilizantes. En presencia de ellas, sufre una transición de fase de un estado estacionario a otro, resbala a un estado de mayor entropía y el proceso genera entropía. La resistencia al cambio que se observa para pequeñas fluctuaciones en el tercer punto de estado estacionario obedece a que el sistema le roba orden al entorno, tanto con los reactivos químicos comparativamente inesperados e improbables, como con la refrigeración provista, si fuera el caso. Con grandes perturbaciones, también ese punto es abandonado y evoluciona al primero o al quinto, segun el signo de la perturbación desestabilizante.
Cada uno de los cinco puntos de estado estacionario implica un ordenamiento molecular mixto diferente.
Diversos matemáticos y científicos han definido la complejidad.
a. Supóngase ya un sistema complejo y apliquense a él las ideas del premio Nobel Herbert Simon. Por más que se conozcan acabadamente todos sus subsistemas constituyentes, en realidad ello no alcanza para conocer la función verdaderamente fundamental del sistema. ¿Por qué? Porque el sistema no es solamente suma ingenua de sus partes. Para ser un sistema, debe ser más que la suma trivial. Una bicicleta y un ciclista forman un sistema con una función más allá de la suma de las funciones aisladas de ambos subsistemas. Cuanto mayor sea la diferencia entre la suma ingenua de las partes y la operación total, tanto más significativa es la complejidad del sistema.
b. Los sistemas complejos muestran una dinámica propia que los hace acercarse a (aunque tambien alejarse de) diversos ordenamientos posibles, ordenamientos que implican a veces autoorganizaciones inesperadas para un observador desinformado. Esos diferentes ordenamientos o estructuras disipativas de Prigogine, están separados entre sí por transiciones de fase, que incluso pueden ocurrir en cascada. Cuanto mayor sea el número de grados de libertad de un sistema complejo (que tambien lo es porque los tiene muy numerosos) tanto mayor es la posibilidad que se vuelque sobre sí mismo en el espacio de grados de libertad y como resultado se obtenga algo inesperado.
c. Gregory Chaitin identifica complejidad con lo mencionado en el parágrafo 1, como principio de la codificación de longitud mínima. Para codificar todo lo que realiza un sistema complejo se necesitan mucho más instrucciones que para codificar lo que ejecuta un sistema simple. Entonces la longitud de la codificación de longitud mínima permite discriminar entre sistema complejo y sistema simple. Un sistema muy simple es una sucesión de n ceros. Para codificarlo basta con dos instrucciones muy breves.
"Imprimir un cero. Repetir esto n veces."
Pero para codificar lo que hace un cerebro, pese a que un sabio logre finalmente una codificación de longitud mínima que lo describa, sin duda que se necesitará mucho más longitud en las instrucciones. La codificación del sistema complejo "ciclista pedaleando", por más mínima que sea, aporta elementos nuevos y
11.
realimentaciones que no están en cada uno de los dos subsistemas. La bicicleta depende del status económico del ciclista y el ciclista depende de la bicicleta que adquirió.
d. Se pueden ubicar en un plano x versus y la siguiente colección de informaciones.
y = b0 + b1.x. Será una recta de ordenada al origen b0 y pendiente b1.
y = b0 + b1.x+ b2.x2. Será una parábola.
y = b0 + b1.x1 + b2.x2 + b3.x1.x2+ b4.x12 +b5.x22 . (2)
Será un paraboloide de revolución.
Estos son modelos relativamente simples, que se vuelven más y más complejos a medida que se les agreguen nuevos sumandos (como b6.x12.x2) o nuevas variables independientes (x3, x4, ...). La complejidad crece con la información mínima necesaria para su reconocimiento.
Para muchos autores, cuanto más regular y ordenado sea un modelo, tanto menor es la cantidad de información que encierra. Para describir la posición y la velocidad de molóculas de gas en el equilibrio, se necesita un juego de informaciones diferente para cada molécula: hay que enumerarlas a todas para intentar cumplir con el requisito de lograr una codificación de mínima longitud. La distribución de la dirección y sentido de las trayectorias es muy amplia. Al salir del equilibrio gaseoso empieza a haber una coherencia de trayectorias (tendencia hacia la avalancha) para anular las fuerzas impulsoras presentes, por imperativo de la segunda ley de la termodinámica. La simplicidad, la regularidad y el orden, así como el apartamiento del equilibrio en el caso de los gases, se caracterizan todos ellos por su tendencia a requerir comparativamente poca cantidad de información. Todo lo contrario sucede con la complejidad, las irregularidades y el desorden, así como la aproximación y acceso al equilibrio en el caso de los gases, pues, comparativamente, su codificación de longitud mínima es muy exigente en lo que se refiere a la cantidad de información requerida.
e. Un experimento mental de termodinámica clásica: soltar simultaneamente y con trayectorias paralelas, dos pelotitas de ping-pong aisladas y de color distinto, una desde dos metros y la otra desde un metro de altura, hacia un piso horizontal de baldosas con textura. El sistema es muy simple y con escasa ligadura, si es que se presenta alguna, entre los dos subsistemas. Transforma su energía potencial en cinética y luego en térmica y con el tiempo llega al equilibrio, freno del movimiento. La posición inicial es de sencilla codificación y descripción y las diferentes posiciones finales requieren variadas codificaciones y descripciones. La información acerca de las alturas originales se pierde y la entropía aumenta por disipación térmica. Conocida la posición final, no se puede reconstruir la posición inicial, cambiando t por -t en las ecuaciones dinámicas. La entropía aumenta a la ida, pero no la información; y la información aumenta a la vuelta en el tiempo. No así la entropía (ec. de Evans, (3)).
Incidencia de la arquitectura: El "sistema" cambia con otra arquitectura del piso, que ahora tiene forma de embudo con un caño en su punto más bajo, donde justo calzan verticalmente las dos pelotitas. Salvo que la pelotita
de 2 m transfiera su cantidad de movimiento a la de 1 m, el orden de los colores en el equilibrio se puede predecir de antemano. Hay un orden final autoorganizado por la arquitectura.
Incidencia del material: El "sistema" no es el mismo si de pelotitas elásticas se cambia a pelotitas plásticas, de brea, de masilla o de chicle, que se sueltan fuera del caño central. La influencia de la arquitectura desaparece. El analista reconoce que el ensayo previo requería un material especial (elástico) para lograr la autoorganización, que no se cumple con otro material.
Incidencia de fluctuaciones caóticas deliberadas: Trascendiendo más allá del ámbito de la termodinámica clásica, el sistema incorpora ahora a dos jugadores de ping-pong con paletas que atajan cada uno una pelota y le imprime un movimiento deliberado e iterativo hacia arriba. El sistema bifurca. Un ramal aparece si los jugadores se quedan quietos y coincide con la dinámica de párrafos previos. El otro ramal lleva hacia una transición de fase del desequilibrio, cuyo logro es la autoorganización entre los cuatro subsistemas, que son los dos jugadores con paletas y las dos pelotitas. El destino final de la autoorganización es una equivocación o una deliberación de los jugadores (una catástrofe). Aquí incide el material (elástico en lugar de plástico), la arquitectura (paletas deliberadamente movidas en lugar del piso para el rebote), los movimientos de ambos jugadores para no chocar entre ellos, las fluctuaciones deliberadas, etc. Incluso en el detalle de impedir el choque de jugadores, el sistema adquiere importantes ligaduras al tender al estado estacionario en pleno caos disipativo. Hay una ley en los movimientos de los jugadores, que un observador que no distingue a las pelotitas no reconoce ni sabe explicar. Esos movimientos se denominan caóticos en mecánica estadística, pues tienen su patrón y sus atractores, casi siempre muy difíciles de reconocer a simple vista. La mecánica estadística ha encontrado métodos para diferenciar dos cosas muy distintas: los movimientos caóticos y los movimientos regidos por ruido blanco gaussiano. Ruido significa sin patrón, blanco significa que contribuyen todo tipo de perturbaciones y gaussiano significa gran cantidad de causas, todas ellas pequeñas, ninguna preponderante. Un movimiento caótico no debe tener ninguna de esas tres características.
El caos es una palabra especializada. Caos es un subconjunto de dinámicas dentro de la complejidad, dinámicas que muestran (a) características recurrentes que no aparecen con el ruído blanco gaussiano y (b) una alta sensibilidad ante pequeñísimos cambios en las condiciones iniciales. El caos irreversible o disipativo, por ejemplo, es una condición fértil en posibilidades autoorganizantes. El ruido blanco gaussiano no. Un movimiento caótico se puede, con dificultad, controlar, lo cual es imposible de hacer con el ruido blanco gaussiano puro. En biología, la zona lindera entre el orden y el caos disipativo es frecuentemente propicia para el surgimiento de autoorganizaciones (Kauffman). Uno de los motivos de la fertilidad de evolución de un sistema complejo adaptivo ubicado en la zona lindera entre el orden y el caos, reside en que dos subzonas inicialmente alejadas tienen probabilidad no-nula de converger y dos subzonas inicialmente cercanas pueden diverger con igual probabilidad. Con ello están dadas las condicioones para que, con escasa probabilidad, aparezca una nueva organización espontánea de las estructuras generadas. El orden tiene que ver con la convergencia y el caos tiene que ver con la divergencia: en la zona entre orden y caos los dos fenómenos ayudan a la emergencia de nuevas soluciones, por aproximaciones sucesivas.
13.
Queda claro que para la aparición de autoorganización, la complejidad es un importante requisito, pero que la arquitectura y los materiales, la presencia de fluctuaciones y el caos disipativo, establecen condiciones necesarias adicionales.
f. Murray Gell-Mann (en Brockman-La Tercera Cultura, Tusquets, 1996, p.300) señala que el avance de este conjunto de conocimientos necesita de la elaboración de una teoría que discrimine entre sistemas complejos no-adaptivos y adaptivos, así como, dentro de la teoría adaptiva, entre sistemas no- compartimentalizados y compartimentalizados (p. ej. el cerebro, que se adapta tanto al mundo interno como al externo). En los autómatas celulares, quizás como resultado del muy escaso número de reglas (p. ej. dos) que respetan, un pequeñísimo cambio en las condiciones iniciales altera brusca e irreversiblemente su dinámica. La complejidad que emerge de diversas semillas iniciales es sorprendente.
g. La complejidad se puede analizar desde un nivel jerárquico superior. Aparecen allí conductas globales simples de todo un nivel inferior complejo (Parágrafo 1). La ciencia de la complejidad descubre casos de aparición de respuestas simplísimas, tanto para propiedades como para patrones, cuando un sistema complejo se ha autoorganizado, así como casos de sencillas leyes subyacentes.
La definición de información In, parte de una
situación "desinformada" donde de antemano pueden suceder un
número grande P0 de cosas o estados diferentes con igual
probabilidad a priori. Aquí I0 = k ln (P0/P0) = 0. Si uno mide y se informa, resulta un número menor P1 de dichas cosas diferentes que pueden suceder.
Entonces
La constante k en teoría de la
información binaria es igual a (ln 2)-1, mientras que en problemas
físicos es la constante de Boltzmann. Combinado con la
interpretación probabilística de la entropía,
mientras la información crece hacia la derecha de dicha lista, la entropía avanza hacia la izquierda. Cabe aclarar que el DNA se caracteriza por ser una estructura de átomos de carbono asimétricos (Prigogine). El mensaje es un paquete de información medible en bits, el vehículo es una hebra de la doble cadena polimérica, donde la asimetría de esta hebra es una de las condiciones necesarias para que pueda vehiculizar al mensaje. Por ejemplo,
14.
por estar lleno de átomos de carbono con posibilidades de estereoisomería.
A los efectos de la biotermodinámica, se llama aquí información a todo lo que conduce a un óptimo orden biológico, óptimo porque la evolución de la población debiera mantenerse en general, nó en la zona de estricto orden, sino en la fértil subzona límite entre el orden y el caos.
La información I, medida en bits, está relacionada por un lado a una cierta contribución de conducta ordenada (regular, asimétrica, ligada como está a la "ignorancia" o a la "especificación incompleta" del sistema) y por otro lado caótica (que a veces deja emerger nuevas formas y patrones).
En resumen, la coexistencia del orden y del caos da origen a este nuevo concepto de la información, que puede emerger de esa coexistencia con probabilidad no-nula. (Prigogine y Nicolis, p. 191). Como la zona lindera entre el orden y el caos está en pleno ámbito de la complejidad, se puede suponer que la información es la emergencia más notable de la complejidad propiamente dicha: esa información emergente se establece alejándose del referido límite y lo hace hacia la plena zona de orden. Está claro que el orden puede surgir de una condición previa no-lineal, irreversible en el tiempo y alejada del equilibrio y que el caos contribuye a la información con sus no infrecuentes nuevas formas, nuevos patrones, nuevas potencialidades.
La "información requerida para caracterizar un sistema", por ej. la cantidad de parámetros b0...b5 en la ec. (2), es alta si el sistema es complejo y es baja si el sistema es simple. Ejemplo de sistema simple es la ec. (2) con b3 nulo o con sólo b0 no-nulo. Para un sistema simple, le resulta fácil al analista que la estudia sentirse "informado". Por lo contrario, la "informacion accesible por adelantado (a priori) al analista" es muy escasa en los sistemas complejos. Todo esto se enriquece con la reciente teoría de la información "jerárquica".
Un sistema complejo ofrece de suyo la posibilidad de alta sorpresa, ya que eso es lo señala como caracteristica de la complejidad la definicion de Herbert Simon del par. 6.
A una alta sorpresa se la llama información I en la teoría de la información de Shannon. Shannon concreta que la información es la reducción de la incertidumbre.
Por ejemplo, una fábrica de zapatos manda todos los días un dato dentro de una reducida banda con la cantidad de docenas de zapatos fabricados: entonces, la entropía S (probabilidad) de cada dato en la lista es muy alta y la sorpresa I de los datos tomados en conjunto es muy baja. Planteado el caso límite de cantidades diarias siempre iguales (entropía S máxima) y sorpresa I nula, resulta un caso límite de la ec. de Evans, que
I es alta si es alta la desinformación o incertidumbre a priori contrastada por una gran sorpresa y gran certidumbre a posteriori. I es baja en el otro caso: el de la fábrica. Los datos de operación tienden a ser los más probables y uniformes a priori y nada sorprendentes a posteriori de constatarlos. S puede ser alta o baja segun lo explicado en el par. 3. De la ec. de Evans (3) se despeja que en la fábrica de zapatos la entropía S del mensaje es máxima, valiendo K, ya que la información I de ese mismo ensaje es nula, porque la probabilidad del dato recibido es día