En los "robots invertebrados" sin memoria ni aprendizaje con costumbres simuladas por circuítos electrónicos, como los de Randall Beer, se observa la respuesta a condiciones cambiantes del entorno que significan verdaderas costumbres emergentes de dichos circuítos neurales. Avanzando en la simulación e incoprporando aprendizaje y memoria, como hace Christian Balkenius, las posibilidades de buen éxito se notan con facilidad. En esto se sigue tentativamente la vía evolutiva, que fue maximizando el número de costumbres de las especies zoológicas más y más complejas segun el creciente índice de encefalización (Fig 6).
Un modelo para la termodinámica del cerebro que puede ilustrar la vía evolutiva y que se conoce bien, es el ya introducido de redes neurales de Hopfield. Se puede considerar un sistema en breve detalle, que se retoma mas adelante, para introducir ahora algunos conceptos basicos. El tema a estudiar en este y otros parágrafos, es el del reconocimiento, practicamente instantaneo, de una persona, que hace la red neuronal biologica. Se busca lograr esa proeza tambien con un reconocedor de imagenes logrado con una red neural artificial. Este tema es una ruta hacia la interpretación que se le puede dar a la resolución de muchas otras situaciones complejas más o menos similares.
Sea una red de Hopfield (Fig 17 y 19) que almacena imagenes y las puede volver a entregar. Cada pixel (o punto) de la imagen entregada corresponde a una neurona o amplificador operacional de la red. El nivel gris oscuro del pixel se representa por la activación de una neurona [su potencial real Vij supera al potencial umbral Voi, ec.(5a)]. El nivel blanco es para el otro caso. Las neuronas de Hopfield son binarias. Cada neurona puede tomar una de dos activaciones o potenciales. Esto recuerda a los espines de los vidrios de espin, que microscopicamente pueden apuntar solo para arriba o para abajo. No hay capas de neuronas ocultas, todas las capas son visibles. Cada una de ellas corresponde a un pixel de la imagen. Las neuronas estan ligadas por conexiones. Las conexiones tienen su peso asociado. Ese peso especifica la importancia de la ligadura. Un peso nulo implica desconexion.
ENTRADAS ! ! ! ! ! MATRIZ DE SINAPSIS ------------------------X---X---X---X---+---------------------------> ! ! ! ! ! ! S ! --------------------X---X---X---+---X---------------------------> A ! ! ! ! ! ! ! L ! ! ----------------X---X---+---X---X---------------------------> I ! ! ! ! ! ! ! ! D ! ! ! ------------X---+---X---X---X---------------------------> A ! ! ! ! ! ! ! ! ! S ! ! ! ! -------+---X---X---X---X---------------------------> ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! O O O O O <-NODOS ! ! ! ! ! ! ! ! ! ! ! ! ! ! ------- ! ! ! ! ! ! ! ! ! ! ! ! ! ! ! ------------------ ! ! ! ! ! ! ! ! ! ! ! ------------------------ ! ! ! ! ! ! ! -------------------------------- ! ! ! -----------------------------------------
Fig 19 - Circuíto de Hopfield con cinco nodos (O) similares a A de la Fig 17 b, estableciendo entre ellos veinte sinapsis o pixels (X) de a dos. Segun el peso de las conexiones la matriz de veinte sinapsis o pixels modeliza el recuerdo de una dada imagen muy sencilla, recuerdo que sobrevive en epocas de no-uso aunque no circulen pulsos eléctricos por el circuíto, ya que la imagen está en los pesos y en la arquitectura esquematizada. Ese mismo recuerdo se activa cuando vuelven a acceder los pulsos eléctricos. Cada nodo suma todos los efectos que ingresan a él multiplicando la señal de ingreso que será ya sea +1 (excitación) o -1 (inhibición) por el valor del peso. Así si la señal vale -1 y el peso vale 2, el efecto efluente del nodo será -2, mientras no cambien los valores. Pero los valores cambian si no están en su óptimo y los cálculos se repiten una y otra vez hasta lograr estabilidad o mínima energía de cómputo. Basta que se le proporcione una "pista" al circuíto, para que luego de varios intentos éste se deslice hacia un mínimo. La salida correcta coincide con el patrón a recordar. La base de estas ideas está en el modelo de los vidrios de espín de la física.
una de dos activaciones o potenciales. Esto recuerda a los espines de los vidrios de espin, que microscopicamente pueden apuntar solo para arriba o para abajo. No hay capas de neuronas ocultas, todas las capas son visibles. Cada una de ellas corresponde a un pixel de la imagen. Las neuronas estan ligadas por conexiones. Las conexiones tienen su peso asociado. Ese peso especifica la importancia de la ligadura. Un peso nulo implica desconexion. En una red de Hopfield sin modificar, los pesos entre neuronas son simétricos: la conexión desde la neurona A a la B tiene el mismo peso que la conexión de B a A.
Existen dos técnicas basicas: sin aprendizaje y con el. En ambas los
SIN APRENDIZAJE - Aquí los pesos son datos despejables a partir de correlaciones de los patrones a almacenar.
Para cada configuración de los valores de potencial o activación, se puede calcular la distancia entre la imagen en elaboración y la imagen más cercana guardada. La incognita del cálculo es el juego de potenciales oactivaciones coherente con la imagen almacenada. Esta búsqueda se realiza en un espacio de activaciones y el proceso de búsqueda, denominado en mecanica estadistica la dinámica del modelo de Hopfield, puede ser prescripto y descripto en dos niveles.
El nivel más bajo se preocupa de hallar la forma de actualizar las activaciones con el avance del tiempo. Las reglas se circunscriben a una zona restringida. La decisión de conectar o desconectar la activación de una neurona depende solo de las activaciones de las neuronas cercanas y de los pesos cercanos.
El otro nivel más alto se preocupa de minimizar la energia de computo E, una cifra global que depende de las activaciones o potenciales y de los pesos de la red entera. Estos dos niveles son complementarios y se puede probar que si se actualizan correctamente las activaciones locales, desciende la energia E global.
Entregar una imagen correcta, sin aprendizaje, es un proceso que comienza proporciónándole a la red, como input, una versión parcial y con ruído de alguna imagen original, que junto con otras imagenes originales, ya estuviesen cargadas en dicha red. El objetivo es que iterando hasta el final de las etapas de un algoritmo de actualización de activaciones, se entregue la imagen resaltada y corregida correcta y no alguna otra. Este proceso equivale a que, como en la Fig 17 e, el input ingresado resbale en el interior de un pozo de energia (o un espacio de activaciones) hasta detenerse en el atractor más cercano. Un aspecto del modelo de Hopfield consiste entonces en revelarse como una máquina que busca imagenes en unespacio de activaciones a traves de la actualización local de datos de activación, donde la similitud a una imagen original guardada se describe mediante una función energética a minimizar, con producción de entropia.
Pero buscar un minimo es una operación de optimización muy general que no se circunscribe al estrecho campo del reconocimiento de patrones. Cualquier otro problema de optimización es susceptible de ser encarado por la red. Y, basicamente, hasta una mera suma se puede replantear como una optimización, donde la diferencia entre el valor del resultado tentativo, menos el valor de la suma de los sumandos que ingresaron como inputs, debe tender a cero.
Una inacabable cantidad de problemas presimbólicos resultan accesibles a la elaboración mediante una red pura. A ella se adiciona una gran cantidad de problemas simbólicos, mediante alguna estructura mixta con sistemas expertos (desarrollos de la inteligencia artificial que reproducen el razonamiento de un experto en algun campo del conocimiento). Las restricciones en una optimización pueden ser duras o blandas. Si fuesen duras, se las transforma en una penalidad que se suma a la energia de cómputo, generando una energia efectiva a minimizar. Esta misma idea se usa en las redes que aprenden. En ellas surge un compromiso entre complejidad y error durante el entrenamiento: es inconveniente el agrupamiento de un excesivo numero de nubes o clusters de datos.
CON APRENDIZAJE - Durante el aprendizaje (segundo paradigma), con algun manipuleo, es posible hacer aparecer de nuevo una función energética a minimizar, asociada con el mal exito de las primeras tentativas de aprendizaje. La termodinámica es entonces la misma, y la diferencia principal con las optimizaciones previamente explicadas reside solamente en que antes se buscaba optimizar en un espacio de activaciones Vi, ya que las activaciones o potenciales eran adaptivos. Ya no. Ahora hay que optimizar en un espacio de pesos ai pues la incognita es que peso adaptivo ponerle a las conexiones de la red, cuando las activaciones o potenciales son datos. Las máquinas que no aprenden y carecen de capas ocultas se denominan circuítos de Hopfield y las que si lo hacen y tienen capas ocultas se denominan maquínas de Boltzmann.
Ambas técnicas son casos de dinámicas típicas de la termodinámica del desequílibrio. En el primero las redes son más lineales y en el segundo tienen fuertes no-linealidades (par. 19). Los detalles del aprendizaje se pueden comprender mediante el demo de OCR recomendado al principio del parágrafo 14. El reconocimiento de qué significan fisicamente las cifras finales para las activaciones y sobre todo para los pesos que adquíeren las redes que aprenden y que estan sujetas a cambios de inputs, es una ardua tarea, sólo desentrañable si se plantean casos límites de extraordinaria sencillez.
Para quíen se inicia en este campo, basta con reconocer que simplificando fuertemente la situación real, se puede llegar a entender por qué los pesos y las activaciones finalmente se han configurado en un juego de valores que reproduce correctamente lo deseado. El proceso barranca abajo (Fig 17 e) es esencialmente biotermodinámico. La arquítectura de la red, en si misma muy modificable, se considera en el parágrafo 20.
Interesa discutir sobre la realidad biológica de todos los algoritmos asociados con este tema, por ejemplo la ley de representación y las ecuaciones (5). El algoritmo más usado de avance barranca abajo, el de la retropropagación, resulta ser, segun señala David Zipser, un buen método para identificar y encasillar el problema al cual se aplica. Además, al minimizar el error, llega a una solución que por sus características generales se asemeja a las vías naturales. Es un primer paso en la dirección correcta, que permitirá algun día comprender el aún misterioso comportamiento - por lo intrincado - de las redes naturales tanto naturales como artificiales en vías de aprendizaje. La hipótesis psicofísica sugiere por ahora que "gran parte" - y más comprometidamente para algunos autores "todos" - los atributos mentales emergen de las redes y subrredes neuronales en interacción, con la colaboración de los signos detectados por los sensores que monitorean el medio externo. El énfasis demasiado volcado a explicarlo todo con sólo las redes, implica no tomar en debida cuenta los símbolos y signos (alarmas y seudo-alarmas) que tambien despiertan la actividad mental. No se sabe aún en cuál hipótesis creer cuando se analiza el origen de los valores humanos, por citar un ejemplo. Pero es suficiente, a esta altura, reconocer que muchos fenómenos emergentes del cerebro responden a su arquítectura y que la psicofísica explica con buen ritmo cada vez mayor cantidad de aspectos de las neurociencias. Como la termodinámica del desequílibrio es la mejor candidata para desentrañar el sentido general del avance barranca abajo, cabe solamente esperar que se vayan solucionando lo que hoy parecen restricciones insuperables, que tambien surgen en la mecánica cuántica (el principio de Heisenberg) y en la mecánica estadística (la flecha del tiempo).
Vuelta a índice de Biotermodinámica del Cerebro
Raúl Barral - Carlos von der Becke: Biotermodinámica del Cerebro - 2000