Barral & v d Becke- VIII-- Temas previos

50.

teorizar sobre el aprendizaje perceptual, el aprendizaje cognitivo y el aprendizaje de acciones motoras, como emergiendo de una explicación mecanística única, explicación que copia lo modelizado de la causa del reconocimiento en K, también para C y para D. La causa del reconocimiento en K, que resulta por el modelo común también a C y a D, es el troceado (Apéndice 8).

En la Fig 15 se ilustra la arquitectura del espacio de problema, referido al caso del mundo de los dos baldes.

Todas las tareas imaginables pasan (en este modelo Soar) por sus diferentes estados y sus asociados espacios de problema. Los sentidos informan la condición inicial. El listado de metas u objetivos permite generar conductas. Los subobjetivos se crean automáticamente a partir de la aparición de impasses.

En la Fig 16 se observa un detalle de la tarea de flujo de información subsimbólica entre la memoria de largo alcance (especializada aqui en su tarea de memoria asociativa) y la memoria de trabajo.

-------------------------------------------------------------------------
       MEMORIA ASOCIATIVA (una parte de la memoria de largo alcance)
                * Ejecución de producciones Km  *** --> oo

K1             C1  y C2   y C3   --operador->  A1  , A2

K2                    C4  y C5   --operador->  A3

K3     C6  y  C3  y  C5  y  C7   --operador->  A1  , A4
-----------------------------------------------------------------------
                ! Ej !                              ! An !
------------------------------------------------------------------------
            MEMORIA DE TRABAJO (una parte de la memoria rapida)

                           E1  , E2  , E3  ,...
---------------------------------------------------------------------------

Fig 16. Como en figuras previas, la linea horizontal separa dos memorias distintas. La memoria de trabajo alberga una colección de elementos de datos Ej. De esa colección filtra pistas, similitudes o fragmentos de sus elaboraciones Ej, que envia a la memoria de largo alcance, como elementos que se codifican, Cl. Con la ayuda de estas pistas codificadas, Cl, la memoria asociativa las asocia con otras pistas Cl' análogas, que alberga. Con algunas de ellas arbitra producciones codificadas Km (con aportes de los espacios de problemas) que se devuelven, descodificadas, An, como acciones motoras. Las producciones cognitivas Km, de las cuales se muestran tres ejemplos, pueden ser miles en dos segundos. Tienen la forma de un estado inicial u operando inicial C, que mediante un operador se transforma en una acción descodificada A. Nótese que por analogía con lo que se modeliza para espacios de problema, la transformación de los operandos C codificado en A descodificado, de nuevo se realiza con operadores. D (omitido en este esquema) ocurre entre K y A. Queda claro que las alarmas tienen componentes alarmantes y componentes neutros. Ej los abarca a ambos. Las producciones de la memoria asociativa se generalizan con estos símbolos abreviados:

*** ---> oo
y largos:
x + x' + x" ---operador---> y + y'.

Esta típica tarea intelectual no ocurre sin inconvenientes. Lo habitual es que el proceso se trabe. En el sistema cognitivo K, el mecanismo para la conclusión a extraer necesita bioenergía. El motivo reside en que, en la experiencia previa, no hay registrada solución

*** --> oo
exactamente

51.

igual a la planteada por los inputs Ej. Se debe proceder por analogía. Es el momento cuando el sistema cognitivo aprende. No aprende durante la deliberación ni durante la preparación o CBR. Todo el resto se supone, ya sea aprendido, ya sea heredado (si se trata de un sistema cognitivo biológico) o precableado (si se trata de un sistema artificial). Esta etapa se denomina impasse de Newell y consiste en aplicar al caso la creación de un espacio de problema con la meta de salir de la impasse (Apendice 8). De esto se deduce la necesidad de un listado de objetivos o metas asociados con impasses, adelantada en la Fig 12.

Queda explicado que la acción A es función de los datos aportados por los sentidos fisiológicos y por el reservorio de experiencias.

   
A= f(datos externos con sus pistas, experiencias previas con sus pistas)

f ocurre en P-C-K-D-M, aunque en especial en el espacio de problemas conectado a K y su receta es fuertemente educable, en C-K-D.

Allen Newell define como alto nivel de inteligencia, al que caracteriza a un sistema que, antes de actuar, intenta reconocer, si las hubiera, todas las pistas similares a las recién ingresadas, barriendo las experiencias, reglas y metarreglas previas registradas.

Biologicamente muchas alarmas o aun tareas no asociadas con alarmas, exigen un proceso *** ---> oo urgente de ciertas señales alarmantes del ambiente. Esto es explicable con la misma cascada P-C-K-D-M, aunque la version rápida (CBR) de dicho proceso no siempre llega a satisfacer la totalidad de lo requerido para resultar una respuesta inteligente (racional). Es innata (irracional), o resultante de un entrenamiento.

Soar, el primer modelo importante de inteligencia artificial compite con otros modelos que van apareciendo, de los cuales el ACT-R (Anderson, Lebiere) es excelente (Johnson TR). Soar muestra numerosos logros en su lista de parecidos con la actividad cognitiva humana. Por ejemplo: * Es un sistema simbólico capaz de abstracciones.

* Segun las circunstancias, muestra conducta ya sea automática, ya sea controlada, ya sea adaptiva. Se adapta a las contingencias sin plan previo.

* Está basado en un comparador generador de alarma por reconocimiento de pistas. El reconocimiento es fuertemente asociativo, sin mostrar de antemano un acceso deliberado a todo lo que conoce. Eso limita su inteligencia, definida en párrafos previos.

* Aprende de la experiencia (usando su registro de pistas). Recordar puede ser un problema, que se puede encarar con la técnica del espacio de problema.

* Es de rápida lectura de estímulos del mundo externo y, en general, de lenta respuesta.

* Está orientado a metas y objetivos, no sólo porque aprende metas, sino porque las metas se autogeneran por interacción con el ambiente.

* Está guiado por interrupciones, con búsqueda local que primero se introduce en alguna rama del árbol decisional y luego profundiza en ella. Contrariamente al General Problem Solver, carente de distracciones, aparecen distracciones naturales en el circuíto decisional. No sabe como va realizando su tarea, aunque es capaz de reconstruir lo que acaba de hacer.

* Es un proceso en serie en el medio de un paralelismo generalizado.

* Su conducta por defecto es fundamentalmente adaptiva; se adapta a las contingencias sin un plan previo.

Muchas de estas características serán notables en el modelo de arquitectura cerebral que se ha de proponer a partir del paragrafo 21.

52.

14. MODELO DE COMPUTACION COLECTIVA DE UNA RED

Antes de emprender la lectura de este parágrafo, conviene que el lector experimente con

* un OCR (optical character recognizer) como el que usan los escaners de lectura de textos, de los cuales es muy did'actico el programado por The Visible Neural Network, Inc, denominado Optical Character Recognition Demo, del cual el principal mensaje resulta ser que con cada ciclo de entrenamiento que pasa, el OCR va acertando un número creciente de patrones que en realidad son letras mayúsculas y dígitos, evidencia que aprende; y

* algun simulador tipo robot bidimensional, de la conducta de un invertebrado o de un batracio, entre los cuales es muy recomendable el programado por Beer y ofrecido con el nombre de Nervous System Construction Kit para PC, por los Williams, del cual el principal mensaje es que cambiando los parámetros de algunas de las casi 80 "neuronas" computacionales, similares cada una de ellas a las dos que se grafican en b de la Fig 17, cambia la conducta del robot bidimensional. El robot opera como un conjunto autoorganizado del cual se observa en el monitor cómo se desplaza, cómo retrocede en callejones sin salida y como bordea obstáculos que lo separan de la fuente de bioenergía, mostrando transiciones de fase del desequilibrio cuando enfrenta obstáculos preparados por el estudioso o cuando detecta dicha comida y se harta de ella. En este caso La inteligencia del robot no requiere memoria y se basa en la adaptabilidad del circuito neural a las condiciones externas. En ese circuíto no existe un agente que dirija el tráfico ni un reglamento innato que rija la conducta: la principal explicación reside en la tendencia termodinámica hacia un espontáneo y cambiente equilibrio de Kirchoff, que oculta el respeto al principio de Le Chatelier.

En el primer caso el diseño se parece a la Fig 19, cuyo texto es un resumen de lo que se puede observar con el ORC.

En el segundo caso se está empleando el bastante reciente acierto de Hopfield (1982) con el reemplazo de las neuronas biológicas por amplificadores operacionales analógicos, diseño que alcanza, en principio, para explicar muchas propiedades trascendentes del cerebro humano a nivel subsimbólico y subcognitivo, sobre todo algunas de la memoria asociativa y de la interpretación de la información. Los amplificadores operacionales analógicos, las resistencias, los condensadores y el cableado de Hopfield son dispositivos electrónicos, aptos - como es el caso - para ser simulados con programas computacionales digitales. La computación colectiva que alli se logra se basa en

* partir de condiciones iniciales alejadas del equilibrio y que representan un problema físico a resolver a nivel subsimbólico, de interpretación de la información y de memoria asociativa; y

53.




















Fig 17.- Circuíto biestable o flip flop, con tomas a tierra batería - resistencia para cada uno de los dos amplificadores operacionales. El amplificador simula a una neurona y la toma a tierra simula a la membrana de la neurona, por la cual se pierde actividad. (a) Cada amplificador operacional de (b) se puede saturar con valores límite o asintóticos cualquiera que sea la tensión de entrada de alguna de las dos maneras indicadas por linea llena (normal, excitatriz) o de rayas (invertida, inhibitoria). Esta última se usa en el ejemplo. (b) La evolución del circuito biestable depende del cociente entre los pesos de las resistencias centrales. Los dos circulitos blancos Va y Vb son los sitios para introducir las excitaciones externas o inputs. Los otros dos a la izquierda son posiciones adicionales para el ingreso de corrientes. Los dos llenos o negros son sitios usados para la medición de los potenciales Va y Vb de output registrados en las graficas siguientes. (c) Si el proceso recibiese Va = Vb a la entrada y tuviese iguales valores para las dos resistencias centrales de (b), evolucionaría ya sea hacia (Va Vb) valiendo (-1 +1) o bien a (+1 -1), los dos atractores existentes. La trayectoria superior comienza con Va = Vb, puesto que esta sobre la diagonal que actua de separatrix (lugar geometrico separador) entre ambos atractores. Se orienta hacia uno de los atractores en lugar del otro por algun desbalance circunstancial que no aparece explicito, pudiendo ser asimismo una trayectoria hacia el otro atractor motivado por otro desbalance. La segunda

54.

trayectoria marcada se explica porque el punto inicial está del mismo lado de la separatrix que el atractor. (d) Trayectoria en el caso cuando las resistencias centrales de (b) son iguales. (e) Lo mismo, pero aquí desiguales: desaparece la biestabilidad y pasa a haber un atractor único asimétrico con rotura de la simetría previa. De un ordenamiento inicial biestable (d) hubo una transición de fase hacia otro ordenamiento distinto monoestable (e) causado por el cambio desde un cociente entre los pesos de las resistencias centrales con valor, por ejemplo, 1, hacia otros valores apartados. (Tank y Hopfield, Investigación y Ciencia, feb 1988, p. 47).


* terminar en un equilibrio de Kirchhoff para la red interconectada, equilibrio detectado por una energía de computo E que se debe minimizar (como hubo que minimizar el potencial V en el Apéndice 3). En un problema de interpretación de la información hay posibilidad de encontrar diversas soluciones tentativas. Se reconoce como la mejor la que satisface dicha minimización de E en un circuíto de amplificadores/neuronas. Cada uno de estos últimos "vota" con un signo +1 (descarga sinaptica) o -1 (pasividad).

El signo o voto s ingresa en una fórmula que contabiliza todas las interacciones de ida y de vuelta de todos los amplificadores operacionales (neuronas) de la red. Ella es, justamente, la fórmula para la energía E a minimizar, energía análoga a la que aparece al alterar los espines del vidrio de espin y que se ha denominado energía de cómputo: 

              E = -(Sigma) Vij. si.sj => MIN                      (5)
                         iØj

energía que evoluciona hasta que todos los signos si(t) de los amplificadores coincidan con este otro signo:
        sgn (Sigma) {Vij(sj(t))+1]/2 - Voi }                     (5a)

En el caso infrecuente de obtenerse cero con esta expresión, convencionalmente se reemplaza dicho cero por +1.

V es el potencial, la actividad o el estímulo para la descarga
i es el sumidero
j es la fuente
o se refiere al valor umbral necesario para que se produzca descarga
sgn indica el signo.

La expresión (5a) contabiliza el signo que surge de contrastar un minuendo - el estimulo actual - y de un sustraendo - el estímulo umbral - y modificando el -1 de la nomenclatura de (5) por el cero en la nueva de (5a). Para s hay dos valores, +1 y -1; para el minuendo de (5a) esos dos valores son +Vij y cero. Todos los signos pueden ser positivos al final, o bien todos negativos. En cualquiera de ambos casos la energía de cómputo es mínima y el proceso termina. Mientras no coincidan los signos, el proceso sigue. A su vez, la expresión (5) invita a maximizar los diferentes Vij y a lograr que no haya diferencia de voto entre i y j. Como ejemplo considérese el circuito biestable con N=2 amplificadores saturables de la Fig 17.

Cualquiera que sea la zona de partida para las dos V posibles, convergen a que si la salida de Va tiene un signo, la de Vb tiene el opuesto, con lo cual se presentan dos atractores posibles. Corresponden a equilibrios de Kirchhoff, estables frente a pequeñas perturbaciones. La dinámica se

55.

















Fig 18. En este modelo esquemático de las neuronas fotorreceptoras del caracol, las zonas punteadas son modificaciones anatómicas resultantes de un aprendizaje antihebbiano (Daniel Alkon, Sci. Am., 261,1 (July 1989).


estabiliza con mínima energía de cómputo de la ec. (5) sujeto a la restricción (5a). Esto exige una actualización asincrónica de los N amplificadores, ya que fracasa con actualización sincrónica.

En 1982 este desarrollo significó una gran novedad. Las redes con esta arquitectura pueden aprender. Cómo aprenden depende de muchos factores. Observando el robot bidimensional de Beer citado al principio de este parágrafo, el circuíto no aprende de manera alguna y corresponde a la situación ideal "x" en el orígen de coordenadas de la Fig 9. Observando la operación del OCR, el circuito realmente aprende en la medida que los datos analizados a la entrada tengan estructura. Pueden encontrar relaciones en común de muestras a la entrada que se les proporcionan (aunque no es nada sencillo traducir esas relaciones, que usan muy bien las redes, a significados fáciles de entender) y generalizar esas mismas relaciones a otras situaciones, como hacen muchos robots y animalitos (APENDICE 4).

15. MECANISMOS HEBBIANOS

La clave del aprendizaje reside en que los pesos de las diferentes conexiones neuronales (mostradas como resistencias en la Fig 17.b), pueden ser reajustados de una manera incremental, ya sea cuando los datos básicos tienen estructura (lo cual se reinterpreta como un "maestro oculto" que ayuda a aprender), o bien cuando existe un maestro explícito que indica si la tarea intentada fue correctamente ejecutada o no.

¿Cómo saben los pesos hacia dónde y con qué paso de avance cambiar? En los chips que aprenden, son algoritmos que detectan el signo del vector que

56.

apunta hacia la mínima energía de computo. En los animales son los mecanismos hebbianos o antihebbianos de alteración de neuronas con el aprendizaje, que algunos autores visualizan como el tipo mostrado por la Fig 18. Existen otras hipotesis alternativas, como la danesa descripta en el APENDICE 4.

La regla de Hebb señala que si las descargas entre dos neuronas i y j conectadas entre sí, son transmitidas por una conexión en forma repetida y persistente, algun mecanismo de crecimiento o cambio metabólico sucede a uno y a otro lado de la hendidura sináptica, resultando como consecuencia de ese refuerzo, que entre j e i aumenta el potencial o actividad Vij. Otros autores acuñaron el término de antihebbiano para referirse al mecanismo de disminución por inhibición. Excitaciones e inhibiciones, en conjunto, podrían responder a un imperativo de búsqueda de mínima energía, si bien Francis Crick (en The Astonishing Hypothesis, p. 102) concreta de esta otra manera cómo aparecen excitaciones e inhibiciones:

"Aunque algunos modelos teóricos suponen que la excitación es simétrica a la inhibición, en el neocórtex no lo es. Las conexiones a larga distancia de una zona cortical a otra, surgen solamente mediante neuronas piramidales. Son todas excitatorias. Los axones de la mayoría de las neuronas inhibitorias son, en cambio, bastante cortos y solamente influyen sobre neuronas del vecindario. Las neuronas excitatorias e inhibitorias difieren morfológicamente entre sí (con una posible excepción menor)... Todas las neuronas reciben tanto excitaciones como inhibiciones, presumiblemente para evitar que queden siempre silenciosas o que se vuelvan salvajes."

Hopfield se basa en Hebb para formular la segunda expresión relacionada con los signos, donde aparece Vo, parámetro tipicamente hebbiano pues puede cambiar.

Como resumen, se puede afirmar que hay una serie de conceptos secuenciales que se refuerzan mutuamente y que están fuertemente correlacionados: coherencia y coevolución interna entre subsistemas biológicos en un sistema complejo en condiciones de sujetarse a una transición, y decisión conjunta reforzada o inhibida hebbiana o antihebbianamente, aparentemente para acceder a atractores caracterizados por mínima energia. Resta por considerar que en la mente (no así, a lo que se aprecia, en los actuales chips informáticos) los fenómenos importantes ocurren, ya sea en la zona intermedia entre el orden y el caos, o bien en plena zona de caos, lo cual parece quedar evidenciado por el estudio de las ondas electroencefálicas.

Siguiendo las mismas lineas precedentes, Donald O. Hebb fue el primero en probar, en su Organization of Behavior, que los pensamientos o ideas y sus mecanismos de generación tienen una base física tan firme como los movimientos musculares. A partir de esa verificación, se fue elaborando un así llamado modelo darwiniano del pensamiento (Calvin, Investigación y Ciencia, Dic. 1994, p. 81-85.)


Temas siguientes

Actualizado 20 de Octubre, 1998

(Página en preparación) Adios.

1