domingo, junio 24, 2007


La Primera Revolución Cognitiva (II Parte): El desarrollo del enfoque conexionista.

La arquitectura conexionista o de redes neuronales, tuvo éxito precisamente en aquellas tareas que no pudo abordar el enfoque simbólico, como los patrones de reconocimiento, la comprensión del habla, la capacidad de aprendizaje y el desarrollo de una mayor autonomía en la ejecución de las tareas. Estas actividades, que aparentemente resultan sencillas de ejecutar para un ser humano, eran muy difíciles de implementar en un sistema computacional clásico, lo cual indicaba que los cerebros operan de una manera distinta a las máquinas von Neumann. Paulatinamente, se fueron replanteando algunas ideas convencionales, haciéndose evidente, como señala Varela, que la conducta inteligente más compleja y sofisticada no es la del experto, sino “la del bebé que puede adquirir el lenguaje a partir de manifestaciones cotidianas dispersas, y puede constituir objetos significativos a partir de lo que parece un mar de luces.”[1]

A diferencia del modelo centralizado y serial de GOFAI, el conexionismo opera en forma distribuida y en paralelo, pues se basa en una red de procesadores simples similares a las neuronas, llamados nodos o unidades, los cuales están interconectados dinámicamente entre sí. Cuando un nodo o unidad está encendido, manda señales de output a los nodos vecinos, las cuales varían en fuerza o intensidad dependiendo del grado de activación que presente ese sector de la red. La fuerza de la conexión entre los nodos se denomina peso, el que al aumentar disminuye la resistencia de las conexiones, fortaleciendo la transmisión y recepción de las señales. Los pesos varían en función de la experiencia, lo que significa que como resultado de su operar la red cambia su estructura, modificando la fuerza de sus conexiones, lo cual permite construir sistemas capaces de aprender de maneras naturales.[2]

La idea de que el aprendizaje es mediado por variaciones estructurales en las sinapsis es tradicionalmente atribuida a Donald Hebb, quien en el año 1949, publicó un libro titulado “La Organización de la Conducta”, donde señala:

“Cuando un axón de la célula A está lo suficientemente próximo como para excitar una célula B y de forma repetida o persistente interviene en la descarga de ésta, se produce algún proceso de crecimiento o cambio metabólico en una o ambas células, de tal forma que aumenta la eficiencia de A como una de las neuronas que provocan la descarga de B.”[3]

Esta conjetura, conocida como sinápsis de Hebb o hipótesis del aprendizaje neuronal de Hebb, si bien no pudo ser comprobada en ese entonces en el tejido neuronal, contribuyó significativamente al desarrollo del conexionismo y, en la actualidad, ha podido ser corroborada gracias al desarrollo de la tecnología utilizada por la neurociencia.

En una red conexionista, el aprendizaje opera en base a un proceso de retroalimentación que ajusta los pesos entre las unidades de acuerdo a un algoritmo de aprendizaje o de retropropagación, que le permite al sistema corregir paulatinamente sus errores hasta llegar a un estado de ejecución aceptable. La red cambia los pesos de las conexiones, sus estados internos, haciendo el cálculo de probabilidades necesario para que la salida resultante se aproxime lo más posible a la salida correcta u óptima. Este proceso recursivo de cambios estructurales, supone la existencia de un cierto tipo de memoria, que le permite al sistema, teniendo como base su experiencia, recordar cómo procesar un determinado input o entrada. Sin embargo, esta capacidad de la red que se puede distinguir como memoria, no corresponde a un almacén o dispositivo de memoria similar al que utilizan las máquinas von Neumann, sino más bien a un patrón de interacciones recursivas que el sistema es capaz de utilizar.

El operar característico de las redes conexionistas, les permite contar con una autonomía y flexibilidad de la que adolecen los modelos que operan bajo un procesamiento serial, haciendo posible que estos sistemas presenten conductas inteligentes como resultado de su dinámica organizacional, es decir, la inteligencia se presenta como un fenómeno que emerge de la forma de operar que tiene el sistema. Estas propiedades emergentes que presentan las redes neuronales, son una característica que las diferencia claramente de las arquitecturas clásicas, pues lo que un observador distingue en el operar de estas redes como un actuar integrado y significativo, inteligente, es resultado de una compleja integración de agentes sencillos que presentan propiedades elementales, prenderse o apagarse, sin la necesidad de contar con una unidad de supervisión central.


[1] Varela, F., Thompson, E., Rosch, E. The Embodied Mind: Cognitive Science and Human Experience. MIT Press, Cambridge, Mass. 1991. Edición en español, De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana, Ed. Gedisa, Barcelona. 1997. p. 113.

[2] Tienson, John. An introduction to connectionism. The Southern Journal of Philosophy 126. 1987. En Rabossi, Eduardo (comp.). Filosofía de la mente y ciencia cognitiva. Ed. Paidós. Barcelona. 1995.

[3] Hebb, Donald. The Organization of Behavior. Wiley&Sons. New York. 1949. Cit. en Kolb, Bryan, Whishaw, Ian. An Introduction to Brain and Behavior. Worth Publishers. New York. 2000. Edición en español, Cerebro y Conducta: Una Introducción. Ed. McGraw-Hill, Madrid. 2002. p. 173.

domingo, junio 03, 2007

La Primera Revolución Cognitiva: El desarrollo de la Inteligencia Artificial.



John von Neumann (1903-1957) junto a ENIAC


El desarrollo conceptual impulsado por la cibernética, los trabajos de McCulloch y Pitts en el ámbito de las redes neuronales artificiales, los esfuerzos hechos por Alan Turing y su equipo para diseñar un mecanismo que basado en circuitos electrónicos pudiera descifrar el código utilizado por los militares alemanes para comunicarse y el diseño que posteriormente hiciera John von Neumann para ENIAC (Electronic Numerical Integrator and Calculator), conocido como arquitectura von Neumann, basado en procesos de retroalimentación, permitieron el desarrollo de los computadores digitales hacia fines de la década de 1940.

Siguiendo las ideas propuestas por el filósofo alemán Gottfried Leibniz (1646-1716) y por el matemático inglés George Boole en el siglo XIX, quien sugirió que las leyes que gobiernan el cálculo proposicional pueden ser consideradas como leyes del pensamiento, los computadores digitales comenzaron a ser considerados máquinas capaces de simular el razonamiento humano y, por tanto, capaces también de presentar conducta inteligente. De esta manera, el desarrollo de la computación, les permitió a los psicólogos que advertían la inviabilidad del conductismo radical, contar con una alternativa real y confiable para estudiar los procesos mentales, basada en la tradición y en el quehacer de la ciencia y no en la especulación introspeccionista.

En el desarrollo de los sistemas de inteligencia artificial (I.A.), es importante distinguir, para evitar confusiones teóricas y epistemológicas, los dos paradigmas, conocidos como arquitecturas o enfoques, que surgieron a mediados del siglo pasado. Uno de ellos, fue la llamada arquitectura simbólica o serial, que pasaría posteriormente a denominarse clásica y que constituiría el enfoque hegemónico, basada en el operar serial de los computadores y, el otro modelo, la arquitectura conexionista o de redes neuronales, llamada también de procesamiento distribuido en paralelo (PDP), que se basó en la forma de operar que tiene el sistema nervioso en los organismos vivos dotados de éste. Estas arquitecturas se fundamentan en epistemologías claramente distintas, la primera, en una epistemología analítica, lineal-causal, característica del método científico tradicional, según el cual, los fenómenos se pueden descomponer en sus elementos constituyentes más simples para ser estudiados; la segunda, en una epistemología holista, no lineal o recursiva, según la cual, al conocer un fenómeno debe considerarse éste como una totalidad complejamente organizada, que no se puede descomponer sin alterar las características que le son propias.

De esta manera, estos enfoques encarnaron, en el seno de la inteligencia artificial, dos viejas tradiciones de pensamiento: el mecanicismo asociacionista, representado por la arquitectura computacional y que en el ámbito de la psicología cognitiva dio lugar al enfoque del procesamiento de la información; y el estructuralismo organicista, que se materializó en la arquitectura conexionista y que anteriormente había inspirado a la psicología cognitiva europea que se desarrolló en la primera mitad del siglo XX. Estas diversas formas que tiene la inteligencia artificial de conceptuar la cognición, se advierten en la distinción que hace Sherry Turkle, profesora asociada del MIT, al señalar que:

“La IA no es una empresa unitaria. La computación es la sustancia de la que están hechas muchas teorías. Es verdad decir que no hay una IA sino muchas. Y ayuda mucho decir que son esencialmente dos. La primera es el procesamiento de la información, con sus raíces en la lógica, en la manipulación de proposiciones para obtener nuevas proposiciones, en la combinación de conceptos para obtener nuevos conceptos. La segunda se origina en un estilo de trabajo muy distinto (. . .). Esta segunda es la ‘IA emergente’.

La IA emergente no se ha inspirado en el ordenado terreno de la lógica. Las ideas sobre la inteligencia de la máquina que desarrolla tienen que ver menos con enseñar a la computadora que con dejarla que aprenda. Esta IA no sugiere que se den a la computadora reglas a seguir, sino que trata de configurar un sistema de elementos independientes dentro de la computadora, elementos de cuya interacción se espera que surja la inteligencia. Desde esta perspectiva, una regla no es algo que usted da a una computadora, sino un patrón que usted infiere cuando observa la conducta de la máquina, en forma parecida a la de la observación de la conducta de una persona. Sus imágenes sustentadoras no han sido tomadas de la lógica, sino de lo biológico.”[1]

El enfoque clásico o serial, que concibe a la cognición como la manipulación de símbolos que pueden representar adecuadamente cualquier aspecto del mundo, basada en reglas formales explícitas, comenzó a ser sistemáticamente cuestionado en la década de los ’70, dada su incapacidad de cumplir con las promesas con las que originalmente se había comprometido, pues no lograba dar cuenta de la conducta inteligente que manifiesta un ser humano al aplicar lo que se conoce como “sentido común” para resolver los problemas cotidianos con los que se enfrenta. Más aún, ni siquiera podía explicar claramente, la conducta inteligente que se advierte en animales aparentemente tan simples, como lo son los insectos. De esta situación da cuenta Andy Clark, al preguntarse:

“¿Dónde están las mentes artificiales prometidas por la ciencia ficción de los años cincuenta y el periodismo científico de los sesenta? ¿Por qué incluso nuestros mejores artefactos ‘inteligentes’ son aún tan insoportable y mortalmente tontos? Una posibilidad es que, sencillamente, hemos malinterpretado la naturaleza de la inteligencia misma. Concebíamos la mente como una especie de dispositivo de razonamiento lógico asociado a un almacén de datos explícitos: una especie de combinación entre una máquina lógica y un archivador. Al adoptar esta perspectiva, desatendíamos el hecho de que las mentes han evolucionado para hacer que ocurran cosas. (. . .) Las mentes hacen movimientos y los deben hacer con rapidez: antes de que el depredador nos pille o de que nuestra presa consiga escapar. Las mentes no son dispositivos incorpóreos de razonamiento lógico.”[2]

A pesar de las críticas, el enfoque clásico computacional, que en el ámbito de la inteligencia artificial ha pasado a denominarse GOFAI (Good Old Fashioned Artificial Intelligence), se ha mantenido como el paradigma predominante de concebir los procesos cognitivos. Sin embargo, el resurgimiento a principios de los ’80 del enfoque conexionista, la reconsideración de la psicología cognitiva europea de entreguerras, el desarrollo de la antropología, de la psicolingüística, de la robótica y de la neurociencia cognitiva, han estado promoviendo una manera muy diferente de entender los fenómenos mentales, que coloca, según Clark, al modelo computacional en su lugar, “como complemento secundario de la dinámica y los complejos bucles de respuesta que unen entre sí cerebros, cuerpos y entornos reales.”[3]


[1] Turkle, S., “Inteligencia artificial y psicoanálisis: una nueva alianza” en Graubard, Stephen. The artificial intelligence debate: False starts, real foundations. MIT Press: Cambridge, MA. 1988. Edición en español, El nuevo debate sobre la inteligencia artificial: Sistemas simbólicos y redes neuronales. Ed. Gedisa. Barcelona. 1993. p. 281.

[2] Clark, Andy. Being there: Putting Brain, Body and World together again. MIT Press, Cambridge, MA. 1997. Edición en español, (1999) Estar ahí: cerebro, cuerpo y mundo en la nueva ciencia cognitiva. Ed. Paidós, Barcelona. p. 39.

[3] Ibíd.., p. 40.