domingo, junio 24, 2007


La Primera Revolución Cognitiva (II Parte): El desarrollo del enfoque conexionista.

La arquitectura conexionista o de redes neuronales, tuvo éxito precisamente en aquellas tareas que no pudo abordar el enfoque simbólico, como los patrones de reconocimiento, la comprensión del habla, la capacidad de aprendizaje y el desarrollo de una mayor autonomía en la ejecución de las tareas. Estas actividades, que aparentemente resultan sencillas de ejecutar para un ser humano, eran muy difíciles de implementar en un sistema computacional clásico, lo cual indicaba que los cerebros operan de una manera distinta a las máquinas von Neumann. Paulatinamente, se fueron replanteando algunas ideas convencionales, haciéndose evidente, como señala Varela, que la conducta inteligente más compleja y sofisticada no es la del experto, sino “la del bebé que puede adquirir el lenguaje a partir de manifestaciones cotidianas dispersas, y puede constituir objetos significativos a partir de lo que parece un mar de luces.”[1]

A diferencia del modelo centralizado y serial de GOFAI, el conexionismo opera en forma distribuida y en paralelo, pues se basa en una red de procesadores simples similares a las neuronas, llamados nodos o unidades, los cuales están interconectados dinámicamente entre sí. Cuando un nodo o unidad está encendido, manda señales de output a los nodos vecinos, las cuales varían en fuerza o intensidad dependiendo del grado de activación que presente ese sector de la red. La fuerza de la conexión entre los nodos se denomina peso, el que al aumentar disminuye la resistencia de las conexiones, fortaleciendo la transmisión y recepción de las señales. Los pesos varían en función de la experiencia, lo que significa que como resultado de su operar la red cambia su estructura, modificando la fuerza de sus conexiones, lo cual permite construir sistemas capaces de aprender de maneras naturales.[2]

La idea de que el aprendizaje es mediado por variaciones estructurales en las sinapsis es tradicionalmente atribuida a Donald Hebb, quien en el año 1949, publicó un libro titulado “La Organización de la Conducta”, donde señala:

“Cuando un axón de la célula A está lo suficientemente próximo como para excitar una célula B y de forma repetida o persistente interviene en la descarga de ésta, se produce algún proceso de crecimiento o cambio metabólico en una o ambas células, de tal forma que aumenta la eficiencia de A como una de las neuronas que provocan la descarga de B.”[3]

Esta conjetura, conocida como sinápsis de Hebb o hipótesis del aprendizaje neuronal de Hebb, si bien no pudo ser comprobada en ese entonces en el tejido neuronal, contribuyó significativamente al desarrollo del conexionismo y, en la actualidad, ha podido ser corroborada gracias al desarrollo de la tecnología utilizada por la neurociencia.

En una red conexionista, el aprendizaje opera en base a un proceso de retroalimentación que ajusta los pesos entre las unidades de acuerdo a un algoritmo de aprendizaje o de retropropagación, que le permite al sistema corregir paulatinamente sus errores hasta llegar a un estado de ejecución aceptable. La red cambia los pesos de las conexiones, sus estados internos, haciendo el cálculo de probabilidades necesario para que la salida resultante se aproxime lo más posible a la salida correcta u óptima. Este proceso recursivo de cambios estructurales, supone la existencia de un cierto tipo de memoria, que le permite al sistema, teniendo como base su experiencia, recordar cómo procesar un determinado input o entrada. Sin embargo, esta capacidad de la red que se puede distinguir como memoria, no corresponde a un almacén o dispositivo de memoria similar al que utilizan las máquinas von Neumann, sino más bien a un patrón de interacciones recursivas que el sistema es capaz de utilizar.

El operar característico de las redes conexionistas, les permite contar con una autonomía y flexibilidad de la que adolecen los modelos que operan bajo un procesamiento serial, haciendo posible que estos sistemas presenten conductas inteligentes como resultado de su dinámica organizacional, es decir, la inteligencia se presenta como un fenómeno que emerge de la forma de operar que tiene el sistema. Estas propiedades emergentes que presentan las redes neuronales, son una característica que las diferencia claramente de las arquitecturas clásicas, pues lo que un observador distingue en el operar de estas redes como un actuar integrado y significativo, inteligente, es resultado de una compleja integración de agentes sencillos que presentan propiedades elementales, prenderse o apagarse, sin la necesidad de contar con una unidad de supervisión central.


[1] Varela, F., Thompson, E., Rosch, E. The Embodied Mind: Cognitive Science and Human Experience. MIT Press, Cambridge, Mass. 1991. Edición en español, De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana, Ed. Gedisa, Barcelona. 1997. p. 113.

[2] Tienson, John. An introduction to connectionism. The Southern Journal of Philosophy 126. 1987. En Rabossi, Eduardo (comp.). Filosofía de la mente y ciencia cognitiva. Ed. Paidós. Barcelona. 1995.

[3] Hebb, Donald. The Organization of Behavior. Wiley&Sons. New York. 1949. Cit. en Kolb, Bryan, Whishaw, Ian. An Introduction to Brain and Behavior. Worth Publishers. New York. 2000. Edición en español, Cerebro y Conducta: Una Introducción. Ed. McGraw-Hill, Madrid. 2002. p. 173.

domingo, junio 03, 2007

La Primera Revolución Cognitiva: El desarrollo de la Inteligencia Artificial.



John von Neumann (1903-1957) junto a ENIAC


El desarrollo conceptual impulsado por la cibernética, los trabajos de McCulloch y Pitts en el ámbito de las redes neuronales artificiales, los esfuerzos hechos por Alan Turing y su equipo para diseñar un mecanismo que basado en circuitos electrónicos pudiera descifrar el código utilizado por los militares alemanes para comunicarse y el diseño que posteriormente hiciera John von Neumann para ENIAC (Electronic Numerical Integrator and Calculator), conocido como arquitectura von Neumann, basado en procesos de retroalimentación, permitieron el desarrollo de los computadores digitales hacia fines de la década de 1940.

Siguiendo las ideas propuestas por el filósofo alemán Gottfried Leibniz (1646-1716) y por el matemático inglés George Boole en el siglo XIX, quien sugirió que las leyes que gobiernan el cálculo proposicional pueden ser consideradas como leyes del pensamiento, los computadores digitales comenzaron a ser considerados máquinas capaces de simular el razonamiento humano y, por tanto, capaces también de presentar conducta inteligente. De esta manera, el desarrollo de la computación, les permitió a los psicólogos que advertían la inviabilidad del conductismo radical, contar con una alternativa real y confiable para estudiar los procesos mentales, basada en la tradición y en el quehacer de la ciencia y no en la especulación introspeccionista.

En el desarrollo de los sistemas de inteligencia artificial (I.A.), es importante distinguir, para evitar confusiones teóricas y epistemológicas, los dos paradigmas, conocidos como arquitecturas o enfoques, que surgieron a mediados del siglo pasado. Uno de ellos, fue la llamada arquitectura simbólica o serial, que pasaría posteriormente a denominarse clásica y que constituiría el enfoque hegemónico, basada en el operar serial de los computadores y, el otro modelo, la arquitectura conexionista o de redes neuronales, llamada también de procesamiento distribuido en paralelo (PDP), que se basó en la forma de operar que tiene el sistema nervioso en los organismos vivos dotados de éste. Estas arquitecturas se fundamentan en epistemologías claramente distintas, la primera, en una epistemología analítica, lineal-causal, característica del método científico tradicional, según el cual, los fenómenos se pueden descomponer en sus elementos constituyentes más simples para ser estudiados; la segunda, en una epistemología holista, no lineal o recursiva, según la cual, al conocer un fenómeno debe considerarse éste como una totalidad complejamente organizada, que no se puede descomponer sin alterar las características que le son propias.

De esta manera, estos enfoques encarnaron, en el seno de la inteligencia artificial, dos viejas tradiciones de pensamiento: el mecanicismo asociacionista, representado por la arquitectura computacional y que en el ámbito de la psicología cognitiva dio lugar al enfoque del procesamiento de la información; y el estructuralismo organicista, que se materializó en la arquitectura conexionista y que anteriormente había inspirado a la psicología cognitiva europea que se desarrolló en la primera mitad del siglo XX. Estas diversas formas que tiene la inteligencia artificial de conceptuar la cognición, se advierten en la distinción que hace Sherry Turkle, profesora asociada del MIT, al señalar que:

“La IA no es una empresa unitaria. La computación es la sustancia de la que están hechas muchas teorías. Es verdad decir que no hay una IA sino muchas. Y ayuda mucho decir que son esencialmente dos. La primera es el procesamiento de la información, con sus raíces en la lógica, en la manipulación de proposiciones para obtener nuevas proposiciones, en la combinación de conceptos para obtener nuevos conceptos. La segunda se origina en un estilo de trabajo muy distinto (. . .). Esta segunda es la ‘IA emergente’.

La IA emergente no se ha inspirado en el ordenado terreno de la lógica. Las ideas sobre la inteligencia de la máquina que desarrolla tienen que ver menos con enseñar a la computadora que con dejarla que aprenda. Esta IA no sugiere que se den a la computadora reglas a seguir, sino que trata de configurar un sistema de elementos independientes dentro de la computadora, elementos de cuya interacción se espera que surja la inteligencia. Desde esta perspectiva, una regla no es algo que usted da a una computadora, sino un patrón que usted infiere cuando observa la conducta de la máquina, en forma parecida a la de la observación de la conducta de una persona. Sus imágenes sustentadoras no han sido tomadas de la lógica, sino de lo biológico.”[1]

El enfoque clásico o serial, que concibe a la cognición como la manipulación de símbolos que pueden representar adecuadamente cualquier aspecto del mundo, basada en reglas formales explícitas, comenzó a ser sistemáticamente cuestionado en la década de los ’70, dada su incapacidad de cumplir con las promesas con las que originalmente se había comprometido, pues no lograba dar cuenta de la conducta inteligente que manifiesta un ser humano al aplicar lo que se conoce como “sentido común” para resolver los problemas cotidianos con los que se enfrenta. Más aún, ni siquiera podía explicar claramente, la conducta inteligente que se advierte en animales aparentemente tan simples, como lo son los insectos. De esta situación da cuenta Andy Clark, al preguntarse:

“¿Dónde están las mentes artificiales prometidas por la ciencia ficción de los años cincuenta y el periodismo científico de los sesenta? ¿Por qué incluso nuestros mejores artefactos ‘inteligentes’ son aún tan insoportable y mortalmente tontos? Una posibilidad es que, sencillamente, hemos malinterpretado la naturaleza de la inteligencia misma. Concebíamos la mente como una especie de dispositivo de razonamiento lógico asociado a un almacén de datos explícitos: una especie de combinación entre una máquina lógica y un archivador. Al adoptar esta perspectiva, desatendíamos el hecho de que las mentes han evolucionado para hacer que ocurran cosas. (. . .) Las mentes hacen movimientos y los deben hacer con rapidez: antes de que el depredador nos pille o de que nuestra presa consiga escapar. Las mentes no son dispositivos incorpóreos de razonamiento lógico.”[2]

A pesar de las críticas, el enfoque clásico computacional, que en el ámbito de la inteligencia artificial ha pasado a denominarse GOFAI (Good Old Fashioned Artificial Intelligence), se ha mantenido como el paradigma predominante de concebir los procesos cognitivos. Sin embargo, el resurgimiento a principios de los ’80 del enfoque conexionista, la reconsideración de la psicología cognitiva europea de entreguerras, el desarrollo de la antropología, de la psicolingüística, de la robótica y de la neurociencia cognitiva, han estado promoviendo una manera muy diferente de entender los fenómenos mentales, que coloca, según Clark, al modelo computacional en su lugar, “como complemento secundario de la dinámica y los complejos bucles de respuesta que unen entre sí cerebros, cuerpos y entornos reales.”[3]


[1] Turkle, S., “Inteligencia artificial y psicoanálisis: una nueva alianza” en Graubard, Stephen. The artificial intelligence debate: False starts, real foundations. MIT Press: Cambridge, MA. 1988. Edición en español, El nuevo debate sobre la inteligencia artificial: Sistemas simbólicos y redes neuronales. Ed. Gedisa. Barcelona. 1993. p. 281.

[2] Clark, Andy. Being there: Putting Brain, Body and World together again. MIT Press, Cambridge, MA. 1997. Edición en español, (1999) Estar ahí: cerebro, cuerpo y mundo en la nueva ciencia cognitiva. Ed. Paidós, Barcelona. p. 39.

[3] Ibíd.., p. 40.

miércoles, abril 11, 2007

Ludwig von Bertalanffy y el desarrollo del enfoque sistémico.

Aunque es poco citado en el ámbito de la ciencia cognitiva, hay que señalar que en la misma época en que se desarrollaron los conceptos de retroalimentación y de cibernética, el biólogo Ludwig von Bertalanffy plantea la Teoría General de Sistemas, cuyo propósito explícito era producir una reorientación del pensamiento, un cambio de paradigma, en términos de Kuhn, introduciendo nuevos esquemas conceptuales en la tradición científica. Para von Bertalanffy, la idea fundamental era superar el problema de las limitaciones que impone a la ciencia el procedimiento analítico clásico, el cual no es aplicable al estudio de los fenómenos complejos de carácter sistémico.

“La aplicación del procedimiento analítico depende de dos condiciones. La primera es que no existan interacciones entre ‘partes’, o que sean tan débiles que puedan dejarse a un lado en ciertas investigaciones. Sólo con esta condición es posible ‘deslindar’ las partes –real, lógica y matemáticamente- y luego volverlas a ‘juntar’. La segunda condición es que las relaciones que describan el comportamiento de partes sean lineales; sólo entonces queda satisfecha la condición de aditividad, o sea que una ecuación que describa la conducta total tiene la misma forma que las ecuaciones que describen la conducta de las partes; los procesos parciales pueden ser superpuestos para obtener el proceso total, etc.
Semejantes condiciones no las cumplen las entidades llamadas sistemas, o sea consistentes en partes ‘en interacción’.
El prototipo de su descripción es un conjunto de ecuaciones diferenciales simultáneas, que son no lineales en el caso general.”[1]

La aspiración de von Bertalanffy, era establecer una teoría cuya aplicación resultara útil a las diversas disciplinas científicas, una teoría basada en principios universales que se pudiera aplicar a los sistemas en general. La existencia de estos principios generales explicaría la aparición de similitudes estructurales o isomorfismos en diversos ámbitos del conocimiento.

El desarrollo de la teoría de sistemas, al igual que el de la cibernética, si bien tendió a difuminarse en los años posteriores, ha continuado en la actualidad con el desarrollo de la teoría de los sistemas dinámicos, que von Bertalanffy consideró como parte de su teoría general. En el ámbito de los sistemas dinámicos y particularmente en el de la física, la relevancia de la interacción y las limitaciones del modelo analítico tradicional, utilizado por el método científico, se advirtió ya en el siglo XIX con los planteamientos del físico y matemático francés Heinri Poincaré, quien cuestionó la aplicación de la física newtoniana al sistema solar, dudando de la estabilidad que supuestamente éste tenía. Este cuestionamiento, se basaba en el hecho de que las ecuaciones lineales de Newton se vuelven insolubles cuando se tratan de aplicar a un sistema en el que interactúan más de dos cuerpos. Al intentar resolver las ecuaciones, Poincaré advirtió que una perturbación mínima podía ocasionar en algunas órbitas un comportamiento absolutamente errático y caótico. La participación de un tercer cuerpo, en este caso, un planeta o un asteroide, podía causar que un planeta en órbita fuera despedido del sistema solar. Este hecho, terminaba con la feliz suposición de que una perturbación pequeña produce un efecto pequeño, que no es significativo para la estabilidad del sistema.[2] Las innovadoras conceptualizaciones físicas y matemáticas desarrolladas por Poincaré, lo llevaron a formular, a principios del siglo XX, el Principio de la Relatividad y a plantear en 1905, el mismo año que lo hiciera Einstein, lo que hoy se conoce como la Teoría de la Relatividad Especial.

Fueron estas ideas, junto a la hipótesis cuántica planteada por Max Planck en 1900, las que comenzaron a derrumbar la doctrina del determinismo científico, el famoso sueño del Marqués Pierre Simon Laplace, según el cual “debía existir un conjunto de leyes científicas que nos permitirían predecir todo lo que sucediera en el universo, con tal de que conociéramos el estado completo del universo en un instante de tiempo, (. . .) incluido el comportamiento humano.”[3] Las implicaciones de la hipótesis cuántica, se advirtieron más claramente cuando Werner Heisenberg, en 1926, plantea el principio de incertidumbre, según el cual es imposible determinar con exactitud la posición y la velocidad de una partícula en un mismo instante, pues el cuanto de luz que ilumina la partícula para advertir su posición, al mismo tiempo, la perturba. Basado en este principio, Heisenberg, Schrödinger y Dirac desarrollaron la mecánica cuántica, donde el conocimiento que se puede alcanzar de las partículas ya no aspira a ser certero ni único, sino que sólo probable. Cabe destacar, que uno de los científicos que contribuyó a la formalización de la mecánica cuántica, fue el matemático John von Neumann, quien además desempeñó un rol fundamental en el desarrollo de la ciencia cognitiva.

El cambio epistemológico y paradigmático que suponía el desarrollo de la mecánica cuántica, la cibernética y la teoría de sistemas, fue inicialmente ignorado, privilegiando el quehacer científico más acorde al sueño de Laplace. La deriva que estos revolucionarios planteamientos tienen para nuestra vida cotidiana, los cuales no están incorporados generalmente en los programas de estudios tradicionales, parece que sólo recientemente están siendo considerados por la comunidad académica en general. Para el físico Stephen Hawking, el principio de incertidumbre tiene “profundas implicaciones sobre el modo que tenemos de ver el mundo. Incluso más de cincuenta años después, éstas no han sido totalmente apreciadas por muchos filósofos, y aún son objeto de mucha controversia.”[4]


[1] von Bertalanffy, Ludwig. General Systems Theory. Ed. George Braziller, New York, 1968. Edición en español: Teoría General de los Sistemas. Editorial FCE. México. 1976. pp. 17-18

[2] Briggs, John. Peat, F. David. Turbulent Mirror: An Illustrated Guide to Chaos Theory and the Science of Wholeness. Harper & Row. New York. 1989. Edición en español, Espejo y Reflejo: Guía ilustrada de la teoría del caos y la ciencia de la totalidad. Ed. Gedisa. Barcelona. 1990.

[3] Hawking, Stephen. The Illustrated a Brief History of Time. Bantam Books, Toronto. 1988. Edición en español, Historia del Tiempo Ilustrada. Ed. Crítica, Barcelona. 1996. p. 68.

[4] Hawking, S. Ibíd. p. 72.

sábado, marzo 24, 2007


El desarrollo de la cibernética: los albores de la ciencia de la mente (II Parte).



En la época en que Wiener desarrolló el concepto de cibernética, uno de los principales temas que ocupaban a la comunidad científica era cómo compatibilizar los planteamientos de la biología y de la física, cómo armonizar los procesos homeostáticos de los sistemas vivos con la segunda ley de la termodinámica, la generación de entropía. Erwin Schroedinger, el padre de la mecánica cuántica, se preguntaba: ¿cómo evita la decadencia el organismo viviente?, ¿qué hace un ser vivo para retardar su desintegración?.[1] Como respuesta, Schroedinger plantea que el organismo requiere de un dispositivo, un mecanismo que sea capaz de guiar, controlar y ejecutar todas las acciones necesarias para generar una entropía negativa, para desarrollar un proceso recursivo que permita la construcción y mantenimiento del cuerpo, dispositivo que se encuentra en cada una de las células del organismo y que hace las veces de código jurídico y de poder ejecutivo a la vez.[2]

El conjunto de dispositivos propuestos por Schroedinger, distribuidos por todo el organismo, requería de un complejo sistema de coordinación, al igual como lo requerían las diversas unidades de un ejército o los distintos departamentos y secciones de una fábrica o de un gobierno, sistema que además, debía ser capaz de funcionar en forma autónoma. Warren Weaver, creador de la expresión biología molecular y dirigente de la sección de control de armas de la Oficina de Investigación y Desarrollo Científico de los Estados Unidos durante la Segunda Guerra Mundial, resume estas necesidades señalando que los problemas de mediados del siglo XX eran los de la complejidad organizada, siendo un deber de la ciencia el aprender a enfrentarlos.[3]

Wiener y sus colaboradores, se dedicaron precisamente a desarrollar estos sistemas capaces de alcanzar un objetivo con un cierto grado de autonomía. En estos sistemas cibernéticos, el concepto de retroalimentación[4] o feedback resulta fundamental, pues cualquier proceso que pretenda regular el accionar de un organismo o de una máquina requiere retroalimentación, la cual Wiener entiende como:

“un método para controlar un sistema reintroduciéndole los resultados de su desempeño en el pasado. Si estos resultados son utilizados meramente como datos numéricos para evaluar el sistema y su regulación, tenemos la retroalimentación simple de los técnicos de control. Pero si esa información de retorno sobre el desempeño anterior del sistema puede modificar su método general y su pauta de desempeño actual, tenemos un proceso que puede llamarse aprendizaje.”[5]

Los ciclos de retroalimentación, ciertamente no fueron una distinción original de los fundadores de la cibernética, pero sí fueron ellos los que reconocieron su importancia y popularizaron el concepto en la década de 1940, al constituirse éste en el punto de intersección de las máquinas con los organismos biológicos. Un paso importante en esta dirección, se dio cuando en 1949, el físico, matemático y epistemólogo Heinz von Foerster llega a Estados Unidos y propone que el nombre del congreso de las Conferencias Macy, “Causalidad circular y mecanismos de feedback en sistemas biológicos y sociales”, donde participaban Warren McCulloch, John von Neumann, Walter Pitts, Margaret Mead, Gregory Bateson, Norbert Wiener y Kurt Lewin, entre otros, sea cambiado simplemente por “Cibernética”.

La retroalimentación, positiva o negativa, que permite que un sistema u organismo se mantenga en el tiempo como tal, es información que proviene tanto del interior como del exterior del propio sistema u organismo y que, como tal, da cuenta de los cambios, desviaciones o diferencias que éste presenta en un momento determinado. Advertir estas desviaciones y realizar los ajustes necesarios para corregirlas, permite alcanzar el equilibrio necesario para la mantención de la máquina y para la sobrevivencia del organismo biológico. Cabe destacar, que estos procesos cibernéticos están implícitamente presentes, de diferentes maneras, en los planteamientos de Dewey, Vygotsky y Piaget, siendo éste último quien explicitara la necesidad de que el sujeto alcance un equilibrio cognitivo mediante los procesos de asimilación y acomodación. Como señalan Briggs y Peat[6], en la actualidad se reconoce que la retroalimentación está presente en todas partes, en el desarrollo del lenguaje, en la evolución de los nichos ecológicos, en la dinámica de las interacciones sociales, en el precio de las acciones en las bolsas de comercio y en los fenómenos de los que dan cuenta la física y la química.


[1] Schroedinger, Erwin. What is life?. Cambridge University Press. Cambridge. Inglaterra. 1944. Cit. en Fox Keller, Evelyn. 1995. op. cit.

[2] Ibíd.

[3] Weaver, Warren. Problems of organized complexity. American Scientist Nº 36. 1949. Cit. en Fox Keller, Evelyn. 1995. op. cit.

[4] Según el Diccionario de la RAE, el término correcto es realimentación, sin embargo, se utilizará el concepto de retroalimentación dado que éste último corresponde a la traducción más frecuente del concepto inglés feedback.

[5] Wiener, Norbert. The Human Use of Human Beings. Anchor Books. New York. 1954. Cit. en Keeney, Bradford. 1987. op. cit. p. 83.

[6] Briggs, John. Peat, F. David. Turbulent Mirror: An Illustrated Guide to Chaos Theory and the Science of Wholeness. Harper & Row. New York. 1989. Edición en español, Espejo y Reflejo: Guía ilustrada de la teoría del caos y la ciencia de la totalidad. Ed. Gedisa. Barcelona. 1990.

martes, febrero 27, 2007

El desarrollo de la cibernética: los albores de la ciencia de la mente (I Parte).



Norbert Wiener (1894-1964)

El término computación, es una palabra cuya etimología nos remite a la contemplación o consideración conjunta de dos o más entidades con el propósito de calcular su relación.[1] Así entendida, el desarrollo de las máquinas que realizan computaciones tiene una larga historia, pudiéndose ésta remontar incluso a la creación del ábaco y, más recientemente, a la construcción de un dispositivo mecánico para hacer cálculos matemáticos, hecho por Blaise Pascal en 1642. Sin embargo, la computación tal como hoy la entendemos, se desarrolló sólo a principios del siglo XX, estimulada por la necesidad de procesar y computar la enorme cantidad de datos que se requerían para coordinar las operaciones militares propias de la guerra que se estaba desarrollando en Europa. Fue este mismo contexto bélico el que hizo necesario optimizar los sistemas de comunicaciones, llevando a los Laboratorios Bell a buscar la forma de maximizar las transmisiones telefónicas, proceso que más tarde daría lugar a la formulación de la teoría matemática de la información por Shannon y Weaver en 1949.

En la actualidad, parece obvio que durante la guerra, los procesos de comunicación, y las investigaciones que en ese ámbito se realizaban, estuvieran en función de los servicios de inteligencia y de control. Sin embargo, fue sólo a principios de la década de 1940 cuando Norbert Wiener, un matemático y filósofo que trabajó en el Aberdeen Proving Ground de Maryland realizando cálculos balísticos, explicitó la relación entre comunicación y control.[2] A principios de la Segunda Guerra, Wiener era profesor de matemáticas en el MIT, donde junto a Vannevar Bush, diseñó un sistema de fuego antiaéreo, en el cual la noción de feedback o retroalimentación resultó fundamental. Unos años más tarde, Wiener, en colaboración con el neurofisiólogo mexicano Arturo Rosenblueth y el ingeniero Julian Bigelow, plantearon una teoría acerca del control y la comunicación en los animales y las máquinas.[3] En 1942, durante el desarrollo de una de las conferencias multidisciplinarias financiadas por la Fundación Josiah Macy sobre la inhibición central en el sistema nervioso, estos investigadores presentaron el concepto de feedback, el cual deriva de la noción de medio interno planteada por el biólogo francés Claude Bernard en 1865 y retomada por Walter Cannon en 1932 al proponer la noción de homeostasis para describir “las reacciones fisiológicas coordinadas que mantienen la mayoría de los estados estables del cuerpo.”[4] En 1943, este mismo equipo, publica en Philosophy of Science un artículo titulado “Behavior, Purpose and Teleology”, donde señalan que el concepto de feedback permite explicar la conducta teleológica, orientada por una meta o propósito, que presentan los sistemas vivos y artificiales. Cabe destacar, que ese mismo año, Warren McCulloch, filósofo y neurofisiólogo, y Walter Pitts, matemático y neurofisiólogo, publicaron en el Bulletin of Mathematical Biophysics la investigación donde analizaron las propiedades computacionales de neuronas formales interrelacionadas, con el título de “A logical calculus of ideas immanent in nervous activity”, estudio que sustentó el desarrollo de la arquitectura conexionista o de redes neuronales en ciencia cognitiva.

Durante 1945, Wiener junto a Howard Aiken y John von Neumann, organizaron uno de los encuentros de las Conferencias Macy, que titularon “Causalidad circular y mecanismos de feedback en sistemas biológicos y sociales”, el cual contó con la participación de destacadas personalidades de diversas disciplinas, entre quienes se encontraban, McCulloch y Pitts. Finalmente, en 1948, Wiener publica su libro “Cibernetics, or the Control and Communication in the Animal and Machine”, donde a partir del concepto de feedback, concibe la formulación de una ciencia general de la pauta y de la organización, que permita integrar los procesos físicos y mentales. Para Varela, Thompson y Rosh, “la intención manifiesta del movimiento cibernético consistía en crear una ciencia de la mente.”[5]

La integración de dominios que propone Wiener con la cibernética, se halla ya en la etimología de la palabra y en el antiguo uso que a ésta se le dio. De acuerdo al Diccionario de la Real Academia Española[6], el término cibernética proviene del griego κυβερνητικ (kybernetiké), que se refiere al arte de gobernar una nave[7].

“En la República, Platón la utilizó para designar tanto el arte de dirigir una nave como el arte de comandar. Que la palabra original remita tanto a la naútica como al control social nos está diciendo, pues, que la cibernética se ocupa a la vez de las personas y de los aparatos técnicos que ellas inventan.”[8]


[1] Segal, Lynn. The dream of reality. Heinz von Foerster’s constructivism. W.W.Norton and Co., NY. 1989. Edición en español, Soñar la realidad. El constructivismo de Heinz von Foerster. Ed. Paidós, Barcelona. 1994.

[2] Fox Keller, Evelyn. Refiguring Life: Metaphors of Twentieth-Century Biology. Columbia University Press, NY. 1995. Edición en español, Lenguaje y Vida: Metáforas de la biología del siglo XX. Ediciones Manantial, Buenos Aires. 2000.

[3] Bechtel, W. et al. 1998. op. cit.

[4] Cannon, Walter B. The wisdom of the body. W.W. Norton and Co. NY. 1932. Cit. en Damasio, A. The Feeling of What Happens: Body and Emotion in the Making of Consciousness, Harcourt Brace, New York. 1999. Edición en español, Sentir lo que sucede: Cuerpo y emoción en la fábrica de la consciencia. Ed. Andrés Bello, Santiago. 2000.

[5] Varela, F. et al. 1991. op. cit. p. 62.

[6] En http://buscon.rae.es/draeI/

[7] Este término griego, kybernetiké, derivó en el término latino gubernare, que aludía también a dirigir una nave y del cual procede la palabra gobernar, que actualmente hace referencia a dirigir una nación. La historia más reciente de la palabra cibernética, indica que se utilizó en Francia hacia 1830, cybernétique, para referirse al arte de gobernar. En http://www.elcastellano.org/palabra.php?q=gobernar (01/09/06)

[8] Keeney, Bradford. Aesthetics of Change. The Guilford Press, NY. 1983. Edición en español, La Estética del Cambio. Ed. Paidós, Barcelona. 1987. p. 83.