lunes, julio 16, 2007

El concepto de inteligencia en la ciencia cognitiva (I Parte).




Allan Newell (izq.) y Herbert Simon.


En relación al enfoque simbólico o serial en la ciencia cognitiva, Francisco Varela, señala que para los fundadores de este modelo, “la inteligencia (incluida la inteligencia humana) se parece tanto a un ordenador o computador, en sus características esenciales, que la cognición se puede definir como la computación de representaciones simbólicas.”[1] Esta definición, la explica el mismo Varela cuando se pregunta:

“¿Qué significa exactamente decir que la cognición se puede definir como computación? Una computación es una operación que se lleva a cabo sobre símbolos, es decir, sobre elementos que representan aquello que designan. La noción clave es la de representación o ‘intencionalidad’, el término filosófico para aludir al ‘acerca de’. El argumento cognitivista es que la conducta inteligente presupone la aptitud para representar el mundo como si fuera de ciertas maneras. Por lo tanto no podemos explicar la conducta cognitiva a menos que demos por sentado que un agente actúa representando rasgos relevantes de la situación en que se halla. En la medida en que esta representación de una situación sea precisa, la conducta del agente tendrá éxito (siempre que todo lo demás permanezca igual).

La noción de representación es –al menos desde el ocaso del conductismo- relativamente poco controvertida. Lo controvertido es el paso siguiente. Nos referimos a la afirmación cognitivista de que la única manera de explicar la inteligencia y la intencionalidad es plantear la hipótesis de que la cognición consiste en actuar a partir de representaciones que se realizan físicamente en forma de un código simbólico dentro del cerebro o de una máquina.”[2]

Allan Newell y Herbert Simon, fundadores del enfoque computacional, señalan, en un clásico artículo publicado en 1976, que:

“Los símbolos descansan en la raíz de la acción inteligente que es, desde luego, el tema principal de la inteligencia artificial. En cuanto a eso, es una cuestión central para toda la ciencia de la computación, ya que toda la información se procesa en computadoras en función de fines y medimos la inteligencia de un sistema por su capacidad para alcanzar objetivos establecidos frente a variaciones, dificultades y complejidades planteadas por el ámbito de la tarea que hay que realizar.”[3]

En cuanto a la naturaleza de la inteligencia plantean:

“Nuestro entendimiento de los requisitos del sistema para realizar actos inteligentes surge lentamente. Es compuesto, pues no hay una sola cosa elemental que explique la inteligencia en todas sus manifestaciones. No existe un ‘principio de la inteligencia’ como tampoco hay un ‘principio vital’ que por su propia naturaleza transmita la esencia de la vida. Sin embargo, la ausencia de un simple deus ex machina no implica que no existan requisitos estructurales para la inteligencia. Uno de estos requisitos es la capacidad de almacenar y manipular símbolos.”[4]

El trabajo de Newell y Simon, así como el de otros teóricos de la inteligencia artificial, los llevó a proponer sistemas que fueran capaces de resolver problemas, pues, como ellos mismos explicitaron, “la capacidad de resolver problemas se considera en general como un primer indicador de que el sistema tiene inteligencia.”[5] Un sistema de resolución de problemas para ser considerado inteligente, no sólo necesita ser eficaz, es decir, llegar a una o varias soluciones posibles, sino también necesita ser eficiente, esto es, alcanzar dichas soluciones utilizando la menor cantidad de recursos posibles, como el tiempo, o dicho de otra manera, maximizando todo lo posible los recursos de que dispone, tales como la información, que suelen ser limitados.

El enfoque serial o computacional, hacia fines de la década de los ’60, predominó sobre el enfoque conexionista o de redes neuronales, a pesar de los importantes aportes que éste había realizado. Hubert y Stuart Dreyfus, en un artículo publicado en 1988 en la revista Artificial Intelligence, se explican esta situación por el “prejuicio filosófico cuasirreligioso contra el holismo”[6], que tenían los estudiosos de la inteligencia artificial y la comunidad científica en general. En la tradición racionalista que imperó durante el siglo XX y que perdura hasta nuestros días, la inteligencia no podía basarse en supuestos holistas, como los que subyacen al enfoque conexionista. De esta manera, se impuso la idea de que “cualquier campo debe poderse formalizar, la manera de hacer IA en cualquier área es obviamente encontrar los elementos y principios exentos de contexto y basar una representación simbólica formal en este análisis teórico.”[7]

Para estos autores, el hecho de que este reduccionismo analítico no aparezca fundamentado por los teóricos del enfoque simbólico, indica que éstos “suponen implícitamente que la abstracción de los elementos a partir de su contexto cotidiano, que define a la filosofía y que funciona en las ciencias naturales, también debe funcionar en la IA.”[8] Sin embargo, a poco andar, esta forma de concebir la inteligencia comenzó a ser severamente cuestionada, al advertirse que el enfoque computacional no lograba dar cuenta de la conducta inteligente que manifiesta un ser humano común y corriente, al aplicar lo que se conoce como “sentido común” para resolver los problemas cotidianos con los que se enfrenta. Más aún, ni siquiera podía explicar claramente, la conducta inteligente que se advierte en animales aparentemente tan simples como lo son los insectos. Esto llevó al resurgimiento del enfoque conexionista hacia fines de la década del ‘70, que se vio también apoyado por el desarrollo que estaba teniendo en esos años la neurobiología.

“Quizás tengamos que desechar la intuición básica, fundamento de la filosofía, de que debe existir una teoría de cualquier aspecto de la realidad, es decir, que debe haber elementos y principios en términos de los cuales podamos explicar la inteligibilidad de cualquier ámbito. Las redes neurales pueden mostrar que Heidegger, el Wittgenstein de la época posterior y Rosenblatt tenían razón al pensar que nos comportamos de manera inteligente en el mundo sin tener una teoría de ese mundo. Si no es necesaria una teoría para explicar el comportamiento inteligente, tenemos que estar preparados para formular la pregunta de si esta explicación teórica es siquiera posible en ámbitos cotidianos.”[9]


[1] Varela, Francisco. Connaître: Les Sciences Cognitives, tendences et perspectives. Editions du Seuil, Paris. 1988. Edición en español, Conocer. Editorial Gedisa, Barcelona. 1996. p. 37.

[2] Varela, F., Thompson, E., Rosch, E. The Embodied Mind: Cognitive Science and Human Experience. MIT Press, Cambridge, Mass. 1991. Edición en español, De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana, Ed. Gedisa, Barcelona. 1997. pp. 64-65.

[3] Newell, Allan. y Simon, Herbert. La ciencia de la computación como investigación empírica: símbolos y búsqueda. En Boden, Margaret. Filosofía de la Inteligencia Artificial. FCE, México. 1994. p. 124.

[4] Ibíd., pp. 124-125.

[5] Ibíd., p. 138.

[6] Dreyfus, H. y Dreyfus, S. “La construcción de una mente versus el modelaje del cerebro: la inteligencia artificial regresa a un punto de ramificación” en Boden, M. (1994), Filosofía de la Inteligencia Artificial, FCE, México, p. 353.

[7] Ibíd., p. 356.

[8] Ibíd., p. 356.

[9] Ibíd., p. 366.

4 comentarios:

Nosæt Famulus dijo...

Salve Rodrigo,

leyendo lo que has publicado en este artículo, una serie de vívidas reminiscencias de una problemática latente en mi entorno han venido a contexto: ¿las maquinas pueden pensar?.

Desde hace algunos días, esa pregunta ha estado rondando en mi cabeza y en varias personas que me rodean, pues a partir de la lectura del artículo: Computadoras e inteligencia de Allan Matison Turing, una serie de cuestionamientos han inquietado nuestras naturalezas.

La cita que más interés causó en mi persona sobre tu artículo, es aquel publicado por Allen Newell y Herbert A. Simon; La ciencia de la computación como investigación empírica: símbolos y búsqueda. Me pregunto si es que entre tu acervo bibliográfico tendrás aquel artículo y si existe la posibilidad de que lo compartas con tu servidor.

Hasta pronto y gracias por motivar este tipo de discusiones.

Atte.

Nosæt Famulus
nosaet@gmail.com

Rodrigo Robert Zepeda dijo...

Nosaet:

En cuanto a la clásica pregunta de si las máquinas pueden pensar, la respuesta dependerá ciertamente de qué entendemos por pensar. Si adoptamos el criterio de Newell y Simon, en cuanto a procesar símbolos de manera inteligente, por supuesto que las máquinas pueden hacerlo y de manera bastante eficiente.
Por otra parte, si la pregunta se refiere a pensar de la misma manera en que nos referimos al pensar de un ser humano, me parece que la respuesta sería negativa, pues el pensar no es independiente de la estructura del organismo o agente cognitivo. Esto es, para pensar como ser humano, hay que nacer y crecer como ser humano, hay que tener un cuerpo humano capaz de cambiar su estructura en el devenir de sus interacciones. El pensar humano resulta de las experiencias particulares que ese organismo ha tenido a lo largo de su historia, porlo cual el pensar debe comprenderse como un fenómeno situado y distribuido, en la línea de Vygotsky, de Bartlett, de Dewey, de Bateson, de Maturana y Varela.
Por supuesto, que esto da cuenta de mi particular forma de entender el fenómeno de pensar, pues mi respuesta también está determinada por mi historia y mi determinismo estructural.
En cuanto al texto de Newell y Simon, no dispongo de él en formato electrónico, aunque es probable que esté disponible en la web, situación que ignoro. Lo puede encontrar en el libro Filosofía de la Inteligencia Artificial de Margaret Boden, el cual debe estar disponible en diversas bibliotecas.

Saludos y gracias por su comentario.

Rodrigo.

Rodrigo Robert Zepeda dijo...

Nosaet:

En la siguiente dirección puedes bajar el artículo de Newell y Simon en inglés.

http://portal.acm.org/citation.cfm?id=360022&dl=GUIDE&dl=ACM

Rodrigo.

Nosæt Famulus dijo...

Rodrigo,

ante todo agradecerle la atención prestada y por facilitarme la ruta al artículo, aunque debido al interés generado por el planteamiento de su post inicial, me adelanté un poco a su búsqueda y a su respectiva lectura.

En efecto, la acción inteligente que podría conllevar al "pensamiento", se muestra un tanto subjetiva, pues siempre dependerá de un segundo involucrado en el acto en que se califica a un ente como inteligente.

Respecto al sistema físico de símbolos, está claro que en aquellas entidades que lo conforman existe esa inteligencia desde el momento mismo en que aquellas estructuras simbólicas, citadas por Newell y Simon, pueden generar nuevas expresiones simbólicas.

Desde luego que el pensamiento humano involucra mucho más características que sólo tomar decisiones y/o imitar algunos comportamientos, precisamente G. Jefferson aseveraba que una máquina no podría generar sonetos y algunos tipos de expresiones artísticas como lo hacemos los humanos, pues su arquitectura limitada no les provee de elementos sensoriales e intelectuales a través de los cuales pudieran aprender de las tristezas, de los placeres y demás sensaciones y sentimientos con los que nos vemos involucrados a diario.

Reitero mi agradecimiento, reciba mis cordiales saludos.

Nosæt