domingo, septiembre 30, 2007

Construyendo organismos inteligentes: una mirada desde la robótica (II Parte).


Rodney Brooks junto a Cog.


En su intento de crear un organismo inteligente, Rodney Brooks reparó en el hecho de que los insectos, al igual que todos los seres vivos, han evolucionado a lo largo del tiempo. De hecho, si tomamos como referente al ser humano, la interacción entre el sujeto y su entorno se da en una historia de desarrollo, la cual es fundamental para alcanzar un adecuado nivel de éxito en las tareas cognitivas. Esta idea, que puede parecer muy obvia en el ámbito de la psicología del desarrollo, no lo era tanto en el de la inteligencia artificial, por lo que su incorporación a este ámbito ha resultado muy significativa para la robótica.

En el ámbito de la psicología del desarrollo, existen estudios que sugieren que los niños no sólo aprenden sobre el mundo realizando acciones, sino también que el conocimiento así adquirido suele ser específico de la acción. Este hecho, acerca de la especificidad del conocimiento, se ha podido advertir también en los adultos. Estos hallazgos fundamentan, una vez más, la importancia que tiene la interacción entre el organismo y su medio, particularmente, el tipo de acciones que este organismo realiza en su historia de acoplamientos estructurales con su entorno, lo que gatilla en dicho organismo cambios estructurales, algunos de los cuales se mantienen en el tiempo, que denominamos aprendizajes, que a su vez se constituyen en la base sobre la cual ese organismo volverá a acoplarse estructuralmente con su entorno, y así consecutivamente. Este proceso de índole recursiva, que es característico de los sistemas dinámicos, permite que conductas que en un inicio pueden ser muy simples, mediante procesos de retroalimentación positiva y caóticos, se vayan transformando en conductas bastante sofisticadas, con lo cual el sistema, en este caso el organismo, se va haciendo progresivamente más complejo y va presentando un mayor nivel de autonomía y de auto-organización.

Esta capacidad de un organismo de ser agente de sí mismo, es decir, presentar autonomía y capacidad de auto-organización, resultó fundamental para el desarrollo de la inteligencia artificial y la robótica, pues los sistemas computacionales, incluidos los sistemas que operan en base a redes neuronales, tienden a presentar un alto nivel de dependencia de los sujetos o agentes que los programaron, siendo muy escasa o rudimentaria su capacidad de autonomía, dado que las metas u objetivos de sus acciones están previamente definidas.

La auto-organización que presentan los seres vivos, incluidos organismos muy primitivos como los virus o las bacterias, lleva a que éstos adopten ciertas pautas o patrones de conducta organizada que permiten el surgimiento de sistemas más complejos cuyas conductas no son posibles de explicar a partir de los organismos constituyentes. Este fenómeno se conoce como comportamiento emergente, el cual se caracteriza además, por el hecho de que no es posible predecir su aparición. El desarrollo de un organismo vivo, puede considerarse un fenómeno emergente, así como también, la aparición y el desarrollo de un cáncer. En términos más macros, de índole social, se puede advertir, por ejemplo, en la organización que adoptan algunas aves en sus vuelos migratorios o en la organización social que presenta un hormiguero o una colmena de abejas, conductas que muchas veces denominamos inteligentes.

La aplicación de estas ideas en la construcción de robots, queda ejemplificada en el procedimiento adoptado por Brooks.

“Ésta fue la metáfora que elegí para mis robots. Construiría sistemas simples de control para una conducta sencilla. Luego añadiría sistemas adicionales de control para un comportamiento más complejo, dejando todavía en su sitio y operativos los antiguos sistemas de control. Si era necesario, los sistemas más recientes podrían asumir ocasionalmente capacidades anteriores del sistema, y así se agregarían capa tras capa, repitiendo el proceso de la evolución natural de sistemas neurales cada vez más complejos.”[1]

Cuando Allen, fue presentado por Brooks en el II Simposio Internacional de Investigación Robótica, celebrado en Francia a finales de 1985, fue capaz de realizar conductas que hasta ese momento ningún robot había logrado. Curiosamente, muchos desacreditaron su trabajo, dado que ese robot no se basaba en procesos de razonamiento centralmente dirigidos ni en algoritmos clásicos que pudieran ser analizados. Brooks, continuó desarrollando robots, cada vez más sofisticados, lo que permitió, en 1997, contar con un robot autónomo, sin control humano, en la superficie de Marte, como fue el caso del Sojourner.

Los robots que Brooks y su equipo han desarrollado, se basan todos en dos principios fundamentales: situación y encarnación, los cuales define de la siguiente manera:

“Una criatura o robot situado es aquel que se halla inserto en el ambiente y que no opera con descripciones abstractas sino a través de sensores propios que en el aquí y ahora del mundo influyen directamente en su conducta.

Una criatura o robot encarnado es aquel que posee un organismo físico y experimenta el mundo, al menos en parrte, directamente a través de la influencia de éste sobre el cuerpo. Se produce un tipo más especializado de personificación cuando la plenitud de ese ser se halla contenida dentro del mundo.”[2]

En la década de los ’90, Brooks, Cynthia Breazeal, Robert Irie y otros miembros de su equipo, construyeron el primer robot humanoide, llamado Cog, que es capaz de interactuar socialmente con las personas de un modo “más natural”.

A pesar de estos significativos avances, Brooks, advierte:

“La verdad de la cuestión es que carecemos de un sistema de visión informática que sobresalga en la tarea de reconocer que algo es una taza, un peine o la pantalla de un ordenador. Nuestros sistemas de visión informática pueden hacer unas cuantas cosas con gran destreza, pero tras cuarenta años de investigaciones no destacan en tareas que los seres humanos y muchos animales llevan a cabo sin esfuerzo.

(. . . .) Está claro que todavía nos falta algo fundamental en el modo en que se halla organizada la visión en los humanos, aunque casi nadie lo reconocerá.”[3]

A pesar de estas falencias, aparentemente tan básicas, Cog permitió el desarrollo de Kismet, un robot que puede participar en interacciones sociales y que está constituido por diversos subsistemas que no cuentan con un subsistema de control central. Kismet, puede dirigir su mirada hacia aquello que llame su atención, atendiendo a cosas que se mueven, que presentan colores saturados y las que tienen el color de la piel. Es capaz de localizar los ojos de su interlocutor y presentar cambios apropiados en su contacto visual a lo largo de una conversación. Kismet puede buscar y localizar objetos, a pesar que no ha sido programado para ello, es decir, estas conductas emergen de otras conductas más simples. Kismet, también es capaz de percibir voces e identificar indicadores prosódicos que le permiten extraer el mensaje emocional que acompaña al mensaje verbal. Más aún, estos mensajes emocionales que identifica pueden afectar su conducta, es decir, presenta un rudimentario estado emocional que afecta su actividad.

Por supuesto, Kismet presenta diversas y significativas limitaciones:

“Lo que Kismet no puede hacer es entender realmente lo que se le dice. Ni es capaz de manifestar algo significativo. Pero ninguna de estas restricciones parece constituir un gran obstáculo para una buena conversación. Kismet sólo oye que las personas hablan y la prosodia de sus voces. Kismet pronuncia fonemas ingleses, pero no comprende lo que dice ni sabe cómo encadenar los fonemas o sílabas de una manera significativa.”

Ciertamente Cog y Kismet, constituyen importantes avances en el desarrollo de la robótica y nos llevan a replantear algunas conceptualizaciones referentes a la cognición y a la inteligencia. Estos robots humanoides, resultan ser organismos inteligentes en varios sentidos, aunque claramente no en otros. La inteligencia artificial, la robótica y la ciencia cognitiva han tenido importantes desarrollos teóricos y prácticos en los últimos años y todo parece indicar que estamos al comienzo de una impredecible e interesante aventura.

Las importantes limitaciones que presentan los robots hasta la fecha, me parece que no permiten desechar completamente el aporte de los sistemas computacionales más clásicos. En medio de estos loops recursivos que nos resultan impredecibles, nadie puede asegurar que no aparecerá un modelo que integre el enfoque de los sistemas seriales al desarrollo que en ese momento esté presentando esta nueva inteligencia artificial. La experiencia parece indicar que hay que dejar que la evolución haga su parte, pues hasta el momento parece haber actuado con cierto grado de inteligencia.


[1] Brooks, Rodney. Flesh and Machines. Pantheon Books. New York. 2002. Edición en español, Cuerpos y Máquinas. Ediciones B. Barcelona. 2003. p. 52.

[2] Ibíd., p. 65.

[3] Ibíd., p. 111.

miércoles, septiembre 05, 2007

Construyendo organismos inteligentes: una mirada desde la robótica (I Parte).


Francisco Varela, Evan Thompson y Eleanor Rosch, plantean que la cognición debe estudiarse como acción corporizada. Esto significa, por una parte, que la cognición está biológicamente determinada por un cuerpo que es capaz de establecer operaciones sensorio-motrices; por otro lado, implica también asumir que estas operaciones sensorio-motrices están en una relación de co-dependencia, de carácter recursivo, con el contexto biológico, psicológico y cultural en el que se encuentra este organismo. Desde esta perspectiva, los procesos sensoriales, motores, la percepción y la acción, no se pueden separar cuando nos referimos a los procesos cognitivos.

Para el enfoque enactivo[1], el objetivo es estudiar cómo el organismo que percibe puede guiar sus acciones en su entorno local, considerando que este entorno está cambiando constantemente como resultado de la acción del mismo organismo.

“El punto de referencia para comprender la percepción ya no es un mundo pre-dado, independiente del que percibe, sino más bien la estructura sensorio-motriz del agente cognitivo, el modo en que el sistema nervioso une superficies sensoriales y motrices. Más que un mundo pre-determianado, es esta estructura –la forma en que el sujeto que percibe está encarnado- la que determina los modos de acción posibles del que percibe y cómo éste puede ser moldeado por acontecimientos ambientales.”[2]

“La cognición ya no se encara como resolución de problemas a partir de representaciones; en cambio, la cognición en su sentido más abarcador consiste en la enactuación de un mundo –en hacer emerger un mundo- mediante una historia viable de acoplamiento estructural.”[3]

Han sido muchos años, en realidad siglos, durante los cuales, en el mundo occidental, hemos sido educados en una epistemología lineal-causal, adoptando una fe casi ciega en la racionalidad científica y en su método de estudio analítico. Las distinciones sujeto-objeto, mente-cuerpo y razón-emoción, son fundamentales para nuestra forma de concebir el mundo y a nosotros mismos. Cambiar esta forma particular de mirar no resulta fácil y no lo ha sido para quienes se han dedicado a estudiar la inteligencia y la cognición. Los estudios y avances alcanzados por la ciencia cognitiva, en sus distintos dominios, parece estarnos confrontando con este cambio de mirada. En palabras de Andy Clark:

“Pero ahora, cada vez es más evidente que la alternativa a la visión centrada en la ‘manipulación incorpórea de datos explícitos’ de la inteligencia artificial no es apartarse de la ciencia pura y dura; es profundizar en una ciencia más dura todavía. Es colocar la inteligencia en el lugar que le corresponde: en el acoplamiento entre los organismos y el mundo que se encuentra en la raíz de la acción fluida cotidiana.”[4]

Si adoptamos el concepto de inteligencia que propone Clark, el cual es consistente con los planteamientos antes realizados, esto es, entendiendo que la inteligencia se da en la relación entre el sujeto y su entorno, donde la acción conjunta de ambos sistemas permite resolver los problemas de la vida cotidiana, entonces no resulta muy aclarador sostener la idea de que un sistema representa al otro.

Estas ideas revolucionarias de la ciencia cognitiva, que habían sido ya formalmente planteadas por la cibernética en los inicios de esta ciencia, han sido incorporadas al ámbito de la robótica, con resultados que nos acercan velozmente a recrear, en la vida cotidiana, escenas de las películas y libros de ciencia ficción de mediados del siglo XX.

Rodney Brooks, quien es director del Laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT), narra su experiencia al intentar construir un robot:

“Yo había estado pensando en el modo de organizar la computación para controlar el robot. De alguna manera el sistema conectaría los procesos perceptivos que trataban los datos brutos de los sensores con los procesos motores que controlaban las órdenes a la base robótica. La cuestión radicaba en el modo de construir esta caja de computación (. . .) Esta caja era considerada como el departamento de cognición, el meollo del pensamiento y de la inteligencia. Decidí que el mejor modo de construirla sería eliminarla. Nada de cognición. Simplemente percepción y acción. Eso sería todo lo que crearía, dejando por completo fuera todo lo que tradicionalmente se concebía como la ‘inteligencia’ de una inteligencia artificial.”[5]

Brooks, cuestiona el concepto de inteligencia que utilizaba la inteligencia artificial en sus primeros años de desarrollo, pues ésta sólo consideraba el saber de un experto académico, dejando de lado la inteligencia que requiere un niño de cuatro o cinco años para desplazarse por su medio, la cual le permite actuar como todo un experto en el mundo, al distinguir sin esfuerzos una serie de objetos cotidianos, al caminar en dos pies y esquivar obstáculos, entre otras conductas que nos resultan “muy naturales” en un menor.

“Hacia los años ochenta, la mayoría de los consagrados a la inteligencia artificial habían comprendido que estos últimos problemas eran muy difíciles y en los veinte años transcurridos desde entonces, muchos han llegado a advertir que en realidad son notablemente más arduos que los de la primera serie. Ver, andar, sortear obstáculos y juzgar estéticamente no exigen por lo común una reflexión explícita o el desarrollo de una cadena de razonamientos. Tan sólo suceden.”[6]

Para el desarrollo de su robot, Brooks se inspiró en los insectos, quienes eran capaces de realizar conductas mucho más sofisticadas que las de cualquier robot en ese tiempo, mediados de los ochenta, tales como desplazarse velozmente de un lugar a otro evitando obstáculos, evitar a los depredadores y encontrar alimento y pareja. Dado que la capacidad de cómputo de un insecto era muy similar a la de un ordenador digital, la diferencia de rendimiento debía hallarse en la organización del sistema nervioso del animal. Estas reflexiones lo llevaron a cuestionar el clásico modelo representacional con el que operaba la ciencia cognitiva.

“La clave radicaba en conseguir que el robot reaccionara con tal velocidad ante sus sensores que no necesitase construir y mantener un modelo interior del mundo computacional. Podía referirse simplemente al mundo real a través de sus sensores cuando fuese preciso ver lo que pasaba. (. . .) Si tanto costaba construir y mantener un modelo interno del mundo, entonces me desembarazaría de él. Cualquier otro robot contaba con uno, pero no estaba claro que lo tuvieran los insectos. ¿Por qué pues habían de requerirlos nuestros robots?.”[7]


[1] Varela denomina de este modo su propuesta teórica, término que es un neologismo derivado del inglés “to enact”, que significa traer a la mano, hacer emerger. Para mayor detalle de este enfoque, véase Varela, F. et al., De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana, Ed. Gedisa, Barcelona.

[2] Varela, F. (1996), Ética y Acción, op. cit., p. 19.

[3] Varela, F. et al. (1997), De Cuerpo Presente, op. cit., p. 238.

[4] Clark, A. (1999) Estar ahí: cerebro, cuerpo y mundo en la nueva ciencia cognitiva, op. cit., p. 42.

[5] Brooks, R. (2003) Cuerpos y Máquinas, Ediciones B, Barcelona, p. 47.

[6] Ibíd., p. 48.

[7] Ibíd., p. 52.

miércoles, agosto 08, 2007

El concepto de inteligencia en la ciencia cognitiva (II Parte).


Francisco Varela (1946-2001)


En un artículo de 1977, publicado en la revista Artificial Intelligence, David Marr, un importante teórico de la ciencia cognitiva, concibe de un modo bien particular a la inteligencia artificial, al señalar que trata de “el estudio de problemas complejos de procesamiento de la información que a menudo tienen sus raíces en algún aspecto del procesamiento biológico de la información.”[1]

Para Marr, los problemas que intenta resolver la inteligencia artificial pueden ser de dos tipos. Hay problemas para los cuales se puede saber con claridad qué debe hacer el algoritmo que se elabora para su implementación y resolución. Esta información puede ser captada por el enfoque computacional clásico y, en este caso, el problema tiene una teoría tipo 1, como él la denomina. Sin embargo, no todos los problemas, especialmente en el ámbito de la biología, corresponden a los que tienen una teoría tipo 1. Hay problemas que para resolverlos se requiere la acción simultánea de muchos procesos, “cuya interacción es su propia descripción más sencilla”. Estos problemas, según Marr, tienen una teoría del tipo 2. Un ejemplo de este tipo de problema sería predecir cómo se pliega una proteína y las consecuencias de este tipo de problemas, Marr las ilustra de la siguiente manera:

“Hay muchas cosas que influyen en una cadena polipeptídica larga cuando se sacude y agita en un medio. En cada momento sólo unas cuantas interacciones posibles serán importantes, pero su importancia es decisiva. Los intentos para construir una teoría simplificada deben ignorar algunas interacciones; pero si la mayoría de ellas son cruciales en cierta etapa del plegamiento, una teoría simplificada resultará inadecuada. (. . . )

La principal dificultad en la IA es que nunca se tiene la suficiente seguridad de que el problema tiene una teoría del tipo 1. Si se encuentra una, cuánto mejor, pero no encontrarla no significa que no exista.”[2]

La pregunta que surge de estos planteamientos es que si los problemas de la vida cotidiana que enfrenta un organismo o agente corresponden fundamentalmente a situaciones complejas donde simultáneamente actúan muchos procesos, de índole física, química, biológica, psicológica y social, ¿pueden ser efectivamente abordados y explicados exclusivamente por el enfoque computacional de la inteligencia artificial?, y de no ser así, ¿puede la arquitectura simbólica o serial dar cuenta, por sí sola, de una conducta propiamente inteligente?.

Francisco Varela, comenta el giro que tuvo la investigación en la ciencia cognitiva y en la inteligencia artificial luego de que se hicieron evidentes las falencias del modelo computacional.

“La culminación de la experiencia de las dos primeras décadas de predominio cognitivista se puede expresar señalando una convicción que cobró progresivo arraigo en la comunidad de investigadores: es preciso invertir al experto y al niño en la escala de desempeños. Los primeros intentos procuraban resolver los problemas más generales, (. . .). Se consideraba que estos intentos, que procuraban emular la inteligencia de un experto dotado de gran capacitación, abordaban los problemas difíciles e interesantes. A medida que los intentos se volvieron más modestos y localizados, resultó evidente que la inteligencia más profunda y fundamental es la del bebé que puede adquirir el lenguaje a partir de manifestaciones cotidianas dispersas, y puede constituir objetos significativos a partir de lo que parece un mar de luces.”[3]

“Existen fuertes indicaciones de que el conjunto de ciencias que tratan del conocimiento y de la cognición –las ciencias cognitivas- lentamente han ido cobrando conciencia de que las cosas han sido planteadas al revés y han comenzado un radical viraje paradigmático o epistémico. El núcleo de esta visión emergente es la convicción de que las verdaderas unidades de conocimiento son de naturaleza eminentemente concreta, incorporadas, encarnadas, vividas; que el conocimiento se refiere a una situacionalidad; y que lo que caracteriza al conocimiento –su historicidad y su contexto- no es un ‘ruido’ que oscurece la pureza de un esquema que ha de ser captado en su verdadera esencia, una configuración abstracta.”[4]

La capacidad que tienen los sistemas conexionistas de aprender a través de la experiencia, mediante ciclos recursivos de retroalimentación, les permite contar con una autonomía y flexibilidad de la que adolecen los sistemas que operan bajo un procesamiento serial. Estas características, hacen posible que estos sistemas presenten conductas inteligentes como resultado de su dinámica organizacional, es decir, la inteligencia emerge de la forma de operar que tiene este sistema.

“En este enfoque, cada componente opera sólo en un ámbito local, de modo que ningún agente externo hace girar el eje del sistema. Pero como el sistema está constituido como red, hay una cooperación global que emerge espontáneamente cuando los estados de todas las ‘neuronas’ participantes alcanzan un estado mutuamente satisfactorio. En dicho sistema, pues, no se requiere una unidad procesadora central que guíe la operación. Este tránsito desde las reglas locales hacia la coherencia global es el corazón de aquello que en la era cibernética se llamaba autoorganización. Hoy se prefiere hablar de propiedades emergentes o globales, dinámica de red, redes no lineales, sistemas complejos e incluso sinergia.”[5]

El enfoque conexionista y los sistemas basados en este tipo de arquitectura, si bien presentan propiedades que los aproximan significativamente a los sistemas biológicos, no deben considerarse, necesariamente, como la superación final de los sistemas seriales o simbólicos. De hecho, autores como W. Daniel Hillis, entre otros, a pesar de adoptar un enfoque conexionista, se resisten a la idea de refutar de plano a los sistemas más clásicos. Este autor señala: “El sistema emergente que puedo imaginar con más facilidad sería una implementación del pensamiento simbólico antes que una refutación de él. El pensamiento simbólico sería una propiedad emergente del sistema.”[6]

Para Andy Clark, destacado teórico de la ciencia cognitiva y director del Philosophy-Neuroscience-Psychology Program de la Universidad de Washington, las redes neuronales artificiales presentan tanto ventajas como inconvenientes.

“Son capaces de tolerar datos ‘ruidosos’, imperfectos o incompletos. Son resistentes a daños locales. Son rápidas. Y sobresalen en tareas que suponen la integración simultánea de muchas pequeñas señales o elementos de información, una capacidad que es esencial para el reconocimiento perceptivo y el control motor en tiempo real. Estas ventajas se derivan del hecho de que estos sistemas se dedican a completar patrones con un procesamiento en paralelo masivo. (. . .) Incluso algunos fallos de estos sistemas son atrayentes en el plano psicológico. Pueden sufrir ‘interferencias’ cuando unas codificaciones similares se obstaculizan mutuamente (de manera similar a cuando aprendemos un número de teléfono que se parece a otro que ya sabemos y enseguida los confundimos, olvidándonos de los dos). Y no son intrínsecamente adecuados para la resolución de problemas secuencial y gradual típica de la lógica y la planificación. (. . .) Los sistemas clásicos, con sus direcciones de memoria ordenadas y bien definidas, son inmunes a estas interferencias y ofrecen un rendimiento excelente en la resolución de problemas lógicos y secuenciales, pero rinden mucho peor en tareas de control en tiempo real.”[7]

Clark, aclara que estas desventajas o inconvenientes de los sistemas conexionistas no son necesariamente malos, pues si aspiramos a modelar la cognición humana, “se deben favorecer aquellos fundamentos computacionales que produzcan una pauta de puntos fuertes y débiles parecida a la nuestra. Y en general somos mejores al fútbol que en lógica.”[8]

George Reeke y Gerald Edelman, Premio Nobel de Medicina en 1972, plantearon hace más de una década, que la inteligencia artificial necesitaba integrar los conocimientos de la neurobiología para seguir avanzando, debía observar con mayor atención a los sistemas biológicos que son los que realmente presentan conductas inteligentes, abandonando la noción de inteligencia como una actividad solamente abstracta de procesamiento de la información y adoptando un enfoque que respete la complejidad de los organismos y de los sistemas biológicos.

“Una confrontación del número de niveles interactivos en un organismo real capaz de conducta inteligente revela una estremecedora complejidad de interacciones no lineales. Si se agrega la transmisión social a través del lenguaje, la complejidad se incrementa aún más. A la vista de esta complejidad, parece ser el colmo de la arrogancia pensar que todos los problemas que confrontan las criaturas inteligentes se pueden comprender ponderándolos en abstracto. En vez de eso, se debe comenzar a analizar esos sitemas en términos de las estructuras y funciones básicas necesarias y sus modos de origen, su desarrollo tanto como su evolución. (. . .) Creemos que la IA finalmente sólo se alcanzará en sistemas no-von Neumann en los que variantes especializadas de hardware, basadas en el tema común de la selección y el pensamiento de la población, trabajarán sin programas para adaptarse a los ambientes particulares en los que se encuentren, tal como lo hacen los organismos biológicos.”[9]

Hubert y Stuart Dreyfus, cuestionan también que la inteligencia artificial, en su corriente conexionista, pueda presentar significativos avances si no abandona el concepto abstracto y descontextualizado que maneja de la inteligencia, de manera que la red o el sistema pueda hacer generalizaciones adecuadas del conocimiento que ha adquirido mediante su experiencia. Ellos señalan:

“Todos los diseñadores de redes neurales concuerdan en que para que una red sea inteligente debe ser capaz de generalizar; es decir, dados suficientes ejemplos de entradas asociadas a una salida particular, la red debería asociar más entradas del mismo tipo con el mismo tipo de salida. (. . .)

El problema aquí es que el diseñador ha determinado, mediante la arquitectura de la red, que nunca se encuentren ciertas generalizaciones posibles. Todo eso está bien y es aceptable para problemas de juguete en los que no se cuestiona qué constituye una generalización razonable, pero en situaciones del mundo real gran parte de la inteligencia humana consiste en generalizar de manera adecuada al contexto. (. . .)

Si ha de aprender a partir de sus propias ‘experiencias’ para realizar asociaciones semejantes a las humanas y no aprender las asociaciones que su entrenador ha especificado, una red también debe compartir nuestro sentido de adecuación a la salida de datos, y esto significa que debe compartir nuestras necesidades, deseos y emociones y tener, además, un cuerpo semejante al humano con movimientos físicos apropiados, así como habilidades y vulnerabilidad a las lesiones.

(. . .) La inteligencia tiene que motivarse mediante propósitos en el organismo y a través de las metas que éste seleccione a partir de una cultura en curso. Si la mínima unidad de análisis es la de todo un organismo adaptado a todo un mundo cultural, las redes neurales y las computadoras de programación simbólica todavía tienen un largo camino por recorrer.”[10]

Sin lugar a dudas, en los últimos años se han ido gestando importantes, e incluso revolucionarios, cambios paradigmáticos y epistemológicos en la forma que tenemos de entender al ser humano y la conducta inteligente. El avance que en materia de inteligencia artificial hemos tenido ha sido vertiginoso y los resultados alcanzados parecen indicar que se está actuando en forma inteligente. Quisiera terminar con las palabras de John Briggs y F. David Peat, quienes me parece resumen de muy buena forma lo hasta aquí tratado.

“Aún está por verse si la ruta conexionista hacia la IA puede triunfar. No obstante, es significativo que ahora los científicos cifren sus esperanzas en los aspectos no reduccionistas de la complejidad para resolver el problema de crear una máquina capaz de pensar. Sin duda la ciencia ha recorrido un largo camino desde esos días en que se creía que los aspectos previsibles y racionales de las máquinas eran la imagen del universo.”[11]


[1] Marr, D. “La inteligencia artificial: un punto de vista personal” en Boden, M. (1994), Filosofía de la Inteligencia Artificial, FCE, México, p. 153.

[2] Ibíd., p. 155.

[3] Varela, F. et al.(1997), De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana. Ed. Gedisa, Barcelona, pp. 112-113.

[4] Varela, F. (1996) Ética y Acción, Dolmen Ediciones, Santiago, pp. 13-14.

[5] Varela, F. et al.(1997). op. cit. pp. 114-115.

[6] Hillis, W.D., “La inteligencia como conducta emergente, o la canción del Edén” en Graubard, S. (1993) El nuevo debate sobre la inteligencia artificial, Ed. Gedisa, Barcelona, p. 203.

[7] Clark, A. (1997) Estar ahí: cerebro, cuerpo y mundo en la nueva ciencia cognitiva, Ed. Paidós, Barcelona, pp. 100-101.

[8] Ibíd., p. 101.

[9]Reeke, G. y Edelman, G. “Cerebros reales e inteligencia artificial” en Graubard, S. (1993) El nuevo debate sobre la inteligencia artificial, Ed. Gedisa, Barcelona, p. 198.

[10] Dreyfus, H. y Dreyfus, S. “La construcción de una mente versus el modelaje del cerebro: la inteligencia artificial regresa a un punto de ramificación” en Boden, M. (1994), “Filosofía de la Inteligencia Artificial”, FCE, México, pp. 369-370.

[11] Briggs, J. y Peat, F. (1990) Espejo y Reflejo: Del caos al orden, Ed. Gedisa, Barcelona, p. 174.

domingo, julio 29, 2007

Humberto Maturana y la pregunta por el Observador.

En algunos de los cursos que imparto, suelo comenzar, a modo de introducción, comentando una cita de Humberto Maturana, en la cual nos invita a realizar un ejercicio tan necesario y tan poco practicado, aparentemente, como lo es la reflexión, el mirar dónde estamos y en qué estamos.

“La reflexión implica un acto de mirar donde se está y ese es un acto de la emoción; implica el soltar la certidumbre del confort de estar moviéndose adecuadamente en el dominio donde se está, es admitir una posibilidad de preguntarse sobre esta legitimidad. Creo que la reflexión es un acto de emoción en el cual se suelta lo que se tiene, se abre la mano, por así decirlo, para verlo.” Humberto Maturana.


A principios de este año, tuve la suerte de que me invitaran a dar un curso en la ciudad de Lima, Perú, y debo reconocer que de alguna manera me siento en deuda con mis alumnas peruanas, se trataba de profesoras, pues al termino de éste, varias me señalaron que faltó tiempo para abordar con un poco más de detalle las ideas de Maturana. Por otra parte, mis alumnos y alumnas acá en Chile, me cuentan que llegan a soñar con el profesor Maturana, dadas las constantes referencias que hago a su obra y los textos que suelo utilizar como bibliografía en las asignaturas que imparto. Para todos y todas ellas, este breve video con una parte de la entrevista que Cristian Warnken le hiciera en su programa La Belleza del Pensar.

Al finalizar, les sugiero revisen los videos de Francisco Varela, quien fue alumno de Humberto Maturana y, a mi juicio, uno de los mejores intelectuales y hombres de esta tierra. Además, es otro de los personajes con quienes mis alumnas y alumnos suelen soñar.





lunes, julio 16, 2007

El concepto de inteligencia en la ciencia cognitiva (I Parte).




Allan Newell (izq.) y Herbert Simon.


En relación al enfoque simbólico o serial en la ciencia cognitiva, Francisco Varela, señala que para los fundadores de este modelo, “la inteligencia (incluida la inteligencia humana) se parece tanto a un ordenador o computador, en sus características esenciales, que la cognición se puede definir como la computación de representaciones simbólicas.”[1] Esta definición, la explica el mismo Varela cuando se pregunta:

“¿Qué significa exactamente decir que la cognición se puede definir como computación? Una computación es una operación que se lleva a cabo sobre símbolos, es decir, sobre elementos que representan aquello que designan. La noción clave es la de representación o ‘intencionalidad’, el término filosófico para aludir al ‘acerca de’. El argumento cognitivista es que la conducta inteligente presupone la aptitud para representar el mundo como si fuera de ciertas maneras. Por lo tanto no podemos explicar la conducta cognitiva a menos que demos por sentado que un agente actúa representando rasgos relevantes de la situación en que se halla. En la medida en que esta representación de una situación sea precisa, la conducta del agente tendrá éxito (siempre que todo lo demás permanezca igual).

La noción de representación es –al menos desde el ocaso del conductismo- relativamente poco controvertida. Lo controvertido es el paso siguiente. Nos referimos a la afirmación cognitivista de que la única manera de explicar la inteligencia y la intencionalidad es plantear la hipótesis de que la cognición consiste en actuar a partir de representaciones que se realizan físicamente en forma de un código simbólico dentro del cerebro o de una máquina.”[2]

Allan Newell y Herbert Simon, fundadores del enfoque computacional, señalan, en un clásico artículo publicado en 1976, que:

“Los símbolos descansan en la raíz de la acción inteligente que es, desde luego, el tema principal de la inteligencia artificial. En cuanto a eso, es una cuestión central para toda la ciencia de la computación, ya que toda la información se procesa en computadoras en función de fines y medimos la inteligencia de un sistema por su capacidad para alcanzar objetivos establecidos frente a variaciones, dificultades y complejidades planteadas por el ámbito de la tarea que hay que realizar.”[3]

En cuanto a la naturaleza de la inteligencia plantean:

“Nuestro entendimiento de los requisitos del sistema para realizar actos inteligentes surge lentamente. Es compuesto, pues no hay una sola cosa elemental que explique la inteligencia en todas sus manifestaciones. No existe un ‘principio de la inteligencia’ como tampoco hay un ‘principio vital’ que por su propia naturaleza transmita la esencia de la vida. Sin embargo, la ausencia de un simple deus ex machina no implica que no existan requisitos estructurales para la inteligencia. Uno de estos requisitos es la capacidad de almacenar y manipular símbolos.”[4]

El trabajo de Newell y Simon, así como el de otros teóricos de la inteligencia artificial, los llevó a proponer sistemas que fueran capaces de resolver problemas, pues, como ellos mismos explicitaron, “la capacidad de resolver problemas se considera en general como un primer indicador de que el sistema tiene inteligencia.”[5] Un sistema de resolución de problemas para ser considerado inteligente, no sólo necesita ser eficaz, es decir, llegar a una o varias soluciones posibles, sino también necesita ser eficiente, esto es, alcanzar dichas soluciones utilizando la menor cantidad de recursos posibles, como el tiempo, o dicho de otra manera, maximizando todo lo posible los recursos de que dispone, tales como la información, que suelen ser limitados.

El enfoque serial o computacional, hacia fines de la década de los ’60, predominó sobre el enfoque conexionista o de redes neuronales, a pesar de los importantes aportes que éste había realizado. Hubert y Stuart Dreyfus, en un artículo publicado en 1988 en la revista Artificial Intelligence, se explican esta situación por el “prejuicio filosófico cuasirreligioso contra el holismo”[6], que tenían los estudiosos de la inteligencia artificial y la comunidad científica en general. En la tradición racionalista que imperó durante el siglo XX y que perdura hasta nuestros días, la inteligencia no podía basarse en supuestos holistas, como los que subyacen al enfoque conexionista. De esta manera, se impuso la idea de que “cualquier campo debe poderse formalizar, la manera de hacer IA en cualquier área es obviamente encontrar los elementos y principios exentos de contexto y basar una representación simbólica formal en este análisis teórico.”[7]

Para estos autores, el hecho de que este reduccionismo analítico no aparezca fundamentado por los teóricos del enfoque simbólico, indica que éstos “suponen implícitamente que la abstracción de los elementos a partir de su contexto cotidiano, que define a la filosofía y que funciona en las ciencias naturales, también debe funcionar en la IA.”[8] Sin embargo, a poco andar, esta forma de concebir la inteligencia comenzó a ser severamente cuestionada, al advertirse que el enfoque computacional no lograba dar cuenta de la conducta inteligente que manifiesta un ser humano común y corriente, al aplicar lo que se conoce como “sentido común” para resolver los problemas cotidianos con los que se enfrenta. Más aún, ni siquiera podía explicar claramente, la conducta inteligente que se advierte en animales aparentemente tan simples como lo son los insectos. Esto llevó al resurgimiento del enfoque conexionista hacia fines de la década del ‘70, que se vio también apoyado por el desarrollo que estaba teniendo en esos años la neurobiología.

“Quizás tengamos que desechar la intuición básica, fundamento de la filosofía, de que debe existir una teoría de cualquier aspecto de la realidad, es decir, que debe haber elementos y principios en términos de los cuales podamos explicar la inteligibilidad de cualquier ámbito. Las redes neurales pueden mostrar que Heidegger, el Wittgenstein de la época posterior y Rosenblatt tenían razón al pensar que nos comportamos de manera inteligente en el mundo sin tener una teoría de ese mundo. Si no es necesaria una teoría para explicar el comportamiento inteligente, tenemos que estar preparados para formular la pregunta de si esta explicación teórica es siquiera posible en ámbitos cotidianos.”[9]


[1] Varela, Francisco. Connaître: Les Sciences Cognitives, tendences et perspectives. Editions du Seuil, Paris. 1988. Edición en español, Conocer. Editorial Gedisa, Barcelona. 1996. p. 37.

[2] Varela, F., Thompson, E., Rosch, E. The Embodied Mind: Cognitive Science and Human Experience. MIT Press, Cambridge, Mass. 1991. Edición en español, De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana, Ed. Gedisa, Barcelona. 1997. pp. 64-65.

[3] Newell, Allan. y Simon, Herbert. La ciencia de la computación como investigación empírica: símbolos y búsqueda. En Boden, Margaret. Filosofía de la Inteligencia Artificial. FCE, México. 1994. p. 124.

[4] Ibíd., pp. 124-125.

[5] Ibíd., p. 138.

[6] Dreyfus, H. y Dreyfus, S. “La construcción de una mente versus el modelaje del cerebro: la inteligencia artificial regresa a un punto de ramificación” en Boden, M. (1994), Filosofía de la Inteligencia Artificial, FCE, México, p. 353.

[7] Ibíd., p. 356.

[8] Ibíd., p. 356.

[9] Ibíd., p. 366.