miércoles, agosto 08, 2007

El concepto de inteligencia en la ciencia cognitiva (II Parte).


Francisco Varela (1946-2001)


En un artículo de 1977, publicado en la revista Artificial Intelligence, David Marr, un importante teórico de la ciencia cognitiva, concibe de un modo bien particular a la inteligencia artificial, al señalar que trata de “el estudio de problemas complejos de procesamiento de la información que a menudo tienen sus raíces en algún aspecto del procesamiento biológico de la información.”[1]

Para Marr, los problemas que intenta resolver la inteligencia artificial pueden ser de dos tipos. Hay problemas para los cuales se puede saber con claridad qué debe hacer el algoritmo que se elabora para su implementación y resolución. Esta información puede ser captada por el enfoque computacional clásico y, en este caso, el problema tiene una teoría tipo 1, como él la denomina. Sin embargo, no todos los problemas, especialmente en el ámbito de la biología, corresponden a los que tienen una teoría tipo 1. Hay problemas que para resolverlos se requiere la acción simultánea de muchos procesos, “cuya interacción es su propia descripción más sencilla”. Estos problemas, según Marr, tienen una teoría del tipo 2. Un ejemplo de este tipo de problema sería predecir cómo se pliega una proteína y las consecuencias de este tipo de problemas, Marr las ilustra de la siguiente manera:

“Hay muchas cosas que influyen en una cadena polipeptídica larga cuando se sacude y agita en un medio. En cada momento sólo unas cuantas interacciones posibles serán importantes, pero su importancia es decisiva. Los intentos para construir una teoría simplificada deben ignorar algunas interacciones; pero si la mayoría de ellas son cruciales en cierta etapa del plegamiento, una teoría simplificada resultará inadecuada. (. . . )

La principal dificultad en la IA es que nunca se tiene la suficiente seguridad de que el problema tiene una teoría del tipo 1. Si se encuentra una, cuánto mejor, pero no encontrarla no significa que no exista.”[2]

La pregunta que surge de estos planteamientos es que si los problemas de la vida cotidiana que enfrenta un organismo o agente corresponden fundamentalmente a situaciones complejas donde simultáneamente actúan muchos procesos, de índole física, química, biológica, psicológica y social, ¿pueden ser efectivamente abordados y explicados exclusivamente por el enfoque computacional de la inteligencia artificial?, y de no ser así, ¿puede la arquitectura simbólica o serial dar cuenta, por sí sola, de una conducta propiamente inteligente?.

Francisco Varela, comenta el giro que tuvo la investigación en la ciencia cognitiva y en la inteligencia artificial luego de que se hicieron evidentes las falencias del modelo computacional.

“La culminación de la experiencia de las dos primeras décadas de predominio cognitivista se puede expresar señalando una convicción que cobró progresivo arraigo en la comunidad de investigadores: es preciso invertir al experto y al niño en la escala de desempeños. Los primeros intentos procuraban resolver los problemas más generales, (. . .). Se consideraba que estos intentos, que procuraban emular la inteligencia de un experto dotado de gran capacitación, abordaban los problemas difíciles e interesantes. A medida que los intentos se volvieron más modestos y localizados, resultó evidente que la inteligencia más profunda y fundamental es la del bebé que puede adquirir el lenguaje a partir de manifestaciones cotidianas dispersas, y puede constituir objetos significativos a partir de lo que parece un mar de luces.”[3]

“Existen fuertes indicaciones de que el conjunto de ciencias que tratan del conocimiento y de la cognición –las ciencias cognitivas- lentamente han ido cobrando conciencia de que las cosas han sido planteadas al revés y han comenzado un radical viraje paradigmático o epistémico. El núcleo de esta visión emergente es la convicción de que las verdaderas unidades de conocimiento son de naturaleza eminentemente concreta, incorporadas, encarnadas, vividas; que el conocimiento se refiere a una situacionalidad; y que lo que caracteriza al conocimiento –su historicidad y su contexto- no es un ‘ruido’ que oscurece la pureza de un esquema que ha de ser captado en su verdadera esencia, una configuración abstracta.”[4]

La capacidad que tienen los sistemas conexionistas de aprender a través de la experiencia, mediante ciclos recursivos de retroalimentación, les permite contar con una autonomía y flexibilidad de la que adolecen los sistemas que operan bajo un procesamiento serial. Estas características, hacen posible que estos sistemas presenten conductas inteligentes como resultado de su dinámica organizacional, es decir, la inteligencia emerge de la forma de operar que tiene este sistema.

“En este enfoque, cada componente opera sólo en un ámbito local, de modo que ningún agente externo hace girar el eje del sistema. Pero como el sistema está constituido como red, hay una cooperación global que emerge espontáneamente cuando los estados de todas las ‘neuronas’ participantes alcanzan un estado mutuamente satisfactorio. En dicho sistema, pues, no se requiere una unidad procesadora central que guíe la operación. Este tránsito desde las reglas locales hacia la coherencia global es el corazón de aquello que en la era cibernética se llamaba autoorganización. Hoy se prefiere hablar de propiedades emergentes o globales, dinámica de red, redes no lineales, sistemas complejos e incluso sinergia.”[5]

El enfoque conexionista y los sistemas basados en este tipo de arquitectura, si bien presentan propiedades que los aproximan significativamente a los sistemas biológicos, no deben considerarse, necesariamente, como la superación final de los sistemas seriales o simbólicos. De hecho, autores como W. Daniel Hillis, entre otros, a pesar de adoptar un enfoque conexionista, se resisten a la idea de refutar de plano a los sistemas más clásicos. Este autor señala: “El sistema emergente que puedo imaginar con más facilidad sería una implementación del pensamiento simbólico antes que una refutación de él. El pensamiento simbólico sería una propiedad emergente del sistema.”[6]

Para Andy Clark, destacado teórico de la ciencia cognitiva y director del Philosophy-Neuroscience-Psychology Program de la Universidad de Washington, las redes neuronales artificiales presentan tanto ventajas como inconvenientes.

“Son capaces de tolerar datos ‘ruidosos’, imperfectos o incompletos. Son resistentes a daños locales. Son rápidas. Y sobresalen en tareas que suponen la integración simultánea de muchas pequeñas señales o elementos de información, una capacidad que es esencial para el reconocimiento perceptivo y el control motor en tiempo real. Estas ventajas se derivan del hecho de que estos sistemas se dedican a completar patrones con un procesamiento en paralelo masivo. (. . .) Incluso algunos fallos de estos sistemas son atrayentes en el plano psicológico. Pueden sufrir ‘interferencias’ cuando unas codificaciones similares se obstaculizan mutuamente (de manera similar a cuando aprendemos un número de teléfono que se parece a otro que ya sabemos y enseguida los confundimos, olvidándonos de los dos). Y no son intrínsecamente adecuados para la resolución de problemas secuencial y gradual típica de la lógica y la planificación. (. . .) Los sistemas clásicos, con sus direcciones de memoria ordenadas y bien definidas, son inmunes a estas interferencias y ofrecen un rendimiento excelente en la resolución de problemas lógicos y secuenciales, pero rinden mucho peor en tareas de control en tiempo real.”[7]

Clark, aclara que estas desventajas o inconvenientes de los sistemas conexionistas no son necesariamente malos, pues si aspiramos a modelar la cognición humana, “se deben favorecer aquellos fundamentos computacionales que produzcan una pauta de puntos fuertes y débiles parecida a la nuestra. Y en general somos mejores al fútbol que en lógica.”[8]

George Reeke y Gerald Edelman, Premio Nobel de Medicina en 1972, plantearon hace más de una década, que la inteligencia artificial necesitaba integrar los conocimientos de la neurobiología para seguir avanzando, debía observar con mayor atención a los sistemas biológicos que son los que realmente presentan conductas inteligentes, abandonando la noción de inteligencia como una actividad solamente abstracta de procesamiento de la información y adoptando un enfoque que respete la complejidad de los organismos y de los sistemas biológicos.

“Una confrontación del número de niveles interactivos en un organismo real capaz de conducta inteligente revela una estremecedora complejidad de interacciones no lineales. Si se agrega la transmisión social a través del lenguaje, la complejidad se incrementa aún más. A la vista de esta complejidad, parece ser el colmo de la arrogancia pensar que todos los problemas que confrontan las criaturas inteligentes se pueden comprender ponderándolos en abstracto. En vez de eso, se debe comenzar a analizar esos sitemas en términos de las estructuras y funciones básicas necesarias y sus modos de origen, su desarrollo tanto como su evolución. (. . .) Creemos que la IA finalmente sólo se alcanzará en sistemas no-von Neumann en los que variantes especializadas de hardware, basadas en el tema común de la selección y el pensamiento de la población, trabajarán sin programas para adaptarse a los ambientes particulares en los que se encuentren, tal como lo hacen los organismos biológicos.”[9]

Hubert y Stuart Dreyfus, cuestionan también que la inteligencia artificial, en su corriente conexionista, pueda presentar significativos avances si no abandona el concepto abstracto y descontextualizado que maneja de la inteligencia, de manera que la red o el sistema pueda hacer generalizaciones adecuadas del conocimiento que ha adquirido mediante su experiencia. Ellos señalan:

“Todos los diseñadores de redes neurales concuerdan en que para que una red sea inteligente debe ser capaz de generalizar; es decir, dados suficientes ejemplos de entradas asociadas a una salida particular, la red debería asociar más entradas del mismo tipo con el mismo tipo de salida. (. . .)

El problema aquí es que el diseñador ha determinado, mediante la arquitectura de la red, que nunca se encuentren ciertas generalizaciones posibles. Todo eso está bien y es aceptable para problemas de juguete en los que no se cuestiona qué constituye una generalización razonable, pero en situaciones del mundo real gran parte de la inteligencia humana consiste en generalizar de manera adecuada al contexto. (. . .)

Si ha de aprender a partir de sus propias ‘experiencias’ para realizar asociaciones semejantes a las humanas y no aprender las asociaciones que su entrenador ha especificado, una red también debe compartir nuestro sentido de adecuación a la salida de datos, y esto significa que debe compartir nuestras necesidades, deseos y emociones y tener, además, un cuerpo semejante al humano con movimientos físicos apropiados, así como habilidades y vulnerabilidad a las lesiones.

(. . .) La inteligencia tiene que motivarse mediante propósitos en el organismo y a través de las metas que éste seleccione a partir de una cultura en curso. Si la mínima unidad de análisis es la de todo un organismo adaptado a todo un mundo cultural, las redes neurales y las computadoras de programación simbólica todavía tienen un largo camino por recorrer.”[10]

Sin lugar a dudas, en los últimos años se han ido gestando importantes, e incluso revolucionarios, cambios paradigmáticos y epistemológicos en la forma que tenemos de entender al ser humano y la conducta inteligente. El avance que en materia de inteligencia artificial hemos tenido ha sido vertiginoso y los resultados alcanzados parecen indicar que se está actuando en forma inteligente. Quisiera terminar con las palabras de John Briggs y F. David Peat, quienes me parece resumen de muy buena forma lo hasta aquí tratado.

“Aún está por verse si la ruta conexionista hacia la IA puede triunfar. No obstante, es significativo que ahora los científicos cifren sus esperanzas en los aspectos no reduccionistas de la complejidad para resolver el problema de crear una máquina capaz de pensar. Sin duda la ciencia ha recorrido un largo camino desde esos días en que se creía que los aspectos previsibles y racionales de las máquinas eran la imagen del universo.”[11]


[1] Marr, D. “La inteligencia artificial: un punto de vista personal” en Boden, M. (1994), Filosofía de la Inteligencia Artificial, FCE, México, p. 153.

[2] Ibíd., p. 155.

[3] Varela, F. et al.(1997), De Cuerpo Presente: Las ciencias cognitivas y la experiencia humana. Ed. Gedisa, Barcelona, pp. 112-113.

[4] Varela, F. (1996) Ética y Acción, Dolmen Ediciones, Santiago, pp. 13-14.

[5] Varela, F. et al.(1997). op. cit. pp. 114-115.

[6] Hillis, W.D., “La inteligencia como conducta emergente, o la canción del Edén” en Graubard, S. (1993) El nuevo debate sobre la inteligencia artificial, Ed. Gedisa, Barcelona, p. 203.

[7] Clark, A. (1997) Estar ahí: cerebro, cuerpo y mundo en la nueva ciencia cognitiva, Ed. Paidós, Barcelona, pp. 100-101.

[8] Ibíd., p. 101.

[9]Reeke, G. y Edelman, G. “Cerebros reales e inteligencia artificial” en Graubard, S. (1993) El nuevo debate sobre la inteligencia artificial, Ed. Gedisa, Barcelona, p. 198.

[10] Dreyfus, H. y Dreyfus, S. “La construcción de una mente versus el modelaje del cerebro: la inteligencia artificial regresa a un punto de ramificación” en Boden, M. (1994), “Filosofía de la Inteligencia Artificial”, FCE, México, pp. 369-370.

[11] Briggs, J. y Peat, F. (1990) Espejo y Reflejo: Del caos al orden, Ed. Gedisa, Barcelona, p. 174.

3 comentarios:

Natalia Quezada dijo...

PROFESOR NUESTRO GRUPO YA HA SUBIDO EL PRIMER TEXTO

Para que lo revise

SAludos

pd. Muy interesante su blog!

Anónimo dijo...

yo no quisiera que los cientificos desarrollaran una inteligencia artificial similar a la nuestra ni que se siguiese investigando para perfeccionar lo que hasta ahora se ha logrado. No le encuentro sentido y me asusta la idea. Por algo somos lo que somos, el ideal sería poder apuntar a un mejoramiento del hombre por el hombre, que los estudios apuntaran a bajar los niveles de agresividad, produjesen hormonas de solidaridad, encontraran las sinapsis adecuadas para fomentar la equidad... pero no para inventar otro ser mas inteligentes que nosotros y que además sea inmortal ¡hacia donde apuntan estos estudios? ¿me podría informar? gracias

Rodrigo Robert Zepeda dijo...

El uso de este medio para comunicarnos, el desarrollo de la tecnología médica y la posibilidad de enviar máquinas no tripuladas a otros planetas, son algunos de los ejemplos en los que se advierte la aplicación de la inteligenca artificial. Me parece que no se puede censurar el deseo de conocer e investigar, aunque es otro asunto el uso particular que se le puede dar al desarrollo científico y tecnológico.
La inteligencia, en términos amplios, se refiere a actuar de un modo que resulte adecuado a las circunstancias o al contexto en el que se encuentre un organismo o agente cognitivo. En este sentido, la inteligencia artificial permite el desarrollo adecuado de tecnologías que puedan contribuir al bienestar del ser humano, por lo cual su objetivo fundamental resulta, a mi parecer, muy loable en principio. Además, la inteligencia artificial ha contribuido mucho al entendimiento de la conducta humana, siendo un ámbito importante de la ciencia cognitiva.
La agresividad, la solidaridad, la equidad, son acciones que resultan de nuestra forma particular de vivir y dependen en última instancia de los estados emocionales que seamos capaces de cultivar en nuestra vida cotidiana. En estas áreas es donde los seres humanos parecemos ser particularmente torpes, poco inteligentes. Somos buenos programando máquinas, diseñando nuevas herramientas, construyendo edificios muy altos y burlando muchos límites naturales, pero aún no hemos aprendido a ser más afectuosos, más empáticos, más respetuosos, más compasivos. El desafío es aprender a vivir amorosamente, ser inteligentes en el amor, en nuestras relaciones de pareja, en las relaciones con nuestros hijos y con nuestros amigos, como también con el prójimo en general. Mientras creamos que la inteligencia es saber cómo imponerse sobre el otro, cómo destruirlo o ganarle una guerra, seguiremos promoviendo la tontera y cultivando la agresividad.
Es mi sencilla opinión, por cierto. Gracias por su comentario.