jueves, 10 de enero de 2008

Materia y pensamiento: especies y augurios

Yo he sido en otro tiempo muchacho y muchacha, planta, pájaro y pez viviente

Empédocles

Hace ya varias lunas que conversaba con un amigo sobre el intrigante tema de la inteligencia artificial, que no pocas veces lleva a pensar en las utopías (o en las antiutopías) de la ciencia ficción. Bordeando los límites de nuestro mundo, nos preguntábamos por asuntos tan importantes como el origen del sentido, la sustancia del pensamiento o las dimensiones que surgirían en la vida si la compartiéramos con sujetos pensantes fabricados artificialmente. Lo hacíamos desde una perplejidad tan grande que no veíamos cómo conservar integrado el mapa conceptual que poseíamos. Había un problema de especial interés en el diálogo, acaso el eje de aquella disertación que rayaba en mera divagación y ociosidad. ¿Podía surgir de un conjunto de signos definidos una diversidad de usos lingüísticos virtualmente infinita? Más exactamente, nos asaltaba la duda de si podía un conjunto de algoritmos genéticos –operaciones ordenadas y finitas que llegan a alguna conclusión tras permitir la entrada de alguna casuística o información aleatoria– engendrar nuevos algoritmos, cada vez más complejos y entreverados, hasta llegar a constituir verdaderos campos de significado inextricables e indisociables, al menos sin una pérdida significativa de sentido. Lo que queríamos saber, en menos y más simples palabras, era si es fácticamente posible poner en marcha un mecanismo capaz de ser un usuario de cierto lenguaje semejante al del ser humano, configurado por experiencias y formas adquiridas en un determinado comportamiento equiparable al de la vida conocida por nosotros.

Revisión al argumento del cuarto chino

Uno de los más destacados filósofos del lenguaje y de la mente se encuentra en la Universidad de California Berkeley, John Searle. Este hombre publicó en 1990 un artículo intitulado “Is the Brain’s Mind a Computer Program?”[1] <“¿La mente del cerebro es un programa de computadora?”>, en él rebatía las respuestas de científicos y filósofos a un argumento que había expuesto diez años atrás que causó gran polémica[2]. Este argumento, conocido como Chinese room[3], aparentemente desde su publicación ha generado tanta discusión que aún no deja de darle renombre al filósofo. ¿Qué tiene de atractivo el argumento del cuarto chino? Queda bastante claro después de tantos años de aclaraciones y matices, al menos se sabe cuál es su origen y objetivo. Según el autor, el argumento del cuarto chino demuestra que el computacionalismo yerra al creer que la mente consiste en un programa[4]. Por lo tanto, Searle no hace más que poner en entredicho a una de las corrientes más representativas dentro de la historia de la inteligencia artificial. Antes de aproximarnos al argumento, conviene entender qué tesis son las que está desacreditando, según algunos con mucho tino, pero para otros sólo siendo excesivamente condescendientes.

El computacionalismo pretendía explicar en aquel entonces el funcionamiento de la mente afirmando que los estados mentales eran simples estados computacionales[5]. De acuerdo a esta corriente, un programa de computadora que fuera capaz de satisfacer las siguientes dos condiciones estaría, de hecho, pensando. Primero, pasar la prueba de Turing (Turing Test, TT), un examen que evalúa si el comportamiento de un programa en cuestión en determinada tarea es indistinto, a juicio de un observador, al de una persona que desempeña el mismo papel. Segunda condición, que el programa pueda operar en completa normalidad independientemente del hardware en el que esté en marcha.

Searle está en desacuerdo, no concibe cómo puede la mente reducirse a un mero programa computacional como postula la inteligencia artificial fuerte (nombre que atribuye al computacionalismo). De ahí que formule el argumento del cuarto chino, que consiste básicamente en mostrar en una analogía que la TT es insuficiente para determinar el entendimiento de un proceso computacional; esto es, que la supuesta primer condición que debe superar un programa para pensar en realidad o bien no significa ningún logro o bien no es una condición aprobable por ningún programa de computadora.

En el argumento del cuarto chino, se supone a un hombre oculto dentro de una habitación que es en realidad un programa computacional que supera la TT. Dicha prueba consiste en entender chino. Hay hombres afuera que introducen preguntas en chino y el cuarto contesta satisfactoriamente. En su interior, se encuentran todos los pasos necesarios para transformar los signos de la escritura china en otros símbolos chinos de acuerdo a su forma, no su significado. Lo único que se requiere para que la maquinaria responda correctamente frente al juez es un operador –parte fundamental del proceso– que siga al pie de la letra la rutina determinada en el interior del cuarto. Digamos que el hombre dentro de la habitación no entiende nada de chino, sólo sigue las instrucciones. ¿Cómo puede atribuírsele a él, el manipulador de los signos dentro del cuarto, entendimiento del chino?

El argumento no ilustra gran cosa si no se comprende al entendimiento como algo más que un proceso algorítmico (nada muy difícil de alcanzar desde la comprensión coloquial de pensamiento). Según Searle, se atribuye mente a un dominio de contenidos semánticos, algo que la manipulación de meros signos cerrados no hace; o sea, que un programa computacional en este sentido –o si se prefiere, en estas sencillas condiciones– no puede pensar, pues es incapaz de manejar una semántica. Sólo una mente o conciencia es capaz de realizar un proceso de asignación de significados. Todo proceso mental –continúa Searle– tiene contenidos semánticos donde ocurre una adhesión de significado a los símbolos y éste proceso no puede equipararse al desempeño de un programa de computadora[6].

A todos nos fascina el hecho de que el desarrollo tecnocientífico llegue a hacer de un montón de materia inanimada, pensamiento. Mas ¿es este monstruoso evento imposible? Si se pudiera generar pensamiento de unos cuantos chips o microprocesadores, ¿cualquiera de mis mascotas podría ganarse una mente luego de unos implantes?

De si la mente puede o no surgir de la sintaxis

En opinión de algunos[7], cuando John Searle en Is the Brain’s Mind a Computer Program?” afirma que “los programas de computadora son sólo formales”[8] , a saber, mera sintaxis, está diciendo que todo programa de computadora posible es exclusivamente sintaxis. De acuerdo a mi apreciación, esto es exagerado. Es un dejo o fantasma del logicismo y sus exigencias de formalización de cualquier enunciado relevante, en este caso un axioma, como si de ello dependiera el justo entendimiento de las cosas. Frente al mundo de las posibilidades inconmensurables o irracionalizables –por no decir infinitas–, proyección de una mente contemplativa, las afirmaciones rara vez –a menos que se trate de discursos especiales– pretenden predicar algo absolutamente. Este es el caso de Searle en las aseveraciones escritas en su artículo, sus axiomas y conclusiones. Él no quiere decir que los programas computacionales sean incapaces de pensar, lo que dice es que los programas de computadora que sólo manipulan signos, como los propuestos por el computacionalismo, no están pensando aunque pasen la TT. Y va más allá, niega que los programas de computadora existentes, es decir, los técnicamente posibles en 1990, puedan ser suficientes imitadores de lo esencial en el hombre: el pensar.

Searle no negó la posibilidad de que hubiera programas que fueran sintácticos y semánticos, es decir, que pudieran pensar en algún momento las máquinas, de hecho afirma que es trivial preguntárselo al comienzo del artículo:

“…If by “machine" one means a physical system capable of performing certain functions (and what else can one mean?), then humans are machines of a special biological kind, and humans can think, and so of course machines can think. And, for all we know, it might be possible to produce a thinking machine out of different materials altogether -say, out of silicon chips or vacuum tubes. Maybe it will turn out to be impossible, but we certainly do not know that yet.[9][10]

Is the Brain’s Mind a Computer Program?” es más que un argumento del cuarto chino ‘remasterizado’ y fortalecido, es también una negación completa del computacionalismo. Si recordamos bien, pasar la TT no es condición suficiente para que el programa piense; es sólo una de dos condiciones necesarias según las tesis del computacionalismo. Hace falta que el programa en cuestión sea independiente del hardware y que se aplique en una amplio espectro de materiales unidos con alguna técnica mínima. Pues bien, en esto también yerran, en opinión de Searle. Él distingue entre modelo y duplicado, y reduce al programa de computadora a un modelo de la mente, negando que se trate de una mente que en realidad esté pensando como es propio. De ahí que, casi al concluir su artículo, indique que los programas de computadora son una simulación de los procesos mentales:

“…How could we get into this mess? How could anyone have supposed that a computer simulation of a mental process must be the real thing? After all, the whole point of models is that they contain only certain features of the modeled domain and leave out the rest.”[11][12]

La distinción de Searle entre modelo y duplicado lo que revela es un desacuerdo ontológico, él contempla los avances de la neurofisiología, y está convencido que ningún programa aplicable a una amplia variedad de hardware sería un duplicado de la mente humana, pues la ciencia lo que indica es la existencia de una inmensa cantidad de condicionantes en los procesos electroquímicos en un estado de conciencia determinado. De ahí que diga que un programa de computadora del que se diga que tiene mente requiere tener, cuando menos, la capacidad causal equivalente a la de un cerebro humano, con todas sus implicaciones funcionales neurofisiológicas para generar el proceso del entendimiento y asignación de significado, de manejar al fin, cierto contenido semántico.

Con esto, Searle deja abierta la posibilidad de que la inteligencia artificial pueda llegar a aproximarse a la constitución de la mente humana, a su naturaleza. Pero no por los criterios del computacionalismo, que contra su gran ambición, se satisface con poca cosa. Sólo después de haber avanzado más allá del horizonte de esta corriente, habría mayor exactitud al predicar pensamiento a un programa de computadora. En este sentido, las manipulaciones de signos podrían ser una especie de rasgo o característica de la mente en tanto simulación de ésta, rasgos muy probablemente necesarios, pero no suficientes para hablar de una conciencia y un entendimiento en sentido estricto.[13]

El impacto en la axiomática

Los problemas de fondo son simples, ¿no es el cerebro como una computadora?, o más bien, ¿no se diseñan los programas de computadora como simulaciones de un cerebro humano?, ¿no es entonces, natural, luego de múltiples experimentaciones, que en algún momento los programas de computadora manejen algo equivalente a los contenidos mentales?

Hay un problema subyacente en las tesis del computacionalismo. Se ha tomado, al menos a como nos la presenta Searle, muy en serio el modelo de la máquina de Turing y la TT. Con su confianza depositada en logros contingentemente apreciados dentro del ámbito de cierta inteligencia artificial[14], pensaban los seguidores de esta corriente que, en teoría, con el programa correcto y el tiempo suficiente, se puede computar cualquier función de input-output gobernada por reglas, incluso las operaciones más complejas como las del cerebro. El garante es la TT, que “engaña” a una persona bien capacitada para atribuir entendimiento en alguna tarea. La dificultad planteada al computacionalismo es que afirma que una vez alcanzado “el programa correcto”, toda computadora que corriera dicho programa estaría pensando efectivamente. Lo grave, es que suponen que pasar la prueba de Turing es suficiente para determinar que el programa es el correcto, pues prácticamente todos los programas que sólo manipulan signos y que están diseñados con microprocesadores cumplen la condición segunda (la independencia de hardware), y en teoría, la mera manipulación de símbolos o el uso exclusivo de la sintaxis, pueden satisfacer la prueba de Turing. La ingenua pregunta ¿puede una máquina pensar? cambia entonces a ¿es la máquina conciente sólo aplicando un programa?

Debajo de toda la parafernalia de la técnica y la programación, la prueba de Turing es altamente cuestionable, existe en ella un dualismo clásico de sujeto cognoscente y objeto cognitivo. No voy a negar su validez aquí, pero señalaré los espacios visibles en donde encuentra insuficiencia crítica. En primer lugar, la prueba asume que si se presenta un comportamiento tal, como si hubiera un proceso mental detrás, entonces, dicho proceso mental existe. Aquí radica la fuerza del argumento del cuarto chino en contra del computacionalismo, sólo se incluye en un caso hipotético a un objeto que tiene una capacidad ontológica de entendimiento dentro de un proceso de manipulación simbólica, que, por hacer sólo una manipulación de signos, no entiende. Cuando por fuera, el juez de la prueba determina que el proceso sí entiende. Se ha ocultado un objeto al observador y juez de la prueba que es claramente un objeto pensante (una persona), relevantísimo al observador para determinar el juicio. El problema es desde luego, cuál es la sustancia pensante. Las observaciones no pueden por sí solas clarificar en dónde hay pensamiento. En esto consiste el criticado conductivismo de la TT, pues el observador de una conducta supone que ese comportamiento es resultado de un estado mental o abstracto específico, pero en realidad no es capaz de controlar y repetir el fenómeno un número de veces muy grande para verificar una hipótesis, y por otro lado, la mente, el pensamiento o el entendimiento, no es un objeto concreto ni universalmente definido. Si bien usualmente sólo se atribuye a los seres humanos el ser portadores de una mente, no queda claro que la única mente posible sea la humana[15]. Se cae en un mero criticismo. El que yo programe a mi máquina para que imprima “te quiero” cada vez que me acerco, no puede significar que la máquina me quiere, insinúa Searle al final de “Is the Brain’s Mind a Computer Program?” [16]

La prueba de Turing es desde luego extensible a una multiplicidad de procesos observables satisfactorios, incluso a la mayoría de estos procesos de la vida cotidiana. Pero su origen no es otro que la división entre sujeto y el objeto modernos. A propósito de este asunto, recuerdo las palabras de Stevan Harnand cuando aborda la TT en su artículo dedicado al argumento del cuarto chino:

“Could the Chinese Room Argument be resurrected to debunk a TT-passing robot? Certainly not. For Searle’s argument depended crucially on the hardware-independence of computation. That was what allowed Searle to “become” the candidate and then report back to us (truthfully) that we were mistaken if we thought he understood Chinese. But we cannot become the TT-passing robot, to check whether it really understands, any more than we can become another person. It is this parity (between other people and other robots) that is at the heart of the TT.”[17][18]

La ontología es fundamental para afirmar la posibilidad de crear una mente a partir de materia inerte. El dualismo, abierto con completa claridad por Descartes, genera una serie de problemas y disputas en torno a la inteligencia artificial. Se critica fuertemente, por ejemplo, la puesta del escenario que requería la certeza de un Sujeto Trascendental, o bien la absoluta potencia de la Razón, ideas que resultaron cobijadas y muy queridas, pero que convirtieron la co-existencia humana en una guerra malvada, donde la era nuclear nos revela que en efecto somos libres, pero sobre todo, de hacer el mal antes que el bien, mal que se perfila hacia la autodestrucción, no a un simple cultivo de nuestros vicios. Luego de la Ilustración, y del imperialismo sobre la tierra y los pensamientos, el Mal se presenta ahora con una carga ontológica clara. Llegar a una resolución ontológica, sea por la vía del dualismo o por la vía del monismo implicaría, con toda seguridad, un cambio en la cosmovisión y actitud de la humanidad y sus comunidades científicas. La mentalidad actual, en general, no permite llegar a acuerdos por diversos factores, la mayoría ocultos, pero con toda seguridad algunos son ideales.

¿Cómo serán las relaciones entre el Hombre, la Naturaleza y Dios?

Epílogo

La potencia de la técnica tiene sus límites tan distantes a nuestras expectativas, que cada vez parece más evidente la ilusoria división entre lo artificial y lo natural. Pretender que sabemos cuáles son las consecuencias del empleo de la técnica, que conocemos las virtudes de las cosas, nunca fue más peligroso.

La técnica continúa su desarrollo desmedido, modificando nuestra vida permitiéndonos adquirir nuevas comodidades y proyectar nuevas ambiciones. Cada vez que se registra un avance, los guardianes humanistas y demás personas sensibles a la existencia espiritual logran vislumbrar que nos acercamos en conjunto al cumplimiento de los caprichos más oscuros de la humanidad. ¿Llegaremos a comprender con menos desdén la intemperie o descobijamiento de la ciencia conforme más potencia encontremos en los inventos? Si no nos detenemos por nuestro propio acuerdo nos parará la realidad. La esperanza de que llegue alguna moderación no se detiene; no mientras la destrucción de nuestro propio ambiente y condición natural para la vida libre no se torne ineludible o cruelmente deseable por los poderosos y tomadores de grandes decisiones geopolíticas.

No cabe la menor duda de los beneficios que trae la técnica a la vida cotidiana. Inmersos en ella sabemos más o menos con suficiencia cuáles son las eficacias o virtudes de las cosas empleadas y manipuladas; lo que quizá no comprendemos usualmente son las consecuencias que traen al orden de nuestra vida. Y así, creyendo que podemos volar libremente por los aires a voluntad, nos estamos lanzando a un abismo en el que no parece que encontremos a Dios; por el contrario, aparecen los deleites efímeros y las promesas vanas, los constantes desacuerdos y la confusión simbólica. Muchos hemos olvidado el sentido del don y de la caridad, no somos capaces ya de ver naturalmente un rostro en el otro que impele a pensar en la ley sagrada o la empatía más básica entre inermes. Tomamos las cosas como si fueran nuestras sin ruborizarnos. Poco queda de una arcaica, mítica pero deseable edad de oro, donde el estado de guerra o discordia entre los existentes no reinaba.

Al menos una cosa nos han legado los antiguos del mal con que obraron, hoy somos más concientes que nunca en la historia de la decadencia del mundo natural, del estandarte de la muerte con la que blandimos nuestra supuesta supremacía, libertad y razón.

9 de enero de 2008


[1] Searle, John R., “Is the Brain’s Mind a Computer Program?” en Scientific American, vol. 262, enero de 1990. pp 26-31.

[2] Searle, John R., “Brains, Minds, and Programs” en Behavioral and Brain Sciences, vol. 3, No. 3, 1980. pp. 417-458.

[3] Esta aportación se conoce en castellano con el nombre de argumento de la habitación china o de la sala china. Yo prefiero usar “cuarto chino” por breve frente a habitación, y por su aproximación semántica a un espacio cerrado, en el que conciste el argumento, que no posee el vocablo “sala”.

[4] Aquí refiero a las propias palabras de John Searle en su artículo “Philosophy in a New Century”, de Philosophy in America in the Turn of the Century, en la sección dedicada al problema de la mente y el cuerpo.

[5] Borchert, Donald (ed), Encyclopedia of Philosophy, Macmillan Reference, New York, 2003, vol. 2, pág. 239.

[6] Searle, “Is the Brain’s Mind a Computer Program?”, p. 27.

[7] Tales como la posición de Juan Camarena presentada en la ponencia del 17 octubre de 2006 en el aula Librado Basilio dentro del marco del Taller de Introducción a la Discusión Filosófica y a la Argumentación de la Facultad de Filosofía de la Universidad Veracruzana. Camarena afirmaba que Searle se equivocaba en una cosa, en que las máquinas son sólo sintaxis, puesto que sí pueden manejar grupos semánticos.

[8] Ibídem.

[9] “…Si por “máquina” entiendo un sistema físico capaz de realizar ciertas funciones (¿y qué más quisiera decir?), entonces los humanos son máquinas de una clase biológica especial, y los humanos pueden pensar, y desde luego que entonces las máquinas pueden pensar. Y, por todo los que sabemos, puede ser posible producir una máquina pensante a partir de materiales diferentes juntados –digamos, a partir de chips de silicón o tubos de vacío. Quizá descubramos que es imposible, pero en verdad todavía no lo sabemos.” (Traducción libre.)

[10] Op. cit. pág. 26.

[11] “… ¿Cómo nos metimos en este aprieto? ¿Cómo puede alguien haber supuesto que una simulación de computadora de un proceso mental tiene que ser como lo verdadero? Después de todo, la finalidad última de los modelos es que contengan sólo ciertos rasgos del campo modelado y dejar fuera lo que resta.” (Traducción libre.)

[12] Op. cit. pág. 31.

[13] Este el sentido concreto de sus tres axiomas y su primera conclusión. Formalizarlos según los estatutos de la lógica clásica, aplicando las categorías universal y particular, sólo confundiría la lectura llevándola a conclusiones desorbitadas y fuera de contexto. Este fue el error de Camarena. No debió generalizar el enunciado “los programas de computadora son sólo formales”, pues se trata de una cuestión de lo técnicamente posible presentado por el computacionalismo. Por otro lado, también se equivoca al hacer una inferencia que pasa de “el cerebro causa la mente” a “toda mente es causada por el cerebro”.

[14] Cfr. en Paul M. Churland y Patricia S. Churland, “Could a Machine Think?”, en Scientific American, vol. 262, enero de 1990, pp 32-37, los dos antecedentes del computacionalismo son la tesis de Church sobre la función computable efectiva y recursivamente computable y la máquina de Turing, según la cual una función recursiva computable puede ser computada en un tiempo finito por una máquina manipuladora de símbolos.

[15] Tan sólo está el problema teológico y filosófico de si Dios es una mente o de si la Naturaleza piensa, ni que decir tiene cuestionarse si mi perro o cualquier otro ser vivo, o bien cualquier objeto inanimado, digamos una habitación que traduce chino, tiene alguna conciencia.

[16] Loc. cit. pág. 31.

[17] “¿Puede el argumento del cuarto chino resurgir para desacreditar a un robot que pasa la prueba de Turing? Ciertamente no. Porque el argumento de Searle depende crucialmente de la independencia de hardware de la computación. Eso es lo que permitía a Searle convertirse en el candidato [de la prueba] y reportarnos (con verdad) que estábamos equivocados si pensábamos que entendía chino. Pero no podemos convertirnos en el robot que pasa la prueba de Turing, para verificar si en verdad entiende, más de lo que podemos convertirnos en otra persona. Esta es la paridad (entre otra gente y otros robots) que está en el corazón de la prueba de Turing”. (Traducción libre.)

[18] Borchert, Donald (ed), Encyclopedia of Philosophy, vol. 2, pág. 241.

No hay comentarios.: