La habitación china
«Habitación china» es el nombre que recibe un experimento mental ideado por John Searle para refutar la tesis según la cual todo sistema que posea la capacidad de manipular símbolos de forma correcta es un sistema inteligente en exactamente el mismo sentido en el que decimos de un ser humano que es inteligente. Este punto de vista es denominado por Searle como el de la «inteligencia artificial fuerte» o «IA fuerte». Este punto de vista concibe el cerebro como el hardware y la mente como el software. Ser inteligente es ejecutar correctamente determinado programa. Para este punto de vista, el hecho de que el programa sea ejecutado por un cerebro es contingente, pues los cerebros humanos no son más que un tipo de hardware en el que tal programa se puede ejecutar. Esta concepción recibe el nombre de funcionalismo.
Contra este punto de vista, John Searle tiene otra concepción. Según su caracterización, el cerebro segrega mente, siendo esta una un fenómeno biológico en el mismo sentido en que lo es la digestión. Las operaciones cerebrales básicas causan los procesos mentales, los pensamientos, los deseos, las creencias, etc. Desde este punto de vista, Searle no puede aceptar la concepción anterior. Su punto de vista recibe el nombre de naturalismo biológico. Y no estando a favor del funcionalismo se le ocurrió una refutación, el mencionado argumento de la habitación china.
El argumento de la habitación china de John Searle consta de dos pasos. En el primero se especifica qué se entiende por un «computador digital» (una máquina inteligente). Tal y como él la define, un computador digital es aquel cuyas «operaciones pueden especificarse de manera completamente formal» (Searle, J. 1984 [2001]: 36), esto es, que opera combinando símbolos abstractos sin contenido semántico, sin significado. Desde el punto de vista de John Searle, los procesos mentales son intencionales, esto es, son sobre algo o acerca de algo. Por ejemplo, cuando tengo miedo tengo miedo de algo, si estoy pensando veranear en Sicilia, mi pensamiento es sobre Sicilia. Estos son los contenidos mentales. Los programas informáticos, las máquinas de Turing, son procesan símbolos de manera puramente formal, son ingenios sintácticos, pero sus símbolos no tienen contenido semántico, a diferencia de las mentes, que tienen un contenido semántico. Mi pensamiento sobre Sicilia tiene un contenido.
Para ilustrar esta idea Searle inventa el siguiente experimento. Un grupo de ingenieros bastante avispados han diseñado un programa que permite a un ordenador simular que entiende chino. Las respuestas que da la computadora son tan buenas como las que daría un hablante chino nativo. La computadora recibe una pregunta en chino y devuelve una respuesta correcta en chino. Y Searle se pregunta si esta computadora entiende realmente el chino, en el mismo sentido en que lo entiende un hablante nativo del chino. Por supuesto, su respuesta es que no. Es aquí donde entra en escena la habitación china.
En el segundo paso, Searle invita entonces al lector a que imagine que está encerrado en una habitación en la que hay varias cestas llenas de símbolos chinos. Se ha de suponer que el lector no sabe chino, aunque le han dado un libro de reglas escritas en castellano que indican cómo manipular los símbolos chinos que hay en los cestos en términos puramente sintácticos, que indican cómo combinar signos de cada una de las cestas. Además de esto Searle pide que imaginemos que en la habitación se introducen otros símbolos chinos y que se nos dan nuevas reglas para devolver símbolos chinos al exterior de la habitación. Aunque se supone que no lo sabemos, los símbolos que se introducen reciben el nombre de «preguntas» formuladas por las personas que están fuera de la habitación. Los símbolos que echamos al exterior, siguiendo el nuevo conjunto de reglas, son llamados por la gente de fuera «respuestas». Las respuestas son las mismas que daría a esas preguntas un hablante nativo del chino, ahora bien, el lector, dice Searle, no sabe chino ni entiende el chino. Para un observador externo, parecería que sabe chino pues se comporta como tal, aunque en realidad no tiene ni idea de chino.
A la computadora le ocurriría, en este caso, lo mismo que al lector invitado por Searle a imaginarse su experimento. En efecto, puesto que con lo único que cuenta es con un programa para manipular símbolos, tampoco tiene ni idea de chino, pues tiene una sintaxis, pero carece de semántica, de contenidos. Por supuesto, Searle piensa que la semántica no se puede extraer únicamente de la sintaxis.
Algunas objeciones que se han dado pasan por decir que en verdad el lector no sabe chino, pero que la habitación china, considerada como un todo (con el lector, el libro de reglas, las cestas con símbolos, la habitación, etc.) sí que entiende el idioma. Searle ha respondido que la misma objeción se aplica a esta respuesta: no hay manera de obtener la semántica de la sintaxis y lo único que hay en la habitación como un todo es una sintaxis. Según otra de las objeciones, pasa por imaginar que se coloca este programa de comprensión del chino en un robot que interactuase causalmente con el mundo, sin embargo para Searle se vuelve a reproducir el problema pues en la medida en que el robot solo cuenta con el programa de comprensión del chino y, por tanto, no tiene forma de obtener la semántica a partir de la sintaxis.