En réponse à un fonctionnalisme qui considère l’esprit comme un système de traitement de l’information où les inputs et outputs peuvent être comparés au fonctionnement d’un ordinateur, le philosophe John Searle (1932-) élabore dès 1980 sa désormais célèbre objection de la chambre chinoise. Il va s’agir ici, tout en suivant pas à pas le raisonnement de Searle (d’où l’usage abondant de la citation de son ouvrage Minds, brains and programs, 1980), de décrire cette thèse et tenter de comprendre les implications de cette critique face à la tentante comparaison entre esprit et machine.
1. L’argument, la “chambre chinoise”
L’objection de Searle prend pour exemple une situation bien particulière, celle d’une machine de Turing à l’échelle humaine qu’il décrit en ces termes :
La situation interne est facilement imaginable, l’homme enfermé dans la pièce, la fameuse « chambre chinoise » n’est en contact avec l’extérieur que grâce aux petits papiers qui entrent et sortent. Tout ce qui se passe à l’extérieur ainsi que toute l’interprétation que l’observateur externe fait de son travail lui est étranger. Passons maintenant à l’extérieur de la pièce :
Après l’entraînement en anglais, les papiers arrivent, mais en chinois cette fois-ci. L’homme enfermé continue à appliquer le « programme » :
On peut donc considérer deux types de questions : les questions posées en anglais, auxquelles le cobaye répond comme un humain, et les questions en chinois, auxquelles le cobaye répond comme un ordinateur. Du point de vue externe, les réponses aux deux types de questions sont considérées comme satisfaisantes, puisque dans le deuxième cas la chambre joue le rôle d’une machine de Turing et puisque le cobaye respecte les procédures, en anglais. La critique de Searle porte ici sur la différence entre ces deux types de questions, l’une compréhensible, et l’autre totalement insaisissable par l’homme, à tel point qu’il ignore totalement que c’est réellement une « question ». La confusion que Searle met en évidence porte donc sur la différence fondamentale qui existe, selon lui, entre la réponse humaine et l’instanciation d’un programme informatique (puisque c’est bien de cela qu’il s’agit dans le cas du chinois).
2. La critique de Searle
Searle en vient à l’intelligence artificielle (IA) :
C’est contre ces deux postulats de l’intelligence artificielle forte que Searle va argumenter.
En effet, Searle n’a rien contre l’intelligence artificielle faible, il reconnaît que l’ordinateur est un outil performant. Par contre, dès lors qu’on entre dans le raisonnement des tenants de l’intelligence artificielle forte, l’ordinateur n’est plus seulement un outil pour étudier l’esprit, mais il devient lui-même esprit ! Intéressons-nous maintenant aux réponses de Searle au sujet des deux arguments de l’intelligence artificielle forte :
Affirmation 1 (compréhension)
Searle part du principe que, puisqu’il ne comprend rien en agissant de la même façon qu’un ordinateur (en bref, obéir à des règles imposées), l’ordinateur, qui n’a « rien de plus » que lui, ne doit pas non plus être capable de comprendre, non seulement le contenu des informations, mais aussi le sens de ses agissements.
Affirmation 2 (explication)
L’ordinateur est une machine qui ne s’occupe que de l’aspect formel des informations qu’il véhicule (nous reviendrons plus loin sur les questions syntaxe et de sémantique), cela pose la question de la compréhension (qu’est-ce que comprendre ?) ainsi que celle de l’intentionnalité.
3. Réponses à l’argument de la chambre chinoise
Les objections à l’argument de la chambre chinoise ont été recensés par Searle qui procède à leur critique dans son article. Nous allons en considérer deux en particulier.
La réponse du système
La réponse du système, de Berkeley, s’énonce ainsi :
Selon cette argumentation, la machine « totale » serait capable de comprendre, alors que la « partie », le cobaye, par exemple, n’est pas en mesure d’avoir une vue d’ensemble. Searle va montrer que cette critique est vide d’arguments :
En effet, si on suit la critique jusqu’à son terme, on peut en arriver à la célèbre conclusion que les thermomètres ont des croyances.
La réponse du robot
La réponse du robot (Yale) est une tentative de rendre l’ordinateur plus complet en lui permettant d’avoir une relation au monde plus développée, Searle la présente comme suit :
C’est donc en lui procurant une machinerie qui le rend capable d’interagir de façon plus sophistiquée avec son environnement que cette réponse veut contrer les thèses de Searle, ce dernier y répond très simplement :
Les manipulations s’appliquent toujours à des symboles formels, ajouter des informations pour l’ordinateur ne change strictement rien au problème, ce n’est pas une question de complexité ou de degré de complétude vis-à-vis de l’humain.
4. Une machine peut-elle penser ?
Après avoir écarté ses détracteurs, Searle prend le parti de se poser la question qui s’impose, « could a machine think ? ». Il utilise pour introduire ce sujet d’emprunter à Platon le style dialogué :
– Yes, we are precisely such machines
– Yes, but could an artifact, a man-made machine think ?
– Yes, if you can exactly duplicate the causes, you could duplicate the effets.
Réponse empirique, si on peut recréer des neurones de type humains, c’est bon.
– This I think is the right question to ask, (…) and the answer to it is no.
– Why not ?
– Because the formal symbol manipulations by themselves don’t have any intentionality, (…) they have only syntax but no semantics.12
Tant que les symboles ne symbolisent pas réellement quelque chose de compréhensible,… on ne pourra pas attribuer la pensée à une machine. Glissons ici, en échos, un court extrait d’un texte d’Abelson qui répond à Searle après son texte :
Sans sémantique, Searle ne considère pas possible une certaine compréhension. Toutefois, on peut noter qu’il existe des courants de linguistes qui postulent que la sémantique « émerge » de la syntaxe. Searle va ensuite développer cette question de la sémantique :
Ce n’est donc pas en apprenant les règles syntaxiques du Chinois qu’on pourra le parler. Il faut en effet plus qu’une grammaire pour comprendre, il faut aussi un vocabulaire « expliqué », dans un langage compréhensible. On ne peut donc pas faire aussi facilement une comparaison directe entre l’esprit et un programme informatique. De plus, le programme est purement formel, alors que les états intentionnels n’ont rien de formel, ils sont définis par leur contenu, pas par leur forme. Les états mentaux sont littéralement des produits d’opérations du cerveau, alors que les programmes ne sont pas des produits de l’ordinateur
5. Intentionnalité et métaphore de la compréhension
Dans des travaux ultérieurs, Searle va analyser plus en détail une tendance qu’a l’homme quand il parle d’objets non vivants, l’attribution d’intentionnalité et de compréhension.
Par exemple, on dit souvent que la calculatrice sait combien font deux plus deux, que la pelouse a soif, que le thermomètre perçoit la température…C’est dans chaque cas un description figurée, l’attribution d’une intentionnalité comme si. Selon Searle15, l’intentionnalité intrinsèque est le propre de certains êtres vivants qui la possèdent en vertu de leur nature biologique. Cette proposition rend la thèse de Searle fragile car il ne donne pas de distinction essentielle entre ce qui est biologique et ce qui ne l’est pas. L’approche fonctionnelle, elle, est incapable de distinguer le biologique de l’ordinateur, mais en a-t-elle besoin ? Le danger de l’épiphénoménisme le guette.
Pour en revenir à l’intentionnalité, il est important de comprendre que ce n’est que l’utilisateur de l’ordinateur qui en comprend l’output et pas l’ordinateur lui-même :
En effet, on n’attribue pas à l’ordinateur la capacité d’aimer, alors pourquoi pourrait-on lui attribuer celle de comprendre ? Vis-à-vis de l’ordinateur, on entretien d’ailleurs une ambiguïté de langage face à la notion d’« information » :
6. Conclusion
Concluons sous forme de deux citation, l’une de Searle, plus tardive que le texte étudié, l’autre de Pinkas, qui révèlent les deux l’importance du contenu relationnel de l’information véhiculée tant par l’ordinateur que par l’humain :
- Searle, Minds, brains, and programs, 1980, p.417-418 ↩
- Searle 1980, p. 418 ↩
- Searle 1980, p. 418 ↩
- Searle 1980, p. 418 ↩
- Searle 1980, p. 418 ↩
- Searle 1980, p. 418 ↩
- Searle 1980, p. 418 ↩
- Searle 1980, p. 419 ↩
- Searle 1980, p. 419 ↩
- Searle 1980, p. 420 ↩
- Searle 1980, p. 420 ↩
- Searle 1980, p. 422 ↩
- Abelson in Searle 1980, p. 424 ↩
- Searle 1980, p. 422 ↩
- Searle, The Rediscovery of Mind, 1992 ↩
- Searle 1980, p. 423 ↩
- Searle 1992, p. 20 ↩
- Pinkas, La matérialité de l’esprit, 1995 ↩
L’erreur de Searle est de ne pas comprendre ce que compréhension veut dire. Toute sa théorie de la chambre chinoise est une pétition de principe qui dit que l’ordinateur ne comprend pas le chinois parce qu’un programme ne comprend pas, parce que seul un humain comprend. Voir “De la sémantique chinoise” http://www.jacquesbolo.com/html/philoia-6.html (et le reste).
Merci pour cet apport tout à fait intéressant. Je suis d’accord avec vous sur la lacune de définition concernant le terme “comprendre”. Il me semble toutefois que si l’on fait une lecture de bonne foi des thèses de Searle, la définition est relativement claire et concerne la capacité que nous avons de relier un mot avec son sens, un signifiant avec un signifié (et pas d’être capable de simuler parfaitement le locuteur chinois). Comme vous l’expliquez dans le paragraphe cité, la relation entre le mot et son sens n’est que le fruit d’un apprentissage, mais la capacité de conceptualisation elle-même, le pouvoir de “donner du sens”, n’est-elle pas réservée au cerveau ?
Dans la “chambre chinoise” Searle conteste (simplement) que la machine parle chinois. Il a tort. Mais il se sert de l’intentionnalité pour le justifier. C’est ça qui est une pétition de principe.
Concrètement, si une machine traduisait quelques phrases (assez qd même), on dirait que c’est un traducteur de chinois (simple). Mais si elle en traduisait vraiment beaucoup, voire évidemment toutes les phrases possibles (ce dont Searle fait l’hypothèse), on dirait bien qu’elle comprend le chinois. Et tout simplement parce c’est ce qui se passe quand un humain apprend le chinois (progressivement). La différence est simplement fondée sur celle entre l’humain et la machine… pour laquelle il avait pris l’exemple de la chambre chinoise pour contester l’intelligence de la machine!!! Donc, tout son raisonnement est faux.
PS. il se trouve que je me souviens, de mes cours de chinois, quasiment de la seule phrase: “Wǒ bùshì lǎoshī” (je ne suis pas professeur), que je suis capable de dire avec les tons corrects. Un jour, on me demande si je suis prof. Je dis la phrase. Et mon interlocuteur crois que je parle chinois, parce que je suis un être humain. Searle chambré!
Parmi les réponses les plus intéressantes à l’argument de la chambre chinoise, il y a celles de Kurzweil, en ligne et dans ses livres. Par exemple : http://www.kurzweilai.net/chapter-6-locked-in-his-chinese-room-response-to-john-searle
Le passage “Searle’s Chinese Room Argument Can Be Applied to the Human Brain Itself” a un côté ironique qui me plaît tout particulièrement.