Chambre chinoise
La chambre chinoise est une expérience de pensée imaginée par John Searle vers 1980[1]. Searle se demandait si un programme informatique, si complexe soit-il, serait suffisant pour donner un esprit à un système. Cette expérience de pensée vise à montrer qu'une intelligence artificielle ne peut être qu'une intelligence artificielle faible et ne peut que simuler une conscience, plutôt que de posséder d'authentiques états mentaux de conscience et d'intentionnalité. Elle vise à montrer également que le test de Turing est insuffisant pour déterminer si une intelligence artificielle possède ou non ces états mentaux. Elle a fait l'objet de beaucoup de discussions et de critiques[2],[3].
Principe
modifierDans cette expérience de pensée, Searle imagine une personne qui n’a aucune connaissance du chinois (en l’occurrence, lui-même) enfermée dans une chambre. On met à disposition de cette personne un catalogue de règles permettant de répondre à des phrases en chinois. Ces règles sont parfaitement claires pour l'opérateur. Leur application se base uniquement sur la syntaxe des phrases. Une phrase d’une certaine forme syntaxique en chinois est corrélée avec une phrase d’une autre forme syntaxique. L'opérateur enfermé dans la chambre reçoit donc des phrases écrites en chinois et, en appliquant les règles dont il dispose, il produit d’autres phrases en chinois qui constituent en fait des réponses à des questions posées par un vrai sinophone situé à l’extérieur de la chambre. Du point de vue du locuteur qui pose les questions, la personne enfermée dans la chambre se comporte comme un individu qui parlerait vraiment chinois. Mais, en l’occurrence, cette dernière n’a aucune compréhension de la signification des phrases en chinois qu’elle transforme. Elle ne fait que suivre des règles prédéterminées.
En poursuivant ironiquement la procédure du test de Turing, test censé démontrer qu'un programme informatique sophistiqué peut être qualifié d'intelligent, Searle imagine que le programme déterminant les réponses qui sont données à l'interlocuteur sinophone devient si sophistiqué, et la personne non sinophone qui répond aux questions devient si habile dans la manipulation des symboles, qu'à la fin de l'expérience, les réponses qu'elle donne aux questions ne peuvent être distinguées de celles que donnerait un vrai locuteur chinois de langue maternelle, bien que, selon Searle, la personne qu'on imagine enfermée dans la chambre ne comprenne toujours pas un mot de chinois.
Cette expérience de pensée suggère qu'il ne suffit pas d'être capable de reproduire exactement les comportements linguistiques d'un locuteur chinois pour parler chinois, car parler le chinois, ou n'importe quelle autre langue, ce n'est pas juste dire les bonnes choses au bon moment, c'est aussi signifier ou vouloir dire ce qu'on dit : un usage maîtrisé du langage se double ainsi d'une conscience du sens de ce qu'on dit (conscience intentionnelle) et la reproduction artificielle, même parfaite, d'un comportement linguistique ne suffit pas à produire une telle conscience.
Découverte du problème
modifierSearle résume les motivations qui l'ont conduit à concevoir son expérience de pensée de la façon suivante :
« Je ne connaissais rien [en 1971] à l'intelligence artificielle. J'ai acheté un manuel au hasard, dont la démarche argumentative m'a sidéré par sa faiblesse. Je ne savais pas alors que ce livre allait marquer un tournant dans ma vie. Il expliquait comment un ordinateur pouvait comprendre le langage. L'argument était qu'on pouvait raconter une histoire à un ordinateur et qu'il était capable ensuite de répondre à des questions relatives à cette histoire bien que les réponses ne soient pas expressément données dans le récit. L'histoire était la suivante : un homme va au restaurant, commande un hamburger, on lui sert un hamburger carbonisé, l'homme s'en va sans payer. On demande à l'ordinateur : “A-t-il mangé le hamburger ?”. Il répond par la négative. Les auteurs étaient très contents de ce résultat, qui était censé prouver que l'ordinateur possédait les mêmes capacités de compréhension que nous. C'est à ce moment-là que j'ai conçu l'argument de la chambre chinoise[4]. »
Un argument contre les conceptions fonctionnalistes de l'esprit
modifierAvec cette expérience de pensée, Searle s'oppose à ce qu'il appelle l'hypothèse de l'intelligence artificielle « forte », qu'il définit comme la possibilité qu'un programme informatique puisse suffire à engendrer une conscience ou une compréhension authentique. Le terme « conscience » fait ici référence au problème difficile de la conscience, c'est-à-dire à la sentience. Selon lui, même si une machine peut simuler un comportement intelligent, elle ne possède pas pour autant une conscience ou une intentionnalité réelle. L'expérience de pensée se limite aux ordinateurs exécutant des programmes numériques, et ne s'applique pas aux machines en général[1].
Searle propose quatre axiomes[5] :
- Les programmes informatiques sont des systèmes formels dont la structure est dite « syntaxique » ;
- Les esprits humains possèdent des états et contenus mentaux à caractère « sémantique » ;
- La syntaxe n'est ni constitutive, ni suffisante à la sémantique ;
- Les cerveaux produisent l'esprit.
Le but de l'expérience de pensée de la chambre chinoise est de convaincre intuitivement que l'axiome 3 est correct, les autres étant de son point de vue plus évidents. Le quatrième ne dit pas que seuls les cerveaux produisent l'esprit, mais indique qu'un système capable de produire un esprit doit être indiscernable du fonctionnement d'un cerveau. Selon Searle, si on accepte les trois premiers axiomes, alors il s'ensuit que les programmes informatiques ne sont pas suffisants pour produire un esprit. Du quatrième axiome, il conclut que pour avoir un esprit, un système doit avoir des « capacités causales » au moins équivalentes à celles du cerveau. Les axiomes sont controversés, notamment la distinction entre syntaxe et sémantique[5].
Plus largement, Searle s'oppose aux conceptions computationnalistes et fonctionnalistes de l'esprit. Selon les computationalistes, la sentience émerge de certains types de traitement de l'information. Le fonctionalisme est une position plus générale, qui inclut le computationalisme. Selon les fonctionnalistes, les états mentaux sont définis par leurs rôles fonctionnels plutôt que par leur constitution physique. Pour les fonctionnalistes, ce qui importe, c'est la manière dont les états mentaux interagissent entre eux ainsi qu'avec les entrées et les sorties, et non le matériau spécifique du système réalisant ces fonctions. Dans la version computationnaliste du fonctionnalisme, une production de pensée est même parfaitement envisageable avec un programme informatique approprié[6]. Or, l'expérience de la chambre chinoise suggère qu'un système peut reproduire la fonctionnalité de la compréhension du chinois sans pour autant faire l'expérience subjective de cette compréhension. Bien qu'indiscernable fonctionnellement, la chambre chinoise est supposée manquer cette expérience subjective[5].
Objections
modifierUne objection fréquemment avancée à l’encontre de l’argument de la chambre chinoise est celle que Searle a nommée, par anticipation, « la réponse du système »[7],[8]. Selon celle-ci, le système dont fait partie la personne qui suit les instructions du manuel comprend le chinois, en dépit du fait que la personne ne comprend pas cette langue. Dans le système que constitue la chambre chinoise, la personne joue alors le rôle de l’unité centrale (ou processeur) d’un ordinateur. Mais le processeur n’est que l’une des nombreuses composantes d’un ordinateur. Dans le cas d’un ordinateur suffisamment sophistiqué pour penser, ce n’est pas le processeur pris isolément qui pense mais plutôt l’ensemble du système dont il fait partie, car c’est le système tout entier qui permet de fournir les réponses appropriées.
Searle n'admet pas cette objection qui implique l’idée, absurde selon lui, d'existence d'une conscience de la chambre chinoise autre que la conscience de la personne qui fournit les réponses, contredisant le présupposé que cette personne est le seul être conscient de la chambre.
Zenon Pylyshyn (en) souligne pour sa part la vacuité de la notion d'intentionnalité, ou de « pouvoirs causaux » du cerveau, mis en avant par Searle pour différencier une authentique compréhension, de l'apparente compréhension d'une chambre chinoise[9]. Pour illustrer ce problème, il imagine de remplacer, petit à petit, dans un cerveau humain, les cellules cérébrales par des équivalents électroniques ayant exactement les mêmes propriétés. La personne continuerait à discuter et à posséder la même compréhension apparente, mais, selon les conceptions de Searle, perdrait petit à petit la faculté de véritable compréhension. Mais la position de Searle n'explique pas clairement à quel moment, pourquoi et en quoi la faculté de compréhension de la personne a changé[9].
Une autre objection, développée en particulier par Douglas Hofstadter[10][source insuffisante], vient de la linguistique (par exemple de la sémiologie, ou de l'étude de la fonction perlocutoire) et affirme que l'expérience de pensée de Searle est en fait impossible, car on ne peut produire des réponses adaptées à l'aide de seules règles syntaxiques. La quantité de dialogues possibles est infinie et une connaissance du monde est nécessaire, par exemple en anglais pour distinguer correctement les fonctions grammaticales dans l'exemple « Time flies like an arrow; fruit flies like a banana »[note 1].
Par ailleurs, Alan Turing, dès l'article où il décrit pour la première fois son test d'intelligence, avait démontré par calcul[11] que même la version la plus incompressible de ce catalogue de règles syntaxiques serait d'une telle longueur que sa création est hors de portée de toute intelligence déjà constituée, ou tout du moins humaine. C'est cette objection, certes d'ordre technique plutôt que philosophique, qui a amené Alan Turing à supposer son test d'intelligence suffisant, puisque d'après cette hypothèse, on ne peut pas mimer une intelligence autrement que par une autre intelligence.
Également, Searle s'appuie sur l'intuition pour sa démonstration et non sur la preuve, en se demandant où est l'esprit dans la pièce. Mais cet argument fonctionne aussi dans le cas du cerveau : où est l'esprit dans cette collection de cellules fonctionnant en aveugle selon les lois de la biochimie[12] ?
Notes et références
modifierNotes
modifier- Un exemple en chinois est Le Poète mangeur de lions dans son repaire de pierre.
Références
modifier- (en) John R. Searle, « Minds, brains, and programs », Behavioral and Brain Sciences, vol. 3, no 3, , p. 417–424 (ISSN 1469-1825 et 0140-525X, DOI 10.1017/S0140525X00005756, lire en ligne, consulté le )
- Stuart J. Russell et Peter Norvig, Intelligence artificielle : une approche moderne, 3e éd.
- (en) « The Chinese Room Argument », sur Stanford Encyclopedia of Philosophy
- « Langage, conscience, rationalité : une philosophie naturelle. Entretien avec John R. Searle », Le Débat, Paris, éditions Gallimard, no 109, , p. 177-192 (ISBN 2-07-075859-1, ISSN 0246-2346, e-ISSN 2111-4587, OCLC 7293544677, DOI 10.3917/deba.109.0177 , lire en ligne [PDF]).
- (en) Stuart Russel et Peter Norvig, Artificial Intelligence, A modern approach, Prencice Hall, , 3e éd., chap. 26, p. 1032
- (en) « The Computational Theory of Mind », sur Stanford Encyclopedia of Philosophy
- D. Dennett, La conscience expliquée, Odile Jacob, , p. 540-546
- S. Pinker, Comment fonctionne l'esprit, Odile Jacob, , p. 104-105
- (en) Douglas Hofstadter et Daniel Dennett, The Mind's I: Fantasies And Reflections On Self & Soul, Basic Books, , 512 p. (ISBN 978-0-465-03091-0), p. 374.
- Douglas Richard Hofstadter, Daniel Clement Dennett et Jacqueline Henry, Vues de l'esprit: fantaisies et réflexions sur l'être et l'âme, InterÉditions, (ISBN 978-2-7296-0176-8)
- (en) Alan Turing (Section 7), « Computing Machinery and Intelligence », Mind, Oxford University Press, vol. 59, no 236,
- Stuart Russell et Peter Norvig (trad. de l'anglais), Intelligence artificielle : une approche moderne, Paris, Pearson education, , 1199 p. (ISBN 978-2-7440-7455-4 et 2744074551, OCLC 708384789), p. 1088