Harnad, S. (1993) Grounding Symbols in the Analog World with Neural Nets. Think 2(1) 12 - 78 (Special issue on "Connectionism versus Symbolism," D.M.W. Powers & P.A. Flach, eds.). [Also reprinted in French translation as: "L'Ancrage des Symboles dans le Monde Analogique a l'aide de Reseaux Neuronaux: un Modele Hybride." In: Rialle V. et Payette D. (Eds) La Modelisation. LEKTON, Vol IV, No 2.] http://www.cogsci.soton.ac.uk/~harnad/Papers/Harnad/harnad93.symb.anal.net.html http://cwis.kub.nl/~fdl/research/ti/docs/think/2-1/index.stm

L'ANCRAGE DES SYMBOLES DANS LE MONDE ANALOGIQUE A L'AIDE DE RESEAUX NEURONAUX: Un modele hybride

Stevan Harnad Laboratoire Cognition et Mouvement URA CNRS 1166 I.H.O.P. Universite d'Aix Marseille II 13388 Marseille cedex 13, France

1.0 COMPUTATIONALISME -VS- CONNEXIONNISME DANS LA MODELISATION DES PROCESSUS COGNITIFS

1.1 L'approche la plus repandue de modelisation cognitive reste encore ce qu'on en est venu a appeler le computationalisme (Dietrich 1990; Harnad 1990b) c'est-a-dire, l'hypothese selon laquelle la cognition releve de la computation. L'approche rivale la plus recente est le connexionnisme (Hanson et Burr 1990; McClelland et Rumelhart 1986), qui propose la these selon laquelle, la cognition est une structure dynamique de connexions et d'activations a l'oeuvre dans un reseau neuronal. Le computationalisme et le connexionnisme sont-ils reellement si differents l'un de l'autre et, dans l'affirmative, devraient-ils se concurrencer ou collaborer pour l'hegemonie de la cognition? Nous etudierons ici ces questions dans le contexte d'un obstacle auquel le computationalisme et le connexionnisme (qu'il soit computationnel ou qu'il cherche a conquerir seul le privilege de regner sur les sciences cognitives) doivent faire face : le probleme de l'ancrage des symboles (Harnad 1990).

1.2 Tout d'abord, il convient de preciser, afin de s'assurer que nous parlons tous de la meme chose, que par computation j'entends manipulation symbolique. Je parle ici de la manipulation formelle des occurrences (tokens) de symboles physiques selon des regles syntaxiques qui n'agissent que sur la "forme" des symboles (forme qui est arbitraire par rapport a la signification que l'on peut tirer de l'interpretation de ces symboles), telle qu'on la retrouve dans un ordinateur numerique ou son idealisation, une machine de Turing manipulant, par exemple, des 0 et des 1 . Ce que j'affirmerai au sujet de la computation symbolique ne s'applique pas au "calcul" analogique ni aux systemes analogiques en general, qui sont configures pour obeir a des equations differentielles et non pour implementer physiquement des manipulations de symboles (Newell 1980; Pylyshyn 1984; pour une vision differente de la computation analogique, voir aussi McLennan 1987, 1988, dans article-a et article-b) .

1.3 Une autre caracteristique importante de la computation est qu'elle est independante de sa realisation materielle. Quelles que soient les proprietes ou les capacites d'un systeme, ce n'est qu'en vertu de ses seules proprietes computationnelles qu'elles seront partagees par chaque implementation de ce systeme symbolique (programme informatique) et ce, meme si les dites implementations different radicalement entre elles. Ainsi, tous les details de l'implantation materielle sont sans importance outre le fait qu'elle realise ce systeme symbolique particulier.

1.4 La derniere et la plus importante propriete de la computation (ou pour le moins d'une forme de computation significative, si nous considerons le charabiat formel impossible a interpreter comme une forme de computation assez triviale) est que les symboles et les manipulations de symboles, dans un systeme symbolique, sont SYSTEMATIQUEMENT INTERPRETABLES (Fodor et Pylyshyn 1988) ; on peut leur attribuer une semantique, ils ont une signification (ex., nombres, mots, phrases, deplacements aux echecs, mouvements planetaires, etc.).

1.5 Un point important a garder a l' esprit dans cette discussion est qu'en tant que psychologue cognitiviste, je m'interesse a l'intelligence des machines uniquement parce qu'elle peut etre consideree comme un modele "realiste" de l'intelligence humaine (et de celle d'autres organismes). Il peut etre tres utile en soi d'amener des machines a faire des choses astucieuses et intelligentes, mais la n'est pas mon propos et c'est pourquoi les arguments que je souleverai contre certains systemes, percus comme modeles cognitifs, ne doivent pas necessairement etre consideres comme des arguments a l'encontre de leur utilite comme machine. Le mot intelligence est equivoque dans la mesure ou il decrit a la fois l'intelligence humaine et les performances ingenieuses et pratiques des machines, performances qui requierent normalement l'intelligence humaine. Puisque je ne m'interesse qu'aux homologies et non aux analogies, j'eviterai donc tout simplement d'utiliser le mot intelligence (voir Turing 1964). Je crois toutefois que certains des arguments que je presenterai ci-dessous touchant la necessite d'ancrer les symboles peuvent s'appliquer non seulement a la modelisation cognitive, mais aussi a l'intelligence des machines en general et ce, pour la simple raison que certains types de performance ne peuvent etre realises avec des systemes symboliques non ancres .

2.0 LES RESEAUX NEURONAUX NE SONT-ILS QUE DES MOD LES DE COMPUTATION?

2.1 Puisque nous avons defini la computation comme un systeme symbolique syntaxique implemente, mais independant de l'implementation, nous devons tout d'abord nous demander si cette definition englobe egalement les reseaux neuronaux. La reponse est quelque peu complexe, mais j'espere qu'elle exposera assez clairement les diverses possibilites qui s'offrent a nous; cela depend en fait a la fois de la facon dont on utilise et dont on implemente physiquement le reseau.

2.1.1 (SIM) Dans la litterature, la plupart des reseaux neuronaux sont en realite des simulations computationnelles de reseaux de neurones et non de veritables etats d'activations paralleles et distribues dans un ensemble d'unites reliees physiquement entre elles. Ce ne sont que de simples simulations symboliques serielles des proprietes de tels reseaux, autrement dit, des systemes symboliques physiquement realises qu'on peut INTERPRETER comme des reseaux neuronaux, bref, des reseaux virtuels . Ce que les reseaux peuvent faire, les simulations de reseaux le peuvent egalement: les capacites des reseaux ne sont donc veritablement que celles des systemes symboliques (computation). Il vaut la peine de noter que les algorithmes d'apprentissage de certains reseaux neuronaux n'ont meme pas a etre consideres comme des reseaux. En effet, un systeme interconnecte et parallele s'avere l'une des facons de les implementer. Ainsi analyses , il est clair que les reseaux neuronaux ne seraient qu'une famille d'algorithmes d'apprentissage symboliques (y compris numeriques). Nous reviendrons plus tard sur cette question.

2.1.2 (IMP) Une autre interpretation possible des reseaux neuronaux, qui rendrait la comparaison entre le potentiel des reseaux et celui des systemes symboliques semblable a la comparaison entre abstrait et concave , serait de les considerer comme de simples elements materiels (hardware) pour l'implementation de systemes symboliques. Puisque la computation est independante de son implementation, il importe peu que le materiel sur lequel elle est realisee soit un Sparc ou un reseaux neuronal dans la mesure ou seules les proprietes computationnelles sont determinantes. (A mon avis, les preuves selon lesquelles les reseaux neuronaux peuvent etre utilises comme Machines de Turing entrent dans cette categorie ( p.ex. Touretzky 1991) et ce, bien qu'il y ait une difference remarquable entre utiliser un reseaux comme hardware pour effectuer des computations symboliques et entrainer des reseaux a devenir eux-memes des systemes symboliques (Harnad 1990d)).

2.1.3 (PAR) Dans SIM, un systeme symbolique simule un reseau neuronal alors que dans IMP, un reseau neuronal implemente un systeme symbolique. Il reste une troisieme possibilite selon laquelle certaines des proprietes et certains des potentiels des reseaux neuronaux dependent ESSENTIELLEMENT de leur implementation sous une forme distribuee, interconnectee et physiquement parallele. Pour peu que cela soit vrai, et a condition que les reseaux fassent un usage ESSENTIEL des intrants et extrants analogiques pour realiser leur potentiel, les reseaux neuronaux seraient alors une veritable solution de rechange aux systemes symboliques et n'auraient plus a etre consideres comme des cas particuliers de ces systemes, ni meme comme un support a l'implementation de ces systemes.

2.2 Ironiquement, bien que les distinctions entre SIM, IMP et PAR soient importantes pour comprendre la polemique opposant le potentiel des symboles a celui des reseaux et vice versa (p.ex. Fodor et Pylyshyn 1988; Harnad 1990d; Minsky et Papert 1969; Pinker et Prince 1988), elles ne seront pas d'une importance capitale pour la synthese ici proposee. Je suggererai une facon d'utiliser en collaboration symboles et reseaux dans la modelisation des processus cognitifs. Dans ce modele hybride (Harnad 1992a), je tendrai a traduire les reseaux sous leur forme analogique, PAR, en raison du role que je leur attribue dans le traitement analogique des intrants et extrants sensorimoteurs. Cependant, s'ils pouvaient remplir ce role de maniere symbolique, je ne m'y opposerais pas.

3.0 POTENTIELS ET LIMITES DES RESEAUX

3.1. Sans doute serait-il utile de faire brievement mention de certains autres themes de la polemique opposant les computationalistes et les connexionnistes, ne serait-ce que pour demontrer a quel point ces questions sont negligeables en regard de notre propos premier.

3.1.1 Le computationnalisme a ete critique par les connexionnistes qui l'on juge peu vraisemblable du point de vue neuronal, parce que les ordinateurs numeriques sont eux-memes peu plausibles de ce point de vue (voir McClelland et Rumelhart 1986). Cependant, si le computationalisme connait par ailleurs un certain succes, l'independance de son implementation rend egalement plausible une implementation neuronale (qui demeurerait tout aussi peu significative quant aux mecanismes de la cognition car, selon le computationalisme, ces mecanismes demeureraient malgre tout syntaxiques (Fodor et Pylyshyn 1988)); du reste, la neurosimilitude des reseaux est tres superficielle.

3.1.2 On a egalement reproche au computationalisme son manque d'interet et son echec relativement a l'apprentissage, puisqu'il prefere s'en remettre a une connaissance symbolique construite a priori plutot que de l'acquerir en temps reel a partir des donnes (Hanson et Burr 1990). Cependant, le computationalisme pourrait, en principe, creer ou requisitionner tout algorithme symbolique, y compris les algorithmes d'apprentissage (dont les reseaux neuronaux ne sont qu'une forme d'implementation). La difference se resume donc simplement aux outils et aux taches que favorise chacune des approches: les symboles ont excelle dans les taches reliees au langage ou qui empruntent aux connaissances generales (background knowledge) alors que les reseaux ont pour leur part excelle dans les taches de reconnaissance de formes et dans les taches basees sur un apprentissage de bas en haut (bottom-up). Aucune des deux n'a ete systematiquement employee pour des taches normalement attribuees a l'autre (on ne voit d'ailleurs pas bien pourquoi chaque approche ne pourrait profiter des methodes et des resultats de l'autre).

3.1.3 On a reproche au connexionnisme d'etre incapable de resoudre, ou au mieux de resoudre avec difficulte, des problemes aisement resolubles a l'aide de symboles. Minsky et Papert (1969) ont cerne les problemes de type ou-exclusif (exclusive-or) alors que Pinker et Prince (1988) se sont penches sur les regles de formation du passe (past tense) dans la langue anglaise . Toutefois, aucune de ces critiques n'a amene de restriction au principe meme du connexionnisme; elles n'ont fait que relever les limitations d'un modele connexionniste particulier (dans les deux cas, un Perceptron a deux couches (Rosenblatt 1962)). On a demontre les theoremes portant sur les capacites generalisees d'ajustement de courbe des reseaux multicouches (Hanson et Burr 1990) ainsi que leur aptitude a implementer des Machines de Turing (Touretzky 1990, 1991; Touretzky et Hinton 1988). Cependant, jusqu'a ce jour, personne ne sait pourquoi ce que les symboles ou les reseaux peuvent en principe faire correspond a ce que peut faire l'esprit humain; par consequent, jusqu'a ce que nous le sachions, tant les reseaux que les symboles (et tout autre candidat, s'il y a lieu) sont toujours dans la course empirique (Harnad 1990d).

3.1.4 Une objection potentiellement plus severe a l'encontre des reseaux a ete formulee par Fodor et Pylyshyn (1988) qui leur reprochent l'absence des proprietes de composition systematique conferees automatiquement par les systemes symboliques de type langagier, alors que ces proprietes sont certainement essentielles pour le "langage de la pensee" (Fodor 1975). Il peut s'agir la d'un argument valable, mais proposer des systemes symboliques comme modeles pour le langage de la pensee nous ramene irremediablement au probleme de l'ancrage des symboles (Harnad 1990) selon lequel, si les symboles dans un systeme symbolique peuvent etre systematiquement interpretes comme signifiant ce que les pensees signifient, ces significations ne sont pas pour autant plus intrinseques au systeme symbolique lui-meme qu'elles ne le sont, par exemple, a un livre. Ces significations ne sont que projetees sur les symboles par des systemes pensants, tels que nous-meme, lorsque nous les interpretons; d'ou, sous peine de regression a l'infini, un systeme symbolique ne constitue pas un modele pertinent pour ce qui se passe dans nos tetes. Penchons-nous maintenant de plus pres sur le probleme de l'ancrage des symboles.

4.0 LE PROBL ME DE L'ANCRAGE DES SYMBOLES ET L' ARGUMENT DE LA CHAMBRE CHINOISE DE SEARLE

4.1 Searle (1980) mettait en evidence une manifestation du probleme de l'ancrage des symboles lorsqu'il a fait remarquer qu'un ordinateur executant un programme et qui pouvait reussir le Test de Turing (TT) (Turing 1964) en chinois (c.-a-d. qui pouvait correspondre toute une vie durant, indistinctement d'un veritable correspondant Chinois) pouvait ne pas etre reellement en train de comprendre le chinois, puisque Searle lui-meme pouvait implementer ce meme programme en memorisant et en executant toutes les regles et manipulations de symboles, et ceci, sans la moindre connaissance ou comprehension de cette langue. Searle a ainsi demontre que l'une des proprietes essentielles de la computation (celle-la meme qui avait fait penser a certains theoriciens (p.ex. Pylyshyn 1984) que le computationalisme aurait meme resolu la problematique corps/esprit), a savoir l'independance de l'implementation, constituait en realite un moyen de REFUTER l'inference selon laquelle le systeme comprend le chinois et, du fait meme, l'hypothese selon laquelle la cognition se resume a la computation. En effet, bien qu'on puisse systematiquement interpreter les intrants et les extrants symboliques du correspondant (de meme que ses ses etats internes) comme ayant le meme sens que les pensees chinoises, il n'y a en fait aucune signification et, en consequence, le systeme ne pense pas; il ne s'agissait que d'une projection hermeneutique (Harnad 1989).

4.2 Notons qu'habituellement, nous sommes libres d'inferer que meme les pierres ont un esprit, puisque le probleme des "autres-esprits" (other-minds ) assure que meme si nous sommes dans l'erreur, nul autre que la pierre ne saurait etre plus sage (Harnad 1984, 1991). Toutefois, dans le cas particulier du computationalisme, Searle a montre que nous POURRIONS etre les plus sages puisque nous pourrions nous-meme devenir les implementations du systeme symbolique ayant reussi le TT en chinois, lequel nous avait amene a inferer qu'il comprenait de ce fait le chinois, bien que ce faisant, nous ne comprendrions pas le chinois. Donc, le computationalisme fait tout simplement fausse route: la cognition n'est PAS uniquement de la computation (implementee) (sauf si l'on est pret a croire comme Dyer (1990; voir Harnad 1990c) que le fait de memoriser un grand nombre de symboles sans signification pourrait engendrer des personnalites multiples ou, comme le fait Hayes, que l'implementation humaine n'apparait pas comme une veritable implementation bien qu'elle reussisse le meme TT en executant exactement les memes manipulations de symboles pendant de nombreuses annees voir Hayes et al., 1992)).

4.3 Pourquoi le computationalisme est-il errone et que proposer a sa place? Je crois qu'il est errone en raison du probleme de l'ancrage des symboles. Considerons pourquoi personne ne saurait apprendre le chinois comme langue premiere uniquement a l'aide d'un dictionnaire chinois-chinois. A l'exception de celui qui connaitrait deja la langue, ou pour le moins une autre langue dans laquelle on peut traduire le chinois, un dictionnaire chinois-chinois n'est qu'un amas de symboles sans signification qui s'averent systematiquement interpretables (par celui qui connait deja le chinois) comme signifiant ce que les mots chinois et les phrases chinoises (et les pensees) signifient. Il en va de meme pour tout systeme symbolique. Les symboles, en depit de leur interpretabilite systematique, ne sont pas ancres; leurs significations sont parasitaires de l'esprit d'un interprete. C'est pourquoi le probleme de l'ancrage des symboles se soucie de la facon dont peuvent etre ancrees les significations des symboles dans un systeme (autrement qu'a d'autres symboles non ancres) pour qu'ainsi ils puissent avoir une signification independamment de tout interprete externe.

5.0 LES RESEAUX NEURONAUX SONT-ILS ASSUJETTIS L'ARGUMENT DE SEARLE ET AU PROBL ME DE L'ANCRAGE DES SYMBOLES?

5.1 Avant de proceder a la presentation de la solution que je propose au probleme de l'ancrage des symboles, demandons-nous au prealable si ce probleme s'applique bien aux reseaux neuronaux. De prime abord, on repondrait par la negative. En effet, comme le font remarquer Fodor et Pylyshyn (1988), puisqu' au depart les reseaux sont depourvus des proprietes compositionnelles d'un systeme symbolique, ces reseaux ne pourraient en aucun cas repondre aux exigences systematiques de la moindre interpretation semantique, qu'elle soit ancree ou non! Supposons maintenant que nous soyons libres de presumer qu'un systeme symbolique puisse reussir le TT, sans pour autant que nous soyons contraints de produire un systeme qui reussirait ce test, nous pouvons alors, je presume, en faire autant pour les reseaux neuronaux. Supposons donc qu'un reseau neuronal puisse reussir le TT: comprendrait-il le chinois?

5.2 ce propos, l'article de Searle (1990) est malheureusement d'un maigre secours puisqu'il a propose l' Argument du Gymnase Chinois , dans lequel un reseau neuronal en train de reussir le TT est implemente a un groupe de garcons s'echangeant des messages dans un gymnase. Selon Searle, il est evident qu'il n'y a aucune signification dans ce systeme. mon avis, cette affirmation n'a non seulement rien d'evident, mais encore, si l'Argument de la Chambre Chinoise avait ete aussi faiblement demontre, alors cet argument aurait ete tout aussi faux. De plus, le System Reply , -- a l'effet que Searle n'est qu'un element du systeme et que c'est l'ensemble du systeme et non pas Searle qui comprendrait le chinois -- qui est la replique preferee de la plupart des detracteurs de Searle, aurait ete exact (Searle 1980; Harnad 1989). En effet, qu'il s'agisse d'une pierre, d'un gymnase rempli de garcons, d'un reseau neuronal ou d'une tete pleine de neurones et de neurotransmetteurs, regle generale (en raison du probleme des "autres-esprits"), on ne peut ni confirmer ni infirmer que le systeme possede un esprit sauf en ETANT le systeme. Comment se pourrait-il qu'il soit en train de comprendre? n'est pas un argument. Meme dans le cas du systeme symbolique, Searle ne pouvait affirmer que l'ordinateur en train de reussir le TT chinois, des annees durant, ne comprend pas le chinois: sans doute le pourrait-il, mais alors seulement en raison des proprietes particulieres du silicium qui le compose. Si l'hypothese est que l'ordinateur comprend le chinois UNIQUEMENT PARCE QU'IL implemente le systeme symbolique qui reussi le TT et que tout autre implementation de ce meme systeme symbolique comprendrait egalement le chinois, toutes les differences d'implementation etant sans incidence, alors Searle peut implementer le meme systeme symbolique, ne pas comprendre le chinois et demontrer par consequent que CETTE DERNI RE hypothese est faussse.

5.3 Searle peut-il en faire autant pour les reseaux neuronaux? L'Argument du Gymnase Chinois echoue puisqu'il est tout a fait possible que le systeme comprenne REELLEMENT le chinois. Par contre, il existe une variante de l'Argument de la Chambre Chinoise de Searle (reliee, celle-la, aux differents types de realisations des reseaux neuronaux, SIM, IMP et PAR decrits ci-dessus) qu'on pourrait intituler l' Argument des Trois Chambres et qui arrivera, a quelque chose pres, au meme resultat.

5.4 Nous pouvons immediatement ecarter la realisation IMP: si le recours aux reseaux neuronaux se limite a leur utilisation materielle (hardware) en vue de l'implementation des systemes symboliques, alors ces reseaux ne peuvent qu'arbitrairement se pretendre particuliers (en ce qui concerne l'implementation des esprits) sous peine de contrevenir a l'independance de l'implementation de la computation, comme le ferait toute revendication particuliere au sujet des implementations au silicium.

5.5 Oublions donc la realisation IMP pour ne s'attarder qu'aux SIM et PAR. Supposons que nous ayons trois chambres et qu'il y ait dans chacune d'elle un systeme qui reussit le TT. Dans la premiere chambre se trouve un veritable systeme de traitement parallele et distribue (PAR), dans la deuxieme, une simulation computationnelle complete de celui-ci (SIM) et dans la troisieme, Searle qui implemente SIM. Il est evident que SIM ne serait pas en train de comprendre le chinois et ce, pour exactement la meme raison que celle invoquee lors de la premiere presentation de l'Argument de la Chambre Chinoise (il ne s'agit la que d'un systeme symbolique reussissant le TT). Qu'en est-il de PAR? Eh bien, non seulement SIM et PAR sont-ils des "Equivalents Turing" (c.-a-d. des intrants/extrants equivalents de boite noire parce qu'ils reussissent tous les deux le TT), mais encore sont-ils fortement equivalents, dans la mesure ou il y a entre eux une equivalence computationnelle interne d'etat a etat, tout comme entre SIM et Searle, exception faite du parallelisme et du caractere distribue qui, plutot que reels, sont simules seriellement. D'ou, si l'on avait une raison independante de croire que le parallelisme etait une caracteristique d'implementation ESSENTIELLE de l'esprit (malgre "l'equivalence-Turing" et l'equivalence computationnelle), on pourrait argumenter que (pour cette raison) la premiere chambre (PAR) comprend, alors que les deuxieme (SIM) et troisieme (Searle) ne comprennent pas. En l'absence d'un pareil argument, l'implementation parallele dans la premiere chambre ne parvient pas a comprendre et ce, pour la meme raison qui rend compte de l'echec que connait l'implementation serielle equivalente a la computation dans la deuxieme chambre, notamment parce que l'implementation serielle equivalente a la computation dans la troisieme chambre (Searle) ne parvient pas a comprendre; l'equivalence computationnelle (et donc tout ce qui pretendument en depend ) est une relation transitive.

5.6 Et voila qui en est fait de l'espoir que les reseaux neuronaux, meme s'ils etaient systematiquement interpretables et capables de reussir un TT, seraient exempts du probleme de l'ancrage des symboles. Peut-on s'y soustraire? Le parallelisme, que l'on a deja dit essentiel, serait pour sa part a l'abri de l'Argument de Searle, mais sans un argument justifiant pourquoi il est essentiel a la cognition, le fait de l'invoquer serait aussi arbitraire que de reclamer un statut particulier pour une implementation au silicium. J'ai cependant propose une variante du TT, appelee le Test de Turing Total (TTT), qui serait aussi a l'abri de l'Argument de la Chambre Chinoise de Searle (Harnad 1989, 1991), mais cette fois-ci pour des raisons de principe qui suggerent meme une solution possible au probleme de l'ancrage des symboles (Harnad 1990).

6.0 LE TEST DE TURING TOTAL (TTT) ET LE CONTRE-ARGUMENT DU TRANSDUCTEUR

6.1 La force du Test original de Turing (1964) etait a la fois intuitive et empirique (Harnad 1992b). Intuitivement, si nous ne pouvions distinguer un candidat de nous-meme en ayant recours a des criteres identiques a ceux que nous employons pour poser un jugement, les uns a l'endroit des autres, dans l'etablissement des solutions quotidiennes et ordinaires en reponse au probleme des "autres-esprits", alors il serait arbitraire d'invoquer de nouveaux criteres une fois que l'on sait que l'autre candidat est en fait une machine. Cela se revelerait un plaidoyer d'exception, car non seulement n'invoquons-nous pas normalement d'autres criteres mecaniques ou biologiques pour poser de tels jugements, mais qui plus est, nous ne savons pas non plus ce qu'est une machine ou une personne du point de vue de la bio-ingenierie! Personne ne le sait encore. C'est la le raisonnement pour expliquer l'aspect intuitif du TT. Quant a l'aspect empirique, il se resume de la sorte: si les capacites de rendement du candidat sont identiques aux notres du point de vue empirique, que peut-on demander de plus?

6.2 Maintenant, dans le cas du TT, nous pourrions etre plus exigeants du point de vue empirique, puisque la capacite comportementale humaine ne se limite guere a de simples interactions (symboliques) entre correspondants. Nous devons tenir compte de l'ensemble de notre capacite sensotimotrice qui permet de discriminer, de reconnaitre, d'identifier, de manipuler et de decrire les objets, les evenements et les circonstances du monde (states of affairs) dans lequel nous vivons (les memes objets, evenements et circonstances dont sont d'ailleurs composees nos pensees). Appelons cette capacite comportementale additionnelle notre capacite ROBOTIQUE. La reussite du TTT necessiterait alors, sans discernement, le recours a la capacite tant symbolique que robotique.

6.3 Retournons maintenant a la Chambre Chinoise, mais cette fois-ci a l'echelle TTT plutot qu'a l'echelle TT. Cette fois, plutot que de se demander si le candidat ayant reussi le TT comprend vraiment le chinois ou si cette situation est systematiquement interpretable de maniere a supposer qu'il le comprend, nous nous demanderons si le candidat (maintenant un robot) ayant reussi le TTT voit vraiment la statue de Bouddha devant lui ou si cette situation est systematiquement interpretable de maniere a supposer qu'il la voit. Avant tout, pour pouvoir interpreter que le robot voit, celui-ci doit posseder des transducteurs optiques. Qu'en est-il de Searle qui tente d'implementer le robot TTT sans voir, tout comme il a implementer le robot TT sans comprendre? Il existe deux possibilites. Premierement, Searle ne recoit que L'EXTRANT d'un transducteur optique, auquel cas il n'est pas etonnant qu'il rapporte ne rien voir,car il n'implemente qu'une partie du systeme plutot que le systeme dans son entierete, et de la, comme dans le Gymnase Chinois, le System Reply serait juste. Deuxiemement, Searle voit reellement le Bouddha, auquel cas il implementerait vraiment la transduction, mais alors, malencontreusement, il serait EFFECTIVEMENT en train de voir.

6.4 Le fait que la transduction sensorielle ait suffi a contrer l'Argument de Searle devrait suggerer que, loin d'etre une simple fonction peripherique insignifiante comme le laissent habituellement croire les computationalistes, cette fonction n'est pas superficielle, du moins pas a l'echelle TTT de la transduction. La vraie transduction est en fait ESSENTIELLE a la capacite TTT. Une simulation computationnelle de la transduction ne peut reussir le passage des objets reels a une performance robotique ou symbolique (sans compter que l'interaction motrice avec les objets reels requiert aussi l'equivalent des extrants des transducteurs: des effecteurs). Voila donc l'argument non arbitraire, indispensable au statut particulier de la transduction, que nous n'avions PAS dans le cas du parallelisme (ou du silicium). De plus, il y a d'autres motifs en faveur de la transduction qui nous la font considerer comme une composante essentielle de l'implementation de la cognition. D'abord, la majeure partie du veritable cerveau fait de la transduction sensorielle ou bien des extensions analogiques de celle-ci: en s'eloignant de plus en plus loin des surfaces sensorielles du cerveau pour atteindre leurs analogues multiples (Chamberlain et Barlow 1982), on rencontre eventuellement les analogues moteurs (Jeannerod 1994) pour finalement se retrouver a l'exterieur, a la peripherie motrice. Si l'on retirait tout cet appareil sensorimoteur, il resterait peu de chose du cerveau et ce qu'il en resterait ne serait certainement pas quelqu'homunculus computationnel desincarne POUR LEQUEL toute l'activite de transduction servirait d'intrant. Non, pour une grande part, nous SOMMES nos transducteurs sensorimoteurs et leurs activites, plutot que d'en etre leurs subordonnes computationnels fantomatiques.

7.0 UN ROBOT HYBRIDE ANALOGUE/SYMBOLIQUE ANCRE DE BAS EN HAUT, DANS DES CATEGORIES SENSORIELLES, PAR LES RESEAUX NEURONAUX

7.1 Donc, si la transduction est suffisament specifique pour contrer l'Argument de Searle, pourrait-elle jouer un role dans l'ancrage des symboles? Selon mon hypothese, elle joue un role central: un systeme symbolique ancre est un systeme qui possede a la fois la capacite robotique et la capacite symbolique pour reussir le TTT de maniere telle que ses symboles et son activite symbolique se tiennent systematiquement, de maniere coherente, avec ses transactions robotiques se rapportant aux objets, aux evenements et aux circonstances auxquels ses symboles, une fois interpretes, peuvent etre relies. En d'autres mots, sa capacite symbolique, et consequemment le caractere interpretable de ses symboles, sont tous deux ancres dans sa capacite robotique et ne dependent pas de la mediation d'une interpretation exterieure transposee sur ces symboles.

7.2 L'ancrage, de par sa nature meme, se fait mieux de bas en haut (plutot que de haut en bas, suspendu a un crochet celeste symbolique). Ainsi, ancrage signifie donc ancrage sensorimoteur: les symboles doivent etre ancres a meme la capacite a discriminer et a identifier les objets, les evenements et les circonstances qu'ils representent, a partir de leurs projections sensorimotrices. Un robot pourrait accomplir une discrimination (jugements different-pareil et jugements de similarite, lesquels sont des jugements relatifs sur des paires d'objets) uniquement a l'aide d'un traitement analogique et de comparateurs (en surimposant les projections analogues d'objets), mais l'identification requiert un mecanisme de reconnaissance des CATEGORIES d'objets. C'est la que les reseaux neuronaux peuvent jouer un role auquel ils semblent particulierement predisposes, a savoir l'apprentissage des invariants de la projection sensorielle analogique qui permettra d'identifier de maniere fiable les objets et de leur associer un nom (un symbole de premier niveau). Les symboles ainsi ancres dans notre capacite a discriminer et a identifier (et a manipuler) leurs referents (p.ex. cheval et rayures ) peuvent alors etre combines pour decrire de nouveaux symboles qui heritent de leur ancrage (p.ex. zebre = cheval et rayures ) sans necessiter un apprentissage sensorimoteur direct.

7.3 premiere vue, il existe des objections a l'encontre de ce type d'approche, mais celles-ci trouvent aussi des reponses. cet effet, je reproduirai ici un seul passage tire de Harnad (1992a).

7.3.1 Les objections anti-empiristes peuvent se resumer ainsi: pour la majorite des categories, les conditions a la fois necessaires et suffisantes pour juger de l'appartenance categorielle n'existent tout simplement pas et encore moins lorsqu'il s'agit de categories sensorielles. La preuve en est que nous ne sommes pas conscients d'y avoir recours et lorsque nous tentons de cerner leur nature, ne serait-ce que de maniere hypothetique, nous n'arrivons a rien. En outre, les categories se presentent souvent par gradation, ou encore elles sont floues; y appartenir est une question de degre ou, dans certains cas, releve de l'incertitude ou de l'arbitraire. L'existence d'invariants sensoriels est encore plus improbable: l'intersection de toutes les proprietes des projections sensorielles des membres de la categorie bon est assurement vide. Par ailleurs, les apparences sensorielles sont souvent trompeuses et rarement, sinon jamais, decisives: un cheval couvert de rayures peintes n'est pas pour autant un zebre.

7.3.2 ceci, les robotistes repliquent qu'il est peu probable que l'introspection devoile les mecanismes qui sous-tendent nos capacites robotiques et cognitives sinon, la tache empirique s'en trouverait grandement facilitee. Les invariants disjonctifs, negatifs, conditionnels, relationnels, polyadiques et meme constructifs (pour lesquels l'intrant doit subir un traitement complexe pour que l'information inherente en soit extraite) sont tout aussi viables et s'appuient tout autant sur des fondements sensoriels, que les invariants simples, monadiques et conjonctifs auxquels s'attarde habituellement l'introspection. Il existe des categories graduees, commes le cas de gros , auxquelles l'adhesion est relative et demeure une question de degre, mais il existe aussi des categories tout-ou-rien comme oiseau , pour lesquelles il existe des invariants. Il peut y avoir des cas oiseau dont nous ne sommes pas certains, mais nous ne sommes pas tenus de nous porter garant de l'omniscience divine quant a la nature de toutes choses. Tout au plus sommes-nous responsables des consequence d'une mauvaise categorisation dans la mesure ou la categorie existe et qu'elle nous importe. Or, c'est notre reussite accomplie de la categorisation que doit pouvoir saisir le modele robotique, y compris la capacite de reviser les invariants de nos categories approximatives et provisoires en cas d'erreur. Quant a bonte, verite et beaute: il n'y a aucune raison de douter que du moment ou elles appartiennent a des categories objectives plutot que subjectives, elles se retrouvent aussi quelque part, fermement ancrees dans la hierarchie du zebre, tout comme l'est la licorne cache-cache . La licorne cache-cache est un cheval avec une corne qui disparait sans laisser de trace lorsque les sens ou des instruments de mesure le detecte . En principe impossible a verifier, cette categorie est neanmoins aussi fermement ancree (et significative) que zebre , a condition que cheval , corne , disparaitre , trace , sens et instrumuments de mesure soient ancrees. Aussi, des la premiere rencontre, advenant pareille rencontre possible, nous serions en mesure d'identifier un membre de cette categorie avec autant de certitude que lorsque nous procedons a l'identification d'un zebre. Le cas du cheval peint et celui de bonte, verite et beaute sont laisses aux soins du lecteur pour qu'il puisse explorer les possibilites recursives des symboles ancres.

7.4 Alors, si ces objections de premiere instance trouvent des reponses de meme nature, la question devient empirique: une approche de bas en haut a l'ancrage des symboles, qui ressemblerait a ce que nous venons de decrire, pourrait-elle fonctionner et aurait-elle des chances de reussir le TTT? Je ne peux qu'offrir de maigres debuts de preuve. Les reseaux neuronaux peuvent effectivement trouver les invariants dans les taches simples unidimensionnelles de facon a permettre la division de la dimension en categories (Harnad et al. 1991, 1994). Jusqu'a maintenant, personne ne sait si ces reseaux ont la capacite d'accomplir une categorisation a une echelle comparable a celle ou le fait l'etre humain (Hanson et Burr 1990), mais ils ont deja demontre qu'ils partagent avec la categorisation humaine une caracteristique interessante dite perception categorielle (PC), par laquelles les similitudes a l'interieur des categories sont comprimees et les differences entre les categories sont accrues au service de la categorisation (Andrews et al., en prep.; Harnad 1987; Lawrence 1950). Cette caracteristique, que l'on ne ne peut que difficilement expliquer du point de vue cognitif (pourquoi les choses faisant partie d'une meme categorie en viendraient-elles a se ressembler?), trouve une explication dans la facon dont certains types de reseaux reussissent a accomplir la categorisation, en faussant suffisamment l'espace de similarite analogique pour pouvoir le diviser comme l'exige la retroaction (feedback ) provenant des consequences d'erreurs de categorisation (Harnad 1992a).

7.5 Le modele d'ancrage propose ici est simple a recapituler. Les projections sensorielles analogiques sont les intrants des reseaux neuronaux qui doivent apprendre a connecter certaines des projections avec certains symboles (le nom de leur categorie) et certaines autres projections avec d'autres symboles (les noms d'autres categories pouvant se confondre les unes aux autres), en trouvant et en utilisant les invariants qui les representent de facon a favoriser l'accomplissement d'une categorisation juste. Les symboles ancres sont alors enfiles dans des combinaisons d'ordre superieur (descriptions symboliques ancrees) par un deuxieme processus combinatoire qui presente une difference critique a l'egard de la manipulation symbolique classique. Dans la manipulation symbolique standard (non ancree), la syntaxe est la seule contrainte a laquelle les combinaisons de symboles sont soumises et elle s'applique a la configuration (arbitraire) des symboles. Dans un systeme symbolique ancre, on doit tenir compte d'une deuxieme contrainte, celle de la forme non arbitraire des invariants sensoriels qui connectent le symbole a la projection sensorielle analogique de l'objet auquel il se rapporte. Je ne peux m'etendre sur la nature de ces systemes symboliques ancres a double contrainte , si ce n'est que pour indiquer que la perception categorielle humaine peut apporter quelques indices quant a la nature de cette interaction entre les contraintes analogiques et syntaxiques (Harnad 1993, 1994).

8.0 OBJECTIONS POTENTIELLES ET PROPOSITIONS DE RECHANGE

8.1 En terminant, je voudrais enoncer les points faibles de ma proposition:

8.1.1 Il se pourrait que les reseaux soient depourvus du pouvoir inductif permettant d'accomplir la categorisation a l'echelle ou le fait l'etre humain, alors que des algorithmes d'apprentissage non connexionnistes pourraient y arriver. Dans ce cas, les reseaux neuronaux ne joueraient aucun role essentiel dans ce modele specifique d'ancrage, mais l'architecture de base serait la meme.

8.1.2 Si les algorithmes d'apprentissage non connexionnistes ne reussissaient pas a fausser l'espace de similarite, alors la perception categorielle ne serait qu'un epiphenomene plutot qu'un indice au sujet des contraintes exercees par les representations symboliques sur les projections symboliques, ou vice versa.

8.1.3 Mon modele d'ancrage pourrait egalement echouer completement parce que l'ancrage de bas en haut de categories abstraites en categories sensorielles s'avererait impossible a apprendre, tant pour l'enfant que pour l'Horloger aveugle (l'evolution). mon avis, ceci nous laisserait avec une theorie assez mysterieuse, du genre Big Bang , sur l'origine innee et l'ancrage des symboles (Harnad 1976, 1990d). D'apres certains penseurs, pareille possibilite n'est pas a ce point inconvenue, ni improbable (p.ex. Chomsky 1980; Fodor 1975).

8.1.4 D'un autre cote, il est concevable que les reseaux neuronaux parviennent a tout faire, sans devoir recourir a un systeme symbolique de niveau plus eleve, et parviennent a engendrer avec suces une capacite TTT sans symbole (donc, sans qu'il soit necessaire de les ancrer). Ceci rendrait certaines proprietes logiques et linguistiques des pensees beaucoup plus holistes qu'elles ne semblent l'etre (Fodor et Pylyshyn 1988), mais qui sait? Le probleme de l'ancrage des symboles ne serait alors qu'un epiphenomene et le connexionnisme remporterait l'hegemonie de la cognition.

8.1.5 Par ailleurs, la transduction pourrait, en bout de course, s'averer banale et un systeme symbolique pourrait se reveler a ce point puissant qu'il n'y aurait qu'a lui fixer quelques transducteurs pour qu'il reussisse le TTT en un tournemain. Dans ce cas, Dyer (1990) pourrait avoir raison de dire que dans la Chambre Chinoise, Searle possedait sans le savoir un deuxieme esprit, chinois celui-la, par suite d'avoir memorise et execute une telle quantite de symboles et de regles. Ou encore, ce serait Hayes qui aurait raison d'affirmer que l'implementation de Searle, sans savoir comment, n'avait pas compte (Hayes et al. 1992). Dans un cas comme dans l'autre, le probleme de l'ancrage des symboles ne servirait qu'a brouiller les pistes, les reseaux ne seraient que des intrus mineurs et le computationalisme remporterait l'hegemonie de la cognition.

8.2 Personnellement, je penche vers l'hypothese qu'aucune de ces possibilites n'est vraisemblablement la bonne, y compris celle que je propose moi-meme, et que des formes de fonctions analogiques encore ignorees (qui s'appuieraient peut-etre davantage sur l'aspect moteur de la transaction sensorimotrice) joueront un role primordial dans la creation d'un robot configure avec des symboles ancres et capable de reussir le Test de Turing Total.

REFERENCES

Andrews, J., Livingston, K., Harnad, S. & Fischer, U. (in prep.) Learned Categorical Perception in Human Subjects: Implications for Symbol Grounding.

Chomsky, N. (1980) Rules and representations. Behavioral and Brain Sciences 3 : 1-61.

Dietrich, E. (1990) Computationalism. Social Epistemology 4: 135 - 154.

Dyer, M. G. Intentionality and Computationalism: Minds, Machines, Searle and Harnad. Journal of Experimental and Theoretical Artificial Intelligence, Vol. 2, No. 4, 1990.

Fodor, J. & Pylyshyn, Z. (1988) Connectionism and cognitive architecture: A critical analysis. Cognition 28: 3 - 71.

Fodor, J. A. (1975) The language of thought New York Thomas Y. Crowell

Hanson & Burr (1990) What connectionist models learn: Learning and Representation in connectionist networks. Behavioral and Brain Sciences 13: 471-518.

Harnad S. (1984) Verifying machines' minds. Contemporary Psychology 29: 389-391.

Harnad, S. (1987) (ed.) Categorical Perception: The Groundwork of Cognition. New York: Cambridge University Press.

Harnad, S. (1989) Minds, Machines and Searle. Journal of Theoretical and Experimental Artificial Intelligence 1: 5-25.

Harnad, S. (1990a) The Symbol Grounding Problem. Physica D 42: 335-346.

Harnad, S. (1990b) Against Computational Hermeneutics. (Invited commentary on Eric Dietrich's Computationalism) Social Epistemology 4: 167-172.

Harnad, S. (1990c) Lost in the hermeneutic hall of mirrors. Invited Commentary on: Michael Dyer: Minds, Machines, Searle and Harnad. Journal of Experimental and Theoretical Artificial Intelligence 2: 321 - 327.

Harnad, S. (1990d) Symbols and Nets: Cooperation vs. Competition. Review of: S. Pinker and J. Mehler (Eds.) (1988) Connections and Symbols Connection Science 2: 257-260. Harnad, S. (1991) Other bodies, Other minds: A machine incarnation of an old philosophical problem. Minds and Machines 1: 43-54.

Harnad, S. (1992) Connecting Object to Symbol in Modeling Cognition. In: A. Clarke and R. Lutz (Eds) Connectionism in Context Springer Verlag.

Harnad, S., Hanson, S.J. & Lubin, J. (1991) Categorical Perception and the Evolution of Supervised Learning in Neural Nets. In: Working Papers of the AAAI Spring Symposium on Machine Learning of Natural Language and Ontology (DW Powers & L Reeker, Eds.) pp. 65-74. Presented at Symposium on Symbol Grounding: Problems and Practice, Stanford University, March 1991; also reprinted as Document D91-09, Deutsches Forschungszentrum fur Kuenstliche Intelligenz GmbH Kaiserslautern FRG.

Hayes, P., Harnad, S., Perlis, D. & Block, N. (1992) Virtual Symposium on the Virtual Mind. Minds and Machines (in press)

Harnad, S. Hanson, S.J. & Lubin, J. (in prep.) Learned Categorical Perception in Neural Nets: Implications for Symbol Grounding.

Lawrence, D. H. (1950) Acquired distinctiveness of cues: II. Selective association in a constant stimulus situation. Journal of Experimental Psychology 40: 175 - 188.

Lubin, J., Hanson, S. & Harnad, S. (in prep.) Categorical Perception in ARTMAP Neural Networks.

McClelland, J. L., Rumelhart, D. E., and the PDP Research Group (1986) Parallel distributed processing: Explorations in the microstructure of cognition, Volume 1. Cambridge MA: MIT/Bradford.

MacLennan, B. J. (1987) Technology independent design of neurocomputers: The universal field computer. In M. Caudill & C. Butler (Eds.), Proceedings, IEEE First International Conference on Neural Networks (Vol. 3, pp. 39-49). New York, NY: Institute of Electrical and Electronic Engineers.

MacLennan, B. J. (1988) Logic for the new AI. In J. H. Fetzer (Ed.), Aspects of Artificial Intelligence (pp. 163-192). Dordrecht: Kluwer.

MacLennan, B. J. (in press-a) Continuous symbol systems: The logic of connectionism. In Daniel S. Levine and Manuel Aparicio IV (Eds.), Neural Networks for Knowledge Representation and Inference. Hillsdale, NJ: Lawrence Erlbaum.

MacLennan, B. J. (in press-b) Characteristics of connectionist knowledge representation. Information Sciences, to appear. Minsky, M. & Papert, S. (1969) Perceptrons: An introduction to computational geometry. Cambridge MA: MIT Press

Newell, A. (1980) Physical Symbol Systems. Cognitive Science 4: 135 - 83.

Pinker, S & Prince, A. (1988) On language and connectionism: Analysis of a parallel distributed processing model of language acquisition. Cognition 28(1-2): 73-193.

Pylyshyn, Z. W. (1984) Computation and cognition. Cambridge MA: Bradford Books

Rosenblatt, F. (1962) Principles of neurodynamics. NY: Spartan

Searle, J. R. (1980) Minds, brains and programs. Behavioral and Brain Sciences 3: 417-424.

Searle, J. (1990) Is the brain's mind a computer program?. Scientific American 262: 26-31.

Touretzky, D. S. (ed.) (1991) Machine Learning, vol. 7, nos. 2 and 3, special double issue on ``Connectionist Approaches to Language Learning.''

Touretzky, D. S. (1990) BoltzCONS: Dynamic symbol structures in a connectionist network. Artificial Intelligence vol. 46, pp. 5-46.

Touretzky, D. S. and Hinton, G. E. (1988) A distributed connectionist production system. Cognitive Science, vol. 12, number 3, pp. 423-466.

Turing, A. M. (1964) Computing machinery and intelligence. In: Minds and machines, A . Anderson (ed.), Engelwood Cliffs NJ: Prentice Hall.

__________________________________ Traduit de l'anglais par Daniel Payette Traduction revue et corrigee par l'auteur

(Je tiens tout particulierement a remercier Valerie Fraile et Andrea Rossi-Kelly pour leur contribution a cette traduction.)