Suivant l'usage commun, j'appelle intelligence artificielle, la technologie informatique qui vise à simuler le comportement intelligent de l'être humain, c'est-à-dire le comportement qui permet à l'homme de réso udre les problèmes qui se posent à lui, intellectuels ou pragmatiques, soit de manière systématique et consciente, soit de manière intuitive et inconsciente.
L'intelligence artificielle est l'héritière de plusieurs traditions dont les principales sont la biologie la psychologie, l'informatique et la linguistique. Le mot de "tradition" n'est bien entendu jamais innocent: une tradition intellectuelle est à la fois l'armature épistémologique qui soutient un corps de savoir dans ses avatars historiques et un ensemble permanent de contraintes quant à la manière légitime de définir des problèmes et de les résoudre. J'envisagerai ici les trois premières traditions: biologie, psychologie et informatique, la quatrième, la linguistique, nécessitant à elle seule un développement séparé.
L'idée d'une science unifiée est jusqu'à présent un leurre: la réalité foisonnante du monde naturel a encouragé la diversité des angles d'attaque pour en rendre compte mais les portraits auxquels ceux-ci ont conduit demeurent souvent inconciliables. Aristote le premier avait reconnu que chaque science a son fondement dans un petit nombre de principes indémontrables puisés dans le sens commun: la présence de "forces" pour la physique, les propriétés neuves et irréductibles des combinaisons, des "mixtes" - comme les appelait encore Duhem (1902) -, pour la chimie, l'existence du "vivant" pour la biologie.
Chaque discipline définit ce qu'elle reconnaît comme un problème et la manière légitime de l'aborder. Mais un problème, conçu de cette façon, n'est pas comme on l'imagine parfois un sous-domaine du réel qui relèverait en propre de cette discipline. Un problème résulte en réalité du découpage qu'opère la stylisation qui est particulière à une discipline. Cette stylisation s'est, quant à elle, constituée progressivement, selon un processus de sélection disons "darwinien" de l'explication: comme l'angle d'attaque grâce auquel la discipline a fait la preuve de son efficacité en termes de cohérence, d'élégance, de simplicité et, éventuellement, de disposition à l'application. Hegel a désigné ces types propres d'explication pour la physique, la chimie et la biologie, sous les noms respectifs de mécanisme, chimisme, et téléologie (La Doctrine du Concept, 1981 [1816]).
Chaque science est impérialiste au sens où elle ne limite pas ses ambitions, au sens où elle entend rendre compte non pas d'un domaine réservé qui lui serait propre, mais de l'Univers tout entier. Les explications qu'offre une science particulière sont closes au sein de ce que Wittgenstein appelait un "jeu de langage". On n'a jamais entendu dire qu'une discipline en ait appelé d'autres à son secours pour résoudre les difficultés qu'elle se voyait forcée de laisser non-résolues. En fait, chaque discipline dispose de son "fonds de vérité", à usage purement local et incommensurable avec celui dont disposent les autres. L'Histoire explique l'Univers tout entier, mais la Physique aussi, et la Biologie également, et chacune de manière complète et totale dans l'optique où elle a caractérisé ce qui est problématique et ce qui ne l'est pas, ce qui requiert explication et ce qui va sans dire.
Si le savoir nous tient à coeur, l'unification de la science nous est souhaitable. Il existe d'ailleurs un moyen théorique classique d'une telle unification: le réductionnisme. L'ambition du réductionnisme est admirable: elle est de traduire une discipline dans le langage d'une autre et implique donc à terme, leur fusion par la disparition de celle qui se voit entièrement traduite dans l'autre. Mais aussi longtemps que cette fusion n'est pas réalisée de manière complète, c'est-à-dire sans entraîner de perte dans l'explication, le réductionnisme entraîne - et comme le mot le suggère - une déperdition. La biologie traduite dans le langage de la physique s'en trouve éclairée, mais l'explication biologique possède sa spécificité explicative qui reflète celle du vivant et cette spécificité, la traduction physique ne peut en rendre compte: dans le langage "mécaniste" de la physique, le vivant "téléologique" n'existe pas, à ses yeux, certains systèmes sont auto-reproducteurs et d'autres non, de ce point de vue, rien d'essentiel ne distingue le cristal du virus, ni le virus de la bactérie.
Mais là où le réductionnisme échoue en visant à l'unification des sciences sur le mode théorique, la technologie est peut-être en voie de réussir en se cantonnant au mode pratique. C'est ici que l'expérience technologique récente du Japon constitue pour nous un enseignement précieux.
Contentons-nous de penser à une période récente, celle de l'immédiat après-guerre. Une industrie japonaise orientée vers la consommation des particuliers renaît sur les cendres d'une industrie de guerre. La production japonaise survient sur les marchés des années cinquante, caractérisée par des objets qui apparaissent comme autant de copies bon marché d'objets initialement conçus en Occident: appareils photo, électro-ménager, motocyclettes, etc. La qualité surprend en Occident mais un discours à tonalité défensive est aussitôt produit: si les Japonais se révèlent meilleurs techniciens que prévu, dit-on, c'est que leur capacité à l'innovation est limitée: excellents copistes ils sont mais excellents copistes ils demeureront. La suite, comme l'on sait, serait source de désillusions sévères pour ceux qui eurent la faiblesse de penser dans ces termes.
L'honnêteté oblige de reconnaître que cette opinion occidentale ne résultait pas d'un simple préjugé: les raisons théoriques pour imaginer une incapacité à l'innovation de l'Extrême-Orient étaient de divers ordres et toutes bien fondées. Au premier rang d'entre elles, la faible disposition de cette civilisation au développement technologique cumulatif. Qu'il s'agisse du gouvernail, de la boussole, ou de la poudre à canon, autant d'inventions qui restèrent sans descendance . Ensuite, la faible disposition à la théoricité de la pensée extrême-orientale en tant que telle. Nous sommes habitués dans notre culture, et depuis au moins l'époque de Platon, à supposer derrière la réalité foisonnante des choses du réel sensible, une réalité objective plus simple et dont le réel sensible constitue une version imparfaite. La description de cette réalité objective sous le nom de Science a pris son premier départ en Grèce ancienne, et son second départ dans l'Europe de la Renaissance. Depuis, bien des inventions technologiques ont été chez nous des retombées de la réflexion théorique, et nous nous sommes petit à petit faits à l'idée que toute invention technologique est nécessairement une retombée du savoir scientifique: la technologie, pense-t-on, est "de la science appliquée". Ce que le Japon nous a appris depuis l'après-guerre, et souvent cruellement pour l'industrie occidentale, c'est que l'invention technologique et la science entretiennent des rapports plus éloignés que nous n'aimerions l'imaginer.
Il est vrai que la pensée extrême-orientale est une pensée tout à la surface des choses, où celles-ci n'ont qu'une pérennité relative, où tout est flux, où les êtres proches apparaissent chacun comme le signe des autres, où le caractère écrit et le nom participent aussi bien de la nature de la chose que sa matérialité physique. Mais cette même pensée est aussi celle des "dix mille êtres", une pensée pour laquelle le foisonnement du monde sensible ne constitue pas un problème de fond. Pour la pensée extrême-orientale, la combinatoire quasi-infinie des permutations des choses va de soi. Pour elle, l'essai et l'erreur portant sur l'ensemble des combinaisons possibles est envisageable sans que l'espace de leur existence ait été préalablement cartographié par une description circonstanciée de la réalité objective qui, pour nous, est censée se cacher derrière la quasi-infinité des formes empiriques du monde sensible. Ce faisant, le Japon est venu confirmer ce qui était chez nous l'expérience du chercheur que nous appelions péjorativement "empirique" - et dont l'ingénieur est aujourd'hui le descendant, il a fait la preuve de la fécondité de l'exploration pratique du monde par l'essai et l'erreur.
Confrontés dans la réalisation de l'intelligence artificielle à quatre traditions, informatique, biologique, psychologique et linguistique a priori inconciliables, c'est la leçon du Japon qui doit nous inspirer: c'est la réalisation technologique qui opérera pragmatiquement une ré-conciliation de traditions qui demeureraient sinon des corpus de savoir disparates.
Ceci dit, il est possible d'opérer une sorte de synthèse des deux cultures, occidentale et orientale, en utilisant le savoir scientifique occidental comme une heuristique permettant de faire l'économie de l'exploration exhaustive de l'ensemble des combinaisons possibles, à laquelle la pensée orientale semble disposée.
Partons de l'une de nos quatre traditions, la biologie.
La comparaison entre l'anatomie et la physiologie de l'homme et celle des autres animaux, en particulier de ceux qui nous sont les plus proches, permet de situer dans le cerveau la machinerie qui autorise le comportement intelligent. L'anatomie du cerveau nous est mieux connue que sa physiologie: nous ignorons encore tout, par exemple, quant à la manière dont est stockée l'information dont nous disposons dans la pensée ordinaire sous forme de mémoire; est-ce au niveau du neurone ou de la collection de neurones, ou de manière distribuée sur un réseau global ? Et s'il nous est loisible aujourd'hui de "photographier" le "paysage" des activations neuronales qui correspondent à un certain état mental, nous ignorons encore la part qu'il faut attribuer dans l'explication des états mentaux à une inscription de type chimique ou à la dimension purement électrique du fonctionnement neuronal (MacGregor 1987: 18-20). Si bien que nous en sommes réduits à ne postuler qu'une hypothèse absolument minimale quant au fonctionnement du cerveau, à savoir que toute modélisation des processus de pensée doit être compatible avec ce que nous pouvons observer de l'architecture des connexions neuronales.
C'est peu. C'est même très peu en raison de la quantité énorme de ramifications dendritiques qui caractérisent un neurone type. Nous ignorons en particulier - et c'est capital -si les connexions synaptiques qu'établissent ces dendrites déterminent les processus de pensée de manière statistique, c'est-à-dire en raison de leur comportement collectif, ou de manière proprement individualisée, c'est-à-dire, chacune jouant un rôle spécifique.
C'est le très grand nombre de ramifications dendritiques d'un neurone individuel qui a conduit les chercheurs à supposer - du moins à titre provisoire - que l'information qu'ils transmettent résulte d'un processus essentiellement statistique. De là provient la conception aujourd'hui classique des réseaux neuronaux du genre "perceptron" fondés sur des "neurones formels", dont le déclenchement dépend d'une variable interne dont la valeur s'accroît jusqu'à atteindre un seuil - d'où la nature non-linéaire du fonctionnement de ces réseaux neuronaux formels. Or, l'existence de connexions en grand nombre ne réfute pas en soi l'hypothèse de la pertinence fonctionnelle des connexions individuelles, elle rend simplement extrêmement problématique toute hypothèse quant à la fonctionnalité précise de celles-ci.
Cautionner l'hypothèse statistique a pourtant une implication immédiate et qui se révèle lourde de conséquences: selon cette hypothèse, l'architecture, la configuration exacte du réseau neuronal qui constitue le cerveau humain est dépourvue de signification topologique. Dit autrement, le fait que tel neurone X active tel autre Y et non tel autre Z est considéré comme sans signification particulière, si ce n'est de contribuer à un effet non-linéaire collectif.
Or, les raisons sont nombreuses qui conduisent à supposer une signification à la présence ou à l'absence d'une connexion synaptique entre deux neurones individuels. La première, réside dans le fait observé de la disparition de nombreuses connexions neuronales au cours de l'apprentissage. Apprendre équivaut à éliminer des connexions. Or, moins les connexions sont nombreuses, plus celles qui demeurent deviennent significatives en tant que telles. C'est là un principe connu de la théorie de l'information: l'information augmente comme l'inverse de la probabilité. Dans les termes d'Antoine Danchin: "... une régression de la connectivité peut permettre d'engranger une quantité d'information considérable..." (Danchin 1987: 166).
La deuxième raison est que l'hypothèse de la nature statistique des connexions et de leur raréfaction "au petit bonheur la chance", supposerait qu'un processus dégénératif se développe en parallèle avec l'apprentissage qui, en quelque sorte, "combattrait" cette dégénérescence. Il est plus économique de penser que la raréfaction des connexions exprime en réalité la manière dont l'apprentissage opère son encodage dans le réseau neuronal. Un neurone qui serait alors connecté avec un très grand nombre d'autres, serait "idiot", dans la mesure où ses connexions seraient indifférenciées, et donc "indifférentes"; le neurone "intelligent" serait au contraire celui qui ne serait plus relié qu'à un certain nombre d'autres, chacune de ses connexions étant alors pertinente (que celles-ci soient encore en nombre considérable complique sans doute notre tâche d'explication mais le fait même de la raréfaction soutient en réalité l'hypothèse du caractère pertinent de chaque connexion individuelle).
Rien n'interdit a priori d'envisager l'apprentissage comme la colonisation de neurones aux connexions indifférenciées par une information qui se manifeste par l'"élagage" de toutes les connexions non-significatives. On comprendrait alors le rôle curatif des implantations de neurones "jeunes", foetaux, dans le cas de la maladie d'Alzheimer: ces neurones aux tendances ramifiantes pourraient remplir les zones "désertées" que l'on observe, et servir de lieu d'inscription pour de nouveaux apprentissages. Cette hypothèse expliquerait aussi la nature relativement plastique des localisations cérébrales, les plages de neurones néo-corticaux pouvant s'adapter à des circonstances nouvelles, par exemple à la suite de lésions subies par les organes des sens, en opérant une réallocation de surfaces assignées auparavant à une certaine fonction, pour étendre le domaine d'une fonction jouant un rôle partiel de substitution (l'auditif suppléant partiellement au visuel déficient, etc.).
Restons-en là pour le moment, pour ce qu'il en est de la biologie. Dans une perspective matérialiste qui caractérise sinon la science en général du moins le projet spécifique de l'intelligence artificielle, rien de ce que constate la psychologie ne doit se révéler incompatible avec ce que nous observons du fonctionnement neurophysiologique. Il faut, autrement dit, que puisse être déterminé le soubassement neurologique correspondant à chacun des aspects du fonctionnement de la pensée humaine. Une justification existe donc ici pour ce réductionnisme évoqué plus haut et dont la place dans une unification de l'explication (scientifique) est non-négligeable.
Envisageons deux types d'activités mentales distinctes que nous allons caractériser par leurs manifestations "prototypiques" extrêmes: l'association libre et le calcul. L'association libre caractériserait le fonctionnement de cerveau "en roue libre", le calcul, son fonctionnement "dirigé". C'est une des thèses de mon ouvrage Principes des systèmes intelligents (1990) - empruntée à l'associationnisme d'Aristote (De la mémoire et de la remémoration) par Sigmund Freud - que l'association libre constitue l'infrastructure, le "degré zéro", de toute type de pensée. Quitte à renouer avec une tradition décriée de l'anthropologie, je n'ai pas hésité à avancer (1989), à la suite de Lucien Lévy-Bruhl, que la pensée qui nous apparaît "primitive" se résume bien souvent au simple fonctionnement de l'association libre.
Dans l'association libre, c'est la configuration du réseau qui décide de l'association de nos éléments de mémoire, de nos traces mnésiques, qui détermine comment la pensée se constitue séquentiellement. Le rêve, dans la mesure où l'on admet avec Freud et Lacan, qu'il se résume à l'illustration de concepts, à leur mise en images, le rêve se contente de parcourir sans contraintes le réseau des traces mnésiques connectées par notre mémoire. L'émotion, qui dans la veille inhibe certains parcours possibles, est absente du rêve: comme Freud l'a souvent souligné, le rêve nous place souvent dans les situations qui seraient les plus embarrassantes dans la vie réelle sans que nous en éprouvions la moindre gêne. La censure est absente ou quasiment, l'appareil émotionnel qui interdit dans la veille le surgissement à la conscience de l'association purement libre, est ici déconnecté, assurant cette liberté extraordinaire qui consiste dans le parcours libre des connexions mnésiques, c'est-à-dire du réseau neuronal biologique en tant que pure architecture.
Au pôle opposé existe le calcul, l'enchaînement délibéré - contrôlé par la conscience - des étapes d'un algorithme appris et développé de manière systématique. Ici, un espace de représentation contraint est d'abord imaginé, ensuite des "instances" y sont mises en scène puis celles-ci sont manipulées selon les enchaînements imposés par l'algorithme conscient.
Une fois qu'aurait été levé l'obstacle que constitue notre ignorance de la nature de l'inscription de la mémoire, l'association libre est le type même du phénomène dont la neurologie n'aurait aucune difficulté à rendre compte. Telle trace mnésique ayant été activée, l'activation se répandrait à l'intérieur du réseau neuronal en suivant le parcours des connexions existantes, le neurone A activant les neurones B, C, D, ceux-ci activant E, F, G, et ainsi de suite. Pour interdire un feu d'artifices d'activations simultanées, il suffirait de supposer la possibilité d'inhibitions du type de la censure freudienne, partout où existeraient des bifurcations entre parcours concurrents.
Dans le cas de l'association libre, le mécanisme le plus vraisemblable est donc causal au sens le plus classique: A provoque B, C interdit à B de provoquer D, etc. Dans le cas du calcul, l'explication rencontre une difficulté: comment s'opère ce contrôle que la conscience exerce, ou en tout cas imagine exercer, dans l'application systématique des diverses étapes de l'algorithme ? On achoppe ici à la difficulté que Snow situait à l'origine de deux cultures antagonistes et irréconciliables: celle de la science et celle des humanités. L'une et l'autre supposent aux phénomènes des "raisons", mais la première voit la raison dans la cause efficiente - celle dont nous venons de parler - et les secondes voient la raison dans le but, dans la cause finale, dans l'objectif visé, que l'homme se fixe et auquel il parvient, soit immédiatement, soit par étapes successives. On retrouve ici bien sûr l'opposition entre deux types d'explication hégéliens, le mécanisme propre à la physique, et la téléologie propre à la biologie.
La biologie, comme toutes les sciences fondamentales et comme la physique en particulier, a toujours eu beaucoup de mal à s'accommoder de la cause finale, de l'explication de type téléologique. En 1929, dans son manifeste, le Cercle de Vienne, assignait même à la science la tâche d'éradiquer toute cause finale - jugée métaphysique - de l'explication scientifique, et le projet des Hahn, Neurath, Schlick et Carnap demeure populaire auprès de certains savants contemporains. Hegel considérait au contraire que seule l'explication téléologique est digne de ce nom. Pour lui, l'explication mécaniste chère aux physiciens n'en est pas une authentiquement parce qu'elle est purement extérieure à la chose: on y voit des éléments en interaction où chacun trouve sa "cause" dans un autre mais rien n'est su - et a fortiori dit - de ce qui meut, "motive", aucun d'entre eux: "L'objet a (...), tout comme un être-là en général, la déterminité de sa totalité en dehors de lui, dans d'autres objets, ceux-ci pareillement à nouveau en dehors d'eux, et ainsi de suite à l'infini" (Hegel 1981 [1816]: 220). Dans l'explication téléologique au contraire, la motivation intérieure de l'objet est mise en avant: "La téléologie se trouve opposée par excellence au mécanisme, dans lequel la déterminité posée en l'objet est essentiellement, comme extérieure, une déterminité en laquelle ne se manifeste aucune auto-détermination" (ibidem 247).
La physique contemporaine rejoint aujourd'hui le point de vue de Hegel. En réalité, la cause finale ne constitue qu'une difficulté apparente, la science dispose en effet avec la notion de gradient, du moyen de se débarrasser entièrement de ce qui dérange à propos de la cause finale, à savoir, l'apparente influence qu'y exerce le futur sur le présent.
Pourquoi la rivière va-t-elle à la mer ? Nullement parce que A provoque B, et que B entraîne C, jusqu'à ce que soient atteints les rivages de l'océan, mais parce qu'il existe un gradient, on dirait dans ce cas-ci, une "pente": l'eau suit la courbe de la pente la plus raide, jusqu'à ce qu'elle atteigne le niveau de la mer. C'est un effet de la gravité: le centre de la terre joue le rôle d'un attracteur, et c'est en se dirigeant vers celui-ci que l'eau, dans un mouvement de spirale centripète (le méandre de son cours n'est rien d'autre), s'arrête un beau jour à la mer, dans l'impossibilité d'aller plus loin, de se rapprocher davantage de son attracteur.
Il n'y a là, dans cette notion de gradient, rien de très mystérieux, rien en tout cas qui mette la démarche scientifique en péril. Il y a quelques années, lorsque les systèmes experts révélèrent sinon leur faillite entière à simuler la pensée humaine, du moins leurs sévères limitations dans la réalisation de cette tâche, certains informaticiens voulurent suppléer au savoir en général lacunaire, voire incohérent de l'"expert", en complétant son modèle intuitif par ce que la science avait pu rassembler par ailleurs comme explications des phénomènes que l'expert manipule. On voulut donc, sous le nom de physique qualitative constituer un savoir qui cumulerait les bénéfices du savoir intuitif, empirique, du praticien, et ceux du savoir théorique du scientifique. Ce fut là l'occasion d'un certain nombre de déconvenues mais qui se révélèrent toutes fertiles en enseignements.
Le premier désappointement eut lieu à propos de la cause efficiente, la cause de type "classique". On s'aperçut en effet que dans les systèmes mécaniques, le bon vieux "A provoque B" ne tenait pas la route. L'idée d'un enchaînement dans le temps où A est la cause - qui vient d'abord - de l'effet B - qui vient ensuite - était le plus souvent arbitraire et l'on pouvait aussi bien considérer que B provoquait A, leur effet étant en réalité simultané (tout dépend de l'heuristique préalablement définie, comme le soulignent de Kleer & Brown 1984: 69). Disparaissait ainsi une ancienne certitude, celle de la solidité de l'enchaînement successif comme principe de l'explication, et l'on fut conduit à cette occasion à réfléchir à la portée d'une ancienne réflexion philosophique - dont les Stoïciens avaient été autrefois les promoteurs - que l'idée de la cause efficiente, du "A cause B", résultait peut-être d'un préjugé - humain, trop humain - qui consiste à vouloir désigner pour chaque phénomène un responsable, que l'on puisse à l'occasion punir, si l'effet s'est révélé détestable. La cause efficiente, dans cette perspective, ne serait rien d'autre que la manifestation d'un souci de justice imprudemment transposé dans le domaine de la nature: "Montrez moi donc la cause, que je puisse lui dire, le cas échéant, deux mots !" .
La deuxième déconvenue eut lieu lorsqu'il fallut admettre la nécessité "incontournable" de la cause finale dans l'explication. On s'aperçut par exemple, à l'occasion d'une réflexion sur la machine à vapeur, que si le praticien n'ignore rien de la nécessité d'une soupape de sûreté sur l'engin, la théorie physique en ignore, elle, absolument tout. Pas de place en effet dans la thermodynamique pour l'explosion en cas de pression excessive: les machines à vapeur théoriques en effet, n'explosent pas. Non pas parce qu'elles seraient théoriques au sens de "virtuelles", mais parce que la théorie ne réserve pas de place où puisse apparaître cette "transition catastrophique" que l'on appelle l'explosion. Or, comme nul ne l'ignore, les machines à vapeur réelles explosent, et l'on peut en réduire considérablement le risque en les pourvoyant d'une soupape de sûreté. Pourquoi donc n'y a-t-il pas place pour l'explosion dans la machine à vapeur théorique ? Parce qu'elle ne connaît que les causes efficientes et que pour celles-ci, il n'y a pas d'explosions.
Les machines réelles nous obligent toutefois de connaître les causes finales: il y a risque de mort d'homme. Dans les machines à vapeur réelles on introduit la soupape de sûreté pour empêcher l'explosion. On introduit la soupape pour éviter que quelque chose qui pourrait arriver n'arrive effectivement. On fait intervenir une considération hypothétique, l'intervention d'un futur éventuel dans le présent, c'est-à-dire, une cause finale (Kuipers 1984: 173).
Le réseau des traces mnésiques est parcouru dans le processus du rêve "comme en roue libre", je l'ai dit plus haut, parce que l'émotion est provisoirement déconnectée: il n'y a pas de dynamique d'affect. Dans la veille, l'association libre n'est pas entièrement libre. Si elle l'était, la cure psychanalytique n'aurait pas de raison d'être. L'affect canalise, décide à certaines bifurcations, de diriger le train d'impulsions vers tel branchement plutôt que vers tel autre. En fait, l'affect joue exactement le rôle de gradient décrit plus haut, il décide entre deux ramifications dendritiques laquelle présente "la pente la plus raide". C'est une image bien sûr, mais nullement une image inconséquente. Le refoulement dans la névrose, c'est exactement cela: le branchement sur lequel s'exerce la censure névrotique est inaccessible: sa "pente" est trop faible (la "pente" est peut-être même inverse: il peut s'agir de l'équivalent d'un pic). Le processus de l'analyse, de l'anamnèse, de la remémoration, va progressivement araser le pic, permettre même l'apparition d'une cuvette là où existait un pic inaccessible, le parcours du réseau par l'intermédiaire de ce branchement redeviendra possible: le névrosé se sera débarrassé de l'un de ces "tabous" auto-imposés que sont les symptômes névrotiques.
Mais ici, dans l'association libre, plus ou moins libre, on a toujours affaire à la cause efficiente, on passe bien de A à B (peut-être du neurone A au neurone B) et le passage de A à B se fait bien dans l'ordre naturel du temps: on passe d'abord par A, puis par B. Mais dans le deuxième type de processus, celui dont le calcul constitue la forme prototypique, l'ordre temporel des choses semble a priori inversé: la cause finale, le but à atteindre, l'objectif visé, semble préexister aux étapes qui y conduisent. Autrement dit, le but semble produire une aspiration de l'avenir vers le présent; l'avenir semble à même d'appeler vers lui le présent. La cause finale A, l'objet réalisé par exemple, aura bien lieu après qu'aient été effectuées les étapes B, C, D... qui y conduisent, c'est-à-dire ses effets, mais d'une certaine manière il existe avant elles, il leur pré-existe.
Comment cela est-il possible ? Bien entendu, la réponse nous la connaissons. Au moment où tombe la pluie, l'océan existe déjà. Le petit ru fera la grande rivière et au moment où la petite goutte de pluie qui d'abord ruissela sur le sol rejoint la mer, tout se sera passé comme si cette dernière l'avait appelée à partir de ce moment situé dans l'avenir où la jonction a enfin lieu.
Or l'océan s'est contenté d'être là: il se fait simplement que c'est lui que l'on trouve au bout du gradient, il est ce que l'on appelle en physique, un puits de potentiel. Pensons encore une fois à la manière dont se fait l'association libre. J'ai évoqué les inhibitions du refoulement qui interdisent certains chemins (Freud compare ces interdictions à des inondations qui envahissent les vallées et obligent les voyageurs à de longs détours par des chemins escarpés; Freud 1967 [1900]: 451), mais il y a aussi ces soucis qui encouragent, qui guident l'association libre vers eux de manière insistante, toujours renouvelée. J'en ai donné des exemples dans Principes des systèmes intelligents (1990), "se souvenir d'acheter du beurre", "le rappel d'impôt aussitôt démenti", etc. Le souci est un puits de potentiel auquel nous ne pouvons rien faire, il appelle l'association libre vers lui. Le calcul est d'une nature assez proche, il est en quelque sorte un souci choisi d'intention délibérée.
Bien sûr, si l'on souscrit à l'argumentaire psychanalytique développé jusqu'ici, on n'admettra qu'à contrecoeur la notion d'intention délibérée: dans une perspective psychanalytique toute suggestion d'action "délibérée" est suspecte a priori. Mais la difficulté n'est qu'apparente: l'intention elle-même peut être envisagée comme un "souci" qui nous advient par devers nous-mêmes. Aussitôt que l'intention est présente, dès que le projet existe, telle la réalisation d'un objet - et quelque soit la manière dont ce souci s'est imposé - la vision future du projet accompli, du but atteint, agit comme un puits de potentiel. Celui-ci ne sera sans doute effectivement atteint que dans un moment à venir, mais il guide vers lui parce qu'il existe dès l'origine, c'est-à-dire qu'il existe de manière contemporaine à l'ensemble des opérations, à la réalisation de chacun des sous-buts, qui mènent vers lui. La représentation de la cause finale en termes d'attraction exercée par un moment futur vers un état présent est donc erronée: le but à atteindre est un puits de potentiel qui pré-existe aux étapes vers sa réalisation, que l'on peut envisager comme ses effets.
Donc, tout comme la cause efficiente, la cause finale est bien antécédente à ses effets. L'intention (le puits de potentiel) est présente avant la réalisation de l'action envisagée, seul l'accomplissement aura effectivement lieu plus tard: au moment où le puits de potentiel aura été atteint.
Je vais maintenant me tourner vers la troisième tradition qui constitue l'intelligence artificielle, l'informatique. Il ne s'agit plus ici comme avec les neurosciences ou la psychanalyse d'un savoir que nous avons acquis sur l'humain, mais des contraintes qui s'exercent sur la machine où nous envisageons de reproduire un comportement semblable à celui de l'intelligence humaine.
Il existe une hypothèse naïve - mais hélas très répandue - selon laquelle l'esprit humain fonctionnerait de manière similaire à celle d'un ordinateur. Ce que j'ai dit plus haut à propos du rôle joué par une dynamique de l'affect élimine d'office cette possibilité: rien dans la quincaillerie (le "hardware") de la machine n'émule d'une manière ou d'une autre une dynamique d'affect. Ceci dit, rien n'interdit de mettre en place une telle émulation au niveau du logiciel (du "software"), mais il faudrait alors aller à l'encontre, et des contraintes du hardware classique, et de l'esprit des langages de programmation existants, conçus les uns et les autres dans la perspective d'un comportement déterministe linéaire entièrement prévisible.
Caractérisons brièvement le fonctionnement de l'ordinateur comme étant mathématico-logique. Ni la Mathématique, ni la Logique ne sont bien entendu étrangères au fonctionnement de l'esprit humain. D'abord, constatation banale, c'est l'esprit humain qui les a produites l'une et l'autre comme corpus théoriques, même si la question demeure controversée de ce qui dans la Mathématique, et dans la Logique, reflète le monde naturel extérieur à l'homme (j'y reviendrai).
Sans coïncider avec eux, la Logique et la Mathématique peuvent être situées par rapport à ces deux processus de pensée polaires que j'ai caractérisés plus haut selon leurs formes prototypiques de l'association libre et du calcul. La Logique a quelque chose à voir avec l'association libre, et la Mathématique a quelque chose à voir avec le calcul. La formulation est provisoirement délibérément minimale.
Le rapport entre l'association libre et la Logique nous est historiquement connu: nous savons parfaitement comment la Logique a été construite en corps de savoir à partir d'observations faites par Aristote sur l'association libre. En effet, quand celui-ci déclare qu'il est le premier à offrir un exposé systématique de la façon dont il faut procéder pour penser correctement, il ne s'est trouvé personne pour le démentir . On sait qu'Aristote n'emploie pas d'expression équivalente à Logique mais parle d'analytique lorsque le point de départ est constitué d'une prémisse sûre et relève de l'explication scientifique (épistémè), et de dialectique lorsque la prémisse est simplement vraisemblable et relève de l'opinion commune (doxa) .
Le problème d'Aristote - qui, sous cet angle, est le même que celui de Platon - est d'être confronté à des adversaires théoriques redoutables. Son système philosophique, malgré son bel ordonnancement, sa cohérence et sa complétude, est particulièrement fragile sur un point majeur: son incapacité à fonder le concept du vrai. Aristote affirme qu'il faut dire le vrai et s'abstenir de dire le faux, et cela peut se faire en disant de ce qui est, qu'il est, et de ce qui n'est pas, qu'il n'est pas . Cette formulation est en réalité tout à fait insuffisante. Platon avant lui, n'avait guère pu faire mieux: dire le vrai, selon Platon, "c'est dire ce qui est, comme il est" (au XXè siècle Tarski reprendra l'argument exactement sous la même forme que Platon: "dire que la neige est blanche est vrai si la neige est blanche"; Tarski 1956).
Or si l'on veut créer un système de savoir comme ce fut le cas pour Aristote, (et peut-être pour Platon - ce dont nous ne sommes pas sûrs puisque ses textes théoriques ont été perdus), fonder le concept du vrai était important parce que ses adversaires théoriques les plus sérieux, les Sophistes, affirmaient que le vrai comme tel n'existe pas. Les Sophistes s'intéressaient énormément au phénomène de la persuasion, à cette capacité "magique" pour quelqu'un de convaincre quelqu'un d'autre de quelque chose, et ils considéraient que l'un des moyens utilisés pour convaincre une personne, consiste à lui dire qu'elle doit croire à quelque chose parce que "c'est vrai", mais il ne s'agissait là, selon les Sophistes, que de l'un des multiples moyens qui permettent d'emporter la conviction, un "truc" rhétorique, un argument polémique parmi d'autres.
Ce qu'on découvrait à l'époque, c'était le pouvoir extraordinaire de la parole, du verbe, mais aussi ses pièges, que l'on dénonçait comme analogues à ceux des drogues. On connaît le passage célèbre de l'Eloge d'Hélène de Gorgias:
"Il existe une analogie entre la puissance du discours à l'égard de l'ordonnance de l'âme et l'ordonnance des drogues à l'égard de la nature des corps. De même que certaines drogues évacuent certaines humeurs, et d'autres drogues, d'autres humeurs, que les unes font cesser la maladie, les autres la vie, de même il y a des discours qui affligent, d'autres qui enhardissent leurs auditeurs, et d'autres qui, avec l'aide maligne de Persuasion, mettent l'âme dans la dépendance de leur drogue et de leur magie" (Gorgias in Dumont 1991: 713; cf aussi Derrida 1972: 79-80).
La démocratie athénienne offrait à tous les citoyens l'occasion de s'exprimer sans contraintes, dans les prétoires, lors des assemblées du peuple, ou tout simplement sur les places publiques. Et chacun avait pu observer alors avec inquiétude le phénomène suivant: un débat entre deux orateurs pouvait débuter sur leur accord entier et parfait, et, alors même que ni l'un ni l'autre ne s'était à aucun moment contredit lui-même, il arrivait cependant un moment où ils se contredisaient entre eux. Il venait un moment où les orateurs affirmaient des choses contradictoires, c'est-à-dire que l'une ou l'autre devait être vraie mais non les deux à la fois: si l'une était vraie, l'autre était nécessairement fausse. Et pourtant, il était impossible de dire à quel moment la contradiction était apparue: les orateurs pris séparément ne s'étant pas contredits eux-mêmes .
Les Sophistes en tiraient la conclusion que le vrai en tant que tel n'était qu'une illusion. Convaincre son interlocuteur à l'aide de la "drogue" (pharmakon) inhérente aux paroles était une pratique sociale d'une efficacité certainement sans égale, mais qui relevait d'une technique qui permettait de convaincre d'une chose mais aussi bien de son contraire, indépendamment de toute considération quant au vrai et quant au faux.
Comme le dit très bien Barbara Cassin, selon les Sophistes,
"celui qui parle ne dit pas ce qui est (le vrai), pas plus d'ailleurs que ce qui n'est pas (le faux): 'il dit un dire' (Gorgias dans le Traité du non-être: 'et celui qui dit, dit un dire, mais non une couleur ni une chose')." (Cassin 1986: 17).
De même, Sextus Empiricus à propos de Gorgias:
" ... le discours, il n'est ni les substances, ni les êtres: ce ne sont donc pas les êtres que nous révélons à ceux qui nous entourent; nous ne leur révélons qu'un discours qui est autre que les substances" (Sextus Empiricus, Contre les mathématiciens, VII, 84)
A cela, Aristote - ni personne après lui - n'a jamais pu vraiment répondre , et c'est ce qui a conduit Hegel a déclarer que les premiers intellectuels authentiques, ce sont les Sceptiques, au premier rang desquels se retrouvent les Sophistes (Hegel 1975 [1829-1830]: 798-799). La seule chose qu'Aristote ait pu faire, qui s'apparente au plus près à donner un fondement au vrai, c'est prouver la chose suivante: si l'on part de quelque principe que l'on sait vrai (c'est-à-dire pour lui, quelque chose sur quoi tout le monde est d'accord ), alors on peut définir des règles qui feront que, si deux orateurs les suivent, non seulement ils ne se contrediront jamais eux-mêmes mais en plus, ils ne se contrediront jamais entre eux. C'est cela qui le conduisit à définir puis à créer de toutes pièces l'analytique et la dialectique. Et si nous, aujourd'hui, nous confondons les deux sous le nom de Logique, c'est parce que cette distinction essentielle à l'époque entre un point de départ certain et un point de départ seulement vraisemblable, nous ne la jugeons plus pertinente parce que nous croyons avoir trouvé dans la vérification expérimentale que nous propose la science moderne, le moyen infaillible de distinguer le vrai du faux.
Aristote part du principe général qu'"en gros" nous raisonnons correctement, que nous ne nous trompons pas dans la manière d'enchaîner les arguments, mais qu'il existe des moments où, de manière subtile, nous "quittons les rails" de la pensée correcte et qu'il est donc important d'énoncer les règles qui, si on les suit à la lettre, permettront d'éviter tout "déraillement".
Dans la perspective de la distinction que j'ai établie tout à l'heure entre l'association libre et le calcul, ce que fait Aristote lorsqu'il fonde la Logique, c'est dire qu'il est permis "en gros" de faire confiance à l'association libre, mais que si l'on veut être tout à fait sûr de ne pas se tromper, il vaut mieux se tourner vers l'algorithme, vers le calcul. Connaître les règles de la Logique (principes qui ont été abstraits du fonctionnement ordinaire, spontané, quasi-automatique, de la pensée) et les suivre, c'est se garantir contre les déraillements imperceptibles de la compatibilité entre enchaînements associatifs, et se donner les moyens de mener à bien une argumentation sans jamais se contredire. Autrement dit, le système de règles de la logique permet de transposer la phénoménologie (description) de l'énonciation rationnelle sous une forme normative (comme règles à suivre), et ceci parce qu'il est vrai que la même conduite du raisonnement peut résulter soit d'une action spontanée, soit de l'observance des règles qui en rendent compte .
Envisagée de ce point de vue, la Logique relève donc d'une démarche parfaitement parallèle à celle de la mnémotechnique. De la même manière que l'on se souvient normalement, au moment de le prononcer, du discours que l'on avait préparé, on évite aussi, normalement, de se contredire. Mais si l'on a étudié (comme le fait, par exemple, le pseudo-Cicéron dans le Ad Herennium) la maniè ;re dont fonctionne ordinairement la remémoration, on peut alors suivre comme règles des principes préalablement abstraits de son fonctionnement ordinaire. Et, semblablement pour la Logique .
J'ai mentionné le fait que Tarski répète aujourd'hui ce qu'a dit Platon à propos de la vérité, le psychologue Johnson-Laird, quant à lui, répète Aristote à propos du syllogisme. John son-Laird a mis en évidence que si l'on se laisse porter par les enchaînements associatifs entre les mots, on génère des syllogismes sans le savoir, et sans se tromper, - tout comme Monsieur Jourdain faisait de la prose -, mais que si les mots "n'aident pas", alors, on est assuré de se tromper (1983). Si je dis que "Tous les lions mâles ont une crinière" et que "Certains animaux sont des lions", à peu près tout le monde en tirera de maniè re immédiate la conclusion que "Certains animaux ont une crinière". Mais si je dis avec Lewis Carroll que "Tous les chats comprennent le français" et que "Certains poulets sont des chats" (Carroll 1966 [1897]: 130), alors, très peu de gens en tireront du premier coup la conclusion logique que "Certains poulets comprennent le français". Et ceci parce que les mots n'auront pas aidé, parce que dans le monde réel aucun animal ne parle et qu'aucun poulet n'est un chat, et qu'il aura fallu pour découvrir la conclusion logique faire un calcul, appliquer systématiquement un algorithme. Or, et c'est très important, cet algorithme n'est pas appliqué lorsqu'on "trouve" intuitivement que "Certains animaux ont une crinière"; c'est le mouvement inverse qui a eu lieu, c'est Aristote, en observant ce qui se passe quand on associe librement et que l'on "reste sur les rails", qui a pu abstraire de l'ensemble des cas obs ervés par lui que tout se passe comme si l'on appliquait tel ou tel algorithme. Et que... si l'on a quelque hésitation, parce que le sens des mots n'indique pas de façon suffisamment claire comment se diriger, il vaut mieux app liquer l'algorithme, il est plus sûr d'appliquer l'algorithme.
La Logique énonce les règles qui permettent de maintenir constante sur une séquence d'enchaînements associatifs, l'adhésion d'un sujet parlant aux prémisses qu'il s'est choisies comme point de dépa rt. Une définition formulée de cette manière évite les difficultés liées au problème du vrai et du faux, de l'adequatio reis, de la coïncidence de ce qui est dit avec la chose dite , pour se concentrer sur la cohérence interne.
L'adhésion initiale étant donnée, la Logique définit les conditions sous lesquelles il est possible - comme engagé sur des rails - d'avancer mécaniquement sans craindre que le degré d'adhésion par ticulier qui s'attache aux prémisses se voie en aucune manière modifié à chacune des étapes successives. Exprimé ainsi, le principe de la Logique apparaît en effet purement formel, au sens d'indépenda nt du contenu. Or la pratique révèle que si on la prenait à la lettre, c'est-à-dire en tant que purement formelle, la Logique trahirait l'attente, en générant des anomalies tout à fait inacceptables. Deux f aits déjà signalés vont dans ce sens: le caractère inadmissible d'illustrations telles celles proposées par Lewis Carroll, et la constatation établie empiriquement par Johnson-Laird que de deux syllogismes du m&ec irc;me type, celui dont la signification des prémisses est la plus plausible est aussi celui qui est le plus aisément produit de manière exacte par un locuteur.
Ce qui produit l'illusion d'une Logique formelle, c'est la nature apparemment inattaquable de "règles" du type
Si tous les A sont B et que
Tous les B sont C
Alors, tous les A sont C.
Tout cela est bien vrai, mais à une seule condition que l'on finit par perdre de vue: que les A soient effectivement des B et que les B soient effectivement des C. Si A représente "ours" et B "animal", alors tous les A sont bien des B. Si A représente "chaton" et B "poulet", alors tous les A ne sont pas des B. Autrement dit, il convient de reformuler toute règle de Logique formelle sous la forme de probabilités conditionnelles: s'il existe des A et des B tels que tous les A sont des B et s'il existe des C tels que tous les B sont des C, alors il est exact de dire que tous les A sont des C.
Aristote lui-même n'a jamais été victime de la confusion possible: il n'a jamais pensé qu'il était possible d'énoncer une Logique formelle, indépendante des contenus. Comme l'observe fort bien Hame lin, "... même dans les Premiers Analytiques, l'unique ouvrage où Aristote ait fait quelque chose qui approche de la logique formelle, les considérations matérielles interviennent sans cesse: témoin, entre autres, le fait qu'Aristote s'occupe tout de suite des propositions modales" (Hamelin 1985 [1905]: 111).
Ceci veut dire qu'entre la Logique formelle et la "Logique du contenu" qu'énonce Hegel à la suite d'Aristote, il n'y a pas à choisir: la première est une construction mathématique qui modélise une partie des pr ocessus de pensée, tandis que la seconde rend compte des processus de pensée eux-mêmes. Et ceci veut dire aussi que la "Logique" telle que nous la concevons aujourd'hui se partage en fait entre l'association libre et le calcu l. L'association libre, là où les mots, les signifiants, nous entraînent d'eux-mêmes dans la bonne direction (comme avec les ours et les animaux), et le calcul là où ils nous conduira ient sur des voies de garage (comme avec les chats et les poulets de Lewis Carroll).
Et ici, il faut que j'insiste: il faut que l'on comprenne bien que ce ne sont pas certaines figures du syllogisme qui relèvent de l'association libre et certaines autres du calcul: ce sont les mêmes, mais selon les mots qui l es composent, l'articulation entre les enchaînements associatifs se fera automatiquement, par simple "effet d'entraînement" des mots entre eux, ou laborieusement, par calcul, pour reproduire de manière "dirigée" l'effet qui aurai t été obtenu si des mots avaient été présents pour guider l'association du sens.
En résumé, la Logique contemporaine définit des algorithmes qui permettent d'enchaîner des propositions "sans se tromper", indépendamment du sens des mots dont elles sont composées. Pour en arriver là, il a fallu réaliser deux choses: primo, restreindre considérablement le champ d'application de la Logique par rapport à celui de la pensée ordinaire, et secundo, fournir un modèle mathématique de ce champ d'applicat ion réduit. Je développe ces deux points et dans cet ordre.
Premièrement donc, on affirme que ne relèvent de la Logique que les questions qui permettent de construire une table de vérité. C'est-à-dire que l'on reprend la question à la manière d'Aristote: s achant que l'on est "sur les rails" définis par une proposition initiale dont on sait qu'elle est vraie - ce qui signifie sans plus qu'en tant que sujet parlant l'on y adhère pleinement - , comment faire pour enchaîner d'autres proposi tions de manière à minimiser le risque de "dérailler" au cours du voyage ? Et l'on entend se garantir, indépendamment du contenu, sans faire confiance à l'association libre. On voudrait pouvoir penser, je dirais "le s yeux fermés", sans prendre en considération en aucune manière le sens des mots, uniquement à partir de la forme de la phrase (au temps de la Scolastique on aurait dit, "en ne pensant qu'aux syncatégorèmes , en considérant les catégorèmes comme des variables indifférentes"; cf Jorion 1990, chapitre 20).
Or cela n'est possible que si l'on n'envisage que des phrases d'une forme très particulière, celles qui permettent justement de construire une table de vérité. Ces phrases, nous les avons rencontrées, ce sont c elles qui contiennent "tous les..." et "certains...", celles où les propositions sont reliées entre elles par "et" ou "ou" ou "si... alors...", etc. Une table de vérité se construit de la manière suivante, si je d is "A et B", "A et B" n'est vrai que si A et B sont vrais; dans tous les autres cas, "A et B" est faux. Si je dis "A ou B", il existe deux cas, ou bien le "ou" est dit inclusif et la phrase "A ou B" est vraie dès que l'un des deux A ou B est vrai, et fausse uniquement si tous les deux sont faux, ou bien, le "ou" est exclusif et alors la phrase n'est vraie que si l'un des deux, A ou B, est vrai et l'autre, faux, et "A ou B" est fausse non seulement si A et B sont tous les deux faux, ma is aussi si A et B sont tous les deux vrais. Etc.
Construire la Logique de cette manière permet effectivement de déterminer des algorithmes qui opéreront indépendamment du contenu des mots. Mais comme on vient de le voir, ces algorithmes ne pourront s'appliquer qu'à des phrases très particulières: le champ d'application d'une telle Logique ne vaut que pour une partie très restreinte de la pensée commune, un petit sous-ensemble des phrases que l'on prononce tous les jours. Pour toutes celle s qui ne se coulent pas dans ce moule, il n'existe pas d'alternative à l'association libre pour que le sens "reste sur ses rails".
Les Scolastiques ont essayé d'étendre le champ de la Logique comprise de cette manière, mais ils n'y sont pas parvenus: des tables de vérité ne peuvent être construites que dans des circonstances tr&egrav e;s spéciales, pour des phrases très "guindées", en général très éloignées de la pensée ordinaire. Hegel dit très exactement à propos de celles-ci, que ce sont les syncat&eacu te;gorèmes, les "et", les "ou", les "si alors", qui en constituent le véritable contenu: "(Les lois du syllogisme) peuvent bien être dépourvues de contenu empirique, elles sont elles-mêmes le contenu; - c'est une vraie science, la science du penser: cela n'est rien de formel, c'est un contenu. Le penser et son mouvement sont le contenu; - il n'y en a pas de plus intéressant, il est vrai pour soi." (Hegel 1972 [1829-30]: 604).
Ceci me permet de passer au deuxième point. Du fait que l'on peut établir pour cette partie restreinte de la pensée que couvre la Logique des tables de vérité indépendantes du contenu, on peut automatiquement e n proposer une modélisation algébrique. Cette modélisation, c'est George Boole qui en a offert en 1847 la première formulation, que l'on appelle depuis algèbre de Boole (il s'agit en fait d'un treillis orthomod ulaire distributif).
On a espéré à une époque pouvoir fonder l'intelligence artificielle sur la Logique formelle, c'est-à-dire sur une algèbre de Boole. Le langage de programmation Prolog a été cré&eacut e; à partir de cette hypothèse, et d'une certaine manière également le Lisp, qui repose sur le "calcul lambda" introduit par Alonzo Church pour définir une fonction mathématique dans un cadre de Logique pure. La r aison pour laquelle il n'est pas possible de fonder l'intelligence artificielle sur la Logique, devrait être maintenant évidente, l'historique que je viens de brosser de la manière dont elle fut construite fournit de lui-même l'e xplication: la Logique nous offre un modèle de la pensée dans la mesure où celle-ci est, disons, "calcul sur des mots", mais non dans la mesure où elle est association libre. Et quand je dis association libre, il faut en tendre l'expression au sens que je lui ai donné plus haut: comme association "pas si libre que ça" puisque c'est une dynamique d'affect qui lui est sous-jacente qui décide en réalité de l'endroit où elle se dirige.
La pensée présente donc un aspect de "calcul sur les mots" qui en rend compte en partie mais en partie seulement, et dont la Logique contemporaine fournit une modélisation. Mais l'on évoque aussi en intelligence artificielle une forme de calcul plus fondamentale: celle qu'opère la Mathématique sur des nombres ou sur des variables pouvant prendre des valeurs diverses (mais non quelconques). La Mathématique est au fondement même du fonctionnem ent de l'ordinateur. L'intelligence artificielle peut-elle puiser à cette source qu'est la nature essentiellement mathématique de l'ordinateur ?
Je viens d'évoquer la Mathématique à propos de l'algèbre de Boole qui constitue l'armature formelle de la Logique. Et c'est cette algèbre de Boole qui nous permettra de refermer la boucle. Mais pour cela, il faut alle r pas à pas, en distinguant dans la Mathématique, et de manière tout à fait classique, l'arithmétique, la géométrie et l'algèbre.
L'arithmétique a son fondement dans le monde physique où des objets distincts se présentent à nous en nombre variable, que l'on peut énumérer. L'arithmétique est le moyen de parler de ce qu'Aristote appe lle la catégorie de la quantité, au même titre que la substance, la qualité, le lieu, le temps, la relation, etc. . Elle constitue alors le déploiement, le "développement" comme dit Hegel à pro pos du syllogisme (Hegel 1981 [1816]: 153), des propriétés des nombres,
"4 = 2 + 2 ",
"25 = 5^2 ".
La géométrie aussi a son fondement dans le monde physique: elle décrit les propriétés des proportions remarquables que l'on observe sur les surfaces et dans les volumes, espaces respectivement à deux et à ; trois dimensions; et l'on peut étendre abstraitement la géométrie aux objets à n dimensions (qui sont alors imaginaires au sens de non-empiriques quand n est plus grand que trois).
L'algèbre joue pour les deux domaines de la Mathématique à fondement empirique que sont l'arithmétique et la géométrie, le rôle d'une "Logique", à savoir qu'elle répertorie l'ensemble des pr opriétés que l'on peut supposer à leurs objets à partir d'une déduction purement formelle, c'est-à-dire indépendamment des contenus que constituent les propriétés intrinsèques de s nombres ou les rapports harmoniques (harmonieux) ou non entre les grandeurs .
Pour comprendre alors le rapport qui existe entre la Mathématique et la pensée discursive, c'est-à-dire en tant qu'elle est constituée de mots, il faut examiner les trois grands types d'hypothèses qui ont ét&ea cute; proposés quant aux fondements de la Mathématique:
1° le fondement de la Mathématique est dans la déixis, dans le fait de montrer, de désigner: elle est fondée dans le monde sensible par le fait de compter, comme le fait l'arithmétique, et dans le fait d'appr&e acute;hender les surfaces et les volumes dans l'espace comme le fait la géométrie,
2° le fondement de la Mathématique est auto-référentiel: vide de contenu, il est dans sa seule cohérence interne, dans son absence de contradiction entre ses opérations successives,
3° le fondement de la Mathématique est logique, c'est-à-dire discursif, puisque la Logique est le système qui définit les conditions de cohérence interne du discours.
L'origine dans la déixis me semble seule défendable, elle est double comme je viens de le dire: dans la propriété intrinsèque des nombres discrets, sur laquelle s'appuie l'arithmétique, et dans la mesure de gra ndeurs continues, sur laquelle s'appuie la géométrie. C'est là la formulation même d'Aristote qui envisage le passage de l'analyse mécanique à l'analyse géométrique, puis à l'analyse arithm&eac ute;tique, comme étapes successives dans l'abstraction (cf La Métaphysique: M, 3 ).
Le fondement purement auto-référentiel de l'arithmétique est indéfendable: il vaut sans doute pour l'algèbre dans le rôle de Logique formelle de l'arithmétique ET de la géométrie, mai s à ce titre, l'algèbre les suppose toutes les deux, et suppose donc automatiquement leur propre fondement déictique, de désignation, dans le monde empirique.
Le fondement logique de la Mathématique, c'est-à-dire discursif, constitue une hypothèse intéressante, et à première vue, une alternative radicale aux deux premières. En réalité cette hypot hèse se ramène à la deuxième. On peut montrer pourquoi aisément, en se contentant d'ailleurs de répéter des choses dites auparavant.
La difficulté fondamentale que l'on rencontre à vouloir donner un fondement logique, c'est-à-dire dans la pensée discursive, à la Mathématique, résulte du fait que je viens de décrire, que seule u ne partie réduite de la cohérence discursive est susceptible d'une formalisation: celle qui débouche sur l'établissement de tables de vérité, c'est-à-dire, sur un calcul de maintien de la vé ;rité (adhésion du sujet parlant) indépendant du contenu des enchaînements associatifs.
Et comme les quelques éléments du discours susceptibles de formalisation sont homéomorphes à une algèbre particulière, appelée depuis "algèbre de Boole", une algèbre de Boole est donc ce que l'on parvient à traduire en Mathématique des principes de cohérence interne du discours, autrement dit, et dans le langage de la théorie des ensembles: la Logique formelle, modélisée sous forme d'alg&e grave;bre de Boole, est l'intersection de la pensée discursive et de la Mathématique.
Donner à la Mathématique un fondement logique au sens de Frege et de Russell & Whitehead consiste donc à lui donner comme fondement une de ses parties constituantes: une algèbre de Boole - dont le rapport avec le discours est qu'elle est susceptible d'en modéliser (indépendamment du contenu) une partie (minuscule): celle où interviennent un petit nombre de mots comme "et", "ou", "si... alors...", etc. Ce qui revient à dire que l'on fond e la Mathématique sur l'un de ses sous-ensembles qu'est l'algèbre de Boole. Le fondement "logique" de la Mathématique revient par conséquent à lui attribuer un fondement auto-référentiel.
La Mathématique, si on l'envisage comme cet ensemble constitué de l'arithmétique, de la géométrie et de l'algèbre, c'est donc ce qui existe au point de rencontre d'une appréhension spontanée du mo nde physique (arithmétique et géométrie) et d'une abstraction de la pensée discursive ordinaire (Logique). En considérant comme un pôle le phénomène sensoriel, la perception spontanée du monde physique, et comme l'autre pôle le phénomène linguistique, l'association libre, on découvre à leur point de rencontre le lieu où s'est constituée la Mathématique.
D'une part, l'homme a conçu une appréhension spontanée du monde physique qui consiste à compter les objets empiriques (l'arithmétique), à observer leurs propriétés remarquables en tant que surface s et que volumes (la géométrie). D'autre part, l'homme a généré une réflexion sur sa pensée spontanée. Et, à partir des deux, il a abstrait de manière formelle la Logique en tant que la pensée peut être envisagée comme un simple "calcul sur les mots". Ensuite, l'homme a décrit la Logique particulière qui règle l'arithmétique et la géométrie, - l'algèbre -, en tant qu'o n peut envisager les propriétés de ces deux branches de la Mathématique indépendamment de leur contenu - de la même manière exactement que la Logique "classique" avait été abstraite de l'observation d u comportement spontané de la pensée. C'est alors que l'on s'est aperçu qu'il était possible de modéliser l'armature formelle de la pensée qu'est la Logique "classique" elle-même, sous la forme d'un objet al gébrique spécifique: le treillis orthomodulaire que constitue l'algèbre de Boole.
Que peut-on en conclure par rapport à l'informatique et au rôle qu'elle peut jouer par rapport aux neurosciences et à la psychanalyse dans l'élaboration de l'intelligence artificielle ? J'ai dit que l'informatique est math ématico-logique, et je viens de montrer quelle est la nature du lien qui unit Mathématique et Logique. J'ai montré aussi le rôle que joue la Logique par rapport à la pensée ordinaire: la Logique permet de formu ler de manière algorithmique cette partie de la pensée qui relève d'un calcul, c'est-à-dire, la partie de la pensée qui est proprement finalisée parce qu'elle résulte de la réalisation d'une intentio n (qui n'est rien d'autre, ni rien de plus, qu'un gradient).
Mais j'ai montré aussi que le soubassement même de la pensée, sa partie primitive et première, n'est pas de l'ordre d'un calcul mais d'une association libre guidée par une dynamique d'affect. Pour cette partie l à, la Logique formelle ne nous est d'aucun secours. De cette partie là, ce sont les neurosciences et la psychanalyse qui sont à même de nous en proposer le modèle.
La Mathématique est le langage qui nous permet de traduire les enseignements des neurosciences et de la psychanalyse de telle sorte que nous puissions les implémenter sur l'ordinateur. Rien ne s'y oppose: le moyen d'y parvenir est de cons truire dans un premier temps un réseau isomorphe à un réseau neuronal naturel, c'est-à-dire un réseau différent des réseaux neuronaux formels de l'intelligence artificielle "classique", puisqu'il s'a git d'un réseau structuré au sens où sa topologie est pertinente à son fonctionnement. Il convient ensuite, dans un deuxième temps, de simuler sur ce réseau les effets phénoménaux d'une dynamique d'affect.
La Mathématique est assez puissante pour nous offrir les outils qui sont nécessaires à cette tâche. L'informatique est assez souple, assez "plastique", pour nous permettre leur implémentation. La seule chose dont nous puissions être certains, c'est qu'une algèbre de Boole se révélerait insuffisante et inadéquate.
Les savoirs des neurosciences et de la psychanalyse ne disposent peut-être pas encore d'une objectivité suffisante pour nous indiquer de manière absolument certaine et complète comment aller de l'avant. Mais c'est peut -être ici que le Japon nous a enseigné une leçon: l'ordinateur nous offre un champ idéal d'expérimentation, poussons la simulation de notre savoir relatif à la pensée aussi loin qu'il nous est possible. L'es sai et l'erreur nous signaleront sans défaillir si nous nous avançons dans la bonne direction, si nous sommes "chaud" ou si nous sommes "froid", comme s'expriment les enfants. Les effets en retour de la simulation nous fourniront des indicat ions précieuses sur la manière de reformuler nos hypothèses, dans les neurosciences comme en psychanalyse. C'est ainsi que doit opérer l'intelligence artificielle.
1) Graham préfère envisager les choses en termes de vitesse relative: "Nous savons maintenant que la stagnation supposée de la Chine et du reste de l'Asie est illusoire, les changements ne furent lents chez eux que par rapport à l'accélération de l'évo lution en Europe à partir de la Renaissance..." (Graham 1973: 46).
2) Comme l'exprime Austin: "Je suppose que 'causer' est une notion empruntée à l'expérience humaine des actions les plus simples. Pour l'homme primitif tout événement devait être construit dans les termes de ce modèle: chaque événement a une cause, c'e
st-à-dire, chaque événement est une action faite par quelqu'un - sinon par un homme, du moins par un quasi-homme, un esprit. Lorsqu'on comprit plus tard que des événements qui ne sont pas des actions n'en sont effectivement pas, on persista cependant à di
re qu'ils doivent être 'causés', et le mot nous piégea: nous nous efforçons de lui attribuer une nouvelle signification non-anthropomorphique; et pourtant, constamment, dans l'investigation que nous menons afin de l'analyser, nous ramenons à la surface l'
ancien modèle et nous en réincorporons les principes." (Austin 1961 [1957]: 202-203).
L'analyse d'Austin s'est vu corroborée par les études récentes relatives à la conception de la causalité chez les Stoïciens. Pour ceux-ci en effet, comme le note Frede, "... pour tout ce qui demande à être expliqué, il existe quelque chose qui joue à son
égard un rôle analogue à celui que joue la personne responsable à l'égard de ce qui est arrivé de fâcheux." (Frede 1989 [1980]: 491) (voir aussi Fauconnet 1928; Hart & Honoré 1956).
3) Aristote: " ... Et c'est pourquoi il n'y a rien d'étonnant que l'art (de la Rhétorique) ait atteint une ampleur considérable. Au contraire, en ce qui concerne la présente étude (la Logique), on ne peut pas dire qu'une partie en ait été précédemment élaborée, et qu'une autre ne l'ait point été: en réalité rien n'existait du tout." (Aristote, Réfutations sophistiques, 183b, 33-34).
4) Il faut noter que les auteurs contemporains qui évoquent cette distinction opérée par Aristote s'expriment généralement différemment: au lieu de dire que la dialectique part de principes "vraisemblables", ils disent de principes "probables", mais l'expression est désormais dangereuse du fait qu'à partir du XVIè siècle l'on s'est mis à mesurer la probabilité, on lui a accolé une métrique. Ce serait se méprendre tout à fait sur l'objectif d'Aristote que d'imaginer qu'il visait avec l'analytique un embryon d'algèbre de Boole, et avec la dialectique un embryon de théorie des probabilités. Ce qu'il oppose, ce sont deux méthodes, l'une pour penser juste dans le contexte de l'épistémè, de la science, et l'autre pour penser juste dans le domaine de la doxa, de l'opinion commune. Kerferd avance un argument philologique qui va dans le même sens en soutenant le choix de vraisemblable contre celui de probable: "... to eikos, terme que l'on traduit souvent par "le probable", mais qui en grec, signifie également "semblable" ou "qui ressemble à quelque chose" (en l'occurrence à la vérité)" (Kerferd 1986: 22-23).
5) Aristote: "Dire de l'Etre qu'il n'est pas, ou du Non-Etre qu'il est, c'est le faux; dire de l'Etre qu'il est , et du Non-Etre qu'il n'est pas, c'est le vrai; de sorte que celui qui dit d'un être qu'il est ou qu'il n'est pas, dira ce qui est vrai ou ce qui est faux" (Métaphysique, Gamma, 7, 25-28).
6) Platon:
"L'Eléate. - Or, celui des deux discours qui est vrai dit, te concernant, ce qui est, comme il est.
Théétète. - Je ne peux le contredire.
L'Eléate. - Et, évidemment, celui qui est faux dit ce qui est, autrement qu'il n'est ?
Théétète. - Oui."
(Platon, Le Sophiste, 262 c - 263 b, traduction Robin modifiée).
7) Dans les termes de Kojève: "Si le Discours théorique veut maintenir la Vérité exclusive, il doit trouver un 'critère' autre que celui de la Vérité axiomatique. Il le trouve en se trans-formant en Discours dogmatique. Le discours axiomatique admettait un critère immanent au discours, en se contentant de l'absence de contradiction 'interne'. Mais le discours sceptique a montré que cette absence n'excluait pas la présence d'une contradiction 'externe': deux discours non contradictoires ou 'cohérents' pouvaient (et devaient) se contre-dire mutuellement. Le Discours dogmatique admet donc que le critère de la Vérité exclusive doit être transcendant par rapport au Discours en tant que tel. D'où le critère de l'adéquation entre le Discours et la Réalité, c'est-à-dire (le sens de) ce que l'on dit et (l'essence de) ce dont on parle: la Vérité est un discours 'adéquat' et elle exclut l'Erreur en tant que discours 'inadéquat'." (Kojève 1968: 247)
8) Hegel: "En réalité, on ne peut pas triompher de quelqu'un qui veut absolument être sceptique, en d'autres termes, il ne peut être amené à la philosophie positive, - pas plus qu'on ne peut faire se tenir debout un homme paralysé de tous ses membres." (Hegel 1975 [1829-1830]: 760).
9) Aristote: "... (les opinions) qui s'imposent à tout le monde, à la majorité ou aux sages - c'est-à-dire à tous les sages ou à leur majorité ou à ceux d'entre eux qui sont les plus fameux et les plus distingués" (Aristote, Topiques I, i). Aristote se verrait obligé de reconnaître un élément consensuel aussi bien à la racine de la démonstration analytique qu'à celle du développement dialectique: leurs fondements premiers, il les appelle arxé (Aristote, Seconds Analytiques I, iii, 24) et Thomas d'Aquin les appelle dignitates lorsqu'il s'agit des principes premiers de toute science, et positiones ou elementa lorsqu'il s'agit des principes d'une science particulière (cf. Byrne 1968: 172).
10) Cette notion du "certain" fondée sur le consensus commun demeure bien entendu le talon d'Achille de la doctrine. Les Sceptiques se feront une joie d'en souligner les ambiguïtés. Diogène Laërce: "En effet, disent (les Sceptiques), toute démonstration est faite ou d'après des choses démontrées ou d'après des choses qui ne le sont pas. Si c'est des choses démontrées, ces choses mêmes auront besoin d'une démonstration, et ainsi de suite jusqu'à l'infini. Et si c'est d'après des choses non démontrées (que toutes, quelques-unes ou une seule soit dans ce cas), l'ensemble n'est pas démontré" (Laërce 1965: 201-202).
11) On peut toujours relire l'exemple amusant proposé par Searle: garer sa voiture, comme le font ses enfants, en respectant une règle relative à l'alignement des roues du véhicule, ou comme il le fait lui-même, sans application de règle, en évitant simplement d'emboutir les voitures déjà garées (Searle 1984: 47).
12) Dans Principes des systèmes intelligents, j'ai tiré les conséquences de cette observation: le logiciel ANELLA fait apparaître les relations logiques par simple enchaînement associatif, sans qu'aucune règle de type logique ne soit inscrite dans la programmation. Ceci n'empêche pas le système de produire des enchaînements de type syllogistique de longueur potentiellement infinie.
13) Une manière de concevoir le développement de la science moderne consiste à l'envisager comme la colonisation des autres catégories par celle de la quantité. Qu'on envisage la Science comme traduction des catégories de la qualité, du temps et du lieu dans les termes de la catégorie de la quantité et l'on aura caractérisé ainsi de manière économe la tâche à laquelle se sont consacrés les Kepler, Huygens et Galilée, ainsi que l'ensemble de leurs successeurs. La colonisation par la catégorie de la quantité consiste à remplacer dans chacune des catégories de la qualité, du temps et du lieu, le nombre fini des cas a priori possibles et qui opèrent une partition de leur univers (cas irréductibles les uns aux autres) par un nombre quasiment infini de cas envisageables mais tous mesurables, en définissant pour chacune de ces catégories un espace particulier et en pourvoyant celui-ci d'une métrique. Ainsi le chaud et le froid se trouve remplacé par la température mesurable, les couleurs par la longueur d'onde, etc.
14) Dans les termes de Kojève: "... la formule mathématique ('algorithme'), (...) n'a aucun sens du tout et est donc non pas un discours, même au sens large, mais une 'variété' du Silence (...). Les formules mathématiques sont donc non pas discursives, mais symboliques. Pour 'mathématiser' un discours quelconque, il faut donc lui enlever toute espèce de sens..." (Kojève 1968: 168).
15) Ainsi, comme le dit Duhem, paraphrasant Aristote: "Les Mathématiques considèrent les mêmes êtres que la Physique; mais, en ces êtres, elle suppriment tout ce qui est sensible, la gravité ou la légèreté, la dureté ou la mollesse, le chaud ou le froid, pour n'y plus considérer que la grandeur et la continuité; par cette abstraction, elles constituent l'objet propre de leur spéculation." (Duhem 1965: 138).
Aristote
1936 De la mémoire et de la remémoration, in Aristotle VIII, trad. W.S.Hett, London: Heinemann
1960 Topiques, Seconds Analytiques in Aristotle II, trad. H. Tredennick & E.S. Forster, London: Heinemann
1977 Les réfutations sophistiques, trad. Tricot, J., Paris: Vrin
1981 La Métaphysique, trad. Tricot, J., Paris: Vrin
Austin, J.L.
1961 Philosophical Papers, Oxford: Oxford University Press
Byrne, E.F.
1968 Probability and Opinion, A Study in the Medieval Presuppositions of post-medieval theories of Probability, The Hague: Martinus Nijhoff
Carroll, L.
1966 [1897] Logique sans peine, Paris: Hermann
Cassin, B.
1986 "Du faux ou du mensonge à la fiction", B. Cassin (ed.) Le plaisir de parler, Paris: Minuit, 3-29
pseudo-Cicéron,
1954 Ad Herennium, trad. H. Caplan, London: Heinemann
Danchin, A.
1987 "Les bases cérébrales du langage", Le débat, 47: 158-171
Derrida,J.,
1972 La dissémination, Paris: Minuit
Duhem, P.
1985 [1902], Le mixte et la combinaison chimique, Paris: Fayard
1965 Le système du Monde, Tome 1, Paris: Hermann
Dumont, J.-P.
1991 Les écoles présocratiques, Folio, Paris: Gallimard
Fauconnet, P.
1928 La responsabilité, Etude de sociologie, Paris : Alcan
Frede, M.
1980 "The Original Notion of Cause", in Schofield, M., Burnyeat, M. & Barnes, J. (eds.), Doubt and Dogmatism - Studies in Hellenistic Epistemology, Oxford: Oxford University Press, 217-249, trad. fr. Revue de Métaphysique et de Mo
rale, 4, 1989, 483-511
Freud, S.
1967 [1900] L'interprétation des rêves, Paris: PUF
Graham, A.C.
1973 "China, Europe, and the Origins of Modern Science: Needham's The Great Titration", in S. Nakayama & N. Sivin, Chinese Science, Explorations of an Ancient Tradition, Cambridge (Mass.): M.I.T. Press, 45-69
Hamelin, O.
1985 [1905] Le système d'Aristote, Paris: Vrin
Hart, H.L.A. & Honoré, A.M.
1956 "Causation in the Law", The Law Quarterly Review, Vol. 72, 58-90, 260-281, 398-417
Hegel, G.W.F.
1981 [1816] Science de la logique, Deuxième Tome: La logique subjective ou doctrine du concept, trad. Labarrière et Jarczyk, Paris: Aubier-Montaigne
1972 [1829-30], Leçons sur l'histoire de la philosophie, 3, trad. P. Garniron, Paris: Vrin
1975 [1829-30], Leçons sur l'histoire de la philosophie, 4, trad. P. Garniron, Paris: Vrin
Johnson-Laird, P.N.
1983 Mental Models, Cambridge: Cambridge University Press
Jorion, P.
1989 "Intelligence artificielle et mentalité primitive, actualité de quelques concepts lévy-bruhliens", Revue philosophique, 4, 515-541
Kerferd, G.B.
1986 "Le sophiste vu par Platon: un philosophe imparfait", in B. Cassin (ed.), Positions de la Sophistique: Paris: Vrin, 13-25
De Kleer, J. & Brown, J.S.
1984 "A Qualitative Physics Based on Confluences", in Bobrow, D.G. (ed.), Qualitative Reasoning about Physical Systems, Amsterdam: North-Holland, 7-83
Kojève, A.
1968 Essai d'une histoire raisonnée de la philosophie païenne, Tome I: Les Présocratiques, Paris: Gallimard
Kuipers, B.
1984 "Commonsense Reasoning about Causality: Deriving Behavior from Structure", in Bobrow, D.G. (ed.), Qualitative Reasoning about Physical Systems, Amsterdam: North-Holland, 169-203
Laërce, Diogène
1965 Vie, Doctrines et Sentences des Philosophes Illustres, 2, Paris: Garnier
MacGregor, R.J.
1987 Neural and Brain Modeling, San Diego: Academic Press
Platon
1950 Oeuvres complètes, Tome II, La Pléiade, Paris: Gallimard
Searle, J.
1984 Minds, Brains and Science, The 1984 Reith Lectures, BBC: London
Sextus Empiricus
1936 Sextus Empiricus, trad. R.G. Bury, London: Heinemann
Tarski, A.
1956 Logic, Semantics, Metamathematics, Oxford: Clarendon Press