DIEGO MARCONI |
||||
|
33. Sémantique cognitive. |
|
||
|
||||
Le paradigme dominant ne s'intéresse pas à la compréhension du langage conçue comme processus mental: son étude est considérée comme étant du ressort de la psychologie et non de la sémantique. Le but de la sémantique, pour le paradigme dominant, c'est de déterminer systématiquement les conditions de vérité des énoncés d'un langage, indépendamment de la manière dont elles sont déterminées elles-mêmes par tel ou tel locuteur, et finalement tout aussi indépendamment du fait qu'elles lui soient connues, ou même accessibles (la position de Putnam (1975) peut être considérée comme un cas extrême de cette indifférence au problème de l'accessibilité des conditions de vérité; voir supra, § 32). On a vu (§ 23) que la position de Dummett est, à cet égard, différente: par définition, les significations doivent être accessibles à un locuteur compétent, et la théorie de la signification doit être une théorie de la compréhension. Toutefois, Dummett continue de concevoir (frégéennement) les significations comme univoquement déterminées de la même manière pour tous les locuteurs, et il est très éloigné tout comme Frege et Wittgenstein de préoccupations de type psychologico-cognitif. Son problème c'est d'identifier des significations «absolues» de manière telle qu'elles soient en principe accessibles à un esprit fini. En revanche, au cours des années soixante-dix on avança différentes critiques concernant le paradigme dominant, qui vont dans la direction d'une révision draconienne de la théorie sémantique dans un sens cognitif (entendant par là, pour le moment, que la sémantique devait accorder une place aux notions d'«élaboration mentale» et de «représentation mentale» des significations). Les critiques les plus importantes concernent les attitudes propositionnelles et la notion de conditions de vérité. On a vu (§§ 7, 15) comment les contextes d'attitude propositionnelle ont représenté une limite à l'adéquation descriptive des sémantiques élaborées dans le cadre du paradigme dominant. Il s'est avéré très difficile, sinon impossible d'identifier les valeurs sémantiques des expressions du langage de manière telle que les contextes de la forme X croit que p', X sait que p', etc. s'avèrent compositionnels. Il semble que, étant donné deux énoncés quelconques: (25) Georges croit que (sait que, se demande si, etc.) p (26) Georges croit que (sait que, se demande si, etc.) q où q coïncide avec p hormis que du fait où l'on a p à la place de q (p et q étant deux expressions de même valeur sémantique), il n'est jamais possible d'inférer (26) de (25). Pour donner un autre exemple de cette ancienne difficulté, on peut considérer comme vrai (27) Les Babyloniens ne savaient pas que Hespéros est Phosphoros; mais ce serait faire tort aux Babyloniens de penser qu'il était également vrai que (28) Les Babyloniens ne savaient pas que Hespéros est Hespéros. Et pourtant, pour la théorie de Kripke, Hespéros' et Phosphoros' ont la même valeur sémantique (ayant la même référence). Naturellement, les choses changent si, par exemple, nous ajoutons (29) à (25): (29) Georges sait que a et b sont synonymes. L'inférence de (26) est alors pleinement justifiée (sur cette discussion voir Partee, 1979). Il semble donc qu'il y ait un lien entre l'incapacité du paradigme dominant à fournir des conditions de vérité correctes pour des énoncés comme (25) et (26) et son indifférence aux bagages cognitifs de sujets auxquels est attribuée une compétence linguistique. Pour le paradigme, les significations que Georges (ou n'importe quelle autre personne) attribue à p et à q, les relations inférentielles que Georges reconnaît, etc. ne peuvent entrer dans la détermination des valeurs sémantiques de (25) et (26) et de leurs constituants. Mais le traitement des attitudes propositionnelles semble nécessiter cela précisément. L'autre critique importante concerne la notion de conditions de vérité. Dans les sémantiques du paradigme dominant, les conditions de vérité des énoncés complexes sont en dernière analyse reconduites aux valeurs sémantiques (intensions, par exemple) des constituants atomiques c'est-à-dire des mots. Les intensions des mots, par ailleurs, sont déterminées de manière simplement virtuelle: on suppose qu'il «y ait» une fonction qui assigne à chaque mot son intension, mais cette fonction n'est nullement décrite. On en spécifie simplement le type logique: nous savons, par exemple, que l'intension de chat' est une fonction de mondes possibles à ensembles, mais nous ne savons pas comment la distinguer de l'intension de livre', qui est également une fonction de mondes possibles à ensembles. Comme l'a observé Johnson-Laird (1983: 172), «on aimerait bien savoir quelle information est contenue dans le corps' de la fonction qui correspond à l'intension d'un prédicat, c'est-à-dire qu'est-ce qui doit être calculé pour spécifier les individus qui possèdent la propriété [exprimée par le prédicat]»; mais la sémantique ne répond pas à cette question. L'absence de spécifications des valeurs des constituants atomiques a pour conséquence que les conditions de vérité des énoncés s'avèrent à leur tour déterminées de manière seulement virtuelle. La sémantique dominante, fondée sur le concept de conditions de vérité, n'est pas en mesure de spécifier véritablement les conditions de vérité de la plus grande partie des énoncés: dans un certain sens, elle ne sait pas faire la distinction entre la signification de Le chat est sur le tapis' et celle de Le livre est sur la table'. On peut penser avec Partee, 1981 que cette difficulté se résout simplement en ajoutant à la théorie une sémantique lexicale, qui aurait pour tâche de spécifier les valeurs sémantiques des constituants atomiques; tandis que le traitement de la sémantique structurelle, c'est-à-dire de la manière dont les valeurs sémantiques des expressions complexes dépendent de celles de leurs constituants, resterait l'apanage des méthodes traditionnelles. Mais la construction de cette partie lexicale de la sémantique ne semble pas banale. Il faut noter que l'on ne peut penser résoudre le problème simplement en ajoutant à une sémantique structurelle un ensemble de postulats de signification (§ 16), parce que comme l'a observé également B. Partee (1981: 79) les postulats de signification ne sont nullement suffisants pour déterminer de manière univoque la référence entendue des expressions atomiques d'un langage. Si ce que l'on entend reconstruire c'est la signification que les énoncés atomiques, et les mots qui en sont les constituants, ont pour un locuteur compétent, il semble nécessaire d'invoquer le rapport entre langage et monde en tant que médiatisé par la perception et par l'action: un concept qui est étranger au paradigme dominant, et qui va dans la direction d'une analyse de la compréhension comme processus cognitif. Le problème de la signification lexicale a été mis en évidence par la recherche en Intelligence Artificielle. À partir des années soixante-dix, on a construit de nombreux systèmes d'élaboration automatique du langage naturel (pour un panorama mis à jour, voir Gazdar, 1993): des systèmes qui répondent à des questions formulées dans une langue naturelle, qui résument des textes, qui traduisent d'une langue dans une autre, etc. Il est clair que le problème d'une représentation explicite de la signification des mots ne peut être mis entre parenthèses quand il s'agit de simuler une compétence sémantique complète: un système artificiel doit savoir inférer (par exemple) Il y a quelques pachydermes à la maison' de J'ai vu quatre éléphants dans le salon', et cela nécessite qu'il connaisse de quelque manière la signification, ou des aspects de la signification de éléphant', quatre', salon', voir'. La recherche en Intelligence Artificielle a produit différentes méthodes de représentation de la signification des mots: les plus répandues sont les réseaux sémantiques et les frames. Dans les versions les plus développées, les réseaux sémantiques sont équivalents à des systèmes de postulats de signification commandés par une logique de premier ordre. Les frames (Minsky, 1975) sont au contraire une forme de représentation non reconductible à celles traditionnelles. Voici un exemple de frame possible associé au mot tigre':
Frame: tigre propriété valeur défaut c'est un félin poids < 180 kg 120 kg taille < 106 cm 80 cm longueur < 250 cm 180 cm couleur fauve à rayures noires fauve à rayures noires blanc noir fauve habitat bords des fleuves jungle lieux humides mange antilope antilope bétail cerf sanglier singe homme
si nécessaire demande (où il vit) détermine (artificiel)
Dans un frame, les valeurs sont des valeurs possibles qu'une propriété peut assumer; la valeur par défaut est la valeur qui est attribuée automatiquement à une propriété en absence d'informations plus précises. Les valeurs possibles représentent la possibilité de variation des propriétés des tigres possibles; les valeurs par défaut représentent les propriétés du tigre typique. Un système de compréhension qui utilise des frames, devant interpréter un énoncé qui parle de tigres, a) contrôlera que les propriétés que l'énoncé attribue au tigre dont on parle rentrent dans les valeurs possibles; b) attribuera la valeur par défaut lorsque l'énoncé n'attribue pas certaines propriétés; c) construira, de cette manière, le frame instancié relatif au tigre du discours (dans lequel à un certain individu x, tigre1, seront attribuées les propriétés explicitement attribuées par l'énoncé, plus les propriétés par défaut); d) si nécessaire, il activera les procédures si nécessaire (dites démons). Par exemple, si l'énoncé parle d'un tigre de deux tonnes, il essaiera d'établir en fonction du contexte s'il ne s'agit pas par hasard d'un tigre artificiel, en pierre ou en marbre par exemple; e) il intégrera le frame instancié dans une représentation de l'énoncé dans lequel entreront d'autres frames instanciés (correspondant aux autres individus dont parle le discours, et aux situations de relation dans lesquels ces individus peuvent se trouver entre eux). Les frames en effet ne concernent pas seulement des classes d'individus, mais également des classes de situations, d'activités, etc. Un frame ne se réduit pas à un ensemble traditionnel de postulats de signification, par la présence des valeurs par défaut. En effet, ceux-ci ne spécifient pas des relations rigides entre les mots (Si x est célibataire, alors x n'est pas marié'), mais des relations qui valent en principe et en absence d'informations contraires. Un système à frames peut être interprété comme un ensemble de postulats de signification, à condition que ceci soit gouverné par une logique non classique (logique non monotone) qui règle les inférences par défaut. L'Intelligence Artificielle (I.A.) a eu une influence considérable sur la philosophie du langage au cours des dix dernières années, mais n'a pas produit véritablement de théories sémantiques dignes de ce nom: même l'idée de sémantique procédurale, répandue en I.A. (Marconi, 1992: 452-457), est plus une indication de recherche qu'une théorie au sens propre. Pourtant certains chercheurs travaillant aux frontières entres la linguistique, la psychologie cognitive, la philosophie et l'I.A. ont élaboré des théories ou des ébauches de théorie: il faut citer, à ce titre, les noms de Johnson-Laird (1983), Fauconnier (1985), Jackendoff (1983, 1987), Sperber et Wilson (1986), Lakoff (1987). Ces propositions, bien que très différentes, tendent à partager certaines idées de fond. En premier lieu, la sémantique doit être une théorie de la compréhension, et la compréhension est un processus cognitif, d'élaboration du langage par un esprit. En second lieu, le processus de compréhension implique la construction de représentations mentales. La nature précise de ces représentations (sans parler de leur réalisation neurocérébrale) est constamment sous-déterminée par les données (psychologiques ou neuro-physiologiques): elles peuvent être conçues comme des formules d'un «langage de la pensée» (Fodor, 1975), un code mental qui partage de nombreuses caractéristiques des langages verbaux, ou au contraire (Johnson-Laird, Fauconnier) comme des modèles de l'état de choses décrit par l'énoncé qui tour à tour est compris, c'est-à-dire comme ensembles d'éléments en relation. Pour Johnson-Laird (1983: 381 sq.), par exemple, un modèle mental possible du texte: «A est à la droite de B; C est devant B ; D est à gauche de C» est la structure B A D C que l'on suppose de quelque manière réalisé dans l'esprit. Il faut noter que la structure mentale en question ne doit pas être confondue avec sa représentation symbolique, telle qu'elle est transcrite sur cette page: les représentations mentales et c'est un des autres points largement partagé par les sémanticiens cognitivistes ne sont pas des transcriptions symboliques, qui auraient à leur tour besoin d'être interprétées, mais sont elles-mêmes des interprétations : la construction d'une représentation, c'est la compréhension d'un énoncé. Les éléments d'une représentation ne sont pas des symboles en soi privés de signification, mais «des primitifs conceptuels innés, qui sont au fondement de notre capacité d'interpréter le monde, d'agir sur lui, etc. et sont scellés par rapport à l'analyse et à la description» (Marconi, 1992: 463). Enfin, les représentations mentales ne sont pas (comme les sens de Frege) des entités objectives, éventuellement accessibles aux esprits des locuteurs, mais sont (le résultat) des constructions qui se développent dans l'esprit de chaque locuteur; et en ce sens, elles sont subjectives. La possibilité de la communication ne se fonde pas comme dans le paradigme classique sur l'objectivité des significations, mais sur la ressemblance des procédures d'élaboration du langage (Fauconnier, 1985: 2; Jackendoff, 1983: 31; Johnson-Laird, 1986: 110): en dernière analyse, sur la ressemblance des esprits et sur le partage d'un même monde. |
|
|