id
stringlengths
18
25
text
stringlengths
3.75k
78.6k
reference-summary
stringlengths
202
4.45k
source
stringlengths
33
79
termith-501-communication
Dans le domaine documentaire, le support papier, avec l'avènement du web et des nouvelles technologies de l'information et de la communication (NTIC), est aujourd'hui suppléé par le support numérique. Il est légitime de se pencher sur les possibilités qu'offre ce récent support pour la rédaction et la lecture de fonds documentaires. A ce propos, nous nous intéressons aux dossiers. Un dossier est un ensemble de documents hétérogènes, cohérents, accessibles à différents utilisateurs, et susceptibles d'évoluer dans le temps. Les documents d'un même dossier ont chacun un rôle particulier et figurent ensemble pour rendre compte d'un objectif global. Des relations implicites existent donc entre les documents d'un même dossier pour signifier le rôle que chacun d'eux joue : rôle vis-à-vis du but global du dossier et rôle vis-à-vis des autres documents du dossier. Nous nous intéressons à la modélisation de dossiers numériques incluant une description explicite de ces relations. Nous souhaitons faire de ces relations un moyen d'approcher la sémantique des documents constituant un dossier et permettre : de rendre la consultation d'un dossier numérique plus confortable que celle de son homologue papier, en soutenant le lecteur pour qu'il accède, en fonction de sa tâche de lecture, aux informations pertinentes; de gérer l'évolution des documents constituant les dossiers, en rendant possible le versionnement des documents et le traitement automatique de ses répercussions; de favoriser la réutilisation des documents composants de dossiers, pour créer de nouveaux composants et de nouveaux dossiers. Nous proposons un processus de modélisation et d'exploitation sémantiques de documents et de dossier numériques par l'usage de trois outils conceptuels : l'approche ontologique, pour modéliser les documents des dossiers numériques en incluant une description de toutes les données s'y rapportant; les relations sémantiques, pour : le support orienté objet, pour : Dans cet article, nous présentons l'approche ontologique : en quoi elle consiste, des exemples d'ontologies normalisées pour décrire des documents, et en quoi l'approche nous intéresse dans nos travaux. Nous montrons ensuite les différents rôles que nous souhaitons accorder aux relations sémantiques, comment nous représentons et employons ce concept, puis nous présentons les différents acteurs qui participent à la conception et à l'exploitation de documents. Nous concluons en dressant un bilan positionnant notre travail vis-à-vis de ceux existants dans le domaine et mettant en évidence les perspectives de continuation. Le dictionnaire Larousse définit une ontologie comme « l'étude de l' être en tant qu' être, de l' être en soi ». En fonction des disciplines, cette définition est nuancée ou précisée. D'un point de vue informatique, beaucoup de définitions ont été proposées (Bourdeau et al., 1999; Fox et al., 1995; Gruber, 1992; Gruber, 1993); la plus souvent citée est sans doute celle de (Gruber, 1993), qui désigne une ontologie comme une spécification explicite d'une conceptualisation. Ainsi, l'approche ontologique, aujourd'hui couramment utilisée en ingénierie des connaissances, consiste à définir des notions et des relations utiles pour modéliser un domaine. La donnée d'informations relatives aux documents est aujourd'hui d'actualité pour la recherche efficace de ressources sur un réseau comme l'internet. Il s'avère nécessaire d'employer un langage commun de description pour donner une meilleure portée d'utilisation aux documents décrits. Certaines ontologies, constituant des « métadonnées » c'est-à-dire des données sur les données, tendent déjà à devenir des standards; parmi elles on peut citer le Dublin Core 1, constitué de quinze éléments de description de ressources quelconques en ligne, ou encore l'IEEE LOM 2, qui reprend quelques primitives de description proches de celle du Dublin Core mais qui est ciblé vers la description explicite de documents pédagogiques. La figure 1 présente succinctement les catégories de descripteurs qui composent la norme IEEE LOM. Nous utilisons l'approche ontologique pour définir l'ensemble des informations relatives aux documents prenant part dans les dossiers numériques : informations sur le type des documents, sur leurs auteurs, sur leurs conditions d'usage, sur l'intérêt de leur consultation, sur le contexte dans lequel ils peuvent être employés, sur la sémantique des rapports qu'ils entretiennent avec d'autres documents, etc. Bien que les catégories de descripteurs que proposent les ontologies normalisées de documents semblent exhaustives, nous pensons qu'il est possible d'enrichir leur expressivité sémantique. Nous nous intéressons particulièrement à leur rubrique « Relation » : celle -ci permet de définir un rapport entre documents par l'intermédiaire de relations orientées comme « FaitPartieDe », « EstVersionDe », « EstFormatDe », « Référence », « EstBaséSur », « Nécessite », par exemple. Cependant, seuls les intitulés de ces relations apportent une sémantique sur le type de rapport déclaré entre des documents. Nous proposons de modéliser les documents d'un dossier d'un type particulier à l'aide de l'ontologie normalisée appropriée pour laquelle nous accordons une sémantique explicite aux relations que celle -ci met à disposition. Nous proposons également de nouvelles relations pour traduire le sens des rapports entre les documents d'un dossier dans des contextes particuliers, et ce en précisant la signification des relations proposées au sein de l'ontologie normalisée empruntée, ainsi que de nouvelles relations utiles pour versionner les documents et en produire de nouveaux par réutilisation de ceux existants. L'approche que nous adoptons consiste à réifier le concept de relation sémantique : nous proposons un modèle générique de relation sémantique incluant son état et son comportement, exprimés en tant que propriétés. Il détermine un langage commun pour décrire n'importe quelle relation : celles proposées dans une ontologie normalisée de documents, des spécialisations de celles -ci, ou encore d'autres que les ontologies normalisées ne prévoient pas (par exemple des relations comme « relation d'héritage », « relation de réutilisation », etc.). Les primitives ontologiques du modèle que nous proposons sont les suivantes : une relation sémantique est un ensemble de propriétés; une propriété est soit une propriété-attribut, soit une propriété-opération; une propriété-attribut est un couple < attribut, domaine de valeurs > ou une combinaison (à l'aide des opérateurs et, ou, non) de plusieurs propriétés-attributs; une propriété-opération est un couple < opération, traitement >. Une propriété est l'essence même d'une relation sémantique. Les propriétés de type propriété-attribut décrivent l'état d'une relation sémantique. Nous identifions dans quelques travaux de référence sur les relations sémantiques (Chaffin et al., 1987; Oussalah et al., 1997; Storey, 1993) celles partagées par toutes les relations sémantiques. Elles concernent : les attributs algébriques, qui définissent l'état interne d'une relation. Ils concernent des propriétés comme la réflexivité, la symétrie, l'antisymétrie ou la transitivité d'une relation, ainsi que les notions de relation d'ordre et de relation d'équivalence qui peuvent en être déduites; les attributs fonctionnels, qui définissent l'état d'une relation vis-à-vis des objets qu'elle met en jeu. Ils permettent ainsi de définir la cardinalité d'une relation, la notion d'ordre (qui n'a pas la même signification que la notion de relation d'ordre) à prendre en compte ou non pour les objets mis en jeu, ainsi que trois autres notions définies dans (Oussalah et al., 1997) : les attributs de liaison, qui décrivent la nature des objets mis en relation; les attributs de propagation, qui déterminent la façon dont une relation transmet les attributs d'un objet à son (ou ses) correspondant(s), dans un graphe d'objets et de relations (Rumbaugh, 1988). Dans une conception orientée objet, le mécanisme de propagation des attributs allège la définition des objets et la renforce en la dotant d'un dispositif d'inférence. Quatre paramètres entrent en jeu : A ces types de propriété-attribut couramment référencés nous ajoutons les attributs descriptifs, qui renseignent sur les possibilités qu'accorde ou non une relation sémantique pour agir sur l'état ou le comportement des entités qu'elle met en jeu. Parmi ces attributs figurent entre autres ajouter_propriétés, détruire_propriétés, renommer_propriétés, redéfinir_propriétés (ou masquer_ propriétés); ils sont valués par une expression booléenne. Les propriétés de type propriété-opération décrivent le comportement d'une relation sémantique. Nous distinguons deux catégories d'opérations : les opérations de gestion, qui permettent de créer, de détruire ou de modifier une relation ou une entité mise en tant qu'extrémité d'une relation; les opérations d'exploitation, qui permettent d'associer à certaines relations un comportement particulier visant à extraire des informations en rapport avec les objets qu'elles mettent directement en jeu dans un réseau d'objets et de relations. Ces opérations seront destinées à guider un lecteur pour rendre sa lecture plus efficace. La figure 2 résume cette description des attributs en présentant notre modèle générique d'une relation sémantique. Nous distinguons deux types de relations sémantiques pour mettre en évidence les deux rôles principaux que ce concept va jouer : les relations sémantiques d'ordre logique et d'ordre hypermédia : elles sont destinées à définir la structure d'un document. Nous précisons ci-dessous ce que nous entendons par cette structure; les relations sémantiques de dérivations : elles sont destinées à engendrer un concept (document ou relation sémantique) à partir d'un autre déjà existant; par exemple les relations de réutilisation, d'héritage, de point de vue, de versionnement, etc. Ces relations permettent de décrire d'une part un panel de composants de documents répondant à des besoins particuliers, et d'autre part de nouvelles relations sémantiques (par exemple, la relation sémantique de spécialisation peut s'appliquer sur la relation sémantique de réutilisation pour engendrer une nouvelle relation de réutilisation, ciblée vers un besoin particulier). La figure 3 résume cette distinction des types de relations sémantiques. On propose d'examiner les relations sémantiques en fonction de leur généricité. Nous parlerons alors de relations sémantiques génériques et de relations sémantiques contextualisées. Une relation sémantique générique décrit les caractéristiques d'un rapport entre des entités indépendantes de tout domaine. Une relation sémantique contextualisée est une instance de relation sémantique générique. Elle hérite donc de tous les traits de sémantique de sa relation mère, mais sa sémantique est redéfinie pour rendre compte d'une signification particulière. Nous nous intéressons à l'identification de relations sémantiques génériques permettant, par des spécialisations, de dériver des relations contextualisées appropriées à la description de documents et de la sémantique de leurs rapports. Les relations sémantiques constituent un support pour définir les structures des documents. Si les travaux en ingénierie documentaire ont identifié au moins quatre dimensions pour un document numérique (Roisin, 1999), nous nous concentrons sur deux d'entre elles : la dimension logique et la dimension hypermédia. Ainsi, nous modélisons ces deux dimensions d'un document en définissant une structure de document comme un graphe mettant en jeu des composants documents reliés par des relations sémantiques contextualisées. Les relations sémantiques contextualisées prenant part dans les structures sont celles proposées dans les ontologies normalisées de documents, ou bien ces relations ajustées dans leur sémantique, ou encore de nouvelles relations rendues disponibles en supplément de celles des ontologies normalisées. Toutes sont décrites d'une part par une relation générique mère qui leur est attribuée et d'autre part par un ensemble de propriétés énoncées dans le modèle de la figure 2. Ce faisant, nous catégorisons les relations par la relation générique mère à laquelle elles sont rattachées et nous décrivons la sémantique des relations avec une granularité plus fine que ce que proposent les ontologies normalisées. Nous définissons un document sémantique comme un document modélisé par une ontologie de documents pourvue d'un descripteur « Relation » proposant des relations sémantiques réifiées à l'aide du modèle de la figure 2. On représente alors un dossier numérique comme un document sémantique de haut niveau (c'est-à-dire dont les composants sont eux -mêmes des documents sémantiques) où ressort une cohérence dans les descriptions de ses composants (cohérence dans les notions qui décrivent les composants, qui peuvent être, par exemple, communes ou complémentaires). Par la suite, nous ramènerons donc la conception et l'exploitation des dossiers numériques à celle de tout document sémantique (que nous appellerons parfois plus simplement document). Nous considérons quatre classes d'acteurs prenant part à la conception de documents sémantiques : le constructeur de l'infrastructure (CI), le constructeur de l'ontologie de documents (COD), le constructeur des structures de documents (CSD), et le constructeur de documents (CD). Enfin, l'utilisateur de documents (UD) représente la classe d'acteurs qui exploitent les documents. A l'aide du modèle générique de relation sémantique, le CI réifie des relations sémantiques génériques telles que celles présentées sur la figure 4. Ces relations génériques sont destinées à être déclarées comme relations mères des relations proposées dans les ontologies normalisées de description de documents. Elles permettent également de définir une sémantique de base à de nouvelles relations destinées à être ajoutées à celles proposées dans une ontologie normalisée. A partir d'une ontologie normalisée renforcée en expressivité au niveau de son descripteur « Relation », le COD conçoit des composants de documents, au sens de « briques élémentaires » de documents dans (Delestre, 2000). Par exemple, l'IEEE LOM propose les composants de documents de type Exercice, Simulation, Questionnaire, Diagramme, Figure, Graphique, Index, Table des matières, Examen, Auto-évaluation, etc. Le COD décrit donc des composants conformes à ces types et décrit explicitement des relations sémantiques contextualisées pouvant les lier. Pour cela, il décrit les relations proposées dans l'ontologie normalisée comme des instances de relations sémantiques génériques réifiées par le CI, et il ajuste leur sémantique à l'aide du modèle de la figure 2. Par exemple, la relation « EstBaséSur », proposée dans l'IEEE LOM, peut être définie comme une instance de la relation générique d'ordre logique « relation d'association »; elle hérite donc de ses propriétés, et peut être ajustée dans sa sémantique en spécialisant certains attributs ou en décrivant des opérations spécifiques d'exploitation ou de gestion. Le COD peut aussi ajouter des relations sémantiques contextualisées pour compléter l'ensemble des rapports qui peuvent être définis entre des composants documents. Les relations intéressantes à ajouter sont principalement celles qui permettent de faire évoluer les documents ou de favoriser leur réutilisation, c'est-à-dire les relations de dérivation. Ainsi, les relations comme « relation de versionnement » (parfois proposée, comme dans l'IEEE LOM, mais non réifiée), « relation d'héritage », « relation de spécialisation », « relation de réutilisation » s'avèrent intéressantes. Le modèle doit permettre de définir leurs comportements propres, notamment au travers des opérations de gestion : par exemple, pour la relation de versionnement, le modèle doit permettre de définir comment une entité mise en jeu peut être versionnée, quels sont les attributs la décrivant qui sont modifiés, quel type de propagation des attributs est instauré, etc. Le rôle du CSD consiste à produire des documents génériques, c'est-à-dire des documents dotés d'au moins une structure. Pour associer une structure à un document générique, le CSD sélectionne des composants puis déclare des relations sémantiques contextualisées de dérivations et/ou d'ordre logique (respectivement d'ordre hypermédia) entre ces composants. Au niveau du CSD, les composants en question peuvent désigner : des composants construits par le COD à partir des types proposés dans les ontologies normalisées; par exemple, dans le contexte de documents pédagogiques, des exercices, des questionnaires, des figures, etc.; des documents génériques déjà existants, donc des graphes en eux -mêmes réutilisés à ce niveau et obtenus au départ par agencement de composants types produits par le COD; par exemple, des exposés, des cours, des publications, etc. Le CSD peut réitérer ce procédé de façon à définir pour chaque document générique un ensemble de structures. Pour illustrer nos propos, considérons l'exemple suivant : le CSD souhaite créer un document générique, nommé Cours Enseignement Pluridisciplinaire EP4, destiné à figurer un modèle de document de cours. Nous montrons sur la figure 6 une structure qu'il associe à ce document; le CSD définit son document générique à partir des composants Cours Maths M4, Cours Physique P4, tous deux proposés au préalable par le COD, et à partir de documents génériques déjà existants signalés sur la figure 6 comme étant des documents génériques par le fait que leurs identifiants sont soulignés; le CSD définit une structure à son document générique en déclarant des relations sémantiques contextualisées entre ces composants; le CSD peut ensuite réitérer ce procédé, en sélectionnant un nouvel ensemble de composants et en déclarant de nouvelles relations entre ceux -ci, définissant ainsi une nouvelle structure pour son document générique. Le CSD n'assigne pas de structure particulière aux nœuds de ses structures correspondant à des documents génériques (nœuds aux identifiants soulignés sur la figure 5) : en cela, son document est polymorphe et est destiné à être instancié pour prendre ultérieurement une forme unique et bien définie. C'est l'acteur suivant, le CD, qui instanciera un document générique pour donner à l'instance obtenue une forme déterminée répondant à ses besoins. Le CD termine la phase de conception de documents en produisant des instances de documents à partir des documents génériques décrits par le CSD. Pour cela, sa tâche consiste à sélectionner un document générique, puis à fixer la structure de chacun des composants y figurant qui correspondent en eux -mêmes à des documents génériques. Il peut ensuite personnaliser son instance de document en déclarant de nouvelles relations sémantiques contextualisées entre les composants. La figure 6 présente une instance de document qui pourrait être obtenue à partir du document générique de la figure 5. Le CD décrit chacun des composants apparaissant dans les structures choisies, jusqu' à décrire les ressources physiques (texte, son, image, vidéo, etc.) qu'il apparie à ces composants pour définir son document unique. Son document est alors validé; il peut en outre le visualiser sous des points de vue particuliers, obtenus en laissant apparaître seulement un certain type de relations sémantiques, afin de s'assurer de la cohérence de son document. Par exemple, pour un document à caractère pédagogique, le CD peut vérifier la cohérence pédagogique ou médiatique d'un parcours dans le document, ou encore examiner la complétude des éléments d'un cours par rapport à un programme complet d'enseignement. Pour faire profiter au mieux le lecteur de son document, le CD peut définir des scénarios d'utilisation, c'est-à-dire des parcours qu'il préconise pour répondre à des tâches de lecture particulières en suivant tel ou tel type d'hyperliens, c'est-à-dire tel ou tel type de relation sémantique apparaissant dans les structures. Par exemple, ces tâches peuvent consister en : une navigation efficace dans un hyperdocument selon une démarche pédagogique, avec appréhension successive et logique des différentes notions d'un cours; une navigation efficace dans un dossier médical, pour par exemple effectuer un rapide contrôle de l'état de santé d'un patient, ou un contrôle plus approfondi; une navigation efficace dans une documentation technique pour parer à une panne identifiée. L'UD est l'acteur qui doit bénéficier des aspects sémantiques modélisés au sein des relations de la structure des documents. Son rôle consiste donc à interagir avec les documents et activer les opérations d'exploitation associées aux relations sémantiques. Celles -ci doivent lui permettre de formuler des requêtes pour accéder efficacement à des informations données ou pour vérifier certaines propriétés des documents. L'UD peut donc figurer un lecteur souhaitant être assisté dans sa navigation ou bien un rédacteur de documents cherchant des composants réutilisables appropriés à ses besoins ou s'assurant de la cohérence de ses productions. Les résultats des requêtes sont déterminés par le système qui exploite les structures des documents, d'une part en examinant les nœuds (composants de documents) et d'autre part en inférant des connaissances sur ces composants en fonction des propriétés accordées aux relations sémantiques qui les lient dans les structures. Parmi les types de requêtes ou de fonctionnalités possibles, citons : la navigation dans un document ou dans un ensemble de documents en suivant un type donné de relation sémantique, pour que le lecteur se dirige efficacement vers ce qui l'intéresse : les parties se rapportant à une notion particulière, les parties liées à une autre selon un lien particulier, etc.; la mise à disposition de vues sur un document : vue logique, vue hypermédia, ou d'autres correspondant à un sous-ensemble de relations sémantiques parmi celles des structures du document; la recherche de documents conçus par réutilisation ou par spécialisation d'un autre, ou par composition d'autres; la recherche de documents conformes à un type de structure spécifié; la visualisation des liens et leurs significations entre plusieurs documents. D'autres types d'opérations d'exploitation sont à envisager. L'UD peut également optimiser sa navigation en profitant des scénarios d'utilisation qui lui ont été préparés pour le soutenir dans la tâche de lecture qu'il s'est assignée. Nous proposons un nouveau mode de conception de documents rendant explicite la sémantique des liens entre composants de documents. Fondé sur un modèle de relations sémantiques et sur une approche ontologique, il distingue différentes classes d'acteurs rédacteurs, permettant à chacun d'eux d'intervenir selon ses compétences et favorisant le partage et la réutilisation des notions constituant le contenu des documents. Il permet également d'associer des sémantiques variables à une même relation, ce qui se traduit par des hyperliens ayant un comportement différent menant à des informations précisément décrites. Il permet enfin de créer des scénarios d'utilisation pour optimiser la navigation des lecteurs en fonction des tâches qu'ils peuvent souhaiter accomplir en parcourant un document. Tandis que certains travaux s'intéressent à d'autres aspects des documents électroniques, tels que leur dimension temporelle (Layaïda, 1997; Roisin, 1999; projet OPERA 3) ou leur génération dynamique en fonction des souhaits du lecteur (Delestre, 2000), nous approchons pour notre part la sémantique des rapports entre documents ou entre composants de documents, thématique encore peu étudiée à notre connaissance si ce n'est pour le « web sémantique » (Broekstra et al., 2000). Cet aspect sémantique que le support numérique autorise à décrire contribue à justifier le passage d'un dossier de sa version papier vers sa version numérique. Les perspectives de travail sont diverses; elles concernent entre autres : la mise en évidence d'opérations d'exploitation pertinentes pour le lecteur au sein du modèle de relations sémantiques; la mise en œuvre de l'architecture du processus de modélisation et d'exploitation de documents et l'implémentation d'un prototype avec les technologies RDF/XML; la mise à disposition d'un moyen de composer (au sens mathématique du terme) les relations sémantiques entre elles pour en dériver de nouvelles plus élaborées; la possibilité de s'inscrire dans le courant ADL (Garan et al., 1997), pour considérer un document comme un ensemble de composants aux caractéristiques déjà bien identifiées, voire pour proposer de nouvelles contributions .
L'avènement des nouvelles technologies de l'information et de la communication (NTIC) s'accompagne du passage sur support numérique de beaucoup de fonds documentaires. Ainsi, on assiste progressivement à la numérisation des documents de travail de toute nature : dossiers médicaux, dossiers pédagogiques, documentations techniques, etc. Mais comment s'assurer que ce changement de paradigme profite aux lecteurs et aux auteurs de documents ? A ce propos, nous nous intéressons à la modélisation et à l'exploitation de documents et de dossiers numériques en garantissant une valeur ajoutée à leur version numérique par rapport à leur homologue papier : valeur ajoutée pour le lecteur, qui doit disposer d'outils sémantiques pour naviguer plus efficacement vers ce qui l'intéresse en fonction de sa tâche de lecture ; valeur ajoutée pour l'auteur, qui doit pouvoir produire de nouvelles ressources par réutilisation de certaines déjà existantes et être assuré d'une gestion efficace de l'évolution de ses productions. Pour répondre à ces attentes, nous proposons une approche ontologique et orientée objet fondée sur le concept central de relation sémantique.
sciencesInfo_03-0025427_tei_DN_061_0099.tei.xml
termith-502-communication
Une des difficultés propres aux Sciences de l'information et de la communicationconsiste à appréhender des flux médiatiques d'information. La production del'information est marquée du sceau de l'éphémère comme du continu : prise dans lesouci de témoigner, de rendre compte ou de fabriquer l'actualité, elle se présentecomme un flot ininterrompu, un flux continu d'images et de discours qui, en dépitdes grilles qui organisent les programmes, reste difficile à saisir, c'est-à-dire àcaractériser et à penser dans sa globalité et sa dynamique. Le sens d'une information tient à de multiples facteurs, que révèlent et saventintégrer les analyses qualitatives les plus fouillées. Rendre compte du sens d'uneinformation suppose de prendre en compte un nombre important de paramètres, parmilesquels on peut citer, sans chercher à être ici exhaustif, la nature del'événement, la manière dont les instances médiatiques s'en emparent, les personneset les lieux mis en scène, l'explicitation des causes ou des raisons de l'apparitiondes faits. Mais le sens d'une information tient aussi à sa place et à sa part (sonrôle), à son emplacement et à son importance dans le temps et dans l'espace, dansdes temps et dans des espaces (médiatiques, culturels, sociaux et historiques )qu'elle détermine et dynamise. L'analyse du contenu des médias bute ici sur une difficulté majeure (De Bonville ,2006, p. 101). Face à un tel obstacle, le recours à la parole des journalistes n'estd'aucun secours. Même en supposant que ceux qui font l'information sachentexactement ce qu'ils entendent diffuser, rien ne dit que leurs intentionscorrespondent à leurs pratiques, ou qu'ils sachent exactement, à tout moment et surle long terme, rendre compte de ce flot dont ils participent. L'objet de cette contribution est précisément de proposer une méthode qui permette decaractériser et de mesurer des flux médiatiques d'information : nous entendonsexposer un moyen de restituer à une information sa place et sa part pour mieux encomprendre le sens, proposer une voie pour mieux prendre en compte les flux etrendre compte de leurs dynamiques globales. Autrement dit, il s'agit de mettrel'information en perspective, de trouver un moyen pour l'appréhender dans le fluxdont elle procède et qu'elle produit. Rendre compte de cette autre réalité, c'estcomprendre mieux les grands mécanismes qui participent de la construction del'actualité. Nous verrons tout d'abord qu'il est possible de travailler à une échelle« macroscopique » sur des contenus médiatiques, sur des flux d'information ou surl'actualité : il est possible de traiter des corpus importants, voire d'exploiterdes bases de données exhaustives, et de travailler sur des durées longues .Travailler ainsi permet d'une part d'échantillonner mieux. D'autre part, cela créesurtout la possibilité de révéler, de rendre perceptibles et intelligibles desaspects diachroniques qui n'auraient pu être appréhendés autrement. C'est donc la fonction heuristique de cette démarche quantitative qui retiendral'essentiel du propos. Après une mise au point méthodologique, nous illustrerons ladémarche à travers trois questions de communication qu'elle est susceptibled'éclairer sur la base d'éléments empiriques nouveaux : la dialectique de l'élémentet de la série, la question des dynamiques propres au temps de l'information( diachronie/synchronie; périodisations; tendances), la question de l'événement( saillance, prégnance). On verra aussi que cet outil permet d'aller au-delà d'unedescription par le chiffre : il encourage l'utilisation de l'inférence statistiquepour valider ou infirmer les hypothèses qui ont pu être construites à partir desobservations. L'information reste, avant tout, le produit d'un travail de rédaction. Si l'onsuit les repères méthodologiques à partir desquels s'ordonne le travail desjournalistes [], on comprend comment ils donnent du sensà l'information qu'ils produisent. Trois paramètres principaux structurentl'écriture : l'axe thématique choisi, la mise en scène du contenu et lepositionnement de l'information dans la hiérarchie de l'actualité. L'axe thématique repose sur les choix du « sujet » et du « propos » (Voirol ,2001). Le sujet correspond à l'événement ou plus précisément au fait brut dontl'information fait l'objet. Le propos correspond à la manière dont l'équiperédactionnelle traite de l'événement, comment elle se l'est approprié ,c'est-à-dire ce qu'elle a bien voulu en dire. La mise en scène de l'informationvise à répondre aux questions du « qui », du « quoi », du « où », du « quand » ,du « comment » et du « pourquoi ». Pour finir, le positionnement del'information dans la hiérarchie de l'actualité produite par le média estégalement porteur de sens : on peut ainsi repérer des occurrences, étudier laprésence (ou l'absence) de l'information dans l'annonce des titres, identifierla rubrique dans laquelle l'information est enchâssée, l'agencement des thèmesd'actualité du support, etc. La tâche de l'observateur apparaît complexe. Cettecomplexité permet de comprendre que les analyses des contenus ont plutôttendance à privilégier la piste de l'analyse qualitative et à renoncer à l'étudede méga corpus qui s'étendent sur de longues périodes. Face aux limites des méthodologies d'échantillonnage sur lesquelles se fondentles analyses qualitatives, Soulage propose dès 1994 une méthode d'analysequantitative des flux médiatiques []. Cette méthode a depuis été utilisée àde multiples reprises (Charaudeau et al., 2001). La méthode consiste àconstruire un corpus le plus exhaustif possible, à définir pour et à attribuer àchaque sujet un ou des descripteurs. Ces descripteurs, déterminants thématiquesou mots-clés, permettent de caractériser les sujets d'information les uns parrapport aux autres de manière à les différencier. Par ce dispositif, lechercheur peut dès lors réaliser une étude statistique descriptive des flux enétudiant la distribution dans le temps et dans l'espace des descripteurs/sujets .Cette quantification permet d'apprécier la place et la part des caractères del'information étudiés, et la méthode a été reprise par d'autres chercheurs pourtravailler sur d'autres corpus, étudier d'autres phénomènes (Terral, 2004). Maisc'est surtout pour sa portée méthodologique que cette démarche quantitative aété utilisée, en ce qu'elle permet de construire autrement des données, dedéfinir de manière raisonnée les bornes des corpus que l'on souhaite étudier demanière qualitative : les coups de sonde du chercheur ne relèvent plus du hasardou du jugement arbitraire. La méthode développée ici prolonge et complète cette démarche en étendant lesfiltres mobilisables, en utilisant tous les mots des notices. Si les noticessont faites par les documentalistes de l'INA pour permettre aux professionnelsde l'audiovisuel et aux chercheurs de retrouver des documents audiovisuels trèsrapidement, leur rédaction fait l'objet d'une réflexion croisée entrechercheurs, professionnels et documentalistes depuis la création du projet del'Inathèque et du dépôt légal []. La méthode ne consiste pas seulement àutiliser les descripteurs de l'INA, qui sont des marqueurs utilisés uniquementpar l'INA, elle consiste à prendre en compte tous les mots qui sont utilisésdans la notice du document pour concevoir nos propresdescripteurs qui seront indexés dans une nouvellebase de données qui sera pensée et conçue par le chercheur. Cette autremanière de procéder permet d'embrasser des corpus plus importants et demultiplier les prises sur le matériau. Par ailleurs, elle permet aussi dedépasser la simple utilisation du Thésaurus de l'INA pour que la méthodologiepuisse être utilisée avec d'autres bases de données documentaires []. Il s'agit également d'exploiter l'outil à d'autres fins. En faisant accéder auvisible des phénomènes jusqu'alors difficiles à appréhender autrement que demanière intuitive, cette méthode a un intérêt heuristique évident. Le dispositifpermet, en travaillant sur des corpus importants (voire sur des corpusexhaustifs) de reconstruire le contexte de diffusion de l'information, et doncde réinscrire ces éléments contextuels dans les analyses approfondies descontenus. Nous proposons (Birot, 2007) de franchir une étape, d'aller plus loinen travaillant sur de longues périodes, d'intégrer la dimension diachronique desinformations, de manière à caractériser des flux, des séries, des tendances etdes événements. La méthode exige pour cela d' être précisée et systématisée d'unepart, de recourir à l'inférence statistique d'autre part. Ce prolongement exige en premier lieu de préciser et de standardiser ledispositif d'attribution des descripteurs, de manière à rendre possible unecontextualisation systématique de l'information, et à pouvoir ensuitereconstruire plus finement les flux produits. Dans notre proposition ,l'attribution des différents descripteurs ne repose plus sur le jugement duchercheur, mais consiste en une opérationnalisation systématique de leurdéfinition : on peut ainsi, par exemple, partir des paramètres rédactionnelsutilisés par les journalistes eux -mêmes, que nous avons sommairementprésentés. Cette modalité d'attribution de descripteurs a trois intérêts principaux. Ellepermet d'abord d'intégrer à l'analyse le point de vue des producteursd'information que sont les journalistes, de « comprendre mieux » la fabrique del'information (Weber, 1983; Ricœur, 1983). En second lieu, ce dispositifd'attribution, qui en fait une opération plutôt « technique » et reproductible ,permet d'intégrer à la recherche les personnels d'institutions telles que l'INA ,et de structurer des collaborations entre démarches quantitatives etqualitatives. Pour finir, cette modalité d'attribution est efficiente, car unefois réalisée elle permet de constituer rapidement de nouveaux corpus : à partird'un même ensemble de productions médiatiques, on dispose d'autant de corpusqu'on aura défini de descripteurs, qui fonctionnent dès lors comme des« prises » sur le matériau, et permettent de « saisir autrement » les problèmes( les critères présentés ci-dessous sont autant d'entrées et de paramètres decombinaisons possibles pour constituer un corpus : on les croise de façondynamique). La méthode statistique proposée vise par ailleurs à aller au-delà d'unedescription chiffrée des flux médiatiques, même si les descriptions sont en soiintéressantes. Il est en effet possible de formuler, à partir des statistiquesdescriptives réalisées, des hypothèses que l'on peut ensuite chercher à validerà l'aide des inférences statistiques, pour montrer si les différences, lestransformations, les évolutions et les proportions sont statistiquementsignificatives ou pas. À titre d'illustration, le travail d'attribution débute ainsi par un relevésystématique, dans un tableau à double entrée, des repères rédactionnels enusage précédemment identifiés, et rappelés ci-dessous. Par la suite, ce relevé est mis en forme afin de réaliser des tri-croisésdynamiques et de réaliser des représentations graphiques. Accédant au visible ,les flux médiatiques deviennent descriptibles, et permettent de formuler deshypothèses que l'on pourra tester, confirmer ou non, par inférencestatistique. Par souci de concision, on ne fera pas ici état des précautions méthodologiquesapplicables lorsque l'on utilise des inférences statistiques. On illustreral'intérêt de la méthode à partir de quelques résultats obtenus. Cette méthode aen effet été utilisée dans des recherches portant sur des productionsmédiatiques de supports divers []. Développée initialement pour analyserles flux d'information (Birot, 2007) diffusés pendant dix années (de 1995 à2004) dans les principaux journaux télévisés (JT) des six chaînes du réseauhertzien français [], cette méthode a ensuite été employéepour étudier les programmes d'actualités cinématographiques diffusés dans lessalles de cinéma en France et en Allemagne sous l'occupation [] ,pour réaliser une analyse longitudinale des différents titres de la pressebalnéaire bas-normande diffusés à la belle époque [] .Cette seconde partie vise à présenter une méthode par les résultats [] qu'elle est susceptible de fournir. Nous avons structuré cetteillustration autour des trois questions suivantes : comment replacerl'information journalistique dans l'ensemble dans lequel elle s'inscrit, commentidentifier et décrire la série dans laquelle l'élément prend place ? Commentdécrire des tendances et, en identifiant des paliers, procéder à despériodisations ? Comment identifier un événement médiatique ? L'étude comparée des structures des trois grandes catégories d'information dejournal télévisé permet de faire l'hypothèse que leur contenu vise à (1 )privilégier l'information générale (constituée des rubriques de « PolitiqueInternationale », de « Politique française » et de « Société ») à hauteur de50 %; (2) s'intéresser à l'information de divertissement (constituée desrubriques « Sport » et « Loisir-Culture ») à hauteur de 20 %; laisser 30 %de l'espace aux sujets des rubriques mineures []. Ce n'est qu'ensuite, à partir de cette macrostructurecaractéristique du genre du journal télévisé contemporain, que le diffuseurorganise le contenu de son programme en fonction de l'actualité et du publicqu'il souhaite capter. Nous nous sommes donc attaché à vérifier cette hypothèse sur la globalité dessujets diffusés sur tout le réseau hertzien sur les dix années, puis surchacune des années. Le résultat du test de Khi² appliqué au nombre de sujetsdiffusés dans chaque grande catégorie d'information entre 1995 et 2004confirme cette hypothèse. Ce résultat montre que l'information télévisée duréseau hertzien français est structurée autour de la règle du 50/20/30 (50 %d'information générale, 20 % d'information de divertissement et 30 %d'autres sujets d'actualité). Nous nous sommes ensuite attaché à vérifier cette hypothèse sur les sujetsdiffusés par chaque chaîne pris globalement puis année par année. Lesrésultats montrent une absence de différence significative entre la mesureétalon (50/20/30) et le nombre de sujets diffusés par chaque chaîne danschaque grande catégorie d'information à l'exception de la chaîne Arte. Celaconduit à considérer que l'information télévisée du réseau hertzien françaisentre 1995-2004 s'est organisée autour des proportions 50/20/30, et cequelle que soit la durée du JT, sauf pour la chaîne Arte. Ces quelques éléments dévoilent les structures dans lesquelles se trouventcanalisés les flux d'information. On peut alors chercher à voir si et dansquelle mesure l'actualité phénoménale a ou non une incidence sur cesstructures. L'offre de sport à la télévision n'a cessé d'augmenter depuis 1968 []. L'observation de la courbe du nombre de sujets « sport »diffusés dans les journaux télévisés sur la période 1995-2004 faitapparaître que dans les journaux télévisés cette tendance est inversée .L'application du test de Friedmann sur les données de la rubrique « sport »confirme cette tendance en faisant la démonstration que l'effet des annéessur le nombre de sujets diffusés est statistiquement significatif. Laréalité de cette baisse globale du nombre de sujets « sport » dans lesjournaux télévisés du réseau hertzien français (Rubriques Sport 1995-2004 :X²(9) = 25,89; p. = 0,0021) est donc confirmée. Cette évolution de l'information sportive dans les journaux télévisésdemanderait par ailleurs à être replacée dans une évolution plus large, dansla mesure où des journaux d'information « sportive » sont apparus (« Sport6 », « Tout le sport pour ne citer qu'eux »), se sont différenciés( développement des journaux « spécialisés et périodiques », avec par exemple« Le journal du tour »). Les analyses précédentes ont permis de montrer que, sur la période 1995-2004 ,l'année 1998 présente des caractéristiques singulières. Dans cette logique ,nous faisons l'hypothèse que l'organisation de la Coupe du Monde de Footballen France, la victoire de l' Équipe de France dans cette compétition et lacrise du Tour de France sont autant d'événements qui ont rendu cette annéesportive particulière et significativement différente des autres années ducorpus. Pour vérifier cette hypothèse, il est nécessaire de diminuer legrain d'analyse pour passer d'une analyse année par année à une analyse moispar mois. Dans cette logique, le choix d'utiliser le mois comme unitéd'analyse est purement arbitraire. Il a été choisi pour des commoditésd'analyse et de présentation des résultats []. Les données ainsi que la courbe de représentation du nombre total de sujetssport diffusés mois par mois pendant l'année 1998 sur le réseau hertzienfrançais semblent faire apparaître un effet du mois de diffusion sur lenombre de sujets sport diffusés chaque mois, en faisant la démonstration del'existence d'un pic durant les mois de juin et de juillet. Ce constatsemble compatible avec l'hypothèse énoncée précédemment. L'application d'untest de Friedman aux données permet de vérifier statistiquement cettehypothèse. Le résultat du test montre qu'il existe un effet du mois ,c'est-à-dire de l'actualité, sur le nombre de sujets sport diffusés sur leréseau hertzien en 1998 (Toutes les chaînes : X² (11) = 47,61475; p < 0,0001). L'application d'un test T de Wilcoxon aux distributions prises mois par moispermet de montrer que le mois de mai est significativement différent du moisde juin, qui est lui -même significativement différent du mois de juillet ,qui est également lui -même significativement différent du mois d'août. Ceconstat permet de confirmer l'existence d'un pic pendant les mois de juin ,juillet et d'août durant l'année 1998. Ce constat va dans le sens d'une validation de notre hypothèse de départ ,puisque la Coupe du Monde de Football, la victoire de l' Équipe de Francedans cette compétition et la crise du Tour de France 98 se sont dérouléesdurant cette période. L'observation des données et le parallélisme entre des courbes d'évolution dunombre de sujets sport diffusés sur chaque chaîne semblent laisser penserqu'il s'agit d'une tendance générale. L'application d'un test de Khi² globalpermet de montrer qu'il n'existe pas de différences significatives entre lessix échantillons (X² (55) = 52,03; p = 0,5878 ;p > 0,05; n.s.). Il y a donc indépendance entre les diffuseurs etdépendance entre le nombre de sujets diffusés chaque mois sur chaque chaîne .Il y a donc dépendance entre le nombre de sujets diffusés par chaquediffuseur et l'actualité. Le nombre de sujets diffuséschaque mois par chaque diffuseur est donc plutôt dépendant del'information factuelle qui survient dans l'environnement phénoménal, etindépendant de la stratégie de chaque diffuseur. Les tests de Khi² secondaires aboutissent aux mêmes résultats. Les évolutionsmensuelles du nombre de sujets sport de chaque chaîne comparées par test deKhi² deux à deux montrent qu'il n'existe aucune différence significativeentre les échantillons. Ces résultats montrent bien qu'il y a indépendanceentre le nombre de sujets diffusés chaque mois et la stratégie du diffuseur .La question est alors de se demander si le nombre de sujets est dépendant del'actualité de l'environnement phénoménal. Au terme de ce parcours, à quel point sommes -nous parvenus ? On a tout d'abord vuqu'il est possible de travailler à une échelle « macroscopique » sur descontenus médiatiques, sur des flux d'information ou sur l'actualité : il estpossible de d'exploiter des bases de données exhaustives (ici celles de l'INA) ,et de travailler sur des durées longues. La méthode permet ainsi de travailleren adoptant les repères des journalistes, tout en produisant une distance quirend perceptible des évolutions et des saillances, dont on peut s'assurer parrecours à l'inférence statistique. Pour autant, l'outil n'est qu'un outil : il ne rend pas intelligible parlui -même, et suppose de multiplier les questions, de recourir à d'autres savoirsde manière à rendre intelligibles les aspects diachroniques qu'il permet derévéler. Cette forme de travail ouvre ainsi, sur la fabrication de l'actualitépar exemple, moins des questions que de nouvelles voies pour produire desindicateurs permettant d'y répondre. On voit ainsi à quel point le temps « du sport » et celui « de l'actualité »( telle que la fabriquent les journaux télévisés, qui n'en sont pas les uniquesproducteurs) interagissent en conservant leur part d'autonomie. Comprendre lesens de l'événement sportif suppose de retracer la participation croissante dusport à « l'élément » médiatique (Derèze, 1998). Le temps « du sport » (dontl'information ne se limite pas aux journaux télévisés) se présente chaque jourdavantage comme temps de l'information constante (Vigarello, 1995), unesuccession redondante d'événements qui finit par produire une autre image de ladurée. La durée y prend la forme d'une accumulation d'événements qui n'existentque d' être médiatisés, présentant par là des traits propres à la manière dontnotre société, parfois dans la surinformation bavarde, tend à multiplierl'événement comme pour mieux conjurer le nouveau (Nora, 1974) ou le désordre( Balandier, 1992). Les outils présentés permettent de prendre les « événements » (ici « sportifs » )avec un peu de distance : s'ils scandent l'actualité des journaux télévisés, ilsne la marquent pas de manière significative (ils ne sont ni saillants niprégnants, car dans le cas contraire, nous aurions perçu des cycles, àl'occasion des coupes du monde ou des jeux olympiques), au point même quecertaines chaînes ne leur accordent qu'une faible importance (Arte). On mesuremieux, du même coup, l'originalité de ce qui s'est produit en 1998, qui amanifestement dépassé le strict champ sportif, et qui mérite d' être étudié commeévénement, simultanément médiatique et social. L'analyse de l'information sportive diffusée dans les journaux télévisés montreque l'actualité phénoménale, en tout cas dès lors qu'il s'agit de sport, semblen'avoir que peu d'effet sur la structure de l'information télévisée. Ceséléments demanderaient évidemment à être étendus à d'autres champsd'information, de manière à comprendre mieux les déterminants au sein desquelsse déploie la construction de l'actualité et, au-delà, celle de l'espacepublic .
Comment appréhender les flux médiatiques d'information qui fabriquent l'actualité ? Cette contribution propose de restituer à l'information une partie de son sens, en la replaçant dans le flux dont elle procède et qu'elle produit. L'attribution standardisée de descripteurs rédactionnels permet de multiplier les « prises » sur des corpus volumineux de sujets: le matériau, devenu descriptible dans le temps, gagne en intelligibilité par le recours à l'inférence statistique. Une saisie macroscopique et diachronique de l'information est rendue possible, qui invite à découvrir les structures, les dynamiques et les événements saillants à partir desquels se fabrique l'actualité médiatique et, au-delà, l'espace public. Cette méthode est présentée par les résultats qu'elle a fournis pour analyser dix ans d'information sportive dans les journaux télévisés hertziens français. Pour autant, l'outil n'explique pas par lui-même, et suppose de multiplier les questions, de recourir à d'autres savoirs pour rendre intelligible ce qu'il donne à lire autrement. Cette forme de travail ouvre ainsi moins des questions que de nouvelles voies pour produire des indicateurs permettant d'y répondre.
sciencesInfo_10-0351924_tei_992.xml
termith-503-communication
Thèse. La mise à disposition des œuvres et des informations sur les réseaux est soumise à deux types indépendants de régulation. Une thèse récente propose, pour une régulation plus harmonieuse, un modèle fondé sur l'influence réciproque du droit et de la technique. Les développements techniques entraînent une croissance exponentielle de la circulation des œuvres et des informations sur les réseaux. Élaborés sur le principe de la rareté du support, les modèles de régulation de l'ère analogique sont remis en question par le numérique, fondé sur les paradigmes de la copie, de la réappropriation et du partage. Dans notre thèse, nous envisageons divers degrés d'interaction entre le droit et la technique. La technique peut être encadrée par le droit au fur et à mesure de ses développements, elle peut mettre en œuvre des activités juridiques, représenter des connaissances juridiques ou remplacer totalement et dépasser le droit. Le droit, lui, ne peut se contenter de penser la technique de manière extérieure, c'est-à-dire de s'opposer à la technique ou de s'appuyer sur elle en tentant de la contrôler : pour pouvoir la réguler de manière adaptée, il doit chercher à intégrer certains de ses principes, de ses fonctionnalités architecturales. Sans une approche interdisciplinaire, le droit sera en décalage avec ce qu'il cherche à réguler et probablement ineffectif. Inversement, la technique ne peut se penser complètement en dehors des schémas et des règles du droit. Le droit et la technique ont d'abord été pensés de manière indépendante, chacun des deux ordres tentant de dominer l'autre. Le droit d'auteur s'est construit au rythme des innovations techniques de reproduction et de diffusion des œuvres, comme un correctif artificiel accordant une exclusivité temporaire d'exploitation dont la durée s'allonge progressivement. Il peut aussi être exercé différemment : des pratiques contractuelles plus ouvertes peuvent conduire à la production de biens communs (exemple des licences Creative Commons). Les processus d'élaboration des normes et standards techniques et l'extension des droits exclusifs entraînent des tensions entre les industries culturelles et le public. La normalisation technique constitue un autre exemple de confrontation entre régulation technique et régulation juridique. L'exemple de la norme MPEG-21 montre comment un standard technique peut être élaboré par des intérêts privés en refusant de tenir compte de la norme juridique pour adopter une posture techniciste, et comment la participation et la notion de consensus intervenant dans l'élaboration de cette norme remplacent la représentation de l'intérêt général et renouvellent la notion de gouvernance. Le droit ne doit pas abandonner à la technique tout pouvoir législatif, exécutif et judiciaire : le standard technique peut représenter le droit et notamment les exceptions aux droits exclusifs, mais il ne peut pas remplacer le standard juridique ni les procédures de rédaction, de vote et d'interprétation de la loi. La production de normes sur la base de biens communs pourrait dépasser la seule régulation par le droit et l'autorégulation privée en intégrant transparence et participation ouverte. Le droit peut aussi tenter d'instrumentaliser la technique et conduire ainsi à une « surrégulation ». Par exemple, le filtrage des réseaux et la surveillance des données personnelles, sans assurer pleinement l'effectivité du contrôle des contenus visés, peuvent empêcher des comportements légaux et limiter des droits fondamentaux comme la liberté d'expression et la vie privée. Mais le droit et la technique ont tenté de coopérer : il s'agit des mesures techniques de protection, dites DRMs ou digital rights management systems. Les dispositifs de contrôle d'accès et de limitation de l'utilisation privée assurent plutôt la gestion numérique de modèles économiques. En contradiction avec les principes généraux du droit et de la sécurité informatique, ils entraînent des effets de bord sur l'innovation et sur d'autres droits et libertés. Assurer la protection juridique des mesures techniques sans avoir pris le temps d'analyser leurs effets menace l'interopérabilité et la copie privée. Ces systèmes protègent finalement plus la technique que le droit à l'origine de cet enchaînement. Les mesures techniques de protection ont une application et une effectivité plus larges que le droit d'auteur et les contrats. Le raisonnement juridique intervient en effet a posteriori et comprend un espace de liberté non régulé. Les mesures techniques de protection sont en l'état conceptuellement, techniquement et juridiquement inadéquates pour réguler avec efficacité et équité la mise à disposition des œuvres et des informations sur les réseaux. Cette conception indépendante entre deux types de régulation conduit à un enchevêtrement entre lois et mesures techniques de protection au profit de la régulation technique. Nous proposons donc un modèle fondé sur l'influence réciproque entre les disciplines, visant à la reconception des catégories juridiques du droit d'auteur et à une meilleure expression technique des droits. Le développement d'applications, d'ontologies et de métadonnées juridiques permet une automatisation de la régulation des échanges d' œuvres et d'informations qui reflète les principes du web sémantique et l'esprit du droit et qui en tire parti. Mettant en œuvre une intégration plus équilibrée du droit et de la technique, le modèle proposé est notamment fondé sur l'analyse de licences et modèles contractuels qui se développent sur Internet, entre contrôle d'accès et biens communs. Les mesures techniques d'information permettent de représenter la connaissance juridique, sans remplacer la décision judiciaire. Repères Mélanie Dulong de Rosnay a soutenu en octobre 2007, à l'Université Paris-2, une thèse de doctorat en droit intitulée La mise à disposition des œuvres et des informations sur les réseaux : régulation juridique et régulation technique sous la direction de Danièle Bourcier. Elle poursuit actuellement ses recherches au Berkman Center for Internet & Society de l'Université de Harvard. À partir des normes de la documentation, des langages d'expression des droits ainsi que des outils de l'intelligence artificielle, nous proposons différentes représentations de la connaissance juridique, notamment une catégorisation ontologique de la notion d'absence d'exclusivité. Ensuite, nous modélisons une ressource conceptuelle et relationnelle vers la définition de métadonnées juridiques pour la mise à disposition d' œuvres et d'informations combinant les approches des juristes et des informaticiens avec les usages. L'innovation technique permet également de reconfigurer certaines représentations conceptuelles juridiques : la propriété, les droits personnels (intégrant droit d'auteur et vie privée), l'extension du champ de l'auteur à celui de l'appropriation créative, et la remise en question de certains paradigmes commerciaux et des pratiques de la cession exclusive. La catégorisation juridique devrait dépasser la technique et s'effectuer en fonction des finalités des actions. On observe l'émergence de nouveaux principes du droit, comme la notion d'utilisation non commerciale, et un renouvellement des conceptions du consentement et des formalités du droit d'auteur. Croyant dominer la technique, le droit se laisse en réalité dominer par elle. Cette relation conflictuelle peut se transformer en une collaboration fructueuse en vue d'une régulation plus harmonieuse qui intégrerait les concepts et méthodes du droit et de la technique dans des dispositifs hybrides : les informations sur les droits ou les métadonnées juridiques. Ces dernières peuvent refléter la volonté des individus, accompagner les ressources numériques et s'adapter tout au long du cycle de vie des œuvres et des informations, pour conduire à une régulation plus flexible et un report du moment de la qualification juridique dans le temps. La technique peut exercer une influence sur les catégories juridiques, sous le contrôle du droit qui veille au maintien de ses finalités sociales au travers des évolutions techniques. La technique peut aussi aider à la structuration de ces catégories, permettant ainsi l'interopérabilité sémantique des métadonnées juridiques et la définition d'un vocabulaire commun. L'économie et le droit doivent impérativement se reconfigurer pour intégrer la révolution numérique et accompagner les modèles émergents. Le droit peut le faire en intégrant les notions et méthodes issues de la technique et des usages. Il pourrait alors être envisagé comme une technique modélisable et reconfigurable qui conjuguerait les avantages des deux ordres de la régulation : la flexibilité du droit et l'efficacité de la technique. • Melanie Dulong de Rosnay
La mise à disposition des oeuvres et des informations sur les réseaux est soumise à deux types indépendants de régulation. Une thèse récente propose, pour une régulation plus harmonieuse, un modèle fondé sur l'influence réciproque du droit et de la technique.
sciencesInfo_08-0246266_tei_DOCSI_idPAS_D_ISBN_pu2008-01s_sa05_art05.xml
termith-504-communication
« Les sic : une discipline Genderblind ? » (Coulomb-Gully, 2009) : la question mérite d' être posée .Assurément oui, les sciences de l'information et de la communication (sic) ont longtemps ignoré le genre, mais on observeaujourd'hui une tentative de rattrapage – un ‘ ‘ Gender turn ' '( tout relatif) » (Coulomb-Gully, 2009 : 137) qui peut être attribué aux débats surla parité etle PACS – au regard de la production scientifique croissante sur le sujet. Si l'on peut se réjouir de la progression des travaux portantsur le genre en sic, force est de constater que cettediscipline est loin d'égaler la productivité des MediaStudies nord-américaines ou nord-européennes sur cettethématique, ou même celle des disciplines – anthropologie, sociologie, histoire ouscience politique – qui, en France, ont progressivement intégré la dimension dugenre. À ce titre, la contribution de Marlène Coulomb-Gully est essentielle parcequ'elle identifie les raisons de la réticence des sic àl'égard de ces études et pointe les bénéfices que la discipline retirerait d'unetelle rencontre. Le programme de travail qui conclut la contribution se révèleambitieux puisque, à terme, il s'agit « de proposer un programme de rechercheconsistant à aborder sous cet angle toutes les composantes du vastedomaine des sic » (ibid. : 150). Souscrivantà ce projet, je me propose, dans le cadre de ces « Échanges », d'avancer un certainnombre d'arguments en faveur d'une intégration de l'approche genrée par les sic. Pour comprendre ce que le genre apporte à cettediscipline, il faut définir ce terme, puis saisir la manière dont il est mobilisé etdont il produit des effets de connaissance, et enfin décider de l'utilisation quiparaît la plus heuristique. En France, aujourd'hui, les études de genre neconstituent pas une entité autonome et s'intègrent dans des disciplines déjàexistantes. Elles interrogent les cadres conceptuels, déconstruisent les objets derecherche traditionnels, construisent de nouveaux objets et suscitent d'autresquestions, contribuant à élargir leurs domaines et introduisant parfois devéritables ruptures épistémologiques .Ensuite, à travers l'exemple de ma thèse traitant de la parité dans l'espacemédiatique (Julliard, 2008b), j'apporterai un témoignage plaidant en faveur d'uneinterrogation du genre en sic (Julliard, 2008a) et plusencore, d'une intégration de l'approche genrée. Enfin, j'esquisserai des pistes quiaugurent de la fécondité de cette intégration. Par opposition au sexe (biologique), le genre désigne la construction sociale ,historique et culturelle des rapports de sexe : « La notion de sexe estl'organisation mentale d'idées (représentations, mythes, utopies, etc. : lesexe ‘ ‘ pensé ' ') et de pratiques (rapports sociaux entre les sexes : le sexe‘ ‘ agi ' ') souvent contradictoires [… ]. L'ambiguïté de la notion de sexe ,telle qu'elle se manifeste dans la conscience commune comme dans lesanalyses des sciences sociales et des mouvements de femmes, tient […] aurecouvrement prescrit, au moins dans les sociétés occidentales, entre sexebiologique et sexe social » (Mathieu, 1991 : 228). Le terme « genre » ,traduction de la notion nord-américaine Gender apparue dans les années 60 en anthropologie avant de se diffuser enhistoire, s'impose progressivement en France pour lever cette ambiguïté. Sonadoption constitue un tournant majeur pour les sciences humaines et sociales( shs) : « Là où la catégorie de ‘ ‘ sexe ' ' constitueune variable indépendante, un point de départ dont il s'agit d'évaluer leseffets sur des [phénomènes] qui ont été définis au préalable sans référenceaux rapports sociaux [… ], le genre est au contraire un système de relationssociales qui détermine la définition et le contenu des groupes ‘ ‘ femmes ' ' et‘ ‘ hommes ' ', aussi bien à travers la division sexuelle du travail quel'hétérosexualité normative et par le biais des discours, des idéologies etdes pratiques de la citoyenneté, de la maternité, de la féminité ou de lamasculinité » (Jenson, Lépinard, 2009 : 191). Le genre s'entend à la foiscomme système normatif – il est à ce titre un phénomène empiriquementobservable sur lequel il est possible de produire des savoirs –, et commeoutil conceptuel qui permet d'interroger d'autres objets du point de vue deleur reproduction des rapports de sexe (Butler, Fassin, Scott, 2007). En France, les études des « femmes » ont une histoire relativement longue .Dès les années 50, la sociologie politique, par exemple, s'est intéressée àla place des femmes en politique (Duverger, 1955) ou à la variable du sexesur les comportements électoraux (Dogan, Narbonne, 1955). À partir desannées 60, les femmes jouent de plus en plus le rôle d'actrices dans l'ordrede la connaissance. Sous leur impulsion, les recherches prenant les femmespour objets se multiplient. Dans les différentes disciplines qui lesaccueillent, la question de savoir s'il existe une approche féministedistincte de l'étude des « femmes » se pose. Présupposant « l'existence d'unsujet collectif (les femmes) » et ayant identifié « un problème social (leursubordination dans les rapports sociaux) », entre autres objectifs, laperspective féministe se fixe, « la disparition de la discrimination àl'encontre des femmes, le démantèlement de la domination masculine sur lasociété et la transformation des institutions et des structures légales etsociales qui contribuent aux inégalités sexuées » (Jenson, Lépinard, 2009 :188). À la lecture de cette définition inspirée des travaux de Mary Dietz( 2003), il apparaît que des études prenant les femmes pour objet derecherche ou intégrant la variable de sexe peuvent très bien ne pass'inscrire dans une perspective féministe. Dans les années 70, l'apparitiond'une « histoire sexuée » témoigne de la volonté de quelques individualités« de rendre visibles les femmes comme actrices de l'histoire, comme sujetsde recherche [et] comme historiennes. L'histoire des femmes estindissociable de cette triple démarche : militante, scientifique etinstitutionnelle » (Virgili, 2002 : 5). « Histoire des femmes » ou « histoire des genres » ,« l'histoire sexuée » telle qu'elle s'est développée dans le champhistoriographique, a pris deux directions. Dans un premier temps, c'est une« histoire au féminin » qui prédomine : les travaux portent sur les femmeselles -mêmes, leurs rôles, leurs pratiques, leurs lieux et leurs images .Mais, progressivement, les études des femmes sont perçues comme susceptiblesde renforcer le particularisme féminin, aussi certaines universitairesprônent-elles leur extension aux rapports de sexes. Les travaux se centrentdésormais sur les questions des représentations, des rapports entre espacespublics et privés, du pouvoir et du genre. Des divergences subsistent malgrétout entre les historiennes soucieuses d'un recentrement sur l'histoiresociale des femmes et celles qui prennent parti pour une histoire du genre.Les coordinatrices du dossier « Histoire des femmes, histoire des genres »prennent résolument parti pour cette dernière : « L'appellation histoire desgenres […] veut plaider […] pour une histoire décloisonnée qui permetd'éclairer des objets anciens, de faire jaillir des objets nouveaux et demettre au jour des liens entre des objets jusque -là juxtaposés. […] Ladiversité des champs concernés […] démontre que ce nouveau regard n'a pas defrontière » (Branche, Voldman, 2002 : 3). MichellePerrot (2000 : 90) défend, quant à elle, une histoire des femmes revisitéepar le genre : « Comment étudier des lieux de femmes – couvent, lavoir ,pension, boutique… –, décrire des pratiques féminines – du trousseau àl'écriture de la correspondance – sans les replacer dans une sociétégouvernée par la différence des sexes ? Saisir l'historicité de cettedifférence à tous les niveaux des discours, des pratiques, des espaces, duprivé et du public, du politique et du domestique, du social et del'économique…, est – ou devrait être – la préoccupation d'une histoire desfemmes, résolument et à la fois descriptive et problématique, sociale ,culturelle et politique ». Dans certaines disciplines, les études de genre introduisent plus qu'unnouveau regard, elles constituent une revendication épistémologique. Dans des domaines des sciences humaines et sociales (shs) tels que la sociologie du travail, une « ruptureépistémologique » s'opère véritablement. Cette rupture consiste, dans unpremier temps, en la déconstructiondes catégories biologiques sur lesquelless'appuient les shs. Nicole-Claude Mathieu (1971 )montre par exemple que la manière dont les catégories de sexe sontconsidérées en ethnologie et en sociologie (le masculin relevant du généralet le féminin du particulier) conduit à une impasse méthodologique et rendimpossible tout dépassement de la conception essentialiste du sexe .L'anthropologue opère unedéconstruction du biologique en montrant « non seulement que la ‘ ‘ conditionféminine ' ' n'est pas socialement fixée, mais bien relative […] mais bienplus, qu'il existe, au sein de toute activité, de tout système social, un‘ ‘ système des sexes ' ' « (Daune-Richard, Devreux, 1992 : 9). La ruptureépistémologique consiste, dans un second temps, à mettre en évidence lesrapportssociaux de sexe qui sont à l' œuvre dans ce système : « Lescatégories de sexe ne sont plus des en-soi séparés mais elles se définissentdans et par leur relation » (Daune-Richard, Devreux, 1992 : 9). Lareconnaissance de la transversalité et de l'historicité commecaractéristiques fondamentales des rapports de sexes constituent une avancéeen sciences sociales. La transversalité renvoie à la définition d'un rapportfondamental autour duquel s'organise et se structure l'ensemble de lasociété. En sociologie du travail, le cadre conceptuel de « la divisionsexuelle du travail » est bâti, qui identifie « la forme de division du travail social découlant desrapports sociaux de sexe [… ]. [Cette forme] a pour caractéristiquel'assignation prioritaire des hommes à la sphère productrice et des femmes àla sphère reproductrice […] Cette forme de division sociale du travail adeux principes organisateurs : le principe de séparation (il y a des travauxd'hommes et des travaux de femmes) et le principe hiérarchique (un travaild'homme ‘ ‘ vaut' ' plus qu'un travail de femme) » (Kergoat, 2002 : 36). Pour les sociologues qui adoptent une approche de leur objet par les rapportsde sexe, ceux -ci constituent « une logique d'organisation du social » quiremet en cause le paradigme des champs et la prépondérance des lieux deproduction sur ceux de la reproduction et de la sphère publique sur lasphère privée. Un des apports essentiels de la théorie des rapports de sexeà la sociologie est la remise en cause de certains concepts, notamment ceuxde travail ou de production. Dès lors que la transversalité des rapports desexe est reconnue, il devient possible de considérer l'articulation destrajectoires professionnelles des femmes et des modalités d'exercice dutravail domestique. Par ailleurs, cela témoigne de l'affranchissement desféministes de la conceptualisation marxiste. Ainsi Anne-Marie Daune-Richardet Anne-Marie Devreux (1992) partent-elles de la posture théorique de ladivision sexuelle du travail pour tenter d'appréhender le « travail desfemmes » réalisé dans les sphères professionnelle et domestique. L'activitéglobale de travail et l'interdépendance de ces différentes composantes ,remet en question la notion de travail : « La définition sociale etsociologique du travail […] contraint les acteurs et les actrices à découperleur participation à la vie sociale en ‘ ‘ travail ' ' et ‘ ‘ hors travail ' '. Or ,le travail productif et le travail reproductif s'effectuent souventsimultanément et dans le même espace lorsque l'on est une femme » (ibid. : 18). Ainsi leur conceptualisation de laproduction domestique et de la production de la vie humaine conteste -t-elleune « conception économiciste » du travail qui reconnaîtrait la seuleproduction marchande. Comme en témoignent les exemples pris ici, les études de genre se sontimplantées en France dans des disciplines déjà constituées. Elles se sontdéployées dans les champs du savoir pour étudier un système normatif jusquelà invisible et y ont introduit une autre grille de lecture scientifique :celle de la différence des sexes. Cette approche conduit à la reconstructiondes objets de recherches, à l'émergence de problématiques et àl'élargissement des contours disciplinaires. Parfois, elle parvient à opérerune véritable rupture. Sous le terme « études de genre », coexistent différentes réalités, et ilconvient de démêler entre les utilisations du genre qui sont faites par lesnombreuses études qui se réclament de lui. Le concept de genre implique desanalyses constructivistes des relations et processus sociaux, mais le terme peutêtre utilisé de différentes manières, qui ne rendent pas compte de sa richesseheuristique. Jane Jenson et Éléonore Lépinard (2009) se sont interrogées sur lesusages du genre en science politique et proposent la typologie suivante : legenre peut s'entendre comme dimension sexuée de l'objet de recherche, commevariable dans différentes analyses ou encore comme objet et comme concept. Lesrecherches qui traitent des « femmes » ou qui prennent en compte le genre parcequ'il rend compte des effets des rapports de sexe sur les phénomènes étudiésrelèvent des deux premières catégories. Tel qu'il y estmobilisé, le terme « genre » est une version appauvrie de la conceptualisationambitieuse du genre « appréhendé comme un processus social dont il s'agitd'analyser la construction et les évolutions dans un contexte historique etsocial donné » (Jenson, Lépinard, 2009 : 198). Cette clarification a le méritede mettre en garde sur l'utilisation abusive du terme qui nous permettraitd'arguer d'une intégration du genre en sic à moindrefrais. Si les études qui prendraient les femmes pour objets de recherche outiendraient compte des rapports de sexe participent du rattrapage nécessaire dessic, c'est bien la troisième approche qui paraîtdétenir la plus grande valeur heuristique. L'approche genrée que nous défendonss'apparente à une grille de lecture qui tient compte de la transversalité desrapports de sexe et se joue des frontières, notamment disciplinaires. Ce regardest une promesse de renouvellement des interrogations propres aux sic. En sic, il existe peu de travaux sur les femmes oule genre. En dépit de la précocité des travaux de Michèle Mattelart (1970 ,1986) sur la thématique « genre et médias », ou de Josiane Jouët (1987 ,1993) sur la thématique « genre et technologies de la communication », aucuncourant de recherche ne s'est constitué autour de la problématique du genreet de la communication. Au tournant des années 1990 et 2000, les débats surla parité et sur le pacs placent la question dugenre au sein du débat public et interpellent de nombreuses disciplines. Aunombre de celles -ci, les sic « s'orientent vers[ cette] question […] par le biais d'interrogations autour de l'espace publicet de la communication politique ». Les introductions des dossiers consacrésau genre dans ces domaines par les revues labellisées en sic les inscrivent effectivement dans le contexte de la récenteparité. « La parité […] sert de toile de fond à la plupart descontributions » constatent Béatrice Fleury et Jacques Walter (2005 : 9) dansla présentation d' « Espaces publics au féminin ». « Entre la circulaire surla féminisation des noms de métiers de 1997 et la loi sur la parité en 2001 ,la volonté politique d'affirmer l'égale participation des deux sexes auxdifférentes formes du pouvoir s'inscrit-elle dans un mouvement où ladimension masculine de l ' ethos politique est enrecul au profit de représentations et d'imaginaires plus ouverts à lamixité ? » s'interrogent pour leur part Dominique Desmarchelier et JulietteRennes (2005 : 5), en introduction d' « Usages politiques du genre ». Dans sapropre contribution au dossier « Une communication sexuée ? », MichèleMattelart (2003 : 30) s'interroge : « Pourra -t-on longtemps parler en toutecohérence de parité sans soulever la question de la politique dereprésentation de l'image de la femme dans les médias ? ». De fait, laparité a inspiré plusieurs travaux en sic – dont mathèse, débutée en 2003. Le genre y est appréhendé à la fois comme objet derecherche – un processus social dont il s'agit d'analyser la construction etles évolutions dans un contexte social et historique donné – et commequestion « tranchante » sur la manière dont la différence sexuelle estconçue (Scott, 1988). Le rattrapage entamé au début des années 2000 est plus que nécessaire pour legenre comme pour les sic. J'exposerai d'abord laplus-value que constitue l'approche communicationnelle du genre, objet derecherche transdisciplinaire dont l'étude est essaimée dans les différentessciences humaines et sociales, relativement à des disciplines voisines quile traitent usuellement. J'expliquerai ensuite pourquoi les sic ont, quant à elles, intérêt à faire toute saplace au genre, comme objet de recherche et outil conceptuel. Au lendemain de l'adoption de la loi dite sur la parité (6 juin 2000) ,nombreux sont les travaux qui, en science politique, se sont interrogés surla manière dont le genre serait devenu une ressource politique, étudiantpour ce faire discours politiques et médiatiques. Par exemple, DelphineDulong et Frédérique Matonti (2005) observent que le cadrage médiatique desmunicipales de 2001 sous l'angle de la première application de la loi sur laparité à une élection donne lieu à un « retournement du stigmate » : sil'appartenance au sexe féminin constitue toujours une marque en politique ,celle -ci serait désormais valorisée. Cela encouragerait les femmespolitiques à se prévaloir de qualités qui leur sont « naturellement »reconnues. Les chercheuses s'interrogent en ces termes : les médiasassignent-ils les candidates aux rôles et qualités traditionnellementreconnus à leur sexe, ou offrent-ils la possibilité de faire de leur genreune ressource politique ? Suzanne Lévêque (2004) et Marion Paoletti (2005 )qui, à la suite de Delphine Dulong et Frédérique Matonti, étudient l'usagedu genre en politique aux élections législatives de 2002, constatent que la« parenthèse enchantée » ouverte en 2001 s'est refermée l'année suivante ,l'appartenance au sexe féminin n'aurait fonctionné comme marque positivequ' à l'occasion des élections municipales. Un scrutin qui autorise uneapplication plus souple de la parité, la récentedéfaite de Lionel Jospin aux présidentielles et le jeu politique qui a finipar absorber la réforme, contribuent, selon elles, à faire disparaître lathématique de la parité dans les discours politiques et les médias. De fait ,l'appartenance au sexe féminin – et sa coïncidence avec les assignationsgenrées normatives – cesserait d'apparaître comme une ressource positive. Laquestion de savoir si le genre (recouvrant le sexe) constitue oui ou non uneressource politique paraît peu pertinente. Lucie Bargel, Stéphane Latté etÉric Fassin (2007 : 71) ,qui étudient l'usage du genre en 2001 dans un conseil municipal, estimentpour leur part que « l'alternative entre contrainte et ressource, entreidentité féminine incorporée et jeu tactique avec le genre, peine […] à êtretranchée empiriquement. L'analyse bascule d'un pôle interprétatif à l'autreselon l'indice que l'on retient » – observation des pratiques, réflexivitédes acteurs au cours des entretiens ou verdict de la trajectoirepolitique. Dans mes propres recherches (Julliard, 2008b), j'ai questionné la manièredont les médias et les femmes politiques participaient conjointement à laconstruction du genre en politique. La dimension communicationnelle desdiscours politiques est en partie éludée par ces travaux qui se focalisentsur le contexte politique et restent souvent marqués par une conceptioninstrumentale des différents processus de médiation du politique. A contrario, l'ancrage en sic rend toute recherche attentive à la dimensioncommunicationnelle des processus de médiation du politique. La médiatisationdes débats sur la parité doit être considérée au même titre quel'application de la loi dite sur la parité dans la compréhension des facteurs quisuscitent la mobilisation récurrente de « l'argument par le genre ». En tant que lieux de médiation d'unesociété avec elle -même, les médias constituent une source d'informations, desavoirs et de représentations partagées. Dans le texte de loi, rien nepréjugeait un recadrage normatif des identités sexuées (Julliard, 2008b). Enrevanche, la manière dont les débats sur la parité en politique sontstructurés par l'arène médiatique conduit à s'interroger sur la possibilitéd'un exercice féminin du pouvoir. La parité est tour à tour revendiquée aunom de l'égalité entre les sexes et de la justice, du soutien qu'ellerencontre dans l'opinion politique, et de la nécessaire modernisation de lavie politique. Cette modernisation s'opèrerait du fait que les femmes, eninvestissant le champ politique, en renouvelleraient non seulement lesproblématiques mais encore les valeurs. Ce dernier argument repose surl'affirmation d'une différence entre les sexes, tantôt liée à l'expérience ,tantôt liée à la nature. C'est bien la structuration médiatique des débatsqui place au centre des discussions l'argument différencialiste, la questionde savoir si les femmes feraient de la politique autrement. La construction du genre en politique gagne à être étudiée par une disciplinedont l'originalité réside dans l'articulation de méthodologies (Miège, 2000 )et de problématiques (Ollivier, 2001) interscientifiques qui permet deconstituer des objets de recherche complexes. Ces derniers se caractérisentpar leur attachement à la dimension technique des objets concretsmatérialisant les processus communicationnels (Davallon, 2004). Aussi unebonne connaissance de ces objets techniques est-elle indispensable pourcomprendre ce qui se joue dans les échanges qu'ils permettent tout en lesformatant. M'inscrivant dans une démarche sémiotique, je tire profit d'uneapproche communicationnelle qui fait dialoguer les regards disciplinairespour étudier le genre dans son historicité. Telle que je l'entends ,l'approche interdisciplinaire permet d'appréhender les représentationsmédiatiques comme autant de propositions de sens qui résultentd'énonciations plurielles, historiquement et socialement situées, tout enaccordant une grande attention à la dimension matérielle de leurinscription. J'ai étudié les effets de la variation de contexte, de genremédiatique, de support et de dispositif de communication sur l'expression dugenre en politique. L'étude portait sur les couvertures et les articlesappelés à la Une de quatre news magazines – L'Express, Marianne, Le Nouvel Observateur et LePoint – et d'un mensuel féminin – Marie-Claire – publiés entre mai 1996 et octobre 2004, ainsi quesur trois ouvrages autobiographiques de femmes politiques : La vérité d'une femme (Royal, 1996), Être femme en politique (Guigou, 1997), Deux femmes dans le Royaume des hommes (Bachelot ,Fraisse, 2000). Les résultats complètent et nuancent ceux exposés parDelphine Dulong et Frédérique Matonti. Comme elles, j'observe que les médiasopèrent une réévaluation normative des identités sexuées à la faveur desdébats sur la parité, et que les femmes politiques participent à cetteréévaluation en mobilisant plus ou moins stratégiquement des arguments parle genre pour légitimer leurs candidatures en certaines circonstancesélectorales. La généralisation de « l'argument par le genre » a pour effetde rendre plus visible les décalages entre « sexe pensé » et « sexe agi » .Sa confrontation a des individualités situées multiplie les articulationspossibles entre sexe et genre et complexifient les représentations. Si lecontexte paritaire rend possible, voire encourage, la mobilisation del'argument par le genre, la généralisation de celle -ci ne s'en accompagnepas moins d'une forme de réflexivité. Pensé et interrogé, le genre sedévoile en tant que système normatif. Étudiant la presse sur presque dixannées, j'observe également les inflexions de ce système normatif. De même ,je constate l'usage variable qui est fait du genre, non seulement selon lecontexte politique, la personnalité et la situation des femmes politiques, mais aussi selon les langages mobilisés etleurs supports, les thèmes au sujet desquels les discours sont convoqués etles genres médiatiques. Par exemple, l'entretien qui favorise le discoursdirect et résulte d'une négociation (au sens fort) entre le titre, lapersonnalité politique et son équipe de communication, laisse les femmespolitiques plus libres d'échapper en partie au cadrage par le genre. Lapersonnalité de l'interviewée ou les sujets abordés deviennent alors desfacteurs plus déterminants. Aussi puis -je former l'hypothèse d'un lien entreexpression du genre en politique et dispositifs de communication. Lacampagne des candidates aux élections présidentielles de 2007 offrel'occasion de vérifier cette hypothèse. Les élections présidentielles de 2007 constituent un tournant dans l'histoirede la progression des femmes en politique : record de candidates ,investiture de la première présidentiable, duel du second tour se jouantentre un candidat et une candidate, mobilisation intense d'une argumentationplus ou moins directe par le genre à un moment ou à un autre de la campagnepar les deux finalistes. J'étudie alors la construction du genreen politique dans la presse écrite – quotidienne et hebdomadaire – et surles sites de campagne des candidates. De fait, le Web politique a connu unfort développement à partir de 2005 – grâce aux blogs notamment (Cardon, Delaunay-Teterel, 2006) – et, en 2007, tous les candidatssont dotés de sites de campagnes plus ou moins élaborés. Je m'intéresseparticulièrement aux formes de l'expression du genre et m'interroge sur sapossible reconfiguration dans ces dispositifs de communication numériques .Le couple de notions « tactique/stratégie » permet de qualifier les régimesdiscursifs relatifs au genre propres à la presse écrite et aux médiasinformatisés. La stratégie est au fondement de la rationalité politique etsuppose un lieu propre à partir duquel se déployer. La tactique est l'acte ,la manière « de ‘ ‘ saisir ' ' l'occasion » dans le lieu de l'autre (de Certeau ,1980 : xlvii). Dans la presse écrite, où lediscours des femmes politiques subit un cadrage sur lequel elles ont peu deprise, ce régime est tactique. Le cadrage de lacampagne présidentielle y est fortement genré et ce, d'autant plus que laligne éditoriale est défavorable au candidat, mais lapolyphonie du discours journalistique brouille la construction du genre etl'évolution de la campagne et des candidats multiplient les jeux du sexe etdu genre (Achin, Dorlin, 2007). Sur leurs sites de campagne où ellesmaîtrisent leur énonciation, inscrivent les énonciations extérieures dansleur projet éditorial et définissent les règles d'interaction avec lesinternautes (quand celle -ci est permise), le régime discursif relatif augenre est stratégique. Dans ce lieu qui leur est« propre », il leur estnotamment possible de citer leurs discours médiatisés pour les recadrer àleur avantage. La comparaison montre que le genre s'exprime moins sur lessites de campagne que dans la presse écrite. Même les candidates qui en fontun usage soutenu et régulier dans les médias traditionnels ou lors demeetings ne le mobilisent qu'indirectement dans les espaces de leurs sitesdédiés à leur seule énonciation. L'argument n'est explicitement formulé quedans les espaces ouverts à d'autres énonciations que celles de l'autoritééditoriale du site. Cette externalisation d'unargument ambigu témoigne d'un usage stratégique deleur genre dans le cadre de ce dispositif de communication. Les candidatesaux élections présidentielles tirent profit de ces dispositifs decommunication numériques parce qu'ils constituent un espace de reculstratégique où elles peuvent forger des usages alternatifs du genre. Cetespace matérialise encore la « victoire du lieu sur le temps » (de Certeau ,1980 : xlvii). Sur leurs sites de campagne, lescandidats ne sont pas soumis aux règles « médiatico-électorales » (Sainteny ,2004) qui limitent le temps de parole. S'il leur est possible de revenir surles discours médiatisés pour les recadrer, il leur est également possible dediffuser des messages ignorés par les grands médias et notamment – puisquele calcul du temps de parole est évoqué – la radio ou la télévision. Le genre est au soubassement de l'organisation sociale et symbolique dessociétés humaines; il est également facteur d'historicité. En témoignentles progrès en matière de protection, de droit et de liberté pour les femmeset le changement de leur statut dans la société du XX e siècle. Objet de recherche transversal, il stimule de nombreuses recherchesen anthropologie, en histoire, en sociologie. Appelant de ses vœux ladissolution de la « valence différentielle des sexes » (Héritier, 1996 : 15), Françoise Héritier (2002 : 29) recommande, pourcela, qu'une grande attention soit portée aux représentations véhiculées parles médias. Conduite à étudier des objets ancrés dans l'actualité à travers les phénomènes demédiatisation, la discipline se voit interpelée. Lamultiplication des travaux qui contribuent à rendre les femmes visibles, àdessiller le regard sur leur disqualification et à déconstruire lescatégories réaffirment le rôle social des sic. Latransversalité du genre, saisissable dans les discours en même temps quedans les pratiques, révèle également le bénéfice de l'interdisciplinarité ,et notamment l'articulation des méthodologies de la sémiotique et del'ethnosociologie. Mais le genre, cela a été précisé, ne désigne passeulement un système normatif (objet de recherche), il renvoie également àune manière d'interroger (outil conceptuel). Outre la production de connaissances, les recherches sur le genre offrentl'occasion de remettre en question les modèles théoriques et de renouvelerles approches en articulant cette nouvelle problématiques à d'autres déjàreconnues pour enrichir l'appréhension d'objets plus institutionnalisés( voire d'en construire de nouveaux). Dans les pays où les études de genreont été accueillies par les Media Studies, celles -cis'en sont bien portées. Le genre les a invitées à renouveler les questionsdu pouvoir des médias, du statut de la réception, ou de la production dusens (Van Zoonen, 1994; Mattelart, 2003). Il est désormais impensabled'aborder certains sujets sans mobiliser la problématique du genre. Onobserve alors une articulation de cette problématique et des problématiquestraditionnellement investies par les sic. En effet ,comment une recherche sur le traitement médiatique de la campagneprésidentielle de 2007 pourrait-elle faire l'économie d'une prise enconsidération du genre comme facteur constitutif de la communicationpolitique et de sa réorientation par les journalistes ? Les moinsréfractaires aux études de genre considèrent que la pertinence d'uneapproche genrée varie selon les objets de recherche. Si le concept de genrese révèle productif pour expliquer les phénomènes touchant les rapportssociaux de sexe, il l'est également pour dévoiler la dimension genrée dephénomènes jusqu'alors considéré comme a priori neutres. Aussi, selon moi, la mobilisation de ce concept doit-elle se généraliser ensic. D'abord, si l'on reconnaît que lesrapports de sexe sont aux fondements de la société, il faut admettre qu'ilssont au centre de tout processus de communication. Cela implique « unerefonte générale de notre appréciation communicationnelle » (Coulomb-Gully ,2009 : 144) et la mobilisation systématique du prisme théorique du genre .Ensuite, j'ai rappelé que l'originalité des sic tient à leur manière de construire leurs objets en articulant lesproblématiques interscientifiques. En sic commepour les études de genre, il n'existe pas d'objet en soi, mais bien desmanières de le constituer; et la complexité de cette constitution dépenddes approches adoptées et articulées. La vitalité des sic tient à leur capacité à intégrer des paradigmes, des concepts ,des problématiques et des méthodes venus de disciplines voisines. L'enjeuque revêt l'articulation des approches genrée et communicationnelle estcelui de la productivité de ce champ disciplinaire. Cette articulation doitpermettre la production d'analyses interdisciplinaires réutilisables hors duchamp des sic. Plaisons -nous à imaginer que legenre pourrait alors servir l'expansion de notre discipline. Dans le cadre d'une inscription en sic, et certainede la productivité que constituent les études de genre pourl'interdiscipline, je voudrais esquisser quelques unes des pistes derecherche qu'ouvrent l'étude des dispositifs techniques de médiation dupolitique conduite selon une approche qui articule les perspectives genréeet communicationnelle. Dans la continuité de la recherche doctorale, il me semble que le rapport entreles formes de la mobilisation du genre comme argument politique et la nature desoutils de communication employés mériterait une étude plus approfondie. Pour cefaire, plusieurs pistes paraissent devoir être explorées. Il faudrait étudierplus systématiquement l'expression du genre selon les régimes discursifs propresà chaque dispositif de communication. Une seconde piste, complémentaire ,consisterait à évaluer dans quelle mesure les nouveaux dispositifs de médiationdu politique participent de la reconfiguration des formes de l'expression dugenre en politique en différentes circonstances. Étudier l'implication du corps ,et notamment de la voix, dans les dispositifs de médiation du politique et leseffets de cette implication sur la construction du genre enrichiraitconsidérablement ce travail. Cette réflexion sur les liens entre régimediscursif relatif au genre et dispositifs de communication ouvre d'importantesperspectives pour les travaux qui, dans le champ des sic, étudient la dimension symbolique des médiations en politique ,d'une part, et la configuration du genre par les technologies de l'informationet de la communication (tic), d'autre part. Ma recherche s'inscrit précisément à l'interstice de ces deux questions etrenouvelle les promesses de productivité d'une articulation des approches genréeet communicationnelle. Jusqu' à présent, j'ai étudié les formes de l'expressiondu genre par les femmes politiques dans différents dispositifs de communication .Dans le cadre d'une recherche collective ,j'étudie les formes de l'expression citoyenne dans différents dispositifs deconcertation mis en place au niveau local sur des questions environnementales .En science politique, les dispositifs de concertation en ligne ont d'abord étéconsidérés comme susceptibles de perfectionner la démocratie dans le cadre duparadigme délibératif (Monnoyer-Smith, 2009). Ceux -ci témoignent d'une volontédes politiques de faire évoluer les conceptions de la représentation et de laparticipation, et de légitimer leurs actions à travers l'invention de nouvellesformes de médiation permettant, notamment, une meilleure inclusion des citoyensdans le processus décisionnel. Plus récemment, ces travaux s'intéressent à ladimension technique des dispositifs : d'abord en s'interrogeant sur lacontrainte extérieure qu'elle exerce sur la parole, ensuite en réfléchissant surl'inscription technique des pratiques de pouvoir. Comme le remarque LaurenceMonnoyer-Smith, ceci implique une évolution des méthodologies et un intérêtrenforcé pour les conditions de production des discussions et non plus pour lesseules discussions (ibid.). Les sic apportent alors un éclairage pertinent à l'étude d'un tel objet .Par ailleurs, l'intérêt croissant de la science politique pour les phénomènes demédiation technique constitue un nouvel enjeu pour notre discipline qui doitconsolider, sur ce point, sa spécificité. Bruno Ollivier (2001) rappelle que« dans toute communication se trouv[ent] impliquées les trois dimensions ,systématiquement liées, de sens, de pouvoir et d'identité, chacun de ces troispôles (sémiotique, politique et social) renvoyant aux (et étant défini par les )deux autres. » Il ajoute que l'approche sémiologique (dans son acceptionstructuraliste) n'étant plus pertinente, « c'est l'intégration des perspectivesd'analyse de sens à des problématiques sociales, appuyées sur l'analyse deproduction technique qui constitue un [des] premier[s] enjeu[x] » épistémologiqueauquel se voit confrontés les sic. Dans ma thèse, j'ai observé que l'approche genrée éclairait l'appréhension d'unethématique usuellement traitée par les sic – lesmédiations techniques – en pointant la variation de l'usage du genre qu'ellesrendaient possible. Ainsi la prise en compte de la variable du genre permet-elled'avancer sur le questionnement. L'un d'eux porte sur la manière dontl'hybridation de dispositifs de concertation permettrait l'inclusion d'un plusgrand nombre de participants, de modalités d'expression et de préférencesaxiologiques et, ce faisant, participerait à une reconfiguration des rapports depouvoir. Or, l'identification de formats d'expression généralement plus usitéspar les femmes – le récit par exemple (Black, 2009) – permettrait de percevoirl'inclusion d'une partie de la population habituellement exclue de laconcertation : les femmes les moins éduquées. Ainsi la variable du genreaffine -t-elle la perception de l'ouverture des débats à des formes d'expressionet à des thématiques variées dans le cadre de procédures de concertation quihybrident des dispositifs en ligne et hors ligne. Outre la variable, c'estl'outil conceptuel qui doit être mobilisé. Le caractère excluant du formalismeexigé pour la prise de parole dans l'espace public a été dénoncé par la critiqueféministe anglo-saxonne (Young, 1986). Je pense qu'il serait pertinent d'étudiersi et dans quelle mesure les nouvelles procédures de concertation participent àune reconfiguration de la norme sociale du genre. Les questions de la divisionsexuelle du travail et du corps font ici leur retour. En effet, commentinterpréter la plus grande participation des femmes aux débats en ligne sanstenir compte des horaires auxquels sont programmés les échanges en face à face ,ou des compétences en termes de prise de parole publique qui s'estiment à l'aunede l'habileté rhétorique mais encore de la portée et du ton de la voix (Bargel ,Fassin, Latté, 2007) ? À terme, c'est la question de la configuration desrapports de pouvoir dans les dispositifs de médiation ou de médiatisation quibénéficiera de l'articulation des approches genrées et communicationnelles. Poursuivant la réflexion de Marlène Coulomb-Gully, j'ai plaidé en faveur d'uneintégration du genre par les sic. Si le genre constitueun objet de recherche dans plusieurs champs disciplinaires, il me semble quec'est dans son acception d'outil conceptuel que son intégration s'avère la plusheuristique. S'il n'existe pas d'objet de recherche qui soit propre aux sic, en revanche, c'est leur démarche qui lesdistinguent elles qui articulent plusieurs perspectives pour construire desobjets de recherche complexes. Mêler l'approche genrée à l'approchecommunicationnelle conduit à tenter de percer de quelle manière les rapportssociaux de sexe structurent les processus communicationnels et comment ceux -cicontribuent à la reconduction ou à la reconfiguration de ces rapports. Ce quiconstitue un autre enjeu épistémologique pour les sic .Persister à ne pas tenir compte d'un des systèmes normatifs qui structurent à lafois le social, le politique, la technique et le symbolique – autant dedimensions impliquées dans les processus communicationnels – reviendrait àrenoncer à ce qui fait l'originalité de cette discipline dans le champ dusavoir .
Il s'agira ici de montrer combien l'intégration du genre en sciences de l'information et de la communication est productive. Le genre est usuellement compris comme la construction socio-historique de la différence des sexes. Les études l'utilisent au moins de deux manières: d'abord comme système normatif sur lequel il est nécessaire de produire des connaissances, ensuite comme outil conceptuel permettant de questionner d'autres objets sur la manière dont est conçue la différence sexuelle. Ainsi sera mis en évidence le fait qu'il est pertinent d'intégrer ces deux aspects en sciences de l'information et de la communication, pour le plus grand bénéfice des études de genre comme de cette discipline.
sciencesInfo_11-0030149_tei_1062.xml
termith-505-communication
L'enjeu que représente pour un producteur d'énergie comme EDF la maîtrise des connaissances nécessaires et utiles a conduit à mettre en œuvre différents projets pour les gérer. En partant des besoins effectifs, ces projets ont mis en œuvre divers types de démarches et se sont appuyés sur plusieurs familles de systèmes d'organisation des connaissances (SOC). Au travers des activités d'EDF, de nombreux documents sont exploités et produits. Ces documents ont plusieurs rôles : certains peuvent être vus comme la trace visible de l'utilisation ou de la capitalisation de connaissances; d'autres sont produits dans un but différent mais sont potentiellement porteurs de connaissances ou d'informations utiles. Dans cet article, nous proposons une analyse de démarches de gestion de connaissances existant à EDF en préalable à la spécification d'une méthodologie de gestion des connaissances incluant la caractérisation des systèmes d'organisation de connaissances (SOC) associés. Dans un premier temps la section 2 présente plus précisément les enjeux pour EDF de la gestion des connaissances et les contraintes induites. On y trouve également les types de connaissances considérés ainsi qu'un classement des grandes familles de besoins d'EDF en gestion de connaissances, au regard de projets passés et en cours dans ce domaine. La section 3 présente brièvement les démarches déployées à EDF pour traiter ces besoins et se focalise particulièrement sur la dimension documentaire de celles -ci, ainsi que sur les fonctionnalités apportées par les supports applicatifs ou documentaires mis en œuvre. Enfin, la section 4 présente les SOC développés pour structurer ces différents supports; après les différents critères d'analyse, nous présentons des SOC mis en œuvre dans les supports de gestion de connaissances au travers de quelques projets illustratifs. Le groupe EDF est un leader mondial de l'énergie présent sur tous les métiers de l'électricité, de la production jusqu'au négoce et aux réseaux, ainsi que sur la chaîne du gaz naturel. Au sein du Département « Simulation et Traitement de l'information pour l'Exploitation des systèmes de Production » d'EDF Recherche & Développement, nos travaux et développements portent essentiellement sur les activités de producteur d'électricité d'EDF; les réflexions que nous présentons ici peuvent toutefois avoir une portée plus large. L'activité d'EDF, et en particulier son activité de producteur d'électricité, présente certaines caractéristiques. Tout d'abord, elle met en œuvre des systèmes techniques complexes et nombreux sur ses installations de production d'énergie. La durée des cycles de vie industriels dans ce domaine est extrêmement importante : ces cycles peuvent dépasser 60 ans pour une centrale nucléaire entre le début de sa conception et l'achèvement de sa déconstruction. Aussi, ces cycles dépassent amplement la durée d'une carrière professionnelle, d'où le besoin de passages de relais, ce phénomène étant amplifié par la forte mobilité interne et parfois le faible temps de recouvrement entre entrants et sortants. De plus, certaines opérations sont très peu fréquentes, certains défauts sont très rares, et la latence entre deux mises en œuvre ou deux constats induit des risques d'oubli et de perte de savoir-faire. Par ailleurs, l'organisation de l'entreprise présente une certaine complexité du fait de ses différentes activités et des systèmes à maîtriser. Les installations d'EDF sont dispersées dans le monde entier : les connaissances sur un sujet donné peuvent donc être maîtrisées par des acteurs géographiquement éloignés. Outre les difficultés de rassembler et recueillir une expertise dispersée, la répartition des installations impose une nécessaire dissémination : les connaissances détenues par quelques-uns doivent être accessibles à toutes les personnes qui ont besoin de les utiliser. C'est typiquement le cas lorsqu'il s'agit de faire partager aux acteurs d'autres sites un retour d'expérience observé sur un site. Le secteur d'activité de l'énergie, tout particulièrement de la production d'énergie nucléaire, est par ailleurs fortement réglementé et les contextes technique et socioéconomique dans lesquels se situe l'entreprise sont en constante et rapide évolution. Ces caractéristiques soulignent le fait que le bon déroulement des activités d'EDF suppose la mise en œuvre efficace de nombreuses connaissances souvent complexes : les experts 1, ainsi que leur savoir et savoir-faire, jouent un rôle essentiel dans les activités de conception, d'exploitation, de maintenance et de déconstruction des outils de production. Pour EDF, assurer la préservation des savoirs et savoir-faire de ses experts est donc un enjeu majeur, notamment dans le domaine de la production nucléaire. Les connaissances utiles ne se limitent pas aux connaissances techniques sur les systèmes utilisés, et encore moins aux seuls savoirs formels, théorisés. Si l'on reprend les analyses présentées dans (Wiig, 1998), on doit envisager, outre les connaissances et savoir-faire métiers – en général effectivement techniques dans le domaine de la production d'énergie –, des connaissances de navigation et de maîtrise de la structure de l'entreprise (par exemple, savoir avec qui travailler pour résoudre un problème, identifier le circuit de décision pour mettre en œuvre une solution ou encore savoir où trouver une information…). Les travaux de Wiig mettent ces deux types de connaissances à peu près à parité. En outre, une part importante des connaissances, à EDF, s'élabore à partir d'une mémoire de faits (notamment le ReX ou Retour d'eXpérience), c'est-à-dire de la bonne conservation d'informations significatives et de leur mobilisation efficace pour construire des solutions à de nouveaux problèmes rencontrés. Une autre manière de caractériser les différents types de connaissances s'attache plus à la relation entre ces connaissances et les acteurs qui les portent et les exploitent. En reprenant le découpage proposé par I. Nonaka (Nonaka, 1994; Nonaka et al., 1995), on distingue les connaissances tacites (maîtrisées par des individus) et les connaissances explicites (formalisées et tracées, par exemple sur un support pérenne tel un livre, une base de données…). Ce découpage permet d'identifier quatre grandes classes d'activités de gestion de connaissances selon le type de transfert de connaissances qu'elles gèrent. La première classe est la socialisation, pour les activités mettant en relation des connaissances tacites (et donc les acteurs qui les détiennent); on peut citer ici des activités de compagnonnage par exemple. L'externalisation correspond aux activités qui visent à expliciter des connaissances tacites; par exemple, de nombreuses activités à EDF demandent à différents acteurs d'expliciter leur retour d'expérience. La réciproque est l'internalisation, pour les activités qui visent à permettre aux acteurs de s'approprier des connaissances explicites; en retour, les retours d'expérience explicités doivent être pris en compte par les différents acteurs métiers n'ayant pas vécu ces expériences. Enfin, la combinaison rassemble des activités visant à mettre en relation des connaissances explicites, non seulement avec des objectifs de consolidation ou d'alignement, mais aussi pour en construire de nouvelles. La gestion des connaissances vise à répondre à des besoins d'EDF en prenant en compte ses contraintes présentées en section 2.1. Un point de départ, obligé selon (Davenport, 1997), est de répondre à un besoin réel et exprimé des utilisateurs, et non pas de ce que d'autres personnes imaginent pour eux. Cette nécessité, d'apparence simple et évidente, n'est pas toujours satisfaite dans la réalité et son insuffisante prise en compte représente une source non négligeable d'échecs de projets dans le domaine de la gestion des connaissances (Mahé, 2005). En s'inspirant de (Mahé et al., 1998), on peut proposer un classement des motivations des besoins vis-à-vis de connaissances dans l'entreprise. La première est de conserver : l'entreprise doit conserver, au fil du temps, la maîtrise de connaissances utiles pour le bon exercice de son métier. Du point de vue de l'entreprise, cela ne signifie pas forcément que cette conservation s'appuie sur la détention de cette connaissance par le même individu au fil du temps. Lorsque la conservation n'a pas été possible, une deuxième motivation est de réparer les pertes : lorsque des connaissances utiles ne sont plus accessibles ou disponibles, il est nécessaire, de façon réactive, de réacquérir ou reconstruire les connaissances perdues (si cela est possible). Un tel constat a souvent l'effet induit de renforcer la motivation à conserver d'autres connaissances que l'on pourrait perdre. La motivation de faire émerger apparaît lorsqu'il ne suffit pas de conserver les connaissances acquises pour continuer à faire la même chose mais qu'il faut pouvoir faire mieux (avec de nouvelles connaissances), par exemple pour acquérir un avantage concurrentiel. Les technologies évoluent rapidement 2. L'importance croissante des préoccupations liées à l'environnement, à la sécurité, à la radioprotection, à la sûreté et à l'acceptabilité du nucléaire impose aussi de garantir la maîtrise de phénomènes, d'interactions, d'événements futurs non encore envisagés. La quatrième motivation est d'exploiter efficacement : dans un contexte industriel, une connaissance est mise en œuvre pour répondre à une attente ou un besoin comme celui de prévenir une défaillance, ou celui d'identifier la réponse à apporter à un problème, etc. Par exemple, pour un ensemble de spécialistes en traitement du signal et des images (TSI) de la R&D d'EDF 3, le besoin d'exploiter efficacement les connaissances va se manifester par le besoin d' être aidés pour identifier ce qui peut être réutilisé (données, fonctions, logiciels de lecture mis en œuvre dans des études passées), et déterminer, le cas échéant, comment les récupérer effectivement. Pour exploiter efficacement des connaissances, on rencontre également la préoccupation de diffuser : pour être utilisée, une connaissance doit souvent être maîtrisée par des personnes bien au-delà de celles qui l'ont acquise ou élaborée dans leurs activités présentes. On peut penser typiquement à la connaissance sur les défaillances d'un matériel, utile pour tous les exploitants de ce matériel même s'ils n'ont jamais été confrontés à cette défaillance. Le besoin peut aussi être exprimé de partager : il est opportun, sur certains domaines, que certaines connaissances soient maîtrisées de manière cohérente par plusieurs acteurs afin d'assurer une bonne homogénéité de pratiques, de mutualiser certaines activités et de rendre efficaces les échanges d'informations. Un besoin de normaliser peut aussi apparaître : lorsque des connaissances doivent être partagées, transmises, exploitées par plusieurs acteurs ou que des connaissances sur plusieurs domaines doivent concourir à un objectif global, il est parfois pertinent que la manière de présenter, de décrire et de mémoriser ces connaissances s'appuie sur une démarche ou une présentation standardisée. Enfin, il ne faut pas oublier le besoin de perdre : ce besoin peut sembler a priori paradoxal, mais il est néanmoins une nécessité dans certaines situations. Il peut être nécessaire d'éliminer 4 des connaissances, devenues obsolètes, mais qui sont tellement instituées, dans les procédures ou l'esprit des personnes, qu'elles continuent à imposer des contraintes, même si leurs raisons d' être n'existent plus. Il faut également éliminer des connaissances, afin de permettre l'innovation (Hedberg, 1981); c'est le cas notamment lors d'un changement radical de technologie. Pour traiter ces besoins, plusieurs démarches sont mises en œuvre à EDF. Ces démarches peuvent souvent être qualifiées de démarches de « gestion de connaissances » dans la mesure où elles implémentent des fonctions conçues pour répondre à un ou plusieurs besoins de gestion de connaissances. Ces fonctions peuvent, selon les cas, viser la production d'artefacts qui serviront ensuite à consulter, pérenniser, échanger, exploiter les connaissances (documents, outils logiciels, portails collaboratifs…) ou bien mettre en place une organisation, des processus, susceptibles de faciliter l'usage des connaissances (par exemple, mise en place de binômes, de compagnonnage, de nouvelles organisations du travail, etc.). On notera également que certaines démarches ou certaines fonctions mises en œuvre dans l'entreprise ne sont pas toujours étiquetées comme relevant de la gestion de connaissances mais véhiculent et servent de support à des connaissances, et, de ce fait, répondent à des besoins de gestion de connaissances, tels que décrits précédemment. Dans cette seconde catégorie, on inclut des fonctions et démarches telles que la programmation et la gestion budgétaire des activités, qui définissent leurs objectifs, leurs ressources et permettent le suivi de leur réalisation, la gestion documentaire (propre à un projet ou patrimoniale au niveau de l'entreprise), les processus qualité, etc. Les démarches de gestion de connaissances mettent souvent en avant la notion de document. Qu'il s'agisse de tracer une activité, d'échanger des informations, de pérenniser des connaissances, d'expliciter des processus, etc., on aboutit à une inscription d'éléments sur un support pérenne. On peut partir de la définition de (Zacklad, 2004) : « le document [désigne] une production sémiotique transcrite ou enregistrée sur un support pérenne qui est équipée d'attributs spécifiques visant à faciliter les pratiques liées à son exploitation ultérieure dans le cadre de la préservation de transactions communicationnelles distribuées. » On retrouve bien dans cette définition les caractéristiques permettant d'englober ce que notre pratique métier nous fait qualifier de « document » : la notion de support pérenne, le terme suffisamment général de « production sémiotique » qui ne préjuge pas de la forme exacte de ce que contient le document (ex. une photographie…), et les objectifs d'exploitation dans un cadre de transaction communicationnelle (donc d'échanges, d'utilisation par un autre que son auteur, de partage etc.). Dans le cas d'EDF, les documents considérés sont de genres très variés : rapport d'incident, journaux de bord, rapports de synthèse, expertises, etc. Les formes des éléments contenus sont également multiples : textes, tableaux, schémas, images, sons, vidéos, etc. Il faut aussi souligner le rôle toujours essentiel de documents parfois anciens, de plus de cinquante ans d' âge parfois avec les conséquences que cela a sur les supports disponibles (papier, microfiches, tirages photographiques etc.) et leur cohabitation nécessaire avec des supports plus récents (fichiers informatiques, bases de données et de connaissances etc.). Vis-à-vis d'une approche de gestion de connaissances, on peut identifier trois grandes familles de documents. Tout d'abord, certains documents servent de support de capitalisation de connaissances. Ces documents ont pour rôle de contenir des représentations des connaissances considérées. Nous citerons, à titre d'exemple, un ouvrage théorique pour des connaissances métiers, un guide pratique structurant des connaissances métiers plus expérimentales, une base de connaissances pour un outil informatique d'aide à la décision, un organigramme ou un annuaire pour capitaliser des connaissances sur l'organisation. D'autres documents sont générés par une activité et considérés comme utiles car ils peuvent contenir des informations et éléments utiles pour faire émerger, identifier ou construire etc. une connaissance. Par exemple, un compte rendu, la photographie d'un chantier, etc. Enfin, encore d'autres documents sont propres aux activités de gestion de connaissances elles -mêmes (par exemple, un guide pour mener des interviews d'experts dans un domaine donné). On s'intéresse ici tout particulièrement à la deuxième catégorie de documents et à analyser comment la gestion des connaissances et notamment la mise en place de SOC peuvent aider à récupérer efficacement les documents nécessaires à une activité à l'instant t, d'une part. D'autre part, on veut identifier comment, par un travail de GC, mieux accompagner la production et l'utilisation de documents pour faciliter ensuite la recherche. Les démarches de gestion de connaissances implémentent, pour leur mise en œuvre, des fonctions, telles le recueil d'une expertise répartie, le déploiement d'un outil de partage d'informations, etc. Ces fonctions s'appuient sur des supports (outils, documents, bases de données…) qui proposent différentes fonctionnalités. En reprenant l'exemple précédemment cité des spécialistes de TSI, le besoin était de disposer d'une aide pour identifier ce qui peut être réutilisé (données, fonctions, logiciels de lecture de données mises en œuvre dans des études passées), et quand des ressources peuvent être réutilisées, d' être guidé pour les récupérer. La mise en œuvre de cette fonction de gestion de connaissances s'appuie sur un support permettant la gestion des différents documents et éléments à capitaliser et réutiliser. On peut imaginer proposer plusieurs types de fonctionnalités répondant à ce besoin : proposer une recherche suivant plusieurs critères, proposer une navigation suivant plusieurs points d'entrée, s'appuyer sur la similarité entre codes, données, études et plus généralement contextes caractérisant les études menées et celles en cours pour fournir à l'utilisateur des suggestions dans le choix des éléments réutilisables etc. La récupération demande aussi une meilleure organisation et/ou structuration des ressources dont on dispose. Une fois les éléments retrouvés, il faut pouvoir évaluer leur possibilité de réutilisation. Cela nécessite une description des études, des données, des logiciels de lecture, etc., et d'établir des liens entre ces différents éléments. Les principales fonctionnalités de gestion des connaissances pourront contribuer plus généralement à identifier les documents pertinents pour un contexte donné, au travers de fonctionnalités de présentation d'un ensemble de documents pour en donner une vue d'ensemble (cartographie, par exemple), de fonctionnalités de sélection suivant différents critères pour restreindre le nombre de documents à présenter dans la vue, ou encore de fonctionnalités de navigation suivant différentes dimensions des documents. Pour permettre et améliorer la pertinence de ces fonctionnalités, des fonctionnalités complémentaires visant à mieux caractériser et classer les documents sont également à prendre en compte. Pour être efficace, traçable et correctement implémentée, la mise en place de fonctionnalités fournies ou appliquées à des supports de gestion de connaissances s'appuie sur des systèmes d'organisation de ces connaissances (SOC). Ces SOC visent à proposer des moyens de structurer les données utilisées, les démarches de mise en œuvre des fonctionnalités, les concepts manipulés. L'ensemble des notions présentées jusqu'ici est résumé dans le graphe conceptuel présenté à la figure 1. Le terme de système d'organisation des connaissances (SOC) (en reprenant la signification proposée dans (Zacklad, 2007)) recouvre ici l'ensemble des systèmes organisant une représentation des connaissances relatives à un domaine : modèle entité-relation, modèle conceptuel, réseau sémantique, taxinomies associées à un système de classification, thésaurus, ontologie formelle ou sémiotique, folksonomie, etc. Un système d'organisation des connaissances répond, de façon plus ou moins poussée selon les objectifs des supports et fonctions auxquels il contribue, à trois objectifs principaux. Tout d'abord, il constitue un langage commun, soit pour la conception d'un support, soit, plus globalement, pour les échanges autour des connaissances concernées par différents supports. Il peut servir de cadre, de trame pour exprimer la mise en forme des connaissances relatives au domaine considéré de façon aussi exhaustive et complète que possible. Il peut enfin servir de trame pour spécifier les structures mises en œuvre dans les outils (parfois, simplement, le plan d'un document mais plus souvent les structures de données manipulées par un outil logiciel). Pour construire un tel SOC, il est tout d'abord nécessaire de bien cadrer la réponse à la question de son utilité. Autrement dit, il faut circonscrire ses objectifs précis, donc les ambitions que l'on manifeste pour structurer des supports de fonctions de gestion de connaissances. Ceci suppose notamment de délimiter précisément le domaine, le champ de connaissances qu'il doit couvrir et les fonctionnalités qu'il doit supporter. Cette analyse doit permettre de spécifier les formalismes les mieux adaptés. Par exemple, un typage plus fort de liens explicites gérés par le SOC permettra des fonctionnalités de navigation plus variées; à l'inverse, se limiter aux liens implicites entre documents partageant une même valeur de dimension réduira ces possibilités de navigation. Zacklad (2007), met en avant sept critères d'analyse des SOC dans une perspective documentaire. Si l'on ne se place pas directement dans une perspective de recherche ouverte d'information, on peut néanmoins identifier certains de ces critères comme outils d'analyse des attentes vis-à-vis d'un SOC. Nous prenons ici les critères qui nous semblent utiles pour préciser notre utilisation des SOC et nous les énonçons à partir de leur pertinence, selon le cas, en regard de l'utilité, du domaine ou du formalisme du SOC (et non pas dans l'ordre retenu dans la publication citée). Un premier critère, à la frontière entre l'utilité du SOC et le domaine qu'il doit couvrir, concerne la fréquence et le protocole de mise à jour. Selon la classification proposée par (Zacklad 2007), on peut décliner ce critère selon plusieurs modalités : « mise à jour rare et complexe », « mise à jour systématique et exogène 5 », « mise à jour progressive et négociée », « mise à jour fréquence, facile et immédiate ». Si l'on regarde plus spécifiquement le domaine couvert par le SOC, un second critère est l'existence ou non d'une « théorie du domaine » ou de justifications à caractère théorique. Également dans la perspective d'analyse des théories en support du SOC, l'article en référence identifie également un critère relatif à la théorie de la signification sous-jacente. Il oppose les SOC auxquels est associée une sémantique référentielle (les éléments constitutifs du SOC sont considérés ayant une valeur référentielle, c'est-à-dire ancrée sur des référents externes objectivables) à ceux auxquels est associée une sémantique rhétorico-herméneutique (c'est-à-dire dont l'association au « monde réel » s'appuie sur une interprétation dans un contexte d'utilisation). L'analyse du domaine et des objectifs du SOC conduit à impliquer, selon les cas, différents types de communautés : « professionnels de la documentation » (au moins dans le cas de SOC utilisés en recherche documentaire), « ingénieurs de la connaissance et experts », « participative régulée » (via des communautés d'experts), « participative non régulée » (grand public). Enfin, la description d'un SOC passe par la mise en évidence de son degré de formalisme, pouvant aller d'un langage formel rigoureux à l'absence de syntaxe pour la gestion des correspondances entre termes au-delà de la simple utilisation de termes dédiés. Afin de mieux caractériser les SOC associés à différentes démarches de GC, nous allons présenter quelques exemples de réalisations menées à EDF R&D. Dans le projet Durabilité (Bauby et al., 2006), le besoin métier est d'identifier, en connaissance de cause, les stratégies à mettre en œuvre pour optimiser la gestion de différents composants d'une usine de production d'électricité tout au long de l'exploitation. Cette optimisation suppose d'anticiper les événements futurs pouvant influer fortement sur le fonctionnement des matériels, de faire, en particulier d'un point de vue technico-économique, les bons choix de maintenance et de prévoir et anticiper les actions à entreprendre. Il fallait donc rassembler et pérenniser, voire faire émerger, des connaissances sur le comportement à long terme des composants considérés; il fallait également définir et rendre exploitable une méthode d'évaluation intégrant la complexité inhérente à l'exercice : traiter des événements potentiels futurs, les risques associés, les impacts des différents palliatifs envisageables, etc. Ceci a conduit notamment à concevoir deux types de supports : des documents structurés, reprenant sous un format bien défini l'ensemble des connaissances rassemblées sur les matériels considérés, un outil logiciel permettant le paramétrage de différentes stratégies de gestion des composants et le calcul effectif de leur impact. Le recueil des connaissances, la structure des documents et la spécification de l'outil logiciel se sont appuyés sur un même SOC, en l'occurrence un modèle entitérelation globalement décrit dans l'article en référence. Si l'on reprend le modèle esquissé en section précédente, son instanciation pour cette étude se présenterait comme présenté figure 2 (avec quelques simplifications par rapport à l'ensemble des objectifs et réalisations du projet). On peut remarquer, dans cette illustration, que le SOC sert à la fois de trame pour la rédaction du document, de support au recueil de connaissances et de spécification pour le modèle des données gérées par l'outil. Ceci nous a conduit à respecter des contraintes de fort typage (pour l'efficacité informatique et pour forcer la rigueur d'expression des connaissances), à limiter la complexité du modèle et à le rendre assez lisible (pour qu'il soit un support d'échange et de recueil). Nous avons construit un modèle entité-relation basé sur les concepts-clés identifiés lors des premiers échanges avec les experts : les événements attendus ou redoutés, les parades possibles, les impacts sur les indicateurs retenus, etc. Si l'on regarde les critères repris de (Zacklad 2007), on peut tout d'abord caractériser le domaine considéré par la nécessité de « mise à jour progressive et négociée », les connaissances fondamentales sur les événements pouvant affecter un composant de centrale de production électrique évoluant peu mais pouvant toutefois être affinées au fil du retour d'expérience ou de nouvelles études. On se contente ici de recenser les événements, parades possibles, leurs impacts prévisibles, etc. : le SOC ne s'appuie donc pas sur une « théorie du domaine » détaillée. En revanche, certains aspects de son exploitation (calculs financiers, évaluations probabilistes…) sont basés sur des modélisations théoriques mais qui gouvernent plus l'utilisation du SOC que sa structure même. Le SOC considéré, à savoir un modèle entité/relation assis sur la représentation de la notion d'événement, d'indicateur, d'option, etc. (Bauby et al., 2006), se place dans un cadre sémantique largement rhétorico-herméneutique : les notions manipulées sont difficiles à ancrer totalement sur des référents objectivables : il s'agit plutôt d'appréciations de notions métiers pour partie empiriques. La construction et la mise en œuvre de ce SOC impliquent des « ingénieurs de la connaissance et des experts », qui travaillent en collaboration pour renseigner et valider le système d'organisation des connaissances pour les différents cas d'application Le formalisme adopté est relativement complet afin de garantir une bonne efficacité informatique et de forcer la rigueur d'expression des connaissances. Il s'appuie sur un typage fort des éléments manipulés, des propriétés qu'on leur définit et des relations qui peuvent les associer. De façon très similaire, un système d'organisation fondé sur une modélisation causale et temporelle des dysfonctionnements des groupes motopompes primaires a été développé dans le cadre du projet DIAPO (Porcheron et al., 1997) afin de spécifier un outil d'aide au diagnostic et une structure de capitalisation des connaissances expertes sur ce type de diagnostic. Le cadre sémantique, quoique, ici aussi, largement rhétorico-herméneutique, s'appuie également, pour certains points (composants de la machine notamment) sur des référents. Lors d'une étude sur la recherche d'informations relatives aux circuits de relayage du contrôle-commande de certaines centrales de production (Dourgnon-Hanoune et al., 2006), l'enjeu était de normaliser et de structurer rigoureusement une description d'appareils à la fois très précise, marquée par de fortes évolutions de perception entre acteurs et au cours du temps. La mise en place des fonctionnalités de structuration et d'indexation documentaire s'est appuyée sur une ontologie formelle rigoureuse des matériels considérés. Pour une application visant à construire des guides utilisés sur le terrain par des agents en charge du diagnostic d'installations hydrauliques (Parfouru et al., 2006), quelques grands types et relations généraux ont été utilisés pour cadrer les principales articulations du guide et une AMDEC 6 précise pour capitaliser les connaissances sur l'état et les défaillances des matériels. Pour les experts TSI pour lesquels le besoin était de disposer d'une aide pour identifier ce qui peut être réutilisé (données, fonctions, logiciels de lecture mis en œuvre dans des études passées), et dont nous avons déjà parlé précédemment, nous avons été amenés à considérer une modélisation entité relation du contexte des études avec des relations explicites et assez fortement typées permettant des modes de navigation et de recherche plus riches et plus variés. Pour des experts de différentes compétences d'un département d'EDF R&D, nous expérimentons un système de classification par facettes de documents afin de faciliter leur gestion et leur recherche en situation. Ce travail se fait dans le cadre du projet ANR MIIPA-Doc (Musnik et al., 2009). Les principaux critères d'analyse des SOC mis en œuvre pour la réalisation de ces différentes fonctionnalités sont résumés dans le tableau 1. Caractéristiques des SOC mis en œuvre dans différents projets de gestion de connaissances Projet et description Durabilité : évaluation technicoéconomique sur la durée de vie d'un outil de production Diapo : aide au diagnostic des groupes turboalternateurs Relayage 900 MW Capitalisation d'éléments d'études TSI Guides hydrauliques Classification par facettes pour différentes compétences d'EDF R&D (MIIPA-Doc ) Fonctionnalités de GC Document support de capitalisation Valorisation interactive (outil ) Document support de restitution des connaissances Outil interactif d'aide au diagnostic Structuration du domaine Capitalisation des connaissances Outil de recherche des documents associés aux matériels Outil de recherche de (codes, données, rapports…) associés aux études Suggestions Document de capitalisation Fiches de visite Indexation et recherche de documents SOC Modèle entitérelation, articulé autour de concepts structurant la démarche d'analyse et de calcul Modèle causal et temporel de pannes, implémenté sous forme entité-relation . Ontologie formelle Modèle de contexte des études sous forme entitérelation . Modèle entitérelation, articulé autour d'une AMDEC et des visites de composants d'ouvrages Modèle à facettes multivaluées Mise à jour Progressive et négociée Progressive et négociée Rare Fréquente et immédiate (en majorité) Progressive et négociée Fréquente et immédiate Théorie du domaine Faible Assez marquée (causalité, modèle temporel ) Liée aux technologies électromécaniques sousjacentes Faible Faible Faible Signification sous-jacente Rhétoricoherméneutique Rhétoricoherméneutique principalement et pour partie référentielle Référentielle Rhétoricoherméneutique Rhétoricoherméneutique principalement et pour partie référentielle Rhétoricoherméneutique Communauté Experts et ingénieurs de la connais - sance Experts et ingénieurs de la connais - sance Experts et ingénieurs de la connais - sance Experts à terme Experts et ingénieurs de la connais - sance Experts à terme Degré de formalisme Assez poussé Important Très important Assez poussé Assez poussé Faible Au-delà des caractéristiques identifiées dans le tableau, d'autres caractéristiques pouvant avoir une influence sur les SOC peuvent être envisagées, comme par exemple, la taille du collectif d'experts impliqués, la diversité et les recouvrements des contextes de création et d'usage des connaissances et des documents. Dans cet article, nous avons proposé une analyse de démarches de gestion de connaissances existant à EDF en préalable à la spécification d'une méthodologie de gestion des connaissances incluant la caractérisation des systèmes d'organisation de connaissances (SOC) associés. Tout d'abord, nous avons étudié des problématiques métiers des activités d'EDF qui présentent des enjeux de gestion de connaissances et des contraintes et induisent des besoins de gestion des connaissances, dont nous avons proposé une classification. Nous avons montré les liens entre les démarches de gestion de connaissances et les problématiques documentaires, et proposé un modèle reliant les démarches de gestion de connaissances et les SOC : des démarches de gestion des connaissances implémentent des fonctions de gestion des connaissances pour répondre à des besoins identifiés et des supports de gestion des connaissances appuient ces fonctions en fournissant des fonctionnalités; ces dernières sont elles -mêmes structurées par des SOC. Les travaux en cours et futurs visent à faire émerger l'ensemble des dimensions permettant de caractériser les systèmes de gestion de connaissances via la façon dont ils sont construits et utilisés .
Cet article met en avant les enjeux importants de la gestion de connaissances pour le producteur d'énergie qu'est EDF. Ces enjeux, et les besoins auxquels ils répondent, conduisent à des démarches pouvant avoir plusieurs objectifs opérationnels. Au cœur de la conception des solutions envisagées se trouvent la mise en œuvre de systèmes d'organisation des connaissances adaptés et la manière de prendre en compte, gérer ou produire des documents. Cet article propose une analyse de démarches de gestion de connaissances existant à EDF en préalable à la spécification d'une méthodologie de gestion des connaissances incluant la caractérisation des systèmes d'organisation de connaissances (SOC) associés.
sciencesInfo_11-0484931_tei_DN_132_0057.tei.xml
termith-506-communication
La société de l'information engendre un nombre considérable de documents hétérogènes, tant en forme qu'en nature. Face à cette hétérogénéité, l'émergence d'XML traduit un effort croissant qui vise à normaliser la présentation et l'archivage de l'information. Dans nombre de domaines de spécialité des structures de documents standardisés (Document Type Definition) et des langages d'interrogation centrés données (XPath, XQuery) sont proposées pour améliorer le partage, l'échange d'information et l'interopérabilité des applications. Cet effort de normalisation, s'il permet d'espérer une amélioration d'accès aux données disponibles en ligne ne résout pas cependant l'ensemble des difficultés concernant la qualité de l'information accessible. Pour répondre à ce besoin, les approches centrées documents visent le développement d'algorithmes de recherche d'information structurée basés sur une exploitation des contextes structurels d'occurrence des éléments informationnels et sur des heuristiques de classement des réponses. Parmi ces dernières on peux citer des approches basées sur : le modèle probabiliste (Fuhr et al., 2004; Lalmas et al., 2000); le modèle de langage (Abolhassani et al., 2004; Kamps et al., 2004; Ogilvie et al., 2006) ou sur l'exploitation des réseaux bayésiens (Piwowarski et al., 2004). Les approches les plus répandues restent cependant les différentes adaptations et extensions du modèle vectoriel (Geva, 2006; Grabs et al., 2002; Hubert, 2005; Mass et al., 2005; Sauvagnat et al., 2004; Trotman, 2005). W3C propose XQuery 1.0 and XPath 2.0 Full-Text (Amer-Yahia et al., 2005) s'appuyant sur les approches « centrées données » et sur des techniques des classements du contenu textuel de documents. Cependant, les contraintes structurelles pour la portée de la recherche d'information textuelle doivent être complètement spécifiées et leur interprétation reste toujours stricte. Parmi le nombre d'approches développées pour la recherche d'information structurée il existe peu de modèles qui traitent de la structure des documents d'une manière approchée. La plupart des méthodes proposent simplement de filtrer (ou pondérer) les résultats textuels en fonction des contraintes structurelles (Theobald et al., 2002). Du fait de l'hétérogénéité des structures et des contenus des documents disponibles au format XML, il n'est pas envisageable d'imaginer que l'utilisateur puisse disposer d'une connaissance suffisante sur la structure des documents accessibles pour orienter sa recherche d'information. Différentes approches traitant d'une manière flexible les contraintes structurelles ont été proposées pour rentabiliser l'effort de structuration dans le cadre de la recherche d'information XML. Ces approches sont basées sur des relations sémantiques (Theobald et al., 2002) ou sur différents degrés de relaxation concernant l'organisation des informations structurelles. Parmi ces dernières on peut citer des techniques basées sur des correspondances d'arbres (Schlieder, 2002; Amer-Yahia et al., 2004) ou des chemins (Carmel et al., 2003; Amer-Yahia et al., 2005b). Les algorithmes d'alignement approximatif d'arbres utilisant des distances d'éditions classiques (Tai, 1979) sont caractérisés par une haute complexité algorithmique. L'alignement d'arbres ordonnés a une complexité de O(|N1|‧|N2|‧prf(T1)‧prf(T2)), où |Ni| est le nombre de nœuds contenus dans l'arbre Ti et prf(Ti) la profondeur de l'arbre Ti, - sachant que l'alignement d'arbres non ordonnés est un problème NP‑difficile (Zhang et al., 1992). Les algorithmes d'alignement décrits dans la littérature sont basés sur des distances d'édition et de fonction d'association ou de correspondance. La complexité de ces algorithmes d'alignement peut être améliorée en introduisant des contraintes sur l'ordre des séquence d'opérations d'édition, ou sur les opérations autorisées (Schlieder, 2002; Amer-Yahia et al., 2004). La complexité algorithmique de ces principes d'alignement est trop élevée au regard du grand volume documentaire qu'il est nécessaire de considérer pour une exploitation à grande échelle. L'expressivité et la complexité des requêtes exprimées sous forme d'arbres ou des chemins pour la recherche approchée d'informations structurées ont été étudiées dans (Amer-Yahia et al., 2005b). Les auteurs montrent de façon expérimentale que les approches basées sur la correspondance des chemins fournissent des résultats ayant une qualité comparable en précision à celles basées sur la correspondance d'arbres tout en améliorant les performances du système. Dans cet article, nous proposons plus précisément d'évaluer l'amélioration de l'accès à l'information apportée par des mécanismes d'alignement approximatif des chemins structurels (Menier et al., 2002; Marteau et al., 2003) similaires à ceux introduits dans (Carmel et al., 2003). Nous décrivons également un modèle de recherche d'information inspiré du modèle vectoriel (Salton et al., 1988) susceptible de s'appuyer sur les éléments structurants des documents semi-structurés pour affiner l'analyse et la recherche des contenus non structurés. Les résultats concernant la pertinence de l'approche obtenus dans le cadre de INEX 2005 (INitiative for the Evaluation of XML Retrieval 1) montrent l'intérêt de notre proposition. Un document XML est représentable sous la forme d'une structure arborescente ordonnée dont les nœuds correspondent à des éléments XML. Les nœuds et en particulier les feuilles de l'arbre peuvent contenir des éléments d'information textuels ou binaires (TEXT ou CDATA) ou faire référence à des éléments externes tels que des images, des vidéos ou du texte. Un exemple de document XML extrait de la collection inex-1.8 associé à son arbre est présenté en figure 1. Dans la structure de l'arbre codant un document XML, chaque nœud n peut être rattaché à la racine de l'arbre n0 par l'intermédiaire du chemin p(n). Ce chemin est une séquence ordonnée de nœuds d'éléments XML ni éventuellement associes à un ensemble non ordonné de couples <attribut, valeur> A(ni). Il constitue le contexte d'occurrence du nœud n (le nœud extrémité du chemin p(n)) dans le document considéré. Dans le cas où un nœud 2 de l'arbre peut être décomposé en sous éléments textuels {Mi} (mot, lemme ou chaîne de caractères), chaque sous élément Mi est considéré comme un nœud terminal ne possédant pas d'attribut. Dans ce cas, on considèrera que le contexte d'occurrence de Mi est le chemin suivant : Le processus d'indexation est basé sur des listes inverses adaptées pour la prise en compte des contextes XML. Pour ce modèle, les entrées de la liste inverse sont représentées par les sous éléments Mi des nœuds n de l'arbre associé au document. Pour un sous élément Mi d'un nœud n, quatre informations sont rattachées : un lien vers l'adresse permettant de localiser le document (Uniform Resource Locator : URL). Ce lien permet de retrouver la source du document indexé, un lien vers le contexte XML p(n) caractérisant l'occurrence du noeud n dans l'arbre du document. Ce contexte est utilisé pour le traitement des contraintes structurelles, un index spécifiant la localisation de l'élément Mi à l'intérieur du document. Cet index est utilisé pour effectuer des traitements portant sur le contenu textuel de documents comme la recherche de phrases ou la recherche des mots ayant des positions proches dans le texte. un intervalle {nID, Max(nID, {nIDi })} ou : Cet intervalle sert à la résolution des relations d'héritage des nœuds dans la structure arborescente du document d'une manière similaire à celle introduite dans (Grust, 2002). Du fait de l'hétérogénéité des structures et des contenus des documents disponibles au format XML, il n'est pas envisageable d'imaginer que l'utilisateur puisse être à même de connaître l'ensemble des structures correspondantes. Par suite, l'utilisateur n'est pas à même de spécifier de manière systématique une requête précise, tant dans sa structure que dans son contenu sémantique. Dans une telle situation, il semble raisonnable de proposer à la fois des principes de recherche d'information exacts et approchés pour gérer au mieux l'incertitude inhérente à la requête de l'utilisateur. Le format des documents indexés étant XML, il n'est pas restrictif de concevoir que la requête elle même puisse être représentée par un arbre : la requête peut être d'une manière générale traduite sous la forme de document XML. La recherche de bas niveau peut alors être appréhendée par le biais d'algorithmes d'alignement approximatif d'arbres, dans le but de faire correspondre de manière approchée certaines branches de l'arbre issu de la requête avec les arbres issus des documents indexés. Plutôt que l'exploitation de principes d'alignement approximatif d'arbres (Schlieder, 2002; Amer-Yahia et al., 2004) de haute complexité algorithmique on recherche plutôt ici des principes de recherche de bas niveau capables d'aligner approximativement des sous chemins de type p(n) contenus dans les arbres associés aux documents indexés avec un ou des sous chemin p(r) contenus dans la spécification d'une requête. Nous recherchons à définir un langage de requête plus évolué, qui intègre des expressions de recherche élémentaires {p(n)} et des expressions plus complexes, constituées à partir de l'assemblage d'expressions élémentaires : elles exploitent des opérateurs booléens classiques ou ensemblistes, des opérateurs flous ou encore des opérateurs basés sur des heuristiques dédiées. Soit R une requête élémentaire exprimée sous la forme d'un mot Mi associée à un chemin pR pour lequel les couples <attributs, valeur> sont remplacés par des conditions ou contraintes Cd qui portent sur les valeurs d'attributs. Pour permettre une interprétation flexible des contraintes structurelles, nous proposons d'évaluer la pertinence des réponses pour une requête élémentaire R par la similarité entre le chemin pR représentant la requête et l'ensemble des chemins indexés associé aux réponses de la manière suivante : où δL s'apparente à une pseudo distance d'édition de type Levenshtein (Levenshtein, 1966) et {pR,Di} représente l'ensemble des chemins issus de la racine de l'arbre TD associé au document D et dont le nœud extrémité correspond de manière stricte ou approximative au nœud extrémité du chemin pR correspondant à la requête. Pour pR et pR,Di donnés, la similarité σ(pR, pR,Di) tend vers 0 quand la distance δL (pR, pR,Di) augmente. Naturellement, pour une concordance totale on aura une similarité maximale σ( pR, pR,Di) = 1. La similarité structurelle basée sur la formule de normalisation introduite ci-dessus pénalise d'une manière non uniforme les écarts mis en évidence par la distance d'édition. Cette fonction a été définie de telle sorte que le score associé aux chemins ayant une correspondance parfaite ou presque parfaite avec le chemin spécifié dans la requête soit amplifié au détriment des correspondances plus éloignées. La complexité d'un tel algorithme est : O(l(pR)∙prf(TD)∙|{pR,Di}|), avec |{pR,Di}| le cardinal de l'ensemble des chemins {pR,Di }, l(pR) la longueur du chemin pR et prf(TD) la profondeur de l'arbre TD. Nous conjecturons que cette approche est adéquate pour le traitement de la plupart des pages web ou des documents qui y sont référencés principalement parce que la profondeur des arbres engendrés par ces données est relativement faible. Des études statistiques sur les documents XML accessibles sur le WEB (Mignet et al., 2002) montrent que le niveau moyen de profondeur pour les arbres est de 4, et 99 % des documents analysés ont une profondeur inférieure à 8. Soit pR le chemin correspondant à la requête élémentaire R et {pR,Di} l'ensemble des chemins retenus pour la recherche de similarité. Nous proposons une pseudo-distance 3 d'édition (Wagner et al., 1974) en exploitant une matrice de coût paramétrable pour calculer la similarité entre un chemin pR,Di et le chemin correspondant à la requête élémentaire pR (Ménier et al., 2002). Cette distance détermine la transformation de coût minimal qui permet de transformer pR,Di en pR. Les opérations élémentaires d'édition exploitées par cette distance et la fonction de coût c qui leur est associée sont définies de la manière suivante : la substitution : un nœud nR du chemin pR est remplacé par (ou aligné sur) un nœud n du chemin pR,Di avec un coût élémentaire c(nR,n) que l'on considère pouvoir varier entre 0 (correspondance parfaite) et cmax = 1 (aucune correspondance), l'élimination : un nœud n du chemin pR,Di est éliminé avec un coût c(n,ε) que l'on considère pouvoir varier entre 0 et cmax = 1, l'insertion : un nœud n est inséré dans le chemin pR,Di avec un coût c(ε,n) que l'on considère pouvoir varier entre 0 et cmax = 1. Des heuristiques complexes peuvent être exploitées pour définir le coût de substitution c(nR,n) en prenant en compte : des relations sémantiques au niveau des identificateurs d'éléments XML (par exemple ‘ chapitre ', ‘ section '); et/ou le degré de satisfaction approximative de conditions ou contraintes portant sur des attributs (Marteau et al., 2003). Soit l'ensemble TpR,Di → pR des transformations décomposables en une séquence de transformations élémentaires (insertion, élimination ou substitution) et permettant de transformer le chemin pR,Di en pR. A toute transformation τ de l'ensemble T pR,Di → pR on associe un coût global noté C(τ) assimilé à la somme des coûts des transformations élémentaires qui composent τ. L'algorithme de (Wagner et al., 1974) permet de déterminer parmi les transformations de l'ensemble T pR,Di → pR la transformation de coût minimum notée τ * (transformation optimale) avec une complexité O(l(pR,Di)∙l(pR)) comme précisé précédemment. Soit C *i le coût minimum d'alignement du chemin pR,Di sur le chemin pR : Pour pR et pR,Di donnés, la similarité σ(pR, pR,Di) → 0 quand le nombre des nœuds différents augmente. Naturellement, pour une concordance totale (mêmes éléments XML avec conditions satisfaites sur les attributs) on aura un coût minimum C*i = 0 et une similarité maximale σ( pR, pR,Di) = 1. Des requêtes complexes sont construites à partir de requêtes élémentaires et d'opérateurs de composition booléens ou relevant d'heuristiques spécifiques : à ce jour, nous proposons huit opérateurs pour la construction des requêtes hors prise en compte des attributs. Les opérateurs pour la spécification des contraintes portant sur les attributs sont définis et détaillés dans (Marteau et al., 2003). Les opérateurs utilisés pour la construction du langage de requête sont les suivants : les opérateurs booléens ou ensemblistes n-aires {or, and} qui permettent de rechercher une liste d'arguments dans un même contexte XML, l'opérateur ensembliste binaire {without} qui permet d'éliminer de la liste des résultats en cours, les résultats d'une autre requête, l'opérateur permettant de rechercher une séquence d'arguments {seq} : par exemple, (seq message * erreur) recherchera les éléments contenant les mots ‘ message ' suivi par un mot quelconque (*), suivi par le mot ‘ erreur ', l'opérateurs de recherche en contexte : {in} qui permet de rechercher une liste d'arguments respectivement dans un contexte XML déterminé, l'opérateur de recherche structurelle approchée {in+} permettant de fusionner par le biais d'une fonction d'agrégation linéaire pondérée les valeurs de similarité obtenues sur les informations structurelles et sur le contenu, l'opérateur {same+} permettant de pondérer les arguments de l'opérateur en fonction d'une heuristique prédéfinie, de type TFIDF (Term Frequency by Inverse Document Frequency) (Salton et al., 1988) par exemple. l'opérateur ensembliste binaire {filter} permettant de filtrer un ensemble d'éléments résultats à partir d'un autre ensemble de résultats tenant compte de la pertinence associée à leur contexte global d'occurrence. Le système analyse une requête R et produit un ensemble de réponses pondérées par un degré de pertinence. Soit r(R) = {(ei,vi)} l'ensemble réponse produit, avec ei un élément de réponse et vi une valeur numérique prise dans [0..1] indiquant sa pertinence par rapport à la requête. Une requête complexe est en fait un arbre de requêtes, dans lequel l'ensemble final est fabriqué par fusion (ou filtrage) successive des ensembles crées par les requêtes filles Rn. Une requête fille peut être elle -même une requête complexe, ou bien une requête simple qui ne met en œuvre qu'un mot associé à un contexte d'occurrence recherché pR ou un mot seul (Mi). Ces combinaisons ensemblistes font intervenir des opérateurs de modification de pertinence. En nous inspirant des principes de décision multicritères floue (Zadeh, 1965; Yager, 1977) nous avons défini les opérateurs suivants : r( seq (M0, … Mn)) = {(ei,vi) }, vi = 1 si la séquence M0..Mn existe dans l'élément ei, 0 si non;; ou p(e) le chemin de l'élément e; et Δ (path, p(e))=1 ssi path==p(e), 0 si non; tq, ou Δ (path, p(e)) = σ (path, p(e)) la similarité structurelle entre les deux chemins (section 3.1) et ß∈ [0..1] un facteur permettant de pondérer l'importance des informations sur la structure des documents vis-à-vis de leur contenu; ou λk est un facteur de pondération qui caractérise le pouvoir discriminant de l'élément de réponse (ei,vk) dans la collection : λk = 1 – log( (1+ ND(ei,vk ))/(1+ ND)); ou ND(ei,vk) le nombre de documents contenant l'élément de réponse (ei,vk); ND le nombre total de documents; et τ une constante de normalisation τ = 1/Σk (λk); Soit eD un élément de réponse descendant du document D. L'approche décrite ci-dessus a été évaluée dans le cadre de la tache ad-hoc lors de la campagne INEX 2005 (Popovici et al., 2006). Afin d'évaluer la performance des différents SRI pour la RI structurée, INEX met à disposition des participants une collection de tests, de requêtes portant sur la structure et le contenu de documents ainsi que les jugements de pertinence associés. Dans la suite, nous présentons des évaluations concernant l'évolution du temps d'indexation en fonction du volume de données traité, ainsi que le temps de réponse et les performances concernant la qualité des accès aux informations. La collection de test inex-1.8 contient 16 819 articles en format XML provenant de 24 revues de IEEE Computer Society publiées entre 1995-2004. Cette base totalise un volume de 725 Mo dans sa forme canonique. La collection est considérée sans attributs ou avec des valeurs d'attributs sans intérêt pratique pour les utilisateurs (Trotman et al., 2004 – « Une note sur les attributs »). Elle contient 141 noms d'éléments XML différents composant 7 948 contextes XML uniques en ignorant les attributs et les valeurs des attributs. La longueur maximale d'un contexte est de 20 nœuds, avec une longueur moyenne de 8 nœuds 4. Dans le cadre d'INEX sont introduites deux types de requêtes : les requêtes de type CO (Content Only) qui décrivent uniquement le contenu souhaité des éléments XML recherchés; et les requêtes de type CAS (Content And Structure) qui portent sur la structure et le contenu de documents. Le jeu de requêtes INEX 2005 CAS est formé de 47 requêtes contenant des références explicites sur la structure de documents. Par exemple, la requête « 280 » (figure 2) recherche des sections décrivant des algorithmes approchés dans des articles contenant une référence bibliographique bb à Baeza-Yates ou des sections sur la correspondance des chaînes de caractères. Parmi ces requêtes, 30 sont des requêtes subordonnées de la forme //A [B] 5, 6 sont des requêtes indépendantes de la forme //A [B] et 11 sont des requêtes complexes de la forme //A [B] //C [D] 6 constituées des requêtes subordonnées. Seulement 17 requêtes CAS – les requêtes complexes et les requêtes indépendantes – sont utilisées pour l'évaluation dans la campagne INEX 2005. Les jugements de pertinence pour chaque requête sont effectués par les différents participants selon deux dimensions : l'exhaustivité et la spécificité. Un élément est exhaustif s'il contient toutes les informations requises par la requête; un élément est spécifique si tout son contenu concerne la requête. Ces deux dimensions sont agrégées en utilisant deux types de fonction d'agrégation : aggrégation stricte (uniquement les réponses « parfaites » - complètement exhaustives et complètement spécifiques sont prises en compte) et aggrégation généralisée (qui récompense aussi des réponses partiellement pertinentes). Les mesures officielles utilisées dans INEX 2005 sont : le gain cumulé étendu normalisé (nxCG) et la courbe effort-précision/gain-rappel (ep/gr). Pour un rang i donné, la valeur nxCG [i] reflète le gain relatif que l'utilisateur a accumulé jusqu' à ce rang par rapport au gain qu'il aurait pu obtenir si le système avait produit un classement optimal de réponses. L'effort-précision (ep) à un niveau donné de gain-rappel (gr) indique l'effort nécessaire (estimé en nombre de réponses visitées) à un utilisateur parcourant les réponses retournées par un système, relatif à l'effort nécessaire pour accumuler le même niveau de gain-rappel utilisant un classement de réponses idéal. MAep (Mean Average Effort Precision) représente la moyenne non interpolée des valeurs obtenues pour ep à des niveaux « naturels » de gr (i.e. à chaque réponse pertinente retournée). Les détails sur les métriques utilisées pour l'évaluations dans le cadre de INEX 2005 sont disponibles dans (Kazai et al., 2006). La base de documents XML est transformée dans sa forme canonique 7. Les mots fréquents et jugés non pertinents (les mots vides) sont éliminés. Au moment de l'indexation les mots sont stemmés (i.e. réduits à leur pseudo-radicaux) en utilisant l'algorithme de (Porter, 1980). On indexe seulement les termes alphanumériques comme défini en (Trotman et al., 2004). Les nombres, les attributs, les valeurs des attributs et les éléments XML vides ne sont pas indexés. Le modèle d'indexation est basé sur des listes inverses adaptées pour la prise en compte des contextes XML p(n) et sur un schéma d'étiquetage des nœuds permettant de résoudre les relations d'héritage dans l'arbre (section 2.2). Ce modèle est implémenté utilisant des structures de données de type BTree de Berkeley DB 8. La taille de l'index obtenu représente 1,28 fois le volume des données initiales. La figure 3 présente l'évolution du temps d'indexation (sur un Pentium IV - 2,4 GHz, avec 1,5 Go de mémoire RAM) pour la base inex-1.8 en fonction du volume des données indexées. Le temps nécessaire pour la création des listes inverses pour un volume de 725 Mo de données est d'environ 38 minutes. Cette évolution quasi linéaire montre que l'indexation de grandes bases documentaires XML est un objectif envisageable dans l'hypothèse des conditions indiquées. Néanmoins, on doit souligner que la prise en compte des attributs et de leurs valeurs multiplie le nombre de contextes possibles (7 948 actuellement), ce qui complexifie la gestion de l'indexation des contextes entraînant une durée d'indexation nettement supérieure. Dans le langage officiel d'INEX 2005 – NEXI (Trotman et al., 2004), le chemin associé a une requête est défini comme une séquence de nœuds parmi lesquels la seule relation acceptée est la relation de descendance. Par conséquence le chemin pR est modélisé comme une sous séquence de contextes indexés pR,Di, où une sous séquence ne doit pas nécessairement être constituée de nœuds contigus. Pour s'adapter à cette approche, on permet la suppression des nœuds dans les contextes indexés sans pénalisation en affectant le coût d'élimination d'un nœud dans la distance d'édition à 0 : c(n,ε) = 0, c(ε,n) = ξ, c(nR,n) = ξ si nR ≠ n où 0 si nR = n. Pour illustrer le fonctionnement du mécanisme d'alignement on présente dans la figure 4 les scores obtenus pour la distance d'édition δL (pR, {pR,Di }) entre le chemin correspondent à la requête 277 du jeu de requêtes INEX 2005 //article[about(.//bb, Baeza-Yates)</hi> et trois contextes XML extraits à partir de la collection <hi rend="italic">inex-1.8</hi> (un extrait représentant la structure des documents dans la collection est donnée dans la figure 1).</p><figure xml:id="fi4"><head xml:lang="fr"><hi rend="italic">Exemples des distances entre le chemin « //article//bb » correspondant à la requête 277 du jeu de requêtes INEX 2005 et des contextes XML extraits de la collection inex-1.8</hi></head><figDesc/></figure><p>La requête recherche des <hi rend="italic">articles</hi> ayant des références bibliographiques <hi rend="italic">bb</hi> à <hi rend="italic">Baeza-Yates</hi>. Dans les deux premiers cas, le chemin recherché <hi rend="italic">//article//bb</hi> est une sous séquence de contextes indexés. Par conséquent la distance d'édition reste toujours égale à 0 indépendamment du fait que les deux contextes sont composés d'un nombre différent de nœuds. Dans le dernier cas, où <hi rend="italic">Baeza-Yates</hi> est l'auteur de l'article, la distance d'édition va prendre une valeur égale à 1 pour pénaliser le fait que le nœud <hi rend="italic">bb</hi> spécifié dans la requête n'apparaisse pas dans le contexte indexé.</p><p>La similarité structurelle basée sur le schéma de pondération ci-dessus modélise un utilisateur ayant une connaissance précise mais incomplète sur le nom des éléments XML indexés et sur leurs relations de descendance. Elle prend en compte : i) l'ordre d'occurrence des éléments correspondant entre la requête <hi rend="italic">pR</hi> et le contexte indexé <hi rend="italic">pR,Di</hi> ii) et le nombre des éléments XML sans correspondant spécifié dans la requête <hi rend="italic">pR</hi>.</p></div><div n="4.6 " type="section"><head>Processus de traitement de requêtes</head><div n="4.6.1 " type="section"><head>Traitement de requêtes orientées contenu (CO)</head><p>Les requêtes CO concernent les éléments qui ne contiennent que des éléments de recherche textuels. Nous calculons le score de pertinence pour tous les éléments feuille de l'arbre XML (avec au moins un des termes de recherché) en utilisant une variante du TF-IDF (voir la formule de pondération pour l'opérateur <hi rend="italic">same+</hi>, Section 3.3). Dans notre approche, nous considérons comme valide, tout élément XML qui contient un terme recherché et ceci, indépendamment de sa taille.</p></div><div n="4.6.2 " type="section"><head>Traitement de requêtes orientées contenu et structure (CAS)</head><p>Les requêtes CAS regroupent deux cas :</p><list><item><p>les requêtes simples de la forme <hi rend="italic">//A[B] – c'est-à-dire la requête spécifie seulement les éléments cibles, et les requêtes complexes de la forme //A[B]//C[D] – la requête spécifie à la fois la cible (//C[D ]) et le support (//A[B]). Pour des requêtes simples de la forme //A [B] nous évaluons le contenu textuel des noeuds en utilisant le même principe que pour les requêtes CO. Les contraintes structurelles sont exploitées et interprétées comme des indices structurels (Trotman et al., 2004). Nous calculons la similarité entre les contraintes structurelles de la requête et le chemin XML du fragment candidat en exploitant une distance d'édition modifiée (voir Section 4.5) qui fait intervenir des heuristiques dédiées aux attributs/valeurs (Marteau et al., 2003). Enfin, nous fusionnons les résultats pour le contenu et la structure en utilisant une méthode de combinaison pondérée (voir la formule pour l'opérateur in+, Section 3.3). En ce qui concerne les requêtes complexes du type //A [B] //C [D] (voir la figure 2) nous évaluons la pertinence à la fois du support //A [B] et de la cible //C [D ]. Nous ne conservons que les éléments cible qui possèdent au moins un élément support pertinent dans le même document. En effet, si un élément pertinent existe dans un document, son poids peut être propagé (en utilisant une fonction Max) vers la racine de l'arbre XML. Cet élément est un ancêtre (càd support) pour tous les éléments de l'arbre. La mesure de similarité pour une requête complexe, met en œuvre des modifications de pertinence associée à un élément résultat. Cette pertinence est calculée comme une moyenne arithmétique entre la pertinence de la cible et la pertinence maximum des supports (voir la formule de l'opérateur filter, section 3.3). Ceci permet d'intégrer le concept de pertinence contextuelle du document dans le calcul de pertinence des éléments de réponses : les éléments cibles sans support sont écartés du résultat alors que ceux qui bénéficient d'un support très pertinent remontent dans le classement final. Le classement définitif est trié par pertinence et les 1 500 premiers résultats sont conservés. Nous évaluons deux stratégies pour la recherche du contenu textuel : COCAS_SAMEPLUS (utilisant l'opérateur same +) et COCAS_SEQ (qui emploie une recherche séquentielle stricte (seq) à l'intérieur de l'opérateur same+). Une recherche séquentielle stricte (seq) va filtrer les éléments ne contenant pas tous les mots recherchés en séquence avec des indices consécutifs dans le texte (ignorant les termes fréquents). Une recherche basée uniquement sur l'opérateur same+ va retourner aussi des éléments contenant seulement un sous-ensemble des termes recherchés. Les résultats sont classés en prenant en compte : le nombre de termes différents recherchés trouvés à l'intérieur de l'élément, le caractère discriminant (i.e. IDF) des termes recherchés dans la collection. Cette stratégie n'impose pas de contraintes sur l'ordre d'occurrence de termes recherchés. Nous évaluons également l'effet produit par la prise en compte des informations structurelles dans le processus de recherche d'information sur la qualité de réponses retournées. Une requête CAS (Content And Structure) exprime deux types de contraintes structurelles : celles qui spécifient les éléments XML dans lesquels il s'agit de rechercher l'information (les éléments supports) et celles qui spécifient les éléments XML qu'il faut retourner (les éléments cibles). Dans le cadre de la campagne INEX 2005 plusieurs tâches ont été proposées pour évaluer différents degrés d'approximation utilisés pour l'interprétation des contraintes structurelles portant sur les éléments cibles et support : VV (Vague Target, Vague Support), VS (Vague Target, Strict Support, SV (Strict Target, Vague Support) et SS (Strict Target, Strict Support). Les stratégies VV, VS, SV et SS prennent en compte les informations explicites sur les contextes XML par le biais de l'opérateur in+ avec ß=0 ,5 pour une interprétation vague, et par le biais de l'opérateur in pour une interprétation stricte (voir la section 3.3). Pour la stratégie COCAS ces informations sont complètement ignorées. On peut remarquer que l'organisation hiérarchique des informations recherchées (càd. le rôle des éléments supports et cibles) est traitée d'une manière uniforme pour toutes les stratégies par l'utilisation de l'opérateur filter. COCAS_SEQ (FILTER (AND (SAME+ (SEQ Baeza Yates) )) (SAME+ string matching)) ) (SAME+ approximate algorithm) COCAS_SAMEPLUS (FILTER (AND (SAME+ Baeza Yates) (SAME+ string matching)) (SAME+ approximate algorithm)) VVCAS_SAMEPLUS (FILTER (AND (IN+ Traduction de la requête complexe 280 utilisant des opérateurs du langage récursif (section 3.3) selon la stratégie de recherche adoptée [/article/bb/] (SAME+ Baeza Yates)) (IN+ [/article/sec/] (SAME+ string matching)) ) (IN+ [/article/sec/] (SAME+ approximate algorithm)) ) VSCAS_SAMEPLUS (FILTER (AND (IN [/article/bb/] (SAME+ Baeza Yates)) (IN [/article/sec/] (SAME+ string matching)) ) (IN+ [/article/sec/] (SAME+ approximate algorithm)) ) SVCAS_SAMEPLUS (FILTER (AND (IN+ [/article/bb/] (SAME+ Baeza Yates)) (IN+ [/article/sec/] (SAME+ string matching)) ) (IN [/article/sec/] (SAME+ approximate algorithm)) ) SSCAS_SAMEPLUS (FILTER (AND (IN [/article/bb/] (SAME+ Baeza Yates)) (IN [/article/sec/] (SAME+ string matching)) ) (IN [/article/sec/] (SAME+ approximate algorithm)) )Chaque stratégie est basée sur un jeu de requêtes différent obtenu d'une manière automatique à partir du jeu de requêtes INEX 2005 CAS exprimé dans le langage NEXI (Trotman et al., 2004). Selon les différentes interprétations, les transformations utilisent un ensemble spécifique d'opérateurs pour la description des requêtes. Un exemple de traduction pour la requête complexe 280 (figure 2) selon les différentes stratégies de recherche est présente dans le Tableau 1. La figure 5 présente le temps de réponse du système (sur un Pentium IV - 2,4 GHz, avec 1,5 Go de mémoire RAM) estimé sur la base du jeu de requêtes complexes INEX 2005 CAS soumis sur la collection inex-1.8 de 725 Mo. Le temps moyen de réponse du système se situe entre 0,82 s pour une recherche séquentielle stricte qui ne nécessite pas de calcul pour la prise en compte des information structurelles, et 3,29 s pour une recherche séquentielle approximative basée sur l'opérateur same+ et associée aux calculs sur la structure des documents. Le coût en temps de réponse associé à la complexité des algorithmes de recherche approchée sur la structure des documents est non négligeable, mais pas prohibitif - particulièrement dans une perspective de parallélisation des algorithmes de recherche en vue de les exploiter dans un contexte de gestion de grandes masses de données. Dans la suite, nous présentons des résultats portant sur la qualité des réponses retournées par le système selon les différentes stratégies de recherche décrites, comparés aux résultats officiels d'INEX 2005 pour la tâche VVCAS (Vague Target Vague Support Content And Structure). Pour la tâche VVCAS les contraintes structurelles sur les éléments supports et les éléments cibles sont interprétées comme des contraintes vagues. Les métriques rapportées sont les mesures officielles utilisées dans INEX 2005 : la courbe effort-précision/gain-rappel (ep/gr) et le gain cumulé étendu normalisé (nxCG) calculés avec les paramètres ov.=off 9 et quant.=strict 10. La courbe ep/gr fournit une vue globale sur la performance des SRI et par conséquent est une mesure d'évaluation orientée système. nxCG est une mesure orientée utilisateur fournie pour évaluer les premiers résultats retournés par les SRI. Dans la figure 6b nous présentons une vue détaillée pour les premiers 150 résultats retournés. En analysant les résultats obtenus (tableau 2) comparés avec les résultats officiels de INEX 2005 (figure 6) on en déduit : i) que le système a une bonne précision pour des valeurs de rappel peu élevées. En particulier, les meilleures valeurs rapportées pour nxCG@{10,25,50} (overlap=off, quant.=strict) (tableau 2) peuvent nous classer (non officiellement) parmi les deux meilleurs (sur 28) soumissions pour la tâche VVCAS (figure 6.b); ii) La meilleure performance globale est obtenue par la stratégie VVCAS_SAMEPLUS sur la mesure ep/gr (ov.=off, quant.=strict) avec MAep = 0,0558. Cette performance est équivalente à une cinquième place non officielle (figure 6.a). Les résultats rapportés dans le tableau 2 montrent une augmentation de la qualité globale des résultats pour l'utilisation de la stratégie flexible pour la recherche de phrases (le gain sur MAep est de 14,58 % pour VVCAS_SAMEPLUS). Cependant, cette stratégie conduit à une perte de précision (de 13,38 % pour nxCG@10 et de 31.65 % pour ep/gr à 0,01) pour les premiers résultats retournés en comparaison avec l'approche stricte. Le gain cumulé étendu normalisé nxCG [i] pour un rang i donné et l'effort-précision (ep) à un niveau donné de gain-rappel (gr) pour les différentes stratégies de recherche sur la tâche VVCAS en autorisant les réponses imbriquées et utilisant une fonction d'agrégation stricte. Les meilleurs résultats sont présentés en gras nxCG ep/gr RunId @10 @25 @50 0,01/@15 0,02/@30 0,03/@45 0,1/@150 MAep VVCAS_SAMEPLUS 0,1444 0,2022 0,1889 0,2235 0,206 0,2013 0,1389 0,0558 VVCAS_SEQ 0,1667 0,1689 0,1339 0,327 0,3169 0,2673 0,133 0,0487 Gain en % - 13,38 19,72 41,08 - 31,65 - 35 - 24,69 4,44 14,58 Dans la figure 7 et le tableau 3 nous présentons des résultats portants sur l'interprétation vague ou stricte des contraintes structurelles sur les éléments cible et support (VV, VS, SV, SS). Les résultats sont comparés (tableau 4) avec une stratégie orientée contenu CO qui ignore les informations explicitées sur la structure des documents mais prends en compte l'organisation hiérarchique des informations recherchées par le biais de l'opérateur filter 11. Les différentes stratégies sont évaluées sur la tâche VVCAS (càd. en utilisant des jugements de pertinence non filtrés, dans la forme dans lesquelles ont été fournies par les utilisateurs). nxCG [i] et ep/gr pour les différentes dégrées d'approximation utilisés pour l'interprétation des contraintes structurelles évaluées sur la tâche VVCAS. Les réponses imbriquées sont autorisées. Fonction d'agrégation stricte. Les meilleurs résultats sont présentés en gras nxCG ep/gr RunId @10 @25 @50 0,01/@15 0,02/@30 0,03/@45 0,1/@150 MAep SSCAS_SEQ 0,0556 0,0711 0,0644 0,0476 0,0592 0,0646 0,0599 0,0217 SVCAS_SEQ 0,0556 0,0711 0,0644 0,0476 0,0592 0,0646 0,0599 0,0217 VSCAS_SEQ 0,1111 0,1022 0,0939 0,2702 0,2601 0,2036 0,0876 0,0358 COCAS_SEQ 0,1444 0,16 0,1273 0,3161 0,3084 0,2578 0,124 0,0448 VVCAS_SEQ 0,1667 0,1689 0,1339 0,327 0,3169 0,2673 0,133 0,0487 SSCAS_SAMEPLUS 0,0556 0,0711 0,0644 0,0476 0,0592 0,0646 0,0599 0,0259 SVCAS_SAMEPLUS 0,0556 0,0711 0,0644 0,0476 0,0592 0,0646 0,0599 0,0259 VSCAS_SAMEPLUS 0,0889 0,0933 0,0889 0,1595 0,1494 0,1397 0,0879 0,0372 COCAS_SAMEPLUS 0,1222 0,1933 0,1822 0,2126 0,1945 0,1936 0,1338 0,0525 VVCAS_SAMEPLUS 0,1444 0,2022 0,1889 0,2235 0,206 0,2013 0,1389 0,0558 En analysant les résultats présentés dans le tableau 3 nous observons que les stratégies utilisant une interprétation stricte des éléments cibles – SV et SS – ont un comportement identique. Cette observation est confirmée par les expérimentations effectuées en (Trotman et al., 2006a) portant sur la totalité des soumissions de la campagne INEX 2005. Par conséquent, pour l'analyse des résultats nous ferons référence uniquement à la stratégie SV. Gain en pourcentage introduit par les différents degrés d'approximation utilisés pour l'interprétation des contraintes structurelles (VV, VS, SV, SS) par rapport à la stratégie orientée contenu (CO) sur la tâche VVCAS L'interprétation stricte des contraintes structurelles a un effet négatif sur la qualité des résultats de recherche - rejet des réponses globalement pertinentes mais partiellement/non pertinentes par rapport aux contraintes structurelles. La dégradation de performances évaluée sur la mesure MAep est de de - 20.09 % à - 51.56 % pour la stratégie VSCAS_SEQ et respectivement SVCAS_SEQ; et de - 29,14 % à - 50,67 % pour la stratégie VSCAS_SAMEPLUS et respectivement SVCAS_SAMEPLUS. Ces résultats peuvent être expliqués par le fait que les utilisateurs, même experts, sont peu fiables pour la formulation des requêtes impliquant la structure des documents (Trotman et al., 2006b). L'interprétation vague des contraintes structurelles pour les éléments support et cibles (la stratégie VV) augmente la pertinence des réponses par rapport à la stratégie orientée contenu (CO). L'amélioration la plus importante est obtenue pour les premières réponses retournées sur la mesure nxCG@10 (gain de 18,7 % pour VVCAS_SAMEPLUS et de 15,44 % pour VVCAS_SEQ). Le gain global obtenu sur la mesure MAep est de 6,29 % pour VVCAS_SAMEPLUS et de 8,71 % pour VVCAS_SEQ. Ce comportement est confirmé par les résultas expérimentaux obtenus dans le cadre de la tâche COS.Focused d'INEX 2005 et présentés en Annexe. Nous avons présenté et évalué les performances et la pertinence d'algorithmes de recherche approximative pour la recherche des informations enfouies dans des bases de documents XML. Ces algorithmes reposent sur des mécanismes d'alignement de chemins issus d'une interprétation de la requête d'une part et des sous-structures des arbres associés aux documents indexés d'autre part. La similarité entre une requête et la structure d'un document est évaluée grâce à l'utilisation d'une distance de Levenshtein modifiée qui intègre des heuristiques et pondérations spécifiques permettent de s'affranchir d'une connaissance complète ou rigoureuse de la structure des documents exploités. Un langage de requête simple basé sur un ensemble d'opérateurs ensemblistes ou booléens, d'opérateurs qui intègrent des heuristiques type IDF a été développé dans le cadre d'une implémentation qui permet de fusionner les informations sur la structure et le contenu textuel de documents XML. Les résultats obtenus qui s'expriment en terme de vitesse d'indexation et temps moyen de réponse laisse supposer une adéquation de l'approche proposée pour le traitement de volumes conséquents de données. En ce qui concerne la pertinence de l'approche pour la recherche d'informations dans des bases documentaires XML, des résultats expérimentaux comparées avec les résultats officiels de la campagne d'évaluation INEX 2005 ont été présentés et analysés. L'interprétation vague des informations sur la structure des documents, et conjointement la distance d'édition proposée sur les chemins XML, augmente la pertinence des réponses retournées par le système. Les résultats sont encourageants, particulièrement pour les premières réponses retournées. Ce fait est important car les premières réponses ont une grande probabilité d' être consultées par les utilisateurs. Les perspectives envisagées à ce jour concernent l'élargissement des fonctionnalités algorithmiques pour traiter d'autres types de données non structurées telles que les séries temporelles ou les données séquentielles. Elles concernent également la parallélisation des algorithmes d'indexation et de recherche pour l'exploitation des principes proposés dans le contexte de la gestion des grandes masses de données. Des travaux en cours visent également l'adaptation et l'implémentation des algorithmes de recherche sur une plateforme physique dédiée (ACIMD – ReMIX,) .
Nous proposons des algorithmes dédiés à l'indexation et à la recherche approximative d'information dans les bases de données hétérogènes semi-structurées XML. Le modèle d'indexation proposé est adapté à la recherche de contenu textuel dans les contextes XML définis par les structures d'arbres. Les mécanismes de recherche approchée mis en oeuvre s'appuient sur une distance de Levenshtein modifiée et des heuristiques de fusion d'information. Une implémentation exploitant simultanément l'information structurée, i.e. l'arborescence des éléments XML, et le contenu des documents indexés est décrite. Les performances obtenues dans le cadre de la campagne d'évaluation INEX 2005 sont présentées et analysées. Celles-ci positionnent l'approche proposée parmi les meilleurs systèmes évalués, sur la tâche de recherche approximative de contenu en contexte structurel vague.
sciencesInfo_08-0133293_tei_DN_101_0063.tei.xml
termith-507-communication
Dans des publications antérieures (Petit, 2008), nous avons eu l'occasion de nousinterroger sur le sens d'un processus d'autonomisation de la phase de conception desressources pédagogiques numériques à grande échelle, à travers le cas de l'Université en ligne(uel). Nous avions souligné que ce phénomène, trèscourant dans le secteur des industries culturelles, l'est beaucoup moins dans lechamp éducatif, surtout lorsqu'il s'agit de l'enseignement supérieur. En effet, ilse traduit par une dissociation entre la production par une minorité à destinationd'une majorité d'enseignants potentiellement utilisateurs ou d'usagers finauxdirectement, les étudiants par exemple. Loin de s'estomper, le phénomène présenteune acuité nouvelle avec la généralisation des Universités numériques thématiques (unt) qui font de ce découplage l'un de leurs principesfondateurs. Dans cet article, nous analyserons comment les sept unt quicomposent le paysage universitaire dans le domaine des ressources pédagogiquesnumériques s'emparent de cette question, principalement à travers ce qu'elles endisent elles -mêmes. Pensent-elles que la rupture introduite dans les pratiquescourantes des enseignants par la dissociation entre la production et l'usage desressources pédagogiques peut être dépassée ? Si oui, à quelles conditions ? Au prixd'un alignement sur le modèle des industries culturelles ou selon des voiesspécifiques au champ éducatif ? Nous partirons des résultats d'une analyse duprogramme « Premier cycle sur mesure - Université en ligne » (pcsm - uel) que nous avons exposés par ailleurs( Petit, 2008). Si ce programme a posé – avant les autres – la question de ladissociation production/consommation à grande échelle, a -t-il ouvert la voie entermes de solutions explorées ou bien les unt, dans leurdiversité, sont-elles tentées d'y apporter des réponses différentes, voiresingulières ? Quoi qu'il en soit, même si elle n'est pas toujours posée en cestermes, cette interrogation est d'actualité. La mise à l'agenda récente et remarquéepar le ministère de l'Enseignement supérieur et de la Recherche de la question del'usage pour les universités numériques en témoigne. Rappelons que la question n'estpas tout à fait nouvelle. Il y a plus de dix ans, Éric Bruillard et Georges-LouisBaron (1998 : 365) écrivaient que « la réutilisation des logiciels est en pratiqueencore difficile à rendre effective. Il faudrait donc pouvoir proposer auxenseignants des logiciels intégrateurs incorporant plus ou moins une théoriepédagogique ou des morceaux réutilisables ». Deux voies sont ici esquissées : l'uneconsisterait à proposer des outils intégrant des approches pédagogiques identifiées ,l'enseignant utilisateur les choisissant alors en connaissance de cause, tandis quel'autre proposerait des banques de situations et d'exercices dans lesquelles ilpourrait puiser pour un usage personnalisé. Dans le premier cas, en plus du contenuproprement dit, il s'agirait d'intégrer au « back office »ou base arrière de travail une forme « objectivée » du « frontoffice » sous la forme d'une incorporation de la médiation (Fichez ,2002 : 178). Dans l'autre, il faudrait trouver la bonne formule du meccanoindustriel, fait de briques indéfiniment standardisées et facilement réagencablespour une adaptation « sur mesure » de la prestation vivante à tous les publics etaux contextes les plus variés. Selon la première voie, il conviendrait en quelque sorte de mettre une fois pourtoutes au point la « bonne » ingénierie de la conception, susceptible deproposer un dépassement de la dissociation entre la conception et l'utilisationdes ressources. Un consensus paraît se dessiner sur ce qui constitue le stade initial d'uneingénierie de la conception réussie : les ressources pédagogiques doiventêtre scénarisées. Les unt abordent mezzo voce la question. Dans une présentation de lanotion de formation en ligne à destination des enseignants, l'Associationdes universités pour l'enseignement numérique en économie et Gestion( Aunège) fait par exemple référence à la métaphore cinématographique etprésente la scénarisation comme l'action de « concevoir la trame d'uneactivité pédagogique ou d'une formation ». Plus loin, il estdit que la scénarisation « permet de structurer et de mettre en relation leséléments du scénario pédagogique, à savoir : les contenus, les activitésd'apprentissage, d'enseignement et d'évaluation, le matériel pédagogique :outils, documents, etc. ». L ' unjf, une autre unt qui, dans un « glossaire des termes utiliséspour les formations en ligne sur Internet » propose plusieurs définitions dela scénarisation. Dans ces deux cas, on voit clairement que la scénarisationn'est abordée qu'en termes généraux. À travers leurs sites, les différentesunt s'étendent finalement assez peu sur lesujet. En aucun cas, l'approche en la matière ne débouche sur une séried'actions précises intégrées dans un processus de production que l'onpourrait qualifier d'industriel. Lorsque les unt lerelient à leurs activités de production de ressources, c'est le plus souventà travers le texte d'un appel d'offres ouvert à leurs membres, comme pour l 'uoh (Université ouverte des humanités) quiannonce sans plus de précision que « la pertinence de la scénarisationd'ensemble » sera un critère de sélection des projets soumis. Dans un autre contexte, Gilbert Paquette (2005 : 222) précise que le scénariopédagogique décrit « les activités des apprenants et des formateurs, lesressources utilisées et produites, de même que les consignes régissant lesactivités d'apprentissage ». Mais, si la définition retenue pourrait fortbien être reprise par chacune des unt, ladescription mentionnée ici va bien au-delà d'une énonciation à destinationde l'utilisateur. Elle correspond à une étape importante dans la conceptionde ce qu'il appelle un « système d'apprentissage », entendu comme le« produit d'un processus d'ingénierie pédagogique et [servant] de soutien àla diffusion des apprentissages » (ibid. : 67) .Ainsi Gilbert Paquette montre -t-il bien que la scénarisation fait partieintégrante d'une ingénierie pédagogique et renvoie à des théoriessous-jacentes de l'apprentissage que l'on explicite au moment et dans lecontexte de cette construction. La scénarisation peut donc tantôt être unsimple pis-aller artisanal, lorsque l'on s'efforce de clarifier lesintentions pédagogiques et de suggérer des pistes d'utilisation, tantôtcorrespondre à une phase particulière dans un processus industriel deconception d'un système d'apprentissage dans lequel la modélisation occupeune place déterminante. Pierre Tchounikine (2006 : 146) souligne qu'un « eiah [Environnement informatique pourl'apprentissage humain] embarque une intention didactique et/oupédagogique ». Le premier problème à résoudre va donc consister à modélisercette intention en fonction du contexte et des objectifs. Il s'agit ensuitede faire « migrer » ces modèles, c'est-à-dire d'en « étudier latransposition dans le milieu particulier que constitue l'informatique » (ibid. : 146). Dès lors, le terme de « modèle » adeux acceptions différentes. Dans un cas, il s'agit de modèles utiliséscomme outils scientifiques visant à mieux comprendre – ou à développer – unaspect d'une théorie et, dans l'autre, de modèles utilisés comme base deconception d'un eiah. Comme le précise PierreTchounikine, l'une des difficultés majeures dans la conception d'un eiah est de prendre en compte ces différents typesde modélisation et de les articuler entre eux. Mais, à supposer que detelles approches soient envisageables, les unt n'ensont pas là. En revanche, elles s'intéressent toutes aux chaînes éditorialeset c'est souvent par ce biais qu'elles réfléchissent à des notions tellesque la scénarisation ou la modélisation. Un groupe de travail inter - unt intitulé « Chaînes éditoriales - Outilspédagogiques » est chargé « d'établir une stratégie d'interopérabilité et demutualisation entre les établissements afin que les ressources produitessoient modifiables (avec des outils différents), éditables sous différentsformats / types de supports, facilement mises à jour; d'assurer une veillesur les outils existants dans les établissements, autres que les chaîneséditoriales – les applications pédagogiques informatiques comme lessimulateurs, les exerciseurs, etc. – et proposer le développement d'outilspour la communauté; d'informer et sensibiliser sur les bonnes pratiquespour aider les établissements à homogénéiser leur politique d'ingénierie deproduction par rapport aux unt auxquelles ilsadhèrent ». Mais de quoi s'agit-il exactement ? Lors du séminaire national inter - unt de 2007, Manuel Majada de l'université detechnologie de Compiègne (utc) affirme que leschaînes éditoriales « relèvent de procédés méthodologiques et technologiquesissus de l'ingénierie documentaire ». L'objectif est d'intervenir sur ledocument pour « améliorer la productivité, améliorer les usages, pérenniserl'information ». La démarche se fait en trois étapes : la modélisation : il s'agit de traduire une réalité pédagogique enlangage informatique, c'est l'étape du schéma xml; la production pour bâtir des contenus structurés en séparant le fondde la forme; la publication pour développer une information sans interventionhumaine qui réponde à telle ou telle accessibilité. Les chaînes éditoriales les plus utilisées dans les untsont ChainEdit, Jaxe et Scenari. La plus connue, Scenari (Système deconception d'enseignements numériques adaptables, réutilisables etinteractifs), née à l ' utc, mérite quelquesdéveloppements. Les auteurs de Scenari présentent leur réalisation comme une« solution documentaire issue de la recherche en informatique et enpédagogie à l ' utc pour la conceptionindustrialisée des supports pédagogiques numériques » (Bachimont et al., 2002 : 1). Ils indiquent que ce procédé « sefonde sur la modélisation, la structuration logique, la scénarisation etl'édition sur un support interactif des contenus pédagogiques » etexpliquent, schéma à l'appui, que la chaîne éditoriale « se situe en aval del'ingénierie de formation, qui traduit les attentes et besoins desutilisateurs, et en amont d'une plateforme de gestion de la formation » (ibid. : 6). Il ne s'agit donc pas de fairel'économie d'une ingénierie de formation, mais de fournir un cadretechnologique permettant ensuite « d'instrumenter cette démarche dans lessupports » (ibid. : 2). Pour ce faire, les auteursproposent d'articuler la structuration des contenus documentaires, lascénarisation de l'interaction pédagogique et la distribution des contenuset l'accessibilité des services. Un outil simple, de type « chaîneéditoriale », proposant une ingénierie embarquée légère, serait-il lasolution à la délicate question d'une réutilisation des ressourcespédagogiques numériques à l'échelle industrielle ? La notion deréutilisation est au cœur de la démarche des auteurs de Scenari qui ont étéamenés à l'expliciter dans un article postérieur (Crozat et al., 2003). Selon eux, elle renverrait à la réutilisation dansle temps, dans l'espace et dans le domaine de la pédagogie. Si laréutilisation dans le temps (maintenance et amélioration des versions) etdans l'espace (transfert des contenus dans des cadres techniques dedéploiement différents) peuvent s'envisager sans grande difficulté, il n'enva pas de même de la réutilisation pédagogique. La question est alors desavoir comment adapter des contenus conçus dans un cadre d'usage pédagogiqueprécis à des cadres d'usages multiples. Se fondant sur une approche d'ingénierie documentaire, les auteurs affirmentque la notion de multi-usages renvoie à la notion documentaire demulti-supports, « car l'intentionnalité du pédagogue est véhiculée par lesupport que manipule l'apprenant, et que la forme physique de ce supportpermet de traduire l'intentionnalité en la préconisation d'une interaction »( ibid. : 3). Mais peut-on ainsi supposerl'adéquation entre l'intentionnalité pédagogique et les signes qui lamanifestent sur un support technique donné ? Disposer d'une descriptionlogique des contenus au format xml offre l'avantagede dissocier le fond et la forme. À partir d'un même texte, une chaîneéditoriale permet la publication sur différents supports (polycopiés ,diapositives, hypertexte, etc.). Dès lors, nous pouvons envisager plusieursmatérialisations physiques de ce contenu en fonction des usages envisagés .Mais admettre l'équivalence entre l'intentionnalité pédagogique et lascénographie est une manière de renvoyer les questions de pédagogie à unephase réussie d'explicitation des intentions. Ensuite, il ne resterait plusqu' à trouver le « bon » support, c'est-à-dire le plus adapté aux publics etaux contextes visés. La chaîne éditoriale – avec son argument principal de séparation du fond etde la forme des contenus à éditer – est d'autant plus tentante qu'elle seprésente comme un outil susceptible de permettre de faire l'économie d'uneingénierie de la conception complexe. En facilitant la maintenance etl'évolution des ressources, d'une part, la publication multi-supports ,d'autre part, l'usage d'une chaîne éditoriale garantirait, en quelque sorte ,une réutilisatibilité dans le temps et dans l'espace, conditions d'uneréutilisation pédagogique effective qui, chacun peut le mesurer, n'a riend'automatique. Suivant l'autre voie mentionnée précédemment, symétrique de la précédente, lagrande base de données dans laquelle il suffirait de piocher pour préparer sescours suscite beaucoup d'espoir. Éric Bruillard (2003 : 11) parle de « créerdynamiquement des ressources par composition ». Reste -t-on dans la tradition dutravail artisanal de l'enseignant qui compose son cours à partir d'élémentsdisparates ou l'usage d'une telle base de données suppose -t-elle une rupture ?Le statut de « bricoleur », pour reprendre l'expression de Raymond Bourdoncle( 1993 : 103), caractérise des pratiques d'autoproduction et d'autoconsommationdont il s'agirait désormais de s'éloigner. En effet, dans la logique encorelargement dominante aujourd'hui, point n'est besoin de base de données puisquel'enseignant tient à tout faire lui -même, sauf peut-être pour des objetscomplexes à réaliser, tels les simulations et les vidéos, qu'il pourraitreprendre tels quels dans son cours sans avoir l'impression de perdre la main .Toutefois, ajoute Éric Bruillard (2003 : 11), « dès qu'une distance s'établitentre auteurs et utilisateurs, ou si les auteurs ne créent pas ex nihilo mais intègrent des ressources élaborées par d'autres, desmodes de production différents du mode artisanal s'avèrent nécessaires. Laquestion est alors d'agencer des éléments de provenances diverses ». La base dedonnées pédagogique constituerait donc le maillon essentiel permettant de bâtir ,sur la base de demandes identifiées, des formations « sur mesure » à partir degrains standardisés et indexés à réagencer. Par conséquent, l'indexation desobjets pédagogiques selon des normes partagées au niveau internationalouvrirait-elle la voie à l'utilisation universelle ? En d'autres termes, lesecteur de la formation aurait-il – enfin – trouvé la voie du « sur mesure demasse » cher à Pierre Eiglier et Éric Langeard (1999) ? Comme le souligne Jacques Perriault (2004 : 183), le numérique est unequestion politique, particulièrement lorsqu'il s'agit de définir des normeset standards pour l'apprentissage en ligne. Il ajoute que « chercheurs ,industriels et décideurs sont obligés de concevoir et de tester souspression un ensemble complexe de notions et de médiations, sans temps pourla réflexion théorique, ni enrichissement par les usages et l'opinionpublique ». Les acteurs engagés dans ces processus de normalisation sontnombreux et proviennent d'horizons variés. Dans ce paysage complexe, destendances marquantes se dégagent : le poids important des acteurs de laformation pour adultes et des spécialistes de l'informatique ou de ladocumentation d'où l'importance excessive, selon Jean-Philippe Pernin( 2006), accordée au processus de gestion des ressources numériques audétriment des savoir-faire traditionnels des enseignants et des formateurs .Fort logiquement, les motivations des groupes d'intérêt sont diverses :certains y voient l'occasion d'étendre le secteur marchand tandis qued'autres défendent le principe d'une diffusion libre de l'accès au savoir .Éric Bruillard (2003 : 15) évoque un combat dissymétrique en parlant« d'ambivalence entre dons et échanges dans des communautés de pairs et‘ ‘ contraintes ' ' économiques du secteur commercial qui pilotent largement lanormalisation ». Sur cette question, les unts'expriment beaucoup. Elles font de l'indexation selon la norme Sup lor - Fr la « clé pour partager les ressourcespédagogiques ». Le lom (Learning Object Metadata) est unstandard international qui propose un format de description adapté auxressources pédagogiques. Un objet d'apprentissage y est défini comme « touteentité numérique ou non, qui peut être utilisée, réutilisée ou référencéelors d'une formation dispensée à partir d'un support technologique ». Le lom - Fr est une déclinaison du lom adaptée aux besoins de la communauté éducative française etnormalisée par l ' afnor (Agence française denormalisation). Sup lom - Fr en est une versionappropriée à l'enseignement supérieur : des critères spécifiques comme« étude de cas » ou le niveau d'étude sous la forme « Bac + … » y ont étéajoutés. Un séminaire spécifique à cette question a été organisé en mars2007 pour les unt. Il s'agissait de « mettre en évidencel'intérêt de diffuser et partager des pratiques reconnues pour leréférencement, l'indexation et la diffusion de ressources » et de « penserl'organisation d'un processus de certification de la qualité ». Derrière cette quête de normalisation, on discerne la volonté sous-jacente decontourner la pédagogie, c'est-à-dire le fait qu'un support d'enseignementvéhicule une théorie d'apprentissage ou, sans aller si loin, une ou desapproches pédagogiques liées aux auteurs. Il s'agirait de décontextualiserle plus possible chaque ressource en dissociant le contenu proprement dit duscénario initial pour obtenir des éléments standards, dépouillés de touteintention, pour une rescénarisation et une recontextualisation a posteriori. Mais les normes peuvent-elles offrirune telle neutralité ? Compte tenu du contexte de leur élaboration, nous pouvons en douter. L'universalité del'échange des ressources – et, in fine, de leurusage – que visent les tentatives de normalisation n'est pas encore acquise .Il n'en reste pas moins que l'on observe d'ores et déjà des activités destandardisation bien réelles, dans le cadre des unt par exemple. Les approches dont il vient d' être question ont un point commun : elles sont à larecherche de solutions exclusivement techniques et tiennent pour acquisel'absence d'intermédiaires entre les concepteurs et les utilisateurs. Cependant ,ceux -ci ne seraient-ils pas les chaînons essentiels d'une mise en relation d'uneoffre et d'une demande sur un marché, à l'instar du fonctionnement desindustries culturelles ? Ces questions ne se posent pas de manière identiquesuivant les deux voies rencontrées précédemment. On discerne dans les deux casdes projets de nature industrielle, soit explicitement, soit implicitement. Maisces deux voies correspondent-elles à des options industrielles compatibles ?Dans le premier cas, nous avons affaire à une logique industrielle amontprivilégiant la diffusion, dans un ordre préétabli, de savoirs disciplinairesprédécoupés sur le modèle du manuel de l'enseignement secondaire. Dans le secondcas, il s'agit d'une logique portant sur l'aval de la filière, misant davantagesur le découpage des contenus en micro-éléments indexés pouvant être facilementrecomposés pour une adaptation « sur mesure » à la demande et à des contextesvariés. Non seulement les choix techniques et scénographiques à opérer divergent, mais aussi – et surtout – les choixéducatifs et, au-delà, les valeurs sociétales associés à chacune des deuxlogiques. Dès lors, l'une des premières conditions à unusage effectif des ressources produites ne résiderait-elle pas dans la nécessitéd'un choix clair entre l'une ou l'autre de ces options pour aller ensuite aubout de la logique choisie en y intégrant tous les chaînons indispensables misen évidence par la théorie des industries culturelles ? D'abord, nous essaieronsde préciser de quels chaînons il s'agit, puis, pour chacun d'entre eux, nousnous demanderons si les unt peuvent ou non constituerle cadre dans lequel sont susceptibles d'émerger ces intermédiaires. Pour cela ,nous procéderons à une analyse comparée des différentes unt à travers la manière dont elles se présentent sur le Web à partirde questions essentielles telles que la nature des ressources pédagogiques, leou les public(s) prioritaire(s), les finalités affichées, les réalisations etles retours d'usage annoncés. Disons -le d'emblée, deux faits émergentdistinctement de cette étude : derrière un discours généraliste sur les missionsdes unt, les disparités sont grandes d'une universiténumérique à l'autre et, au sein d'une même unt, lapluralité des réponses à ces questions n'est pas moins grande. Avec l'approche en matière de chaîne éditoriale de type Scenari, ou sonprojet de déclinaison pour le supérieur, et dans le cas de l'équipe deconception préconisée par le courant eiah, lessolutions sont adaptées à un contexte précis, celui qui prévaut lors de laconception des ressources. Rien ne garantit que les ressources ainsiproduites, même selon des méthodes rigoureuses, puissent rencontrer unpublic plus large que celui initialement visé. Le chaînon manquant àréintroduire dans ce cas ne pourrait-il être l'éditeur, chargé de faire « lelien entre, d'un côté, ceux qui ont conçu [les ressources] et qui lesproduisent (souvent les mêmes) et, de l'autre côté, ceux à qui elles sontdestinées » (Mœglin, 2007 : 118) ? Dans le cas de l ' uel qui nous sert, rappelons -le, de support à l'analyse, deuxsociétés ont eu à cœur de valoriser le programme déjà en grande partieréalisé. Sans pouvoir entrer ici dans les détails, soulignons que, dans l'unet l'autre cas, il se serait agi d'une valorisation sur les marges dusystème universitaire ou plutôt en évitant soigneusement ce qui en constituele cœur, c'est-à-dire l'enseignant. Dans un cas, il était envisagé des'adresser directement aux étudiants dans une visée autodidactique; dansl'autre cas, de distribuer les contenus à différentes institutions, laformation étant renvoyée à chacune ou à des jours meilleurs. Est -ce unemanière de contourner le rôle fondamental que l'enseignant joue en termes deprescription ? Ce contournement est-il purement conjoncturel ouconstitue -t-il une adaptation avisée aux caractéristiques intrinsèques del'enseignement supérieur ? Pour tenter de répondre à la question, voyons cequ'il en est dans le cadre des unt. Malgré les disparités recensées, une logique que l'on pourrait qualifierd'éditoriale n'est jamais loin dans la plupart des unt, quand bien même s'affiche -t-elle rarement de façon explicite .Elle se manifeste par une volonté d'exhaustivité dans un domaine voire, danscertains cas, par le souci de proposer sur une question les « meilleures »ressources et de se positionner, de ce fait, comme un label. L ' unjf est la plus explicite sur le sujet quand elleaffirme qu'elle « apporte la caution scientifique et pédagogique del'Université à toutes les formations qu'elle diffuse et labellise ». Plusloin, il est précisé que « les enseignements qu'elle produit sont élaborés ,conçus et tenus à jour par les meilleurs spécialistes universitairesdisposant d'une longue expérience et d'une expertise reconnue, le plussouvent attestée par la notoriété dont ils jouissent dans leur domaine decompétences ». Même si le site Web ne le dit pas explicitement, il estclair qu'une telle sélection par la notoriété suppose l'existence d'uncomité éditorial. Il est tout aussi manifeste que l'on s'adresse alors enpremier lieu aux étudiants et non aux enseignants qui ne recherchentcertainement pas des cours de référence. D'autres unts'adressent dans les faits prioritairement aux étudiants. C'est le casde l'Université médicale virtuelle francophone (umvf) qui se propose de mettre à leur disposition en libre accèsdes « ressources documentaires venant en complément des cours dispensés», qu'il s'agisse de polycopiés numériques ou d'études decas dans le cadre des ecn (Examens classantsnationaux) pour les étudiants de 2 e cycle d'étudesmédicales. L'Aunège propose aux étudiants en économie-gestion une soixantede macro-ressources (80 h de travail pour l'apprenant) qui sont « pourl'essentiel des cours complets multimédias combinant des leçons multimédiasinteractives, documents complémentaires, vidéos de présentation, polycopiés ,qcm, exercices ou cas corrigés, et couvrant lesprincipales disciplines de l'économie-gestion de Licence et Master 1 ». De son côté, l ' uoh réfléchit à la notion de Grande Leçon « devant apriori permettre d'introduire ou de réintroduire des fondamentauxauprès des étudiants (transmission des cadres de pensée) » en appelant deses vœux un débat pédagogique « mettant en lumière les différents types decontenus possibles et à privilégier, tant en termes scientifiques quepédagogiques ou techniques ». Dans cesdémarches concordantes (nous verrons plus loin que certaines unt mettent en avant une autre logique), faut-ilvoir chez ces unt la volonté tenir lieu d'éditeur ?C'est ce que pensent François Horn et Thomas Lamarche (2005) à propos de l 'umvf qu'ils qualifient « d'éditeur horsmarché ». Mais l'éditeur ne se contente pas de proposer des contenussélectionnés, il fait en sorte qu'ils rencontrent leur public par uneinsertion dans un dispositif qui garantisse leur diffusion auprès despublics visés – les étudiants – en ne négligeant pas le rôle fondamental dela prescription d'usage. Sans qu'il soit possible de le développer ici, lemanuel scolaire est un exemple abouti d'intégration des prescripteurs( enseignants, inspecteurs) dans un dispositif d'ensemble. Cette intégration ,qui fait le lien entre la conception et l'usage, est une conditionfondamentale de l'existence d'un secteur de l'édition scolaire à partentière. Mais l'enseignement supérieur n'est pasl'enseignement scolaire. Une étude sur l'édition universitaire numérique réalisée par Benoît Épron( 2004) pointe le difficile équilibre à trouver entre l'investissementnécessaire et l'apport économique que peut engendrer l'édition numériquedans l'enseignement supérieur. Pour une meilleure maîtrise de ce marché àrisque, l'auteur analyse et préconise la solution du groupement éditorialrassemblant des acteurs du public et du privé. Selon lui, un tel agrégateurdevrait remplir trois fonctions principales. Dans un premier temps, il« doit permettre une dissociation des utilisateurs et des acheteurs decontenus »; dans un second temps, l'agrégateur « joue un rôle de gestion etde diffusion des licences », et sa troisième fonction doit être « deconstruire des collections en reformatant les documents ». Toutes choseségales par ailleurs, il estmanifeste que, s'agissant des ressources pédagogiques, ce rôle pourrait êtrejoué par les unt. Rien n'indique qu'elles n'aurontde cesse d'étendre l'éditorialisation des ressources mais, par leur capacitéfédératrice – selon des approches disciplinaires fondamentales dansl'enseignement supérieur – elles sont susceptibles de constituer le cadrequi, en amont, rend plus facile les négociations avec des éditeurs, et, enaval, diffuse les ressources selon des régimes différenciés. Dans une autre logique, privilégiant cette fois -ci l'industrialisation del'aval de la filière, et en attendant le grand meccano annoncé, à quellesconditions pourrait se réaliser l'agencement sur mesure propre à mettre enœuvre des activités de formation dites « ouvertes » ? Lorsque le publicn'est plus captif, que l'approche part de besoins exprimés par des usagersou des clients, qui saura faire le lien entre ces besoins et des offres deformation qu'il faudra adapter « sur mesure », et, afortiori, en temps réel ? Lorsque les offres sur catalogue ne sontpas adaptées, qui est susceptible, face à la demande exprimée, d' être legarant d'une adaptation fine de l'offre pouvant nécessiter une refonte ou unréagencement « sur mesure » des ressources existantes ? N'y a -t-il pas làl'amorce ou l'émergence d'une nouvelle fonction ? Selon Pierre Mœglin( 2007), cette fonction d'intermédiation d'un genre nouveau correspond aumodèle dit du « courtage informationnel » et concerne la fonctiond'entremise : « Intermédiateur mandaté par l'usager ou par son représentant ,le courtier informationnel ne produit rien; il recherche des informationsad hoc et il les fournit à la demande et surmesure, le fit se produisant lorsque les informationsfournies sont jugées pertinentes et utilisées par celui à qui elles ont étéadressées » (Mœglin, 2005 : 225). Ainsi les unt pourraient-elles constituer le terreau favorisant le développement de lafonction. Toutes se sont engagées dans un travail d'indexation des ressources dans unelogique de mise à disposition de grains fins indexés que l'enseignantutilisateur – bien plus sûrement que l'étudiant – pourra recomposer en vued'un usage « sur mesure ». L'Aunège se présente d'ores et déjà comme un« fournisseur de données en économie-gestion [qui] met à [votre] dispositionson entrepôt oai (repositoring) ». L'Université numérique ingénierie ettechnologie (unit) propose sur son site 1654ressources en provenance de plusieurs entrepôts de données et l'Université des sciences en ligne( Unisciel) annonce plus de 2000 ressources indexées sur son site, de taillesdiverses il est vrai : une fiche d'indexation peut renvoyer à l'ensembled'un module de l ' uel, un chapitre ou des élémentstrès détaillés comme une vidéo ou un seul exercice. Quant à elle, l ' umvf déclare l'existence de 6600 ressources sur sonsite, bientôt indexées selon la norme lom - f r. Si ces grains, surtout les plus fins ,s'adressent d'abord aux enseignants, dans les faits ne risquent-ils pas detoucher en premier lieu ceux des enseignants déjà impliqués de longue datedans ces projets ? Pour atteindre davantage d'enseignants, les unt ont bien compris qu'elles doivent lessensibiliser soit directement, soit par l'intermédiaire de relais dans lesétablissements membres. Pour peu que le cercle des enseignants touchéss'élargisse, un portail respectant la logique disciplinaire peutcertainement suffire à mettre à disposition des enseignants les grainsnécessaires à la fabrication de leurs propres ressources pédagogiques. Iln'y a pas de rupture avec les pratiques qui dominent encore largement àl'université aujourd'hui et la liberté pédagogique de l'enseignant s'entrouve préservée. En quelque sorte, il s'agirait d'accompagner la tendance àla modularisation croissante de l'offre de formation introduite par laréforme dite lmd. Mais au-delà de la formationinitiale ? En effet, comment être assuré, quand on est un organisme deformation, par exemple, d'avoir une vue d'ensemble des ressourcespotentiellement réutilisables dans un domaine, d'en connaître le régimeéconomique et les conditions juridiques d'exploitation ? Un tel servicepourrait être rendu par une activité de courtage informationnel prise encharge, le cas échéant, par les établissements universitaires, lesorganismes de formation ou tout autre acteur, pour le compte d'usagers ou deleurs représentants. L ' unt pourrait-elledévelopper elle -même cette activité de courtage ? En effet, nous pouvons considérer que l ' unt, entant que portail d'information et de ressourcespédagogiques disciplinaires pour le supérieur, remplit cette fonction. Surle site de l'Aunège, l'entrée par profils d'utilisateurs y concourt :étudiants, enseignants, conseillers, entreprises, membres (avec uneidentification requise pour cette dernière catégorie). L'Unisciel a lancé en2009 un assistant virtuel, baptisé sam, avec lequel« il est possible de communiquer directement […] afin d'obtenir des cours ,exercices, tp … en sciences ». sam serait-il l'esquisse d'un courtier virtuel ? Dans tous lescas, l ' unt joue davantage un rôle de distributeurexclusif mandaté pour guider dans les différents catalogues de formations etde ressources dont elle dispose. Mais toute activité de conseil ne peut pasêtre assimilée à du courtage. Le courtier, lui, valorise le seul fait d' êtreun intermédiaire et n'est pas lié aux différentes parties qu'il met enrelation. Sa faculté d'intermédiation ne se limite pas à une vagueorientation, mais vise à créer les conditions d'un véritable plan deformation « sur mesure ». Cela suppose de connaître parfaitement lesdifférentes offres de formation dans leur détail, y compris pour lesinfléchir le cas échéant. S'agissant des ressources, il est celui qui estcapable de gérer la diversité de leur régime, non seulement sur les planstechnique et pédagogique, mais aussi, et peut-être surtout, juridique etfinancier. Plus fondamentalement, le courtage, loin d' être aujourd'hui stabilisé, ne selimite pas, selon nous, à une activité de portail. Comme dans toute fonctiond'intermédiation, peut-être plus encore dans le cas du courtage, la notionde confiance joue en effet un rôle essentiel. Peut-elle alors êtreautomatisée et la fonction est-elle réductible à la mise à dispositiond'informations et d'outils de ce type en libre service sur un portail ? Ou ,dans une version plus évoluée, à la mise en réseaux de portails de type oai (Open ArchiveInitiative), véritables courtiers automatiques ? Nous ne pensons pasqu'un courtage informationnel aussi complexe que celui que nécessitel'activité de formation puisse se limiter à prédisposer de l'information, nimême à proposer les outils pour composer son propre parcours. Complexité del'activité et nécessité d'un tiers de confiance militent pour uneintermédiation humaine. La formation « sur mesure » est à ce prix. En somme ,si l ' unt, dans sa fonction de portail, constituaiten elle -même toute l'activité de courtage, il s'agirait davantage, àl'instar de ce que François Horn et Thomas Lamarche (2005) ont mis enévidence pour l ' umvf dans la fonction d'édition ,d'en tenir lieu par défaut. Lors de notre analyse détaillée de l ' uel (Petit, 2008) ,nous avions relevé que l'ensemble disparate que forment ces ressources« tenait » grâce à une logique de club présente à un second niveau, rendantpossible la cohabitation entre des modèles peu compatibles. Il est aiséd'observer que la généralisation des unt s'accompagned'un renforcement de la logique de club. Si celle -ci favorise l'intermédiation ,elle n'est pas au service exclusif de l'une ou l'autre de ses formes, édition oucourtage pour ne prendre que celles analysées ici. Il est important de soulignerque le club, même inabouti, dans sa logique intrinsèque, a un avenir dans lesecteur universitaire par son aptitude à fédérer d'autres modèles qui nepourraient s'imposer frontalement. Il pourrait ainsi très bien accueillir desressources relevant du modèle éditorial dans sa forme la plus aboutie, àl'exemple de ce qui a été tenté dans le secondaire – sans succès – avec lesdifférents bouquets de service d'éditeurs, comme le rapporte Gérard Puimatto( 2007). Il pourrait tout aussi bien être un terrain d'exercice pour le courtierinformationnel qu'accueillir des portails dont le mode de valorisation est fondésur le modèle du flot. Mais de quel club s'agit-il au juste ? Une chose est sûre : il n'est pas l'application stricte du modèle du club desindustries culturelles dégagé par Gaëtan Tremblay et Jean-Guy Lacroix (1991 )pour éclairer le fonctionnement du secteur alors émergeant de lacâblo-distribution. Les analyses qui précèdent montrent qu'il peut y avoir unelogique de club qui ne soit pas caractérisée en premier lieu par un mode de miseen marché. D'abord parce que dans les unt, la« valorisation » peut prendre d'autres formes qu'une valorisation commercialeclassique, telle la visibilité des ressources par exemple. Ensuite, parce que cequi prime, dans les industries culturelles comme dans les industries éducatives ,c'est la capacité d'un acteur ou d'un groupe d'acteurs à fédérer plusieursmodèles à son profit : la logique de club est alors fort commode pour y parveniret qui tient le club tient l'ensemble. En revanche, à la différence desindustries culturelles, il est certainement nécessaire de bien distinguer iciles fonctions centrales et le mode de rémunération qui ne sauraient seconfondre. Pour l'ensemble des unt, l'essentiel dufinancement vient du ministère de l'Enseignement supérieur et de la Recherchesous la forme de subventions. Les établissements membres ne règlent que lefonctionnement et les usagers finaux ne participent en aucun cas au financementde l'ensemble. Le ministère finance donc d'abord la capacité fédératrice quereprésente ce club. Une question se pose alors : le club n'est-il là que pourmasquer provisoirement les modes de rémunération plus visibles que l'adhésionforfaitaire – l'éditorial avec la vente à l'unité, le flot avec la rémunérationpar la publicité, le compteur avec le paiement à la durée ou au volume, lecourtier avec le paiement à l'acte ? Ou bien s'installerait-il durablement dansle paysage de l'enseignement supérieur sous une forme singulière que l'onpourrait qualifier de « logique de club public » qui serait la marque de laspécificité des industries éducatives par rapport aux industriesculturelles ?
Tenter d'inscrire les modalités de l'usage des ressources pédagogiques numériques, telles qu'imaginées par les concepteurs, dans des logiques industrielles qui les dépassent permet de poser la question de l'usage sous un autre jour. La première condition de l'usage ne consiste-t-elle pas à choisir clairement une logique industrielle plutôt qu'une autre ? En effet, la recherche des conditions techniques de la réutilisabilité des ressources ne peut prendre les mêmes formes selon les logiques industrielles à l'œuvre: à la tentation éditoriale correspond la recherche d'un outil proposant une ingénierie de la conception « clé en main », tandis que la construction du grand meccano pédagogique réclame des grains neutralisés, normalisés et indexés. Mais, dans tous les cas, la voie du « tout technique » s'avère hasardeuse. Dès lors, ne faudrait-il pas aller au bout de la logique amorcée en y intégrant les fonctions d'intermédiation bien connues des industries culturelles, l'édition dans un cas, le courtage dans l'autre ? Les analyses proposées dans cet article sont fondées sur les résultats d'une étude détaillée de l'Université en ligne (UEL) et sur la façon dont se présentent les différentes Universités numériques thématiques (UNT) sur le Web.
sciencesInfo_11-0029027_tei_1064.xml
termith-508-communication
Les deux importantes contributions que Robert Boure vient de consacrer à l'histoiredes sciences de l'information et de la communication (sic )dans Questions de communication (11, 2006; 12, 2007) font suite à une série d'autres travaux qu'elles enrichissent ,complètent et, d'une certaine manière, finalisent (Boure, 2002,2005,2006). Lespropositions qu'elles engagent ont suscité le désir de prolonger les analyses ,d'abord pour en préciser les apports et en discuter les avancées, mais aussi pouressayer d'esquisser de nouvelles pistes de réflexions. II ne s'agira donc pas de synthétiser, de redire ou de paraphraser ce que RobertBoure a déjà dit, mais de commencer par expliciter en quoi consistent les principauxenseignements de ce travail, quelle est leur portée dans la connaissance del'histoire de la discipline ainsi que dans la compréhension de la genèse de celle -ciet de ses problèmes actuels. Puis, il s'agira d'identifier, au-delà de cetteentreprise, les obstacles que rencontre toute tentative d'analyse del'institutionnalisation des sic. Une idée directrice - une « thèse » pour faire pédant - sous-tend les analyses :l'histoire des sic ne doit pas être uniquement écrite àpartir d'un ou de plusieurs points de vue nationaux, fondés sur des sourcesofficielles, mais doit recourir à des monographies sur les lieux d'enseignement etde recherche, même les plus périphériques, qui ont présidé à soninstitutionnalisation. Il se peut que les sic - avantd' être une discipline unifiée, homogène, cohérente. .. comme tentent de l'affirmertous ceux qui, en son sein, ont eu par le passé à assumer ou assument, aujourd'huiencore, des responsabilités collectives - ne soient que la somme instable destratégies d'acteurs venant d'horizons divers, de projets locaux disparates, dedemandes sociales hétérogènes dont les effets conjugués font qu'il en résulte ce quel'on appelle une discipline fédérant un grand nombre d'enseignants-chercheurs. Parconséquent, il s'agit de se refuser à postuler que les sic constituent une sorte de projet idéal qui se serait progressivement incarné dans desinstitutions locales telle une « Idée » descendant patiemment du « Ciel sur laTerre », mais de saisir les éléments épars qui se sont condensés et fédéréslocalement puis reconnus dans l'existence d'institutions nationales (Sociétéfrançaise des sciences de l'information et de la communication - sfsic; Comité national des universités - cnu enparticulier). Ce rappel pourrait passer pour une évidence entendue s'il n'étaitindiqué que cette conception idéaliste et essentialiste des sic est omniprésente, qu'elle fonctionne souvent comme schème régulateur ,par exemple pour juger de l'appartenance ou de la non-appartenance de collègues à ladiscipline, et que bon nombre des lieux communs savants s'y rattachent. On peut mêmeobserver que cette conception essentialiste de la discipline entraveconsidérablement la compréhension de ce qu'elle est, de ses problèmes actuels et desenjeux auxquels elle se confronte. Elle se manifeste sous couvert de la promotiond'un point de vue « info-communicationnel », censé fédérer comme par magie lesressortissants de la discipline qui communieraient en lui, et dont on doit avouer ,malgré des efforts sincères et répétés, ne pas bien discerner en quoi il peutconsister. Cette thèse ne vise pas à être attentatoire à la haute idée que l'on peut se faire dela science en général et des sic en particulier Elle sepropose de déplacer les points de vue, d'opposer à une connaissance générale ,élaborée à partir de sources nationales et officielles, des éléments de savoirlocaux, éclatés, irréductibles à une vérité exclusive, bref d'opposer à une histoirefroide (ou refroidie) des mémoires encore vivantes et souvent discordantes ,potentiellement en lutte dans la définition de la vérité historique. Cette histoireque l'on qualifiera volontiers de matérialiste suggère que la discipline n'existepas par ses œuvres de l'esprit, par le subtil dessein de quelques visionnaires« Pères fondateurs », par la force du groupe institutionnel qui l'a fait émerger etla porte, mais par le développement local de lieux d'enseignement (plus que derecherche) de diverses natures dont la capacité à capter de manière opportuniste desattentes sociales et à déployer des stratégies conjoncturelles de développement sousl'effet des transformations de l'Université (massification, professionnalisation desfilières, désacralisation. ..) et de la configuration des sciences humaines etsociales (SHS) a réussi à mobiliser à l'échelle nationale, puis à fédérersuffisamment d'énergies et de ressources pour qu'existent aujourd'hui les sic. La visée qui sous-tend cette thèse générale s'inscrit dans le prolongement desanalyses proposées par Jean Meyriat et Bernard Miège (2002 : 45-47) montrant quel'histoire des sic commence avec la création de filièresd'enseignement professionnalisantes à partir de la fin des années 60. Elle se résumeà rendre possible une connaissance neutralisant les préjugés ordinaires et lesopinions intéressées à partir de l'objectivation des lieux et des configurations quiont fondé le développement de la discipline. Evidemment, un tel projet ne peut êtrepleinement réalisé que par un travail collectif et l'élaboration de multiplesmonographies. C'est dire l'impossibilité de réaliser ce projet individuellement .Tout au mieux sera -t-il esquissé non sans avoir précisé préalablement que denombreux développements contenus dans la présente contribution puisent leurinspiration dans la réalisation d'une vaste monographie sur l'un de ses lieuxd'institutionnalisation des sic, à savoir l'Institut de lacommunication de l'Université Lyon 2 (icom). Si les travaux de Robert Boure se caractérisent par un certain nombre d'apportspositifs, objectifs et factuels, relatifs au passé de la discipline, c'est avanttout la dimension critique - réflexive - de ce travail qui retiendra notreattention, d'autant qu'elle remplit une fonction structurante, à la fois dansnotre manière d'appréhender la discipline, son histoire, et de dissipercertaines fausses évidences. Mais au préalable, une question s'impose : pourquoiavoir engagé maintenant ce chantier historique ? C'est la première question qui vient à l'esprit en parcourant le travail deRobert Boure engagé d'abord au sein de la sfsicdans le cadre du groupe tps (Théories etpratiques scientifiques), puis développé de manière individuelle. Etait-ildonc si urgent de se lancer dans cette entreprise historique alors que ladiscipline est relativement jeune, n'ayant guère plus de trois décenniesd'ancienneté ? N'encourt-on pas une nouvelle fois le risque de se confronteraux sempiternelles questions d'identité disciplinaire qui ne fécondent guèreque des débats stériles dans lesquels s'expriment des points de vue( intéressés) d'acteurs soucieux de faire valoir l'universalité de leurs vuestrès partiales ? Si l'on en juge à la fois par leur intérêt intellectuel ,par les questions « sensibles » qu'elle active, ainsi que par l'attentionque leur accordent un certain nombre d'agents impliqués dans la vie des sic, force est de constater l'intérêt des analysesproposées par Robert Boure et des questions qu'elles soulèvent. Une psychanalyse de l'esprit scientifique renforcerait utilement les quelqueshypothèses que l'on peut formuler pour expliquer cet attrait. En premierlieu, il faut souligner que la question du passé suscite l'intérêt, non pasdes historiens des sciences, mais des acteurs de la discipline. C'est direque cet intérêt n'est pas d'ordre purement cognitif. La vérité historiqueest évidemment un enjeu essentiel pour les luttes présentes autour desdéfinitions de ce que doivent être l'enseignement et la recherche en sic. Elle vient en appui pour rendre légitimes ouillégitimes certains choix. Dès lors, on comprend l'engouement pour unehistoire de la discipline qui, évidemment, mobilise moins les apprentischercheurs que les acteurs engagés dans la vie institutionnelle. Une autre explication doit être avancée. Le travail de Robert Boure répond àune attente, rarement formulée publiquement, qu'un grand nombred'enseignants-chercheurs en sic ressentent etexpriment plus ou moins ouvertement sur l'identité de la discipline. Pourfaire simple, on peut dire que cette attente naît en différentescirconstances. Elle peut résulter d'un sentiment d'illégitimité du chercheurconfronté à des collègues malveillants, appartenant à d'autres disciplines ,qui ne manqueront pas de lui rappeler - ou de lui suggérer - sa basseextraction épistémique, voire de le cantonner aux tâches subalternes ducommunicant de service, niant par la même occasion sa qualité de chercheurII existe un fort contraste entre les manifestations collectivesd'autocongratulation disciplinaire que l'on peut observer dans les colloqueset les congrès, et la réalité plus prosaïque des résistances et des lutteslocales pour imposer la légitimité des enseignements et de la recherche ensic. Cette attente peut naître aussi dans uncadre pédagogique, face à un public d'étudiants à qui l'on souhaiteprésenter les sic non pas en se lançant dans uneépopée spirituelle plus ou moins fantaisiste remontant à l'Antiquité ou à laRenaissance, mais en examinant le plus rigoureusement possible comment ladiscipline s'est formée, autour de quelles spécialités et de quels savoirs .Enfin, elle apparaît sous la forme d'un sentiment d'incompréhensionmutuelle, d'absence de dénominateur commun, d'hétérogénéité dans lesmanières de concevoir l'enseignement et la recherche. On cerne à quel typed'attente, voire de besoin, peut ainsi répondre l'histoire. Non seulementelle apporte des éléments qui peuvent légitimer des pratiques et endisqualifier d'autres comme étrangères à l'essence de la discipline, maiselle permet aussi de neutraliser une partie des doutes que lesenseignants-chercheurs peuvent avoir eux -mêmes à l'égard de leur proprepratique de la valeur scientifique de leurs travaux et deleur insertion dans un espace disciplinaire « flou », malgré les balisagesdisciplinaires qui ont pu être proposés (notamment par le cnu). On comprend aussi la prudence avec laquelle Robert Boure se positionne ,cherchant plus à neutraliser des préjugés qu' à avancer des éléments denature à répondre à ces inquiétudes « existentielles » dont certainstémoignages laissent supposer qu'elles sont largement répandues tout enfaisant l'objet de dénégations répétées. Car, dans ce contexte, touteréponse ou toute esquisse de réponse ne peut pas échapper à des tentativesd'appropriation qui reviennent invariablement à en détourner lasignification originale pour en instrumentaliser les enseignements del'histoire à des fins intéressées et normatives. Si cet attrait pour le passé de la discipline s'explique principalement parle souci de puiser en elle des ressources symboliques susceptibles d' êtreengagées dans les luttes présentes pour la définition du légitime et del'illégitime, l'actualité de la question historique découlerait quant à ellede certains spécificités actuelles des sic et de laconjoncture institutionnelle. On peut à ce titre formuler l'hypothèsesuivante : le fait pour cette discipline de s' être développéesignificativement au fil des dernières années tout en réaffirmant soncaractère interdisciplinaire a mécaniquement induit des tensionsidentitaires entre des chercheurs travaillant sur des objets différents ,s'inscrivant dans des traditions de recherche distinctes, engageant desconceptions et des valeurs divergentes à un moment où les différentesdisciplines composant les shs se sontsignificativement repliées sur elles -mêmes, autonomisées et différenciéesles unes des autres. Cette évolution des shs dansle sens d'une spécialisation toujours plus affirmée, seule garante de lascientificité des travaux qu'elles accueillent, interrogel'interdisciplinarité affirmée des sic qui, sous cejour; revêt une connotation négative (éclectisme, superficialité, absencede spécialisation. ..). On peut formuler une seconde hypothèse : le projetconsistant à instituer et à faire perdurer une interdiscipline telle que lessic a besoin de l'histoire à partir du momentoù sa signification et son avenir deviennent quelque peu opaques pour desacteurs qui éprouvent alors le besoin de se tourner vers le passé comme pourmieux s'armer dans leur relation au présent et à l'avenir Une troisièmehypothèse en découle : le recours à l'histoire s'impose au moment où lamémoire vivante des acteurs de première génération (il faudrait préciserdavantage cette question de génération. ..) s'estompe, ne parvenant plus àcouvrir le rapport au passé de la discipline, laissant ainsi percer denouvelles interrogations. On le voit : engager un travail historique sur la discipline - sur soninstitutionnalisation - ne se comprend qu' à la condition de saisir ce quiconduit les acteurs à recourir au passé. Cette interrogation répond d'aborden écho aux questions qu'ils rencontrent dans le cadre de leurs fonctionsscientifiques et pédagogiques, dans leurs oppositions, voire leursaffrontements et leurs incompréhensions. Engager la recherche surl'institutionnalisation comme l'a fait Robert Boure, c'est donc non pasréagir à ces questions en prenant position ou en défendant telle ou tellevision de la discipline, mais introduire un travail de maturationdisciplinaire au sens où cette réflexion impose aux chercheurs une plusgrande réflexivité. Dans ce cas, qu'est -ce que la réflexivité ? On pourrait la définir comme unefaculté critique de nature à introduire plus de distance dans le jugement ,plus d'acuité dans la compréhension du jeu scientifique et des modalités deproduction de la connaissance. Robert Boure (2006 : 278) la définit en cestermes : « Nous entendons par « réflexivité » le travail méthodique( toujours partiel et jamais achevé) de mise au jour par le chercheur desprésupposés doxiques - y compris les siens - ou liés à l'occupation deposition dans le champ académique et, d'une façon plus générale, de tout cequi est produit par les constructions discursives ». Plus généralement, laréflexivité conditionne la connaissance de l'histoire de la discipline. Pourquelles raisons ? La recherche qui s'engage sur l'histoire des sic n'est évidemment pas une histoire d'historien ou une histoire d'historiendes sciences. Réalisée et produite par des enseignants-chercheurs de ladiscipline, autrement dit des acteurs impliqués, elle s'adresse à d'autresacteurs et, par conséquent, elle ne peut ignorer les débats contemporains etles jeux d'oppositions au sein de la discipline. Aussi encourt-ellesystématiquement un certain nombre de risques qui se concentrent dans ce queRobert Boure a désigné comme « présentisme » et « spontanéisme ». De quois'agit-il ? « Schématiquement, le présentisme est une reconstruction dupassé en fonction de préoccupations et d'enjeux intellectuels et sociauxcontemporains, ce qui revient à chercher dans l'hier les antécédents et lalégitimation de l'aujourd'hui » (Boure, 2006 : 279). Le présentismeconcentre en fait plusieurs écueils. Le premier concerne la projection surle passé d'interrogations qui n'ont de significations que contemporaines .Ainsi le débat autour de l'identité des sic (lettres et sciences du langage versus sciences sociales) devient-il leprisme - inopérant - à partir duquel le passé des sic est relu comme si cette thématique avait eu un sens durant la première phased'institutionnalisation de la discipline. Le risque, on le voit, consiste àrelire le passé en laissant échapper la réalité historique au profit d'unereconstruction plus ou moins aléatoire n'ayant de signification que parrapport aux débats présents. L'évocation du passé se résume à fonctionnercomme un recours légitimant à l'égard de prises de position présentes. Dans ce cas, le raisonnement historique repose sur une forme de schématismequi revient à privilégier la continuité et la linéarité au détriment desruptures, des scansions, des changements, bref de l'historicité de ladiscipline. Il est ainsi supposé que l'histoire des sic se résume à l'actualisation de quelques essences présentes dèsleur origine. Cette vision minore la différence historique qui est pourtantle principe et la condition de mise en intelligibilité des phénomènespassés, débarrassés des projections arbitraires à partir du présent, maisaussi des phénomènes présents qui apparaissent, sous ce jour; pour cequ'ils sont dans leur irréductible actualité comme les produits d'unehistoire singulière, faite d'accidents, sans intention ni dessein. Bref, leprésentisme, c'est l'anachronisme érigé au rang de principe dès lors quel'investigation historique n'interroge pas les présupposés à partir desquelselle appréhende son objet. Point n'est besoin d'une longue fréquentation descongrès et des colloques pour percevoir que nous sommes tous portés, enl'absence d'un significatif effort de réflexivité, à encourir ce risque. Carcelui -ci est d'autant plus fort que nous sommes engagés dans des luttessymboliques, nous opposant à d'autres agents, qui pervertissentmécaniquement l'attention « objective » au passé pour tenter de faire de cedernier un outil de légitimation, d'universalisation de notre propre vision ,historiquement constituée, et non plus un outil d'émancipation à l'égard denos propres croyances. Au même titre que le précédent, le second écueil - le spontanéisme - sedéfinit comme un défaut de réflexivité. Largement répandu, il s'avèreomniprésent tant dans les discussions scientifiques ordinaires que danscertains écrits qui engagent opinions et préjugés sans trop s'interroger surla véracité de ceux -ci. L'exemple de l'ouvrage d'Yves Winkin (2003) - La communication n'est pas une marchandise. R é sistera l'agenda deBologne - retenupar Robert Boure, montre à quel point le spontanéisme et l'absence deréflexivité conduisent à la formulation de propositions erronées. Ce risquene serait que limité si, ensuite, lieux communs et préjugés ne faisaientautorité pour être repris et diffusés. Ce phénomène s'explique par laprégnance des logiques mandarinales qui attribuent à quelques maîtres devérité le rare pouvoir de dire le vrai ex-nihilo. Le spontanéisme puise d'ailleurs ses sources à la même racine que lesprénotions. Comme elles, il repose sur des croyances d'autant plusprégnantes qu'elles ont pour elles la force d' être partagées par un grandnombre d'acteurs jusqu'au moment où il est révélé qu'elles ne sontqu'illusions. Par conséquent, l'identification de ce problème dans destextes largement diffusés conduit à accroître la vigilance, car nous sommeslà encore des victimes qui se complaisent volontiers dans la reproductiondes lieux communs. On en déduira aussi que pour faire spontanément œuvre devérité sans trop se soucier de confrontation avec la réalité historique, ilfaut une certaine assurance (ou insouciance ?) que seules l'occupation d'uneposition dominante et la routinisation de la domination peuvent garantir .Tel maître de vérité peut ainsi asséner quelques vérités étrangement faussessans susciter l'hilarité, ni la réprobation, mais simplement une admirationaveuglée ou résignée partant de fausseté. Ainsi le travail historiographique revendique -t-il une forme de positivismecritique qui abandonne le mythe au profit du discours réflexif. Critique àl'égard des préjugés ordinaires, il se fonde essentiellement surl'élaboration d'une connaissance positive de son objet : le passé des sic. Ce refus du spontanéisme et du présentisme setraduit par la neutralisation des constructions mythiques plus ou moinsélaborées qu'engagent les acteurs afin de légitimer leur discours etd'étayer leur position. La réflexivité s'ordonne à une visée positiviste .Elle s'attache à neutraliser l'histoire mythique - celle des origines, despères fondateurs, d'une essence transhistorique de la discipline. .. - auprofit d'une histoire historienne, d'une histoire soucieuse de connaître lepassé, non par délectation morose de ce qui n'est plus mais pour aborder leprésent sans préjugés ni inhibitions. Le spontanéisme témoigne souvent des tentatives d'instrumentalisation del'histoire à des fins de légitimation. Il est pourtant des manifestationsplus exemplaires encore de cette perversion de l'histoire qui résident dansla recherche des origines, c'est-à-dire de commencements qui suffiraient àexpliquer (Olivesi, 2004 : 103-111). Avec l'origine ,l'histoire s'enrôle au service de celui qui cherche dans le passé le moyend'imposer sa propre définition de ce que doit être le présent. La recherchedes origines conduit en effet à puiser dans l'avant le moyen de légitimerdes positions présentes comme si une essence du passé perdurait dans leprésent, comme s'il y avait continuité, permanence, répétition. L'analyse de l'institutionnalisation des sic conduità réfuter la recherche d'origines, car elle montre, par la mobilisation desources diverses et de données empiriques, que les origines n'ontd'existence que chimériques. On souscrira donc aux analyses de Robert Boure( 2007a : 257-287) quand il montre que « quel que soit le critère [. .. ], lessic ont une origine plurielle. Toutefois, iln'est guère contestable que la littérature et plus généralement les lettres ,au sens supra, ont joué, ici ou là, un rôle.. .difficile à définir ». Dire que les sic ont uneorigine plurielle, c'est dire qu'elles n'ont pas d'origine au sens de momentinaugural, de disciplines fondatrices, de paternité indépassable, de lieuxemblématiques d'institutionnalisation. Et qu'au lieu de courir après deschimères, mieux vaut s'attacher à objectiver les éléments (acteurs, savoirs ,institutions. ..) qui se sont associés, fédérés, opposés pour donner le jouraux sic sans cesser pour autant d'interagir et demodifier par la même occasion le relief de ce que recouvre l'acronyme. Encore faut-il ajouter que cette recherche des origines des sic repose, comme on a pu le noter précédemment ,sur un schème historique linéaire qui revient à lire l'évolution historiqueen termes de continuité. Ce schème exprime une position naïvement réalistede l'histoire au sens où elle induit une croyance en la permanence d'unnoyau invariant - les sic - qui s'explique toutsimplement par la permanence du terme. On rappellera donc utilement ce querépétaient Gaston Bachelard (1986 : 17-18) et Georges Canguilhem (1 989 : 9, 2 1) : la permanencedu terme n'implique pas l'identité du concept (Olivesi, 2004 : 94-101) .Aussi seule une posture nominaliste consistant à historiciser les sic et à considérer que ce que l'on appelle sic aujourd'hui n'a pas de lien direct avec ce quia pu s'appeler sic dans les années 70 ou 80 permetde libérer l'histoire du poids des intérêts présents. Pourquoi insister surce point ? Une prudence méthodologique bien inspirée veut que l'on ne lisepas l'histoire avec des catégories transhistoriques - avec des« universaux » pour parler comme PaulVeyne (1971) - afin de ne pas faireexister de fausses essences et de ne pas croire que parce que le termeperdure, il en est de même de la réalité qu'il est censé recouvrir Car onfinit par croire et faire croire que ce dont on parle a toujours existé dansla forme présente que nous lui connaissons alors que seul le terme a perdurésans altération. Le lecteur trouvera peut-être ces propos abscons et inutilement insistants .Prenons un simple exemple. L'historien réaliste, c'est-à-dire celui quicroit en la réalité transhistorique d'une essence - les sic -, s'interroge aujourd'hui doctement pour savoir si, àl'origine, la littérature, les sciences sociales, la psychologie.. .occupaient une place principale ou secondaire. De là, il cherchera à induireque l'essence de la discipline correspond comme par enchantement à la visionintéressée qu'il en a. Pour parvenir à ses fins, il s'interrogera parexemple sur l'appartenance disciplinaire des collègues inscrits dès lesannées 70 au sein des sic comme si la question del'appartenance disciplinaire au sein des shs seposait dans les mêmes termes à cette époque qu'aujourd'hui. Pour bien prendre la mesure du fait qu'une telle question est un contresenshistorique si l'on ne prend pas en compte des paramètres relatifs à laconfiguration générale des shs et à son évolution ,il suffit de citer en exemple le cas d'un collègue lyonnais qui fut un despremiers ressortissants de la discipline puisqu'il demanda son rattachementà celle -ci dès 1975. Il s'agit de Jean Gouazé dont la trajectoire outrageles logiques de territorialisation, de différenciation, de spécialisation ,de repli identitaire, bref de « disciplinarisation » que l'on connaîtaujourd'hui et que certains voudraient voir se rejouer - ô paradoxe ! - àl'intérieur de l'interdiscipline « sic » afin defaire de celles -ci une pure discipline comme pour mieux se parer contre lesdangers du dehors. Psychologue de formation, enseignant-chercheur au sein del'Institut de psychologie de l'Université Lyon 2 dont il fut le directeur ,il co-signe en qualité de ressortissant des sic unarticle de linguistique avec Oswald Ducrot dans une revue de sciencessociales, les Actes de la recherche en sciences sociales( Gouazé et al., 1976). Par cet exemple, onmesure à quel point, au fil des dernières décennies, les passerellesdisciplinaires au sein des SHS ont eu tendance à singulièrement se réduireet que les questions d'appartenance qui ont effectivement un sensaujourd'hui n'en avaient pas hier ou, pour le moins, ne revêtaient pas lamême importance. On ne peut donc pas parler de ce que furent les sic dans les années 70 en ayant à l'esprit lesproblèmes disciplinaires d'aujourd'hui et, moins encore, certaines querellesparoissiales. Il faut au minimum s'immerger dans le contexte social etintellectuel de cette époque pour prendre la mesure de la différencehistorique sans laquelle le passé n'est qu'un masque du présent et leprésent une illusoire répétition du passé. Déjouer ainsi les recherches d'origine et les positions intéressées qui lessous-tendent vise à neutraliser les a priori, leslieux communs, pour restituer à l'objet historique son opacité, ses lignesde fuite, sa perfide malléabilité. Mais, dans ses investigations, RobertBoure a -t-il lui -même toujours réussi à conjurer cette chimère ? Onformulera dès à présent une réponse à cette question, pour ne l'expliciterque dans la partie suivante : en qualité individuelle d'auteur en regard deses propres contributions, une réponse affirmative s'impose, mais en qualitéd' « éditeur », le débat reste ouvert. .. Evidemment, la dissociation des deuxpositions d'énonciateur explique à elle seule la différence observable, maiselle indique aussi l'existence d'une difficulté institutionnelle às'émanciper de tout fantasme des origines, à ne pas être soi -même rattrapépar la fonctionnalité mythologique de l'histoire. .. Analyser l'institutionnalisation des sic soulève uncertain nombre de problèmes et de difficultés que l'on souhaite à présentexpliciter en débordant les seules analyses proposées par Robert Boure. Cesproblèmes sont de diverses natures, mais ils se recoupent souvent. Le premier de ces problèmes est celui fort peu original des sources. Il serésume dans les implications des sources utilisées sur la nature del'écriture de l'histoire, voire sur la vérité historique. Au-delà du cas dessic, l'histoire contemporaine se confronte à ceproblème mais, généralement, l'historien de métier recourt à des témoignagesvivants dans la mesure où les archives ne sont pas ouvertes, mais aussiparce que l'existence de témoins ayant « vécu » l'histoire impliquerait unelevée de boucliers et une réfutation quasiment immédiate de toute versionfondée sur des sources écrites souvent lacunaires, laissant échapper lamatière vive du passé, toujours présente dans les mémoires. Dans le cas de l'analyse de l'institutionnalisation des sic, du moins si l'on suit les analyses proposées par Robert Boureet par la plupart des contributeurs à l'ouvrage collectif qu'il a coordonné, la posture est inversée .Seul prévaut le recours aux archives et aux documents officiels, comme si lamémoire vivante des acteurs était prohibée. On peut d'abord supposer que cefait s'explique par la position des contributeurs. Etant eux -mêmes desacteurs conscients du caractère relatif de leur propre point de vue, ceux -ciont préféré faire valoir et se fonder sur des éléments « objectifs » afin deconstruire une histoire « incontestable ». L'archive a valeur de principe deréalité; elle oppose aux variations de la mémoire la fixité de la trace .Mais c'est là une manière positive d'apprécier ce fait. Une manière moinsconsensuelle consisterait à déceler dans cette posture un renoncement à lamémoire vivante, lié aux risques de mettre au jour des conflits et desinterprétations divergentes du passé, requérant dès lors un tout autre moded'appréhension de l'histoire. Enfin, une manière plus critique encoreconsisterait à déceler dans cet effacement le souci tactique d'édifier unehistoire officielle susceptible de fédérer et de s'imposer à tous lesagents. Les conséquences de ce choix sont évidemment multiples. On obtient unehistoire « officielle » susceptible d' être débattue dans ses interprétationsmais pas contestée dans ses données de base. On obtient donc une histoire« objective » qui ne met au jour que le passé « officiel » de la discipline ,c'est-à-dire celui sur lequel s'accordent les acteurs et qui n'est en faitqu'une partie très restreinte du passé. On mesure ceci ne serait -ce qu'enobservant que l'histoire proposée est une histoire nationale, une histoirede la discipline qui ne prend en compte la dimension locale que sous laforme comptable de postes et d'individus isolés, de lieux institutionnels etde formations épingles, de savoirs et de groupes de recherches désincarnés .Le prix à payer de ce choix est l'effacement des mémoires vivantes comme sicelles -ci n'avaient que peu de réalité, comme si elles n'étaient porteusesd'aucun contenu de vérité. Ce problème s'appréhende sous divers aspects. En premier lieu, il conduit àsouligner les limites de l'investigation historique. Renoncer à la mémoirevivante des institutions, c'est ne pas prendre en compte le vécu des agents ,autrement dit s'interdire la possibilité d'une histoire « compréhensive »qui intègre les représentations et les stratégies de ceux qui, à leursniveaux et avec leurs moyens, en s'impliquant très diversement, ont fait ladiscipline. C'est celle des effacements, des divergences, des dissensions ,des renoncements, des ressentiments qui passent ainsi en perte et profit .Mais c'est aussi la compréhension des mobilisations autour de projetspédagogiques et d'équipes de recherche, les alliances et les jeux d'intérêtsqui expliquent pourquoi localement les sic se sontplus ou moins bien développées qui dès lors disparaissent derrièrel'objectivité - informationnellement pauvre - des sources officielles. Onperçoit les limites d'un recours exclusif à celles -ci. Si la mise en reliefde faits précis permet de disposer d'éléments de connaissance irréfutables ,elle ne permet pas d'engager des hypothèses interprétatives plusaudacieuses, plus ouvertes aux débats. Ainsi peut-on constater que la connaissance statistique de l'évolution deseffectifs dans la discipline permet d'établir certains faits, d'interpréteréventuellement ceux -ci comparativement à d'autres disciplines, mais nepermet guère de dépasser ce stade et de dire par exemple pourquoi les sic se sont particulièrement développées à tels outels moments et quels en ont été les principaux facteurs conjoncturels( Cardy Froissart, 2006a). Des hypothèses interprétatives peuvent évidemmentêtre engagées pour en rendre compte (conjoncture politique favorable), maisd'autres types de sources (telles que des études monographiques) s'avèrentrequises pour étayer et affiner ces hypothèses interprétatives. D'ailleurs ,selon la prévalence des sources que l'on utilise, on peut parvenir à desconstats dissemblables. Les uns ne sont pas plus ou moins vrais que lesautres, mais ils apportent une forme de connaissance différente, parfoissusceptible de diverger Dans un cas, se fondant sur des sources nationales ,on constate l'absence de parité homme-femme (Cardy, Froissart, 2006b); dansl'autre, fondé sur des études monographiques, on enregistrerait laféminisation de certains lieux d'enseignement et de recherche au pointd'interroger les excès d'une discrimination positive sauvage qui n'est passans raison (sociale) d' être. On le voit, la nature des sources joue un rôledéterminant dans la production de représentations de l'histoire récente. Ence sens, il existe des limites et des écueils inhérents à tout recours à dessources exclusivement nationales, officielles, privilégiant les approchesquantitatives. Un autre exemple relatif au mutisme des sources nationales réside dans ladissonance qu'induit la confrontation entre le constat d'une augmentationdes effectifs nationaux et l'explicitation de ce phénomène à partir d'unancrage local. On peut en effet se réjouir d'enregistrer la forte croissancedu nombre de poste (Cardy, Froissart, 2006a : 262-264). L'étudemonographique évoquée en introduction, consacrée à I'icom, ne réfute d'ailleurs nullement ce constat. Elle ne faitque le corroborer puisque I'icom passe de unProfesseur et deux Maîtres de conférences en sic pour les années universitaires 1998-1999 et 1999-2000 - cet effectif n'ayantpas évolué depuis la création en 1988 de cet Institut - à 3 Professeurs et 8Maîtres de conférences en 2006-2007 (auquel il faut ajouter deux supports d 'ater). Seule l'ouverture de premier cycle en« information-communication » explique le très fort développement des sic au sein de l'université Lyon 2 avec la créationdirecte ou indirecte (par réaffectation de postes au sein de l'université )de 9 postes d'enseignants-chercheurs en huit ans. Ce qu'ajoute l'étudemonographique, c'est donc la possibilité de comprendre ce formidable bond enavant local de la discipline; mais, par extension, elle induit unerectification du regard que l'on porte sur le développement national. Elle permet ainsi d'opter pour une vision moins enjouée du développementdisciplinaire qui laisserait entendre que celui -ci résulte de la forceentrepreneuriale de ses membres, de la pertinence des offres de formation oude la qualité des recherches en son sein. Que s'est-il passé localement dansle cas particulier de I'icom dont on veut bienadmettre qu'il ne soit absolument pas représentatif, mais dont on soutiendraqu'il est néanmoins significatif ? Dix ans après son lancement, l'histoirede cet Institut se résume en une série de crises institutionnelles qui onthypothéqué sa survie à plusieurs reprises. Quant aux sic, dans ce cadre institutionnel, elles avaient jusqu'alors jouéun rôle relativement second - pour ne pas dire secondaire - tant par lenombre des enseignants-chercheurs que par celui des étudiants suivant un cursus en information-communication .Au terme de cette première décennie, le seul moyen restant pour ne pasenregistrer la dissolution de cette composante de l'Université consistait àouvrir la vanne des premiers cycles et à recruter massivement des étudiantsen s'appuyant sur l'engouement social pour la communication .Rétrospectivement, cette décision ne s'est donc pas fondée sur un projetpédagogique spécifique, sur l'originalité déformations professionnalisantes ,sur un programme de recherche, sur le militantisme des ressortissants de ladiscipline, mais sur un simple effet d'opportunisme institutionnel. Le témoignage de la principale actrice (Dominique Bourgain, directrice de I'icom de mai 1 992 à janvier2004, Professeur en psychologie), ainsi que d'autres témoignages plusindirects et les recoupements d'informations effectués à partir de sourcesofficielles font en effet clairement apparaître que ce projet ne s'estimposé que de manière contrainte pour sauver l'Institut, après une périodede crise d'environ 18 mois (de juillet 1997 à décembre 1 998) durant laquelle I'icom avait étépiloté sous administration provisoire. Et de fait, l'Institut qui necomptait, pour l'année 1998-1999, que 334 inscrits (225 étudiants inscritsdans la filière « information-communication » auxquels il faut encoreretrancher les étudiants inscrits en dea extérieursà I'icom) atteint en 2005-2006 plus de I 350 inscrits dont plus de 90 % eninformation-communication. Ainsi eut-il la possibilité de se maintenir commecomposante à part entière par ses effectifs étudiants et, par conséquent ,d'obtenir de l'Université de nombreux postes d'enseignants-chercheurs en sic pour faire face au sous-encadrement. Ce second exemple illustre le problème de la détermination de touteinterprétation de l'histoire par la nature des sources sélectionnées et desinformations recueillies. Il invite à pondérer l'enthousiasme qui résulted'une focalisation quasiment exclusive sur l'augmentation du nombre deressortissants de la discipline pour cerner les problèmes qui peuventrésulter d'un développement mal maîtrisé : problème de pertinencepédagogique des offres de formations, problème de structurationinstitutionnelle de l'enseignement et de la recherche, problème de laformation et du recrutement des enseignants-chercheurs, etc. Il conduitaussi à identifier, derrière le souci d'objectivité, le risque detransformer la recherche historique en un outil de légitimationinstitutionnel. La croyance des acteurs en la pureté de leur quête du vraidissimule l'emprise des jeux de pouvoir dans lesquels leur productionsavante s'enracine nécessairement. Les choix en matière de sources exprimentles intentions de ceux qui y recourent. Opter pour un type de source, c'ests'engager dans la réalisation d'un certain type d'histoire. En l'occurrence ,ne retenir que des sources officielles, c'est tenter au moyen de celles -cid'élaborer un récit susceptible d' être largement accepté et, par conséquent ,reconnu comme version officielle du passé de la discipline, mais c'est aussitenter d'imposer un point de vue sur la discipline qui fait l'impasse surune grande partie de celui -ci au bénéfice d'une image idéalisée, voire d'unemythologie dans laquelle les agents peuvent d'autant plus facilementcommunier que toute forme d'antagonisme ou de clivage s'estompe par l'effetd'abstraction résultant du recours exclusif à des sources officielles quisont déjà en elles -mêmes des abstractions, des produits d'apparencefactuelle résultant de consensus, de compromis, de transactions. On objectera peut-être à cette présentation que, dans le cas de l'ouvragecollectif coordonné par Robert Boure (voir supra) ,certains témoignages sont présents directement ou indirectement du seulfait que ceux qui écrivent cette histoire en sont les principaux acteurs .Mais précisément, il manque la diversité des points de vue, notamment despoints de vue d'agents dominés, marginaux, voire de certains agentsdominants. On peut par exemple s'interroger sur le fait qu'aucun agentclassé politiquement à droite dans la discipline ne s'exprime sur le passé .Et il ne faut pas voir en cela un mécanisme politique conscient ouinconscient qui aurait conduit les contributeurs à établir un cordonsanitaire politique, mais plutôt un effet résultant de trois types defacteurs : ceux qui s'expriment partagent, ne serait -ce que partiellement ,certains présupposés sur la discipline, sur ce qu'elle doit être, surl'importance à accorder aux activités de recherche; ceux qui ne s'exprimentpas (les agents que l'on peut classer plus ou moins artificiellement àdroite et qui ont occupé des positions dominantes) sont moins portés àinvestir le passé comme un enjeu institutionnel parce qu'ils sont moinsprédisposés (socialement et intellectuellement) à le faire; enfin, desoppositions voire des clivages allant jusqu' à hypothéquer l'unité du jeusocial lui -même risquaient de voir le jour, de ce fait. L'explicitation de ce premier problème conduit à en soulever un deuxième .Pour les sic - mais le phénomène ne leur estcertainement pas propre -, il existe une disjonction forte entre la réalitélocale de la discipline et les manifestations nationales concentrées au seinde la sfsic et du cnu .Cette disjonction revêt diverses formes. Durant leur carrière, les agents ont la possibilité d'entretenir peu, voirepas de liens avec les institutions disciplinaires nationales, comme avec lesmanifestations réunissant les enseignants-chercheurs (congrès, colloques ,rencontres. ..). En règle générale, il s'agit de stratégies individuellesd'agents qui peuvent enseigner aussi bien dans des composantes spécialiséesen sic que dans des institutions au sein desquellesils occupent des positions disciplinairement marginales. Plus rarement, cespositions résultent de décisions collégiales. Individuelles, elless'expliquent surtout par la tolérance qu'octroie le statutd'enseignant-chercheur de développer une activité en parallèle ou, plussimplement, de limiter son implication aux seules tâches d'enseignement( certaines disciplines que l'on ne nommera pas mais que l'on reconnaîtraaisément, abritant en leur sein des bataillons d'avocats ou de consultantsen tout genre. ..). La principale raison de cette disjonction résulte plus simplement del'autonomie des lieux d'enseignement et de recherche qui ne sont en lienavec les institutions nationales que très indirectement parleursmembres. Les histoires locales et nationales sont donc disjointes. L'histoire locales'expliquera d'abord par la configuration des composantes au sein d'uneuniversité ou d'un institut, parles demandes sociales propres au contexte ,par l'implication d'acteurs agissant localement. Elle ne trouvera jamaisd'éléments d'explication directe dans le rôle joué de la sfsic ou dans les décisions du cnu .Réciproquement, l'histoire de la sfsic nes'explique pas directement par le développement local de lieux de formationou de recherche. .. On le mesure à présent : entre l'histoire locale des sic et l'histoire nationale, il existe unedisjonction qui implique la reconnaissance de temporalités propres auxobjets étudiés. Qu'en déduire ? Faire une histoire nationale comme faire une histoire localenécessite de ne pas confondre les deux temporalités car celles -ci obéissentà des déterminations différentes. Par exemple, on ne peut pas parler dudéveloppement de la discipline comme s'il s'agissait d'un mouvement fédéranttous les lieux d'enseignement et de recherche. Et, inversement, il n'est paspossible d'articuler le développement local de tel ou tel lieu sur desdynamiques liées aux institutions nationales. Evidemment, le développementdes unes et des autres n'est pas sans lien. Et le rayonnement national d'unediscipline ne va pas sans implication locale. Ajoutons à cette assertionpolitiquement correcte, mais largement réfutée par les faits, que ce success story des sic s'explique essentiellement par le mythe d'une société de communication quifonde l'attractivité de toutes les formations en communication( communication d'entreprise, journalisme, internet, etc.) auprès desétudiants (Neveu, 1997). L'augmentation du nombre globald'enseignants-chercheurs résulte de développements locaux et ledéveloppement national est de nature à faciliter les stratégies des acteurslocaux. Mais une histoire nationale ne dira rien sur les raisons dudéveloppement local de la discipline en tel ou tel lieu. Or, c'estprécisément dans les dynamiques locales qu'il faut rechercher les raisons dudéveloppement de la discipline à l'échelle nationale même s'il existeévidemment des facteurs généraux qui ne sont pas propres aux contexteslocaux tels que l'attrait pour certaines formations et la demande socialequi en résulte. Le principal problème que soulève une histoire nationale de la disciplineréside, en ce sens, dans l'illusion d'optique qu'elle ne manque pas de cr é er ,suggérant que les principes de son édification ne sont pas à rechercherdans les multiples lieux d'enseignement et de recherche au sein desUniversités, mais dans le rôle des institutions nationales. À titred'illustration, on peut observer que Robert Boure (2006b : 287-289) soulignel'importance des textes successifs de cadrages que le cnu a pu produire visant à baliser les domaines d'études des sic. Ce rappel traduit la vision d'un acteur qui ,par son expérience du cnu, a ressenti la nécessitéde disposer d'un tel outil visant à la fois à neutraliser le flou descritères d'évaluations susceptibles d' être appliqués dans les procéduresd'évaluation et à mettre à la disposition de l'ensemble des acteurs un texte« officiel » fonctionnant à la fois comme référence commune et comme cadrenormatif. C'est donc une vision qui suggère que l'action (évidemmentnationale) du cnu contribue à homogénéiser ladiscipline. Ce point de vue appelle une double réserve. L'élaboration d'une norme ou d'uncadre normatif tel que le texte du cnu se fondeavant tout sur des données existantes, sur une compréhension des pratiquespropres aux ressortissants de la discipline, qu'il s'agit de synthétiser; àcette condition, le texte devient un outil légitime pour les acteurs qui s'yréfèrent. On voit donc que la normalisation des pratiques ne résulte pas del'instance nationale dont le travail ne fait qu'expliciter et ainsistabiliser les normes coutumières. De plus, la norme stabilisée sous laforme d'un texte est appliquée si elle convient aux acteurs; elle estignorée ou délaissée au profit d'une nouvelle norme, si elle vient à ne plusconvenir C'est dire la relativité de sa normativité intrinsèque. Lanormalisation ne résulte pas de l'application du texte, mais des jeuxd'intérêts et des rapports de force qui font que les acteurs dominantsparviennent à s'accorder sur l'usage d'un référentiel normatif dont ils sedésolidarisent dès que ce dernier ne correspond plus à leur vision (localeet localisée) du jeu scientifique. On peut prolonger le raisonnement et s'interroger sur le rôle historique dela sfsic dans l'institutionnalisation de ladiscipline. N'est -ce pas partiellement contradictoire de considérer cetteassociation comme un lieu essentiel dans le processusd'institutionnalisation de la discipline tout en reconnaissant que certainslieux importants s'en sont parfois désintéressés, voire détournées durantcertaines périodes ? La question invite à reconsidérer une nouvelle fois lerôle des institutions nationales, non pour en relativiser systématiquementl'importance, mais pour bien mesurer en quoi elles fonctionnent davantagecomme des lieux de confrontations, de synthèses, de compromis, d'affirmationidentitaire que comme des lieux de développement réel de la discipline. Onne voit pas, par exemple, en quoi la sfsic a eu unrôle local dans la création de nombreux postes d'enseignants-chercheurs. Safonction pour reprendre les catégories utilisées par Robert Boure relèveraitde l'institutionnalisation cognitive plus que de l'institutionnalisationsociale et, par scepticisme, mauvais esprit ou matérialisme, on serait tentéd'affirmer sans nuance que la première est largement dépendante et dérivéede la seconde. Souligner cette disjonction laisse entrevoir un troisième problème qui serésume dans l'opposition entre une histoire unifiée de la discipline et unehistoire « éclatée » axée sur la juxtaposition d'études de typemonographique. Une histoire unifiée ne se conçoit qu' à la condition defocaliser l'attention sur les phénomènes nationaux, globaux, sans prendre encompte les particularismes nombreux qui caractérisent les lieuxd'enseignement et de recherche rattachés aux sic .Ainsi se conjugue -t-elle avec une histoire officielle. Inversement, unehistoire « éclatée » risque de ne saisir que des particularismes sanssignification du point de vue général de la discipline. Ce constat interrogela nature de ce que l'on appelle « discipline » sans toujours percevoirqu'il s'agit non seulement d'une construction institutionnelle, mais aussid'une construction cognitive dont on oublie trop souvent que si la secondeest d'abord déterminée par la première, il importe de ne pas croire que l'onpuisse subsumer cette dernière sous ce qu'elle détermine (Boure, 2007b) .Pour dire la même chose en des termes plus élémentaires, rien de plusillusoire que de dissiper la relativité des conceptions des sic derrière une réalité supposée évidente de ladiscipline, car la discipline n'existe pas comme une forme définitivementgravée dans un marbre institutionnel mais comme un ensemble de transactionset de jeux d'acteurs en équilibre perpétuellement instable sous l'effet desrelations de pouvoir les associant. Cette dialectique invite à maintenir une tension entre ces deux typesd'histoire sans perdre de vue les limites de l'une et de l'autre. Pourparvenir à une histoire unifiée qui ne soit pas une pure abstraction, ilfaut réunir et condenser une multiplicité d'histoires locales éclatées .Réciproquement, une histoire locale s'écrit en relation avec l'histoiregénérale de la discipline qui lui confère sa signification. Interrogerl'institutionnalisation d'un quelconque lieu d'enseignement aux sic ne revêt de sens et d'intérêt qu'au regard dela discipline qui est ainsi ponctuellement éclairée. En conséquence, la volonté de produire une histoire la plus « vraie »possible, autrement dit la moins contestable qui soit, risque de ne conduirequ' à produire une histoire officielle aseptisée pour la simple raisonqu'elle occulte derrière l'univocité apparente des faits établis ,l'hétérogénéité des perceptions du passé et du vécu des agents. Elle effacel'agonistique des relations de dépendance mutuelle qui associe et oppose lesagents au sein du champ. Les faits stabilisés et acceptés ne laissent pas deplace à l'explicitation de ce dont ils résultent, c'est-à-dire des luttes ,des conflits, des jeux d'opposition, mais aussi des convergences d'intérêtset des compromis raisonnes. Pour imposer ces faits, l'histoire unifiée doitrecourir à un double mensonge : celui de l'effacement des structures dedomination dont ils ne sont, finalement, que l'expression; celui, parconséquent, de la croyance en la « Vérité » elle -même. Le récit unifié et univoque du passé ne peut relever que du mythe, dès lorsqu'il efface l'hétéronomie des points de vue sur la réalité et l'agonistiquedes relations associant les agents. Contrairement à ce que supposel'histoire officielle avec ses « faits » bien établis, le vrai se tient auplus près de l'insupportable, car il est l'envers du mythe que construit etreconstruit cette histoire en se conformant aux intérêts dominants. Unehistoire éclatée présente l'inconvénient de ne pas servir, de ne pas sesoumettre aux vues intéressées de ses promoteurs, de ne proposer que deséclats de vérité, pour la simple raison qu'elle réfute apriori la fonctionnalité mythique du récit historique. Le principal problème réside cependant dans l'écriture de l'histoire et, plusprécisément, dans le statut de son auteur Comme on l'a suggéré précédemment ,le travail individuel de Robert Boure échappe à l'histoire officielle parl'adhésion à une posture critique et réflexive qui neutralise ces risques ,mais le travail collectif qu'il a coordonné en porte les stigmates. Plusgénéralement, la question se pose de savoir s'il appartient aux acteursappartenant aux sic d'écrire leur propre histoire .Et si oui, comment imaginer ne pas faire, dans ce cas, un récit enchantédevant répondre à l'autopromotion de la discipline ou, plus modestement ,devant neutraliser préventivement d'éventuels récits moinsbienveillants ? Si l'on se reporte une nouvelle fois à l'ouvrage collectif coordonné parRobert Boure, il s'avère difficile de ne pas voir en lui un essai d'écritureà plusieurs mains d'une histoire officielle. Il suffit de s'en tenir à laqualité des auteurs pour se convaincre que c'est moins leurs travauxd'historiens de la discipline que leur connaissance institutionnelle decelle -ci qui les autorise à dire le vrai. Le projet éditorial vise à« produire une histoire non hagiographique et non rétrospective; et parconséquent une histoire non officielle. .. » (Boure, 2002 : 1 0), mais avec des auteurs officiels présentés comme tels ,pourrait-on ajouter Si l'on accorde à l'auteur que ce n'est pas une histoireofficielle, c'est en tout cas une histoire écrite par les acteurs officielsde la discipline (à l'exclusion toutefois de ceux étant politiquementétiquetés « à droite ») puisque l'on dénombre pas moins de deux anciensprésidents de la sfsic (rétrospectivement trois) ettrois présidents du cnu (rétrospectivement quatre )parmi les huit contributeurs. Comment un ouvrage écrit par des auteurss'autorisant souvent des fonctions qu'ils ont eu à assumer et de laconnaissance institutionnelle qu'ils ont pu en tirer peut-il être reçu parle public scientifique autrement que comme un ouvrage faisant fonction deréférence dans l'édification d'une mémoire officielle commune ? Comment nepas lire en certaines contributions la volonté d'instaurer une véritéofficielle ou, pour dire la même chose autrement, une mythologie légitimantune « certaine vision » de la discipline ? Il faudrait en effet se livrer àune analyse des citations de cet ouvrage et de ses contributions pour étayerl'hypothèse qu'il est souvent cité au titre de référence officiellepermettant à ceux qui le convoquent de s'autoriser des vérités qu'iladministre pour confirmer sa fonction de livre officiel. Ce phénomène culmine dans le recours aux témoignages des « Pères fondateurs »de la discipline (on songe en particulier aux petites brochures souventcitées, produites pas la sfsic, proposant lestémoignages de Jean Meyriat et Robert Escarpit). Non pas que ceux -ci soientfaux ou dépourvus d'intérêt historiographique, mais leur mobilisationtraduit une personnalisation caractéristique de l'histoire mythique avec seshéros et ses figures légendaires. Cette vision de l'histoire revient àsurévaluer le rôle des acteurs, à magnifier leurs actes, à flatter l'ego deshéritiers qui s'inspirent de si glorieux ancêtres. Elle interdit surtout lacompréhension des structures sociales (mais aussi mentales et économiques )et de la conjoncture historique qui ont conditionné le développement de ladiscipline en se complaisant dans une conception naïvement volontariste quiveut que quelques héros visionnaires soient les principes moteurs del'institutionnalisation. Si l'on peut admettre que des acteurs plusimpliqués que d'autres ont significativement concouru à élaborer un cadrefédérateur national permettant de regrouper et d'unifier des initiativeslocales disparates autour d'enseignements (et éventuellement de recherches )en information-communication, il serait illusoire de faire de ce cadreinstitutionnel le principe du développement de la discipline qui obéit à desdéterminations bien plus profondes, d'ordre social (forte augmentation dunombre des étudiants, professionnalisation de l'enseignement supérieur) ,économique (importance de l'information-communication ne serait -ce que dansles changements de modèles productifs et le développement de lacommunication médiatisée), épistémique (redéfinition de la configuration desshs). .. On peut donc se prendre à r ê ver d'un livre sur l'histoire de la discipline écritpar des chercheurs qui ne soient en rien des acteurs de la discipline etdont le regard ou les centres d'intérêt ne seraient pas conditionnés parcette appartenance. Ainsi serait-il peut-être moins question de se focalisersur l'excellence des domaines de savoir et de compétences disciplinaires ousur des origines nationales de la discipline que sur les lieux dans lesquelsse sont édifiées les sic (histoire du pôlebordelais, histoire du CELSA-Paris 4, histoire de Grenoble 3. ..). Onpourrait d'ailleurs faire un pire rêve : une histoire écrite par les« ratés » et les « marginaux » de la discipline, une contre-histoire, unehistoire insurrectionnelle au sens où Michel Foucault prônait uneinsurrection des savoirs assujettis. .. Une histoire écrite par ceux qui nesont pas parvenus à faire carrière dans la discipline, par ceux qui l'ontquitté, ceux qui en son sein ont refusé de se plier à ses normes. .. C'est cegenre de savoir « marginal » et en tout cas disqualifié par une histoire« officielle » de la discipline qu'il s'agirait de réintroduire, non pourédifier une contre-histoire tout aussi mythologique, mais pour problématiseret complexifier à dessein le récit de l'histoire des sic. On peut regretter que ces mémoires, en sic comme partout ailleurs au-delà des seuls domaines de lascience, ne puissent pas s'exprimer si ce n'est sous la forme souventcontre-productive d'ouvrages polémiques tels que celui de Judith Lazar (2001) - où l'on se surprend à citer Marcel Gaucheten préfacier (im-)pertinent - comme si, en matière de vérité, il ne pouvaity avoir qu'un centre et jamais de périphérie. La provocation ne vaut que si l'on prend la mesure de ce qu'elle indique commemanque ou comme oubli inhérent à l'édification d'une histoire officielle .Manquent à l'appel les éventuels échecs, les impasses, les divisions. .. Manqueaussi la mémoire vivante des acteurs, en particulier de ceux qui n'ont pas lepouvoir d'écrire l'histoire des sic. On voit quel'objectivité des analyses proposées et des sources mobilisées à cette fin n'estpas en cause, mais que le problème réside dans le choix de l'histoire racontée .Pourquoi ne pas avoir parallèlement entrepris une histoire sociale des agentsqui appartiennent, ont appartenu, ne sont jamais parvenus à appartenir à ladiscipline, non pas d'un point de vue quantitatif mais qualitatif de leursreprésentations de la discipline de leurs attentes, de leurs stratégies decarrière ? Pourquoi également ne pas avoir entrepris une histoire des lieuxd'enseignement et de recherche de la discipline ? En d'autres termes, pourquoine pas avoir pris le risque de la discordance des points de vue et des luttes ausein d'espaces sociaux dont la dynamique se caractérise avant tout par lesconflits opposant les agents autour d'enjeux communs ? On le mesure à présent, le fait d' être un acteur implique un regard déterminé surl'histoire de la discipline. La détermination découle de la fonctioninstitutionnelle occupée ou, plus modestement, de l'implication dans la vie dela discipline qui, à la vérité, est le premier moteur de l'engagementhistorique. Ce dernier peut bien passer aux yeux de son propre auteur pourdésintéressé et purement cognitif il n'en reste pas moins le produit d'uneintention marquée par la nécessité pour l'agent de chercher dans l'histoire lesprincipes de légitimation de son action .
L'article se propose de revenir sur les travaux récents que Robert Boure a consacrés à l'histoire des sic pour en expliciter les principaux apports, mais aussi pour dégager de nouvelles pistes de réflexion sur l'institutionnalisation de cette discipline. L'idée directrice qui sous-tend le propos consiste à montrer que la compréhension de son édification (comme celle d'autres disciplines d'ailleurs) nécessite le recours à des études monographiques sur les lieux d'enseignements et de recherche qui ont concouru à ce processus. Pour ce faire, il s'agit de neutraliser les conceptions idéalistes et essentialistes de la discipline qui entravent le travail d'objectivation et faussent le regard que l'on porte sur son passé comme sur sa réalité présente.
sciencesInfo_10-0023560_tei_1115.xml
termith-509-communication
Depuis septembre 2006, Facebook s'est développé avec unegrande rapidité, souvent soulignée. Au premier chef, l'administration deFacebook, alimentant les observateurs en donnéesquantitatives spectaculaires, tend le miroir et prétend que nos liens seréfléchissant dans leur forme numérique subiraient un véritable transfert, passantde la voix, du toucher, de la mimique, à une expression digitale, composée d'images ,de courtes phrases contextuelles, de géolocalisations. Les 500 millions d'inscritsont en moyenne 130 contacts. Ils ont créé 900 millions d'objets (pages, groupes ,événements). Ils consacrent 700 billions de minutes à leurs face-à-face digitaux parmois. Le sentiment du glissement de la vie sociale vers l'activité digitale, ou deson doublement, est commodément traduit par l'expression « identité numérique », quirassemble des questionnements divers : la privacy, suspendueà la normativité des architectures techniques (Lessig, 2004, 2009) et son pendant ,une société de contrôle fondée sur le trompeur sentiment de liberté sur le Web; l'expressivisme (Allard, 2005, 2007, 2008) produisantdes identités agrégatives, faits subjectifs instables composés des liensmulti-sémiotiques (flux rss, citations, dialogues, images )qui font de notre identité un mashup, un collage fugitif ;alors a pris sens une relation inattendue entre subjectivité et documentation ,psychologie des émotions et sciences des bibliothèques (Ertzscheid, 2009), un« design de la visibilité » (Cardon, 2008) traduisant les stratégies d'ostentationet de secret des individus, quant au faire et à l' être. Ceux -ci s'adonneraient surle Web à une nouvelle fonction sociale collective, un designde soi, mené au fil des ans et lisible dans l'après-coup de l'activité, créant uneempreinte numérique, polluante et mesurable à l'instar d'une empreinte carbone. Souscet angle, la présence numérique est une prison, un cénotaphe, une indestructiblebibliothèque de fantômes. Ainsi s'est imposé le « droit à la déconnexion » (de laPorte, 2009), comme une résistance à la cyberdépendance de nos identités, ensynchronie pour l'alternance entre travail et loisir, en diachronie pour le passagede vie à trépas. Si le sentiment d' être soi s'adosse à l'expression numérique, si les tracesnumériques sont censées illustrer notre subjectivité, l'angoissante hypothèse d'uneidentité post-humaine (Besnier, 2009) se profile alors. Cette hypothèse n'esttoutefois qu'un jeu de l'esprit et n'emprunte rien à la biologie synthétique. Ellerévèle simplement l'étrangeté d'une présence persistante, documentaire etcommunautaire qui pourrait se poursuivre après la mort biochimique, réalité déjàinscrite, il est vrai, dans l'ordinaire exercice de la mémoire et dans notrecapacité à discourir sur les disparus. Cette confusion des états rapproche en untableau baroque l'exposition de la vie, de la futilité, de l'insouciance, quicaractérise la sociabilité juvénile sur les réseaux sociaux, et la sourde prégnancede la mort, qu'il s'agisse, métaphoriquement, de la destruction des données ou de lareprésentation de la mort réelle, son annonce, son constat, sa déploration. Sujetsde discussion courants sur le Web, la mort numérique et lediscours numérique sur la mort humaine témoignent que l'identité numériques'applique maintenant à des situations anthropologiquement essentielles, la vie, lamort, les changements d'états. Trois situations sont retenues dans l'étude quisuit : Les faire-part : un membre annonce – ou n'annonce pas – la mort d'unproche. Les malaises dans la communication : quelqu'un est mort, sa page existeencore. Les commémorations de morts en nombre (catastrophes naturelles, industriellesou criminelles) ou de morts de la même cause (maladies, suicides ,délinquance, accidents). Le thème semble homogène – « mourir » est assez clair – mais des variations de senset de fonction existent. L'annonce privée d'un décès met à l'épreuve les usagesnumériques. Le savoir-vivre social-numérique se cherche. La seconde situationsouffre aussi d'une absence de tradition. Que fait-on des données numériquespersonnelles quand quelqu'un meurt ? En 2009, pour régler des incidents indécents ,Facebook a établi une procédure de déclaration. Mais en2010, cette procédure n'est ni systématique, ni aisée. Les quiproquos perturbantspersistent. Le sentiment que quelqu'un est vivant est désormais aussi donné par lessignes de son activité numérique. Comment devient-on certain que quelqu'un est mortquand la communication indirecte domine ? La dernière étude s'attache aux dizainesde milliers de pages commémoratives qui expriment un positionnement explicite de Facebook : prétendre aider à comprendre la complexitédu monde, à supporter son instabilité et sa violence, à réagir et à se réunir pourdes actions collectives (Abram, 2006). Une première hypothèse porte sur la fonction de la mort comme thème de discours etd'action, et pratique numérique : elle représenterait le pathos, une aisthesis des réseaux sociaux. Sonimportance sur Facebook témoignerait d'un travail public etcollectif sur la responsabilité et la solidarité, les « sociétés assiégées »( Bauman, 2002) tentant de formuler leur morale globalisée, dans les conditionscontemporaines d'instabilité, d'incertitude et d'anxiété. La seconde hypothèseconcerne le sens de ce que tissent deux extrêmes, le pire du corps, la mort, etl'excès du digital, la vie numérique. Le « je -tu » est le maillon d'un frontcommunicationnel intrinsèquement lié à la gestion des données numériques qui modifieles notions d'identité et de présence. La troisième et dernière hypothèses'intéresse à la pragmatique des réseaux sociaux. L'activité humaine (de perception ,d'affection, d'exploration, d'interprétation) en est le moteur. Cette exposition ,cet « appareil expressif », selon une formule empruntée à Pierre-Damien Huyghe( 2009), rendrait tangibles des phénomènes invisibles qui sont une matièreanthropologique énigmatique. C'est à cette production, à cette parution, qu'ilconvient de s'intéresser dans l'observation des réseaux sociaux. Pour traiter ces différentes formes de l'annonce de mort, trois corpus ont étéconstitués. Les deux premiers sont fondés sur un réseau existant de 250 relations( publiants ou non publiants). Une exploration de la totalité des messages sur lessix derniers mois montre que la mort représente une part infime des thèmesexplicites de messages, même en tenant compte des réactions à des morts de personnespubliques. Dix échanges caractéristiques d'une annonce de décès et de sescommentaires ont été retenus. La seconde analyse est une extraction de ce mêmeréseau et porte sur la revue des messages de dix auteurs sur une durée de deux ans( une moyenne de 1000 messages par auteur entre avril 2008 et avril 2010). Lescritères de sélection de ces dix auteurs sont : la régularité de publication (aumoins 5 messages hebdomadaires); l'étendue des fonctionnalités utilisées : statut( sur le profil), lien, photos, déclaration de nouveaux « amis », messages (sur lemur), jeux, scores, cadeaux, reroutage de comptes Twitter ouFoursquare, tous ces messages étant publics; uneposition de personnalité publique, utilisant Facebook commeun support de développement intentionnel de visibilité, commentant les événements ausein de ses sphères d'intérêt, exposant sa vie dans sa globalité, ses rencontresprofessionnelles et amicales, les deux s'entremêlant, sorties, voyages, visites ,expositions, explorations et découvertes. Les énoncés retenus concernent des décèsde personnes publiques et de personnes connues dans les sphères d'intérêtconsidérées (les questions techniques, sociales, politiques et économiques associéesau Web, les agences numériques, la presse, l'Université, lesarts et les spectacles, la littérature, la vie politique). Le troisième et derniercorpus est constitué des résultats de recherche par mots clés du champ lexical de lamort, en français, en anglais et en allemand. Il comprend des pages commémoratives ,des groupes d'intérêt (à la suite d'accidents majeurs, d'attentats, de morts ensérie ou par les mêmes causes, groupes de prophylaxie du suicide et de ladépression). L'ensemble est complété par 5 entretiens. L'exposé des résultatsconduit le lecteur des annonces de deuil intime à la réflexion sur une sorte detravail des morts, leur contribution à la cohérence des réseaux sociaux, par lemaintien de leurs écrits, malgré le décès des auteurs. Ces morts digitaux révèlent àla fois une symbolique des données numériques et une éthique des réseauxsociaux. Le faire-part de décès n'a pas de forme bien identifiée dans les réseaux sociaux .Les énonciateurs qui veulent annoncer un décès font face à trois obstacles : Il est difficile de trouver comment parler d'événements douloureux quandle format de la communication privilégie le dialogue direct tout en lerendant public. Les amorces des messages sont le plus souvent des affects (tristesse ougaieté, enthousiasme ou dépression), quels qu'en soient la cause ou ledegré. L'absence de nuance provoque des quiproquos. On constate que « se confier en public » est un genre discursif soumis àune double contrainte, qui met en question la pertinence de ce type demédias pour les émotions intenses. L'affaire commence par un malentendu. Contrairement à l'exhibitionnisme qu'on luiprête, le dispositif de Facebook admet mal les sentimentspersonnels et les affaires privées. « Machine à communiquer » (Perriault, 1989) ,c'est une dynamique de relation. Le « je -tu » est un artefact de diffusion( d'informations, d'interprétations, d'explorations des tendances techniques ,comportementales, politiques). Il stimule un front communicationnel enpermanence actif, où coulent deux sources : le signalement de documentspertinents pour la sphère d'intérêts partagés d'une part, le dialogue à deuxmais public, d'autre part. Les thèmes dominants (le travail, le loisir, lesport, le jeu, les engagements, la famille) et les modalités affinitairesmarquent une visée unique, maintenir la relation, la garantir par unegigantesque énergie phatique. C'est la forclusion de l'intime qui sera le premier pointd'entrée, légèrement paradoxal. Dans une mise en scène euphémisée de la viebanale (visages souriants, familles, fêtes, amitiés, voyages), l'annonce de mortn'a pas de forme, et les efforts pour lui en donner sont un forçage relationnelet stylistique. Pour exister en tant que « je », il faut « créer un profil » (date denaissance, sexe, état – marié, relation libre, célibataire –, métier ,options politiques, cursus, sites Web de référence) .On peut tout dire ou ne rien dire, tout montrer ou ne rien montrer. Tout ,hors le nom propre réel. L'identité n'est pas vérifiée, mais sonauthenticité servant la reconnaissance par autrui, elle est nécessaire à unréseau personnel (« X veut devenir votre ami »). Tout concourt à donner lesentiment de la vie en cours. On dit à tout moment ce que l'on est en trainde faire, de dire, de lire, de penser, documents à l'appui (photo, url, vidéo). Chaque action laisse l'indication del'heure et de l'intervalle (« Il y a 6 heures dim. 12 h 30. 22 jul. »). Denouvelles applications, telles Foursquare ,géolocalisent, rendant proche le lointain (« Krzystofjust checked-in @Pl. Inwalidow Warszawa, Mazowieckie »), etexotique ou ludique le proche (« Clemence just became themayor of Eglise d'Auteuil ») et renforçant la traçabilité des faitset gestes ! Ces données donnent prise au regard d'autrui. C'est uneconfiguration de l'intersubjectivité. Les objets ainsi offerts (photos ,propos) font découvrir et considérer des façons différentes d' être, depenser, d'agir, de passer le temps. Les échanges trouvent leur caution dansun cadre déictique (on ne sait de l'espace-temps que ce qui sert à situerl'énonciateur et à comprendre le sens d'un énoncé). Le silence, lapassivité, l'absence confinent à la disparition. Les algorithmes calculentla fréquence des messages échangés. Si deux membres d'un même réseaun'échangent pas ou plus de messages, une alerte s'affiche sur la page « Il ya longtemps que vous n'avez pas de nouvelles de X, faites -lui signe ». Dansce dispositif, la mort étant un cas particulier d'inactivité de la page ,telle le Vaisseau fantôme, la page d'un ami mort peut surgir, son visagesouriant apparaissant comme s'il sollicitait un contact. La page, un neutre ,un « ça », se présentant pour recréer un « tu ». Car le socle de Facebook est un « je » confronté à des « tu ». Latroisième personne concerne l'objet tiers, le propos, ce dont on parle, dansun second temps, après avoir posé ce que l'on est et ce que l'on ressent. Cette mécaniquecommunicationnelle fait qu'un décès est exprimable plus qu'annonçable. SurFacebook pas plus qu'ailleurs, « je » ne puisdire « je suis mort ». Sans doute pourrais -je écrire « je me sens mourir » ,« je vais mourir », « je meurs », mais la contrainte d'expressioneuphémisante donnerait à de tels énoncés une réception antiphrastique etcomique. « Je » ne dira pas davantage « tu » es mort. On annoncera plusfacilement les naissances. Elles sont le flux de la vie : « Je vais avoir unbébé », « ça y est, ils sont là. 2 petits gars ». Là aussi, les codesexpressifs proposent des périphrases : par exemple « Petit habitant sous lenombril » (sic), échographie à l'appui en guise de « portrait » identitaire( statut attesté, 05/2010). On parle de son humeur, mais jamais de maladiechronique et grave. Tout se dit à demi-mot, pour peu que l'on connaisse dansla vie réelle la personne concernée. (« Bon courage ma petite bichette pourles 14 semaines qui viennent. » « Plus que 3 séances ! Vivement mai ! », Facebook, messages du 12/03/10). Les maladies dont onparle sont les rhumes, les grippes, les gastroentérites, comme d'obstaclesdéplaisants mais légers et comiques (« N'attrapez pas ma gastro sur leréseau », Facebook, message du 15/04/10) Ces énoncés à la cantonade suscitent des réponses, qui animent la scène del'intersubjectivité (« Quelle bonne nouvelle, comme tu dois être heureuse »« Vous êtes trop beaux tous les deux ! »). Ce dialogue publicisé, face à lamultitude des observateurs (un réseau actif a de 250 connexions à plusieursmilliers) répond aux contraintes d'une conversation à deux destinée à êtrelue par tous, suggérant une pratique rhétorique qui combine l'atténuation etl'allusion avec l'emphase. L'annonce est centrée sur ce que l'endeuilléressent. Cet exemple témoigne de la nécessité d'adoucir l'annonce par unemanipulation du dialogue : - Bad dad day. – Mais pourquoi ? Que se passe -t-ilmon petit chat ? – Nous avons perdu notre papacette nuit. – Ah je suis désolée pour toi, je te souhaite beaucoup decourage. (Alice G., dialogue recueilli sur un « mur » Facebook, 07/03/10) L'affect est banal (être triste) et admis, l'interpellation permet de lerequalifier dans un contexte d'intensité exceptionnelle. Le focus est missur l'endeuillé, pour s'ouvrir ensuite à l'événement, suscitant ensuite desmessages compassionnels multiples. Quelques jours plus tard, la même jeunefemme écrit : – Cela s'arrêtera quand, la galère ! – Quoi encore ,qu'est-il arrivé ? – Maintenant les deux petits ont la varicelle (Alice G., dialogue recueilli sur Facebook le18/03/10) La dissonance (régularité de l'émotion, disproportion des causes avancées )montre la pauvreté des ressources (énoncés contingentés, conventionsd'expression des affects, amplifiant les petites choses et neutralisant lagravité) mais aussi l'organisation des récits en étoile autour des affects ,fatigues, chagrins, anxiétés d'un sujet, traités sur le mode mineur .Sobrement mais toujours sur son « mur », la sœur de cette jeune femme écrità la même date que le premier message cité mais un peu plus tard dans lajournée : « Triste ». L'événement est sans doute déjà connu et les messagesseront des messages de condoléances attendus : « Je suis avec toi de toutmon cœur dans cette épreuve très difficile ». Autre type de discordance dansun second exemple : – « Lâcheur ! On t'a attendu. – Je n'ai pas pensé à teprévenir, j'ai dû aller à l'enterrement de mon grand-père. – Pasdrôle, c'était où ? » (Vincent D., dialogue du 15/04/2010) Le blanc de communication aboutit à une investigation quant à l'endroit où aeu lieu l'événement, contournement traduisant l'embarrasexpressif et sa résolution. En guise de statut, une femme écrit le texte d'un dialogue simulé (ChristianeL., statut attesté le 23/06/2010) : « Tu me demandes si je vais bien. Non .Mais ce serait trop compliqué à expliquer alors disons que je vais bien » .Qu'on lise ce statut comme la citation d'un dialogue, érigée en aphorisme ,et destinée à exprimer une ambivalence face au grand public du réseau, oucomme le résumé imaginaire d'un dialogue possible faisant des « ils » duréseau un « tu » générique, il résume une posture obligée d'énonciation :une adresse, au présent, portant sur des états (humeurs, émotions )simplifiés et euphémisés, traitée par une réponse unique (pas de tours deparoles, peu de dialogues dépassant la paire, pas d'échanges enchâssés) .Dans ce mode de faire-part détourné, complexe et frustrant, il faut lire uneexpérimentation de forme, qui compose entre souffrance intime et visibilitépublique. Le savoir dire n'est pas disponible. Peter X., un jeune Américain au réseau de 2 000 personnes (il a séjournécomme étudiant à nyu et BrownUniversity), praticien expérimenté, fait le choix de ne rienafficher du décès de son père. Mais ses nombreux amis éditent des messagesde condoléances, qu'il efface sans relâche des semaines durant. La seulemarque de son deuil est la transformation de sa photo en un écran noir. Ladissonance tient dans le manque d'attention des amis, qui ne décèlent passon refus d'exposer le chagrin. Ces tentatives expressives montrent ladifficulté du faire-part. Le support valorise une scène publique de dialoguecentrée sur le ressenti. Mais il ne faut pas s'y tromper. Les usagersexpérimentés différencient l'intime figuré et l'émotion réelle .L'observation réciproque dégage petit à petit un code implicite des bonnesmanières, qui ménagent et l'éditeur et le lecteur. Les explications surcette mobilisation de l'intime et sa mise en scène sont au cœur des travauxsur les réseaux sociaux (Cardon, 2008; Boyd, 2009; Casilli, 2010) .L'expression de l'intimité sert à définir les mailles d'un front decommunication et non à partager des chagrins : la réaction plutôt quel'émotion. Si le deuil privé est aussi difficile à dire que nécessaire àexprimer, qu'en est-il d'autres annonces, indirectes également, celles despages Facebook de morts-vivants, les pages au présentd'un temps passé ? Dans la vie quotidienne, on ressent la mort de quelqu'un par le manque. Quelquechose évoque une personne, et celle -ci n'est plus là. Sur Facebook, c'est l'inverse. Quelqu'un devrait manquer et il est là. Laprésence discursive d'un défunt prend de court. Sa page numérique persiste etdevient un objet de discussion. Une telle situation, courante, attirel'attention sur deux caractéristiques discursives des médias sociaux : leurprésentisme et le lien intersubjectif qu'induit entre vivants et mortsl'entrelacs des énoncés, bouleversant quelque peu notre évaluation du réel et ducertain. Ce choc désormais fréquent de la présence numérique d'un mort suggèredeux analyses, celle des régimes temporels et celle des régimes de croyance( « Dans quelles circonstances pensons -nous que les choses sont réelles ? », voirGoffman, 1974 : 111). Cet examen rend tangibles des transformations à l' œuvre ;notre sensibilité porte désormais les marques de ce cadre social numériquecomposite. Les tensions autour de la propriété de la page d'un défunt montrentque la chaîne conversationnelle créée par les réseaux sociaux rend chacund'entre nous partie prenante des données numériques auxquelles il a pucontribuer, serait -ce par une simple lecture. Ce débat sur le statut du discoursdes morts joue un rôle d'attracteur. Il fait venir sur Facebook un grand public qui pouvait l'ignorer, l'instituant comme unfait de la vie quotidienne. La relation est régie par le présent. François Hartog (2002) nommeprésentisme la prééminence du présent dans notre culture. Depuis 50 ans ,nous ne savons ni nous projeter dans le futur ni penser l'Histoire, sinoncomme patrimoine. Il distingue le présentisme de l'épicurisme. Sur Facebook, le présent n'est pas davantage associé à lajouissance de l'instant. Le présent est une représentation, horizontale etsynchronique, d'un front, à l' œuvre, ensemble, dans le tri et le partage desévénements. Quand la mort disjoint définitivement la relation, le dispositifprésentiste se révèle incapable de faire une place au parfait. Le présentprend deux valeurs. D'abord, il exprime l'aspect synchronique sous lequelles choses (actions et états) sont vues, comme si tout se passait en mêmetemps, sans prise en compte de la durée et de la succession, quels quesoient la multiplicité et l'éparpillement des acteurs impliqués. En secondlieu, le présent donne une représentation continue du cours de vie dechacun. Malgré les connexions et déconnexions successives, le présent simuleun « être là » perpétuel sinon continu. L'attention étonnante portée à lacélébration des anniversaires peut être interprétée comme l'affirmation duprésent perpétuel (le jour est toujours le même), entérinant néanmoins lasuccession des années. De ce fait, la représentation de l'énonciation ,composée des photos de visages, de toutes les traces (photos, liens ,commentaires, jeux) de la participation (aux lectures, aux soirées, auxévénements) reste perpétuellement actuelle. Il n'y a point d'achèvement ! L'énonciateur défunt est prisdans un oxymoron vie-mort, qui le laisse dans l'actuel mais rend sa mortsaillante. Dès la nouvelle de l'assassinat de Susanna Zetterberg, à Paris, les nombreux amis de cettejeune suédoise ont créé une page « Mémoire ». Pour ce faire, ils ontpris des photos de sa page la représentant dans des soirées, le verre àla main. Malgré ce choix inapproprié et par défaut – la jeune fille estmorte en sortant d'une discothèque, cette collection renforce lecontraste vie mort et crée un pathos intense. La page a rapidementaccueilli plus de 1000 messages, sans doute en Europe une des premièresmanifestations de cette ampleur. Le « je » de l'énonciation continue estperformativement transformé en un « ça », une image sur laquelleconvergent ex-voto et épitaphes. Ce qui est « annoncé », c'est laréaction du front communicationnel à la mort, la transformation de larelation en commémoration par ce collapsus vie-mort. Quand un énonciateur a beaucoup publié durant sa vie sur des blogs, dessites et des forums, selon ses participations multiples à des groupesd'intérêt, son décès laisse disponibles de nombreuses pages qui semblentactuelles, tout en n'ayant plus d'auteur. C'est cette expérience quedésigne l'expression « trébucher sur un cadavre numérique ». En avril2009, Patrick M., un homme d'une cinquantaine d'années, meurtbrusquement. Chercheur et militant de l ' opensource, actif dans plusieurs milieux (politique, technologique ,artistique), il apporte l'exemple d'une présence numérique que personneparmi les proches ne s'est employé à réduire, rapprochant, près d'un anaprès sa mort, un profil au présent (sur Facebook et LinkedIn) de rubriques nécrologiques auparfait. L'effet déroutant de la page vient des visages associés. Lesamis du défunt, comme lui tout sourire, lui demeurent liés sur cettepage et apparaissent avec lui. Dans ce dispositif de parution, les amissont associés en une représentation orphique du commun que nous avonsavec les morts. Comme l'écrit Guillemette Faure (21/09/09), « On nemeurt jamais sur Facebook. J'ai déjà deux mortsparmi mes amis. La semaine dernière, Facebook m'arappelé que c'était l'anniversaire de l'un d'eux ». Si la procédure de clôture des pages est maintenant établie et connue ,l'opération provoque des sentiments ambivalents : « Le meilleur ami de ma copine s'est tué en moto il y asix mois. Au début ses parents avaient d'autres soucis que Facebook et ils n'y connaissent rien. Des amisont investi sa page, ils mettent des trucs, et c'est glauque, passons .Maintenant, les parents ont compris, ils ont récupéré les mots de passe .Mais ils hésitent. Supprimer sa page, ce serait un peu le tuer uneseconde fois. Alors ils gardent la page comme ça. C'est bizarre »( Renaud B., 08/10). Un autre témoignage pose le problème de l'initiative : « Le 18 mai un demes amis s'est suicidé. Je suis toujours connecté et j'ai observé sapage. Personne n'intervient. Je ne connais pas sa famille. Son dernierstatut reste : « Je m'éclate au ski ». Est -ce que c'est à moi de fairequelque chose ? Cela me gênerait, cela me gêne aussi de ne rien faire »( Noël R.). Va -t-il devenir tabou de supprimer les données numériquesd'un mort, associées au corps ? Sur un forum en 2008, une femme demandeconseil pour faire fermer le compte de son fils. À l'occasion de sondécès, elle a découvert l'existence de Facebook et trouve indécent le fait que sa belle-fille, avec laquelle elle estentrée en conflit à ce sujet, continue à faire vivre le défunt :« Pierre aurait aimé ceci, Pierre aurait pensé cela… », l'interpelant aubesoin « Pierre, tu nous as manqué hier », invitant ses amis à continuerla conversation. La mère souhaite faire valoir des droits sur cette pageet voir cesser le dialogue public macabre. Paradoxalement, elle ditvisiter régulièrement la page, seul moyen pour elle de rencontrer sespetits enfants dont ce conflit la sépare. Une vie sociale numérique peutse poursuivre après la mort, posant le défunt comme l'enjeu sentimentald'une présence que l'ont veut accaparer. Ce débat sur la propriété desdonnées numériques, le faire agir numérique, enseigne deux choses :premièrement, de tels cas de conscience font savoir au grand public que ,désormais, il faut tenir compte des réseaux sociaux. Oui, cela existe ,cela compte pour la société tout entière. C'est un enjeu capital derecrutement, de notoriété, de concentration de la population vers cessites. Deuxièmement, la maîtrise des données numériques estordinairement débattue par rapport à la protection de la vie privée. Unhorizon de « mort privée » se dessine, plaçant le mort comme acteur dela gestion des coffres-forts numériques, de leur transmission, etinstaurant tout un espace d'incertitude, la paire vie-mort troublée parla paire présence-absence. Une fiction publiée sur le Web repose sur une double incertitude :qui est vivant, qui est mort ? Qui sait qui est mort ? La mort nonconnue est le ressort narratif d'une banale histoire de recherched'anciens amis de l'école. L'ami qui lance la quête se révèlera un tueurplein de rancune à cause d'anciens bizutages. Il remonte le fil desidentités, reprend contact, s'introduit chez les victimes, leur extorqueleurs identifiants avant de les occire. Puis il maintient dans ceprésent actualisé les identités usurpées de Caroline, Christophe ouFatima, qui continuent à converser avec leurs amis, dont la narratrice ,qui sera la dernière victime. Tous se manifestent dans le mondedigital, tandis que le tueur, en tant que Caroline, Christophe ouFatima, persiste dans sa sinistre reconstitution d'amitiés, à force destatuts et messages datés et commentés. Hora certa ,mors incerta. Ce bref thriller met ledoigt sur une fragilité des réseaux étendus, l'incertitude sur l'état devivant ou de mort, question dont la réponse est certaine dans d'autrescadres informationnels et énonciatifs. En 2009, cette incertitude aprovoqué des interventions de juristes (article afp, 2009; Gabizon, 2010). Le document de déclaration dedécès, à l'usage d'informateurs qui voudraient signaler qu'il fautfermer un profil s'adresse à un « vous » qui n'est pas la personneconcernée, un tiers, pas nécessairement un proche, d'où le flou. Lesformules de guidage recourent aux éventuels : « Adresses associées au compte, qui ont pu être utilisées pourcréer le compte »; « Réseaux auxquels la personne aurait pu appartenir, par exemplele réseau de Stanford University »; « URL, adresse Web du profil que vousvoulez signaler »; « Preuves du décès : quels sont les éléments qui peuvent vousfaire penser que la personne est décédée. Certificat de décès ouarticles de presse correspondant » (extraits du formulaire). Oscillant entre la crainte de déclarations abusives et celle d'unepopulation de fantômes, Facebook fonde la suppression sur la convergenced'indices. C'est une résolution relative de l'incertitude. Lapersistance de documents numériques nous représentant (postés, diffusés ,écrits par nous, signés par nous (pétitions) ou parlant de nous auprésent) au-delà de notre mort active une fiction macabre au cœur desmythes du Web : comme des bots, nous existons ainsi indépendamment d'uneintentionnalité. Qui est légataire des données numériques ? Nonseulement pour les faire disparaître, mais peut-être pour les fairefructifier ? Il est désormais recommandé d'inclure des accès à des motsde passe dans ses dispositions testamentaires et de préciser letraitement de la dépouille numérique (Fitzpatrick, 2010. Faure, 2009) .Cette curieuse expérience met à l'épreuve de façon toute théorique unedéfinition de la mort. La métaphysique de Facebook (Ubik de Philip K. Dick en1970), (eXistenZ de David Cronenberg en 1999), (Matrix d'Andy et Lana Wachowski en 1999 )permet au grand public de concevoir une question d'importance : quelssont aujourd'hui les composants de la présence subjective ? La dimension des réseaux, leur nature atopique, le flou surl'authenticité des identités et le fossé entre une vie sur Facebook et une vie irl (In Real Life) rendent manifeste le caractèredésormais incertain d'états que des systèmes d'information stables nousavaient habitués à juger objectivables. L'étude des façons de traiterl'annonce de la mort avait mis en relief un déni de l'intime, malgrél'intersubjectivité. Le présentisme, l'identité numérique font que lemode d'emploi de clôture d'un compte n'a pas réglé le problème desexistences numériques persistantes – les existences imbriquées dans lesdocuments –, que la démographie des réseaux (les morts sont unecatégorie en croissance) complexifie de mois en mois. Ainsi vivants ,sommes -nous saisis d'une responsabilité sur les morts qui noustransforme en curateurs de leurs données numériques. Ce dernier développement porte sur les mémoriaux, examinés selon l'hypothèse queces pages pourraient constituer des signes d'une recherche morale sur les façonsde vivre ensemble dans un monde globalisé et précaire. Cette fonction symboliqueest, du point de vue des fondateurs de Facebook, unevocation des réseaux sociaux, qui sont censés apporter une compréhension dumonde et donner éventuellement les moyens d'une action collective réparatriceface aux menaces et aux catastrophes. Les commémorationssignifient la mort par la dimension symbolique et imaginaire du recueillement ,du témoignage, de l'hommage. Cette sémiologie du deuil conduit les individus duressenti intime à la lutte réparatrice. Les signes de l'émotion permettentl'investissement psychique. Ils sont des attracteurs des liens sociaux. La pagepermet de rassembler. Elle accumule informations et commentaires. Les morts ennombre sont un pattern de base qui illustre la notion d'espace publicnumérique : une page d'inscription de débats et de projets; un public ,c'est-à-dire des individus liés par une communauté de culture, de ressenti ,d'intérêt, placés dans un cadre symbolique (de langue, de valeurs) qu'unequestion commune rapproche autour d'une nécessité d'interprétation et d'action .Les catastrophes naturelles et les attentats sont les premiers motifs de tellesmanifestations qui rassemblent synchroniquement des milliers d'individus .Convertissant l'émotion personnelle en cause, ces pages sont un éducateur à unecapacité d'action commune que les conditions contemporaines reconfigurent :diaspora, globalisation, différences culturelles, différences d'accès àl'information, capacité de veille, d'exploration et d'interprétation. Unenouvelle façon de prendre soin les uns des autres se dessine, à distance, parl'écrit et l'image, en collectif. Facebook entretient avec la mort un lienconsubstantiel. En septembre 2006, Carolyn Abram, porte-parole de MarcZuckerberg, annonce l'ouverture de Facebook au grandpublic. Réseau prototypé pour quelques milliers d'étudiants américains, Facebook décide d'étendre ses ambitions et « veutaider les gens à comprendre leur monde ». Dans cette conquête napoléoniennedes réseaux sociaux, la victoire est acquise avant même la bataille. Facebook a le génie de se positionner comme uneentreprise d'interprétation d'un monde globalisé, capable d'accueillir unpublic impliqué par ses énigmes. En avril 2007 survient la fusillade de Virginia Tech. Lesjournalistes se tournent vers Facebook pour trouverdes images et des informations sur les étudiants assassinés. Cette fouillequi aboutit à la représentation dans les médias du campus animé, des liensfestifs entre les victimes, des images de leur quotidien, crée une publicitémassive, issue de ce puissant oxymoron vie mort. C'est à ce moment précis ,qui mêle pathos, tragédie et enquête intime, que Facebook amorce sa croissance exponentielle, faisantla démonstration de la pragmatique des réseaux sociaux : informer, vérifier ,défendre, expliquer, impliquer, agir. Facebook seconstitue en source d'informations personnelles publicisées, en support pourl'expression des émotions et des témoignages mémoriels, en organisateur (desobsèques, des actions réparatrices, des enquêtes). C'est un collectif Facebook, un global group, quidémontrera, par un crowdsourcing très rapide, la fausseté desallégations faisant d'Emily Hilscher, la première victime, l'amie du tueur .Aux yeux d'Ellen McGirt (2007), cette quête collective de vérité, cettevigilance critique sont l'énoncé d'une « nouvelle norme de l' âge digital » .Alors qu'un groupe religieux, la wbc (Westoboro Baptist Church), occupe le campus pourrépandre l'idée que cet attentat est une manifestation de la colère de Dieucontre l'homosexualité, un global group Facebook, Stop Fred Helps ,fait lever l'occupation par une pétition spectaculaire demandant que cedeuil se fasse en paix. Autour de cet événement originel, les groupess'attachent au deuil des jeunes gens ou au débat violent sur l'étiologie dela fusillade. Une sémiotique complexe mêle le deuil, la fragilité de la vie ,la lutte et la réparation. Cet entrelacs explique les transformations del'annonce de mort – bien éloignée des billets de l' « avertisseur » rural( Claustres, Pinton, 1997) .L'annonce ne convie pas aux obsèques, elle témoigne que la mortviolente révèle toujours une cause méritant enquête, explication ,réparation. Le projet affirmé de Facebook, aider lesgens à comprendre leur monde et, ajoute Ellen McGirt (2007), « donner dusens à un monde temporairement devenu fou », trouve un épanouissement toutparticulier, une sorte de sponsoring symbolique, dansles risques majeurs, crimes, catastrophes. Dans cette version extensive du faire-part, l'annonce des morts en nombrescénographie deux états : la sidération d'une part, la réparation d'autrepart. Le motif de création de la page est la brutalité et la radicalité d'unévénement imprévisible : les catastrophes aériennes (en 2009, vols YémenComores, Rio-Paris, Newark-Buffalo; en 2010, vols Varsovie-Smolensk ,Tripoli-Johannesburg, Beyrouth-Ethiopie, Dubaï-Mangalore), les catastrophesnaturelles (en 2010, tremblement de terre en Haïti, tempête Xynthia ,inondations au Pakistan), les catastrophes industrielles (bp dans le golfe du Mexique), les attentatsterroristes (Mumbai, 2008, Jakarta, 2009), les fusillades (pour 2009 et2008, Winnenden, université d'Arkansas, Kauhajoki en Finlande, Northern Illinois University) trouvent immédiatementune forme sur Facebook. Hommage, pensée collective àdistance, la cérémonie de la globalisation réunit des humains dispersés etdifférents autour d'une grande émotion. Mais très vite ce rassemblementorganise un fil d'information. La page testimoniale se transforme en global group voire en classaction qui critique la lenteur de l'enquête, s'alarme de l'incuriedes pouvoirs publics, s'inquiète des contre-influences lobbyistes quifreinent la clarification de l'événement. Bien sûr l'intensité est touterelative : très forte dans les jours ou les mois qui suivent, la publicationpeut s'éteindre ou virer vers un nouvel objet. La page de Winnenden est vitedevenue un lieu de discussion sur Winnenden et accueille des initiatives( rencontres, associations, fêtes). Elle a retrouvé temporairement savocation au moment de l'anniversaire de l'attentat, le 12 mars. Lasidération est la base émotionnelle qui permet le rassemblement. La mort ,objet émotionnel, religieux et métaphysique, acquiert une force symboliqueparticulière. Sa célébration est un ferment politique citoyen qui lie desvictimes, des journalistes, des observateurs, et produit un public d'acteursengagés dans l'action collective. Une autre catégorie de pages, plus récente, s'apparente à une cartographie .Les familles diasporiques ouvrent une page pour célébrer un aïeul. Desmessages venus du monde entier s'accumulent pour louer le défunt. Ces pagessont publiques. De sorte que chaque membre de la famille dispersée s'agrègeà ce mapping des cousinages dispersés dans tous les continents, symbolisant ,autour de la mort, une image globale de la famille cosmopolite. NadineFresco (1981) appelle « diaspora des cendres » la souffrance des cadets defamilles juives persécutées, subissant la forclusion de l'existence même desaînés morts dans les camps, mort décelée intuitivement aux sanglots étouffésdes parents, aux silences lourds de culpabilité désespérante. Eh bien, surFacebook, les morts ne demeurent pas enfouies ,toutes deviennent des causes autour desquelles se réunir. De nombreusespages utilisent le présentisme de Facebook pourmaintenir à flot le souvenir de morts dispersés, en regroupant les photosdans des pages mémorielles thématiques (par maladies, âge, accidents devoiture, suicides, accidents de sport, l'armée, combat) en un infini crowdsourcing. En général, ces pages sont créées parun proche. Certaines pages n'ont qu'un participant : « Je t'en veux ,Christian, d' être parti si vite et de m'avoir laissée seule », écrit lajeune amie d'un aviateur mort, confiant ce fragile mausolée numérique à lacompassion du grand public. Elles organisent le témoignage, le partage, lessolidarités. Comme l'ont fait depuis plus de dix ans les newslettersassociatives. Avec un trait nouveau, la prégnance des photos. Lavulnérabilité des visages nous lie à eux, nous en rend responsables. Lasymbolique de ces rassemblements autour de collections de photos est une« expérience du visage » (Levinas, 1961), une saisie de l'altérité par lavulnérabilité, la part exposée, la peau, le buste. La force de ces visagesconfrontés, vivants et morts, est, si l'on suit Emmanuel Levinas, une voiepour s'extraire, accéder à l'autre et ouvrir par cette voie un chemin versl'expérience et la connaissance. Le visage de l'autre fait effraction enmoi, me destitue, me dérange. De l'autre, voyant son visage, je deviensresponsable. La collection de centaines de photos de bébés morts d'une mêmemaladie génétique, commentées par les parents, représente un changementd'échelle. Le deuil intime, dont on a vu ci-dessus l'insatisfaisanteexpression, est ici dilaté en sa forme géante : collective, itérative ,saturante. Cette mort ne peut plus être dispersée parmi d'autres. Laconcentration, l'intensité émotionnelle déplacent ces morts privées. Ellessont réinvesties comme une cause. Les images des bébés changent de statut .D'objets regardés, ils sont transformés en acteurs, attracteurs, avec leursparents, d'un rassemblement numérique qui prépare réparation et actionglobale. Leurs visages que rien ne liait à nos vies deviennent, au hasarddes promenades, les protégés d'un public indéfini, un immense cimetière. Il apparaît que deux voies convergent pour expliquer le caractère nodal de lareprésentation de la mort : le lien entre deuil et cause commune d'une part ,le lien entre collection de visages et responsabilité éthique d'autre part .De la sidération à la réparation, les catastrophes mènent du pathos àl'action; à cet égard, la représentation de mort, de nos morts, de cesmorts, fait partie des Commons numériques, unpatrimoine dans lequel une large communauté puise et trouve des ressourcespour penser et agir. Les visages des morts collectionnés et cultivés sur Facebook sont un memento mori contemporain et une vanitas qui rappellent que descatastrophes menacent, et que leur radicalité (leur force, leur dimension ,leur sens) affecte notre futur, d'autant plus que nous commettrions l'erreurde la sous-estimer. Ils sont aussi l'emblème d'une responsabilité acceptée ,une « interpellation éthique du face-à-face » (Depraz, Corcuff, 1995). Seloncette lecture, la représentation de la mort fait partie des cadresd'expérience dont les réseaux virtuels ont besoin pour s'éduquer à une formede vivre ensemble dans un monde incertain (Morin, 2004). Que nous apprennent ces façons de dire la mort, à propos d'un media social dontla fréquentation, en masse et en diversité, est aussi significative ? Le deuilintime ne se dit que par litote, atténuation, allusion, avec des échecs et desdiscordances. Les deuils de fait, ces confrontations brutales avec le discoursau présent des morts, sont une monstration brute de ce qu'est un être numérique .Il vient troubler notre représentation de l'autre, présent, existant, vivant. Unnouvel et étrange acteur, qui garde une puissance pragmatique. Ces maladresseset quiproquos douloureux ont deux efficacités. D'abord, c'est un cas particuliermais universel qui laisse voir, en travail, le processus de recherche des bonneset meilleures façons de poser les relations à distance, un savoir-faire biennécessaire qui accompagne la structuration symbolique de la société digitale .Celle -ci repose sur de petits mondes cohésifs, mais aussi sur de très vaguesrelations que l'on accepte dans son réseau par stratégie de capitalisationnumérique. Oser s'adresser à cette foule, en tant qu'humain entier, exposé ,sensible et raisonnant, valide le modèle d'une société digitale globale ,plastique et mobile, et cependant humanisée. Promu par Facebook comme un contrepoids au modèle d'obscurs automates de Google, il impose un investissement de chair humaine, dudiscours, de l'interaction, des dysphories communicationnelles qui fabriquent del'élucidation, en discours, et animent sans relâche le front communicationnel .Il y aura bientôt – il y a sans doute déjà – une Nadine de Rothschild numériqueen train de rédiger un manuel pour gens digitaux bien élevés. Ensuite ilsrendent saillant un débat en train de prendre forme, qui concerne la maîtrise dupatrimoine digital, la Data Bank que représente laproduction d'un être, vivant ou mort. Querelles et rivalités ravivent laquestion des coffres-forts numériques et du cryptage, traitée, pour les vivants ,dans le champ du respect de la vie privée, pour les morts, par le droit deregard, de propriété, d'exploitation, du capital symbolique que constituent lesdiscours et les visages des morts. Comme une chaine d'ancêtres, ceux -ci sontpris définitivement dans le substrat conversationnel. Les couper, c'est lestuer, c'est aussi forclore des arguments en cours dans un monde présentiel .C'est couper quelque chose des vivants. Une industrie du mort numérique est enplace (Parr, 2010). Elle rejoint l'industrie du « mémorial dynamique ». Le mort ,acteur et attracteur, est le ciment de causes, une forme d'action collective quisemble bien connue, mais opère un changement d'échelle. Ce n'est pas la premièrefois que le mort est acteur tangible. « Il y a un usage symbolique du corps – dans le sens funérairedu terme – à Act Up-Paris : le die-in, technique demanifestation par laquelle les militants, allongés, immobiles, signifientl'hécatombe, suffirait à lui seul à témoigner de l'intégration dans lerépertoire d'action de l'association d'une mise en scène d'un corps sans vieet/ou des objets funéraires qui lui sont traditionnellement associés (ainsi, descroix et des cercueils lors de « Journées du désespoir », un corbillard lorsd'une manifestation pour le droit des étrangers malades, des urnes funérairespour la journée mondiale de lutte contre le sida, des cendres dans un zap àl'Agence du Médicament, etc.) » (Patouillard, 2002). Qu'apportent de différent les mémoriaux numériques ? Leur capacité à associerreflète le modèle Téléthon, la transformation en cause vécue et personnelle defaits qui étaient ignorés ou indifférents peu avant. On sait aussi que c'est cemodèle qui a inspiré la campagne numérique et de terrain de Barack Obama. Àpartir d'août 2008, après avoir subi des attaques sévères sur sa personne, ilinverse la dynamique communicationnelle confiant l'enjeu de sa réussite à lapopulation des États-Unis comme une cause collective, empathique et rationnelle ,les forces étant dans la population et non plus en lui. Mais le réseau socialapporte deux autres dimensions conjointes, l'échelle spatiale (potentiellementle monde), l'échelle temporelle. La disponibilité durable de ces mémoriaux etdes contributions permet de relancer par épisodes des campagnes en remobilisantun public de masse. Alliant dans un même présentisme morts en synchronie( catastrophes et attentats) et en diachronie (par séries longues), ces mémoriauxdonnent aux morts un rôle de déclenchement du pathos et de la réparation. Ilsimpliquent de ce fait le développement et la normalisation du lobby des morts digitaux et de leurs supporters. Il faut noter qu' à ladifférence des die-in, ces mémoriaux sont sans ironie ,sans transgression volontaire. Ils donnent le premier rôle aux catastrophesnaturelles et à leurs victimes, se situant dans la tradition de représentationd'une nature blessée dont la colère est une alerte. Cette humanité souffranten'offre pas de place aux conflits politiques, aux oppositions nord-sud, auxsituations de domination sociale ou économique. Une innocence apparente qui nepeut qu'inquiéter à propos de la neutralité des réseaux sociaux. Elle peutajouter un bras non armé et digital au modèle humanitaire du pathos et de la réparation. Condoleezza Rice aurait qualifié leTsunami de « merveilleuse occasion » pour mettre un pied américain en Asie du Sud-est. Elle peut aussi être l'ateliergéant où se prépare la connexion effective entre réseaux sociaux digitaux etréseaux d'influence. Ce serait la mise en œuvre numérique sur des réseauxsociaux de gong (Global non-governmental Organizations )qui utilisent les grandes causes, le développement durable, le climat, lesressources naturelles, les normes et valeurs sociales, rapportés au droit desvictimes, pour mettre en œuvre, de l'intérieur de la société, des actions auservice de politiques gouvernementales. Les morts sont l'entité qui donne sens àce lien entre pathos et action. Facebook commence à faire travailler les morts et la mort ,l'exploitation de leur capital numérique entrant dans les jeux de force. Ilimporte donc que soient aménagés le faire parler et le faire agir des donnéesnumériques, en particulier celles de la masse des morts car « le monde est faitde plus de morts que de vivants ». Les mémoriauxsur les réseaux sociaux sont une exposition, un « appareil expressif », faisantémerger des curateurs d'un genre particulier, curateurs agençant les données, enprenant soin au-delà de la mort de leurs auteurs, leur donnant inlassablement dusens. Le curateur d'une exposition permet que chaque visiteur donne sens auxœuvres, grâce à leur mise en contexte. L'effacement progressif de l'expression « Web design » auprofit de « Web curating » marque une nouvelle étape del'économie de la contribution. De la production à l'agencement, del'interprétation à l'émotion, la valeur des documents va dépendre de lapersistance d'un système auctorial (auteurs, diffuseurs, lecteurs, gloseurs ,curateurs). Le Web curating, dont les pages commémorantles deuils sont de premiers essais, commence à s'employer à un maintien du sens ,au-delà de l'effacement de l'auteur et de la garantie, par son identité propred' être vivant, de la valeur de ce qui est dit. Le design des émotions (le deuil, la commémoration, le droit des victimes) apporte lagarantie de notre appartenance à la communauté humaine, par la compassion. Letravail collectif autour de l'annonce de mort, du partage des deuils, desréactions aux catastrophes, témoigne de cet engagement collectif autour d'une « aisthesis digitale », esthétique, sensation ,sensibilité qui agit en retour en faveur d'un sens durable de nos nouveauxcapitaux documentaires. Les annonces de mort concernent donc le cœur de nospratiques numériques, comme pratiques culturelles, comme pratiquesdocumentaires, comme pratiques émotionnelles. Elles font partie de notre cadrecontemporain, qui, après une courte phase de virtualisation, multiplie lesobjets hybrides mêlant l'immatériel et l'émotionnel, le code et l'atome, lesingulier et l'universel. Perriault J., 1989, La logique de l'usage, essai sur les machines àcommuniquer, Paris, Flammarion
Facebook compte 500 millions d'inscrits. Au premier regard, exposition de la vie, le réseau social montre la prégnance de la mort. Trois genres d'annonces sont analysés. Les faire-part: un membre annonce la mort d'un proche; les malaises dans la communication: quelqu'un est mort, sa page existe encore, et les commémorations consécutives à des catastrophes, à des accidents, à des crimes, à des maladies. L'étude rend compte des débats sur le statut des données numériques des morts, enjeu affectif et symbolique. Elle s'attache au rôle des mémoriaux, qui montrent à l'œuvre une morale des réseaux sociaux, la sensibilité et la responsabilité. En devenant un cimetière global, Facebook se constitue comme un lieu de socialisation numérique auquel personne ne peut se soustraire. De ce fait, les morts ― sous leur forme numérique ou par leurs banques de données ― constituent une force d'influence dont on peut se demander comment elle sera orientée.
sciencesInfo_13-0090586_tei_1008.xml
termith-510-communication
De l'entretien réalisé par Jacques Walter et Béatrice Fleury avec le chercheur DanielDayan (Questions de communication, 8, 2005), j'ai retenuquatre moments. Non que ces moments me paraissent plus décisifs que d'autres, maisparce que je peux me permettre d'en discuter à partir de mon propre travail et duterritoire que je maîtrise le mieux. Je ne livre donc pas ici une critiquesystématique des propositions de Daniel Dayan, ni ne me lance dans quelque forme decontroverse. J'apprécie cette idée d'échanger et j'entreprends d'écrire ce qui suitavec la posture, en quelque sorte, de la conversation. Je choisis de réagir auxpropos en utilisant des images qui dialogueront avec ses images télévisuelles : despeintures, des dessins, des photographies. Chacune d'elles, mise en relation avec unthème ou une prise de position de Daniel Dayan, offre une assise à mes réflexions .Dans le même esprit, je privilégierai des références à d'autres entretiens, à desdossiers universitaires ou journalistiques, à des recherches en cours, afin depréserver l'esprit du débat. Ayant expliqué la démarche qu'il a suivie pour ausculter le traitement médiatiquefrançais de la seconde Intifada, Daniel Dayan (2005 : 196) exprime son amertumedevant la prolifération de « textes et d'images, pauvres en contenu informatif ,riches en expression hostiles ». Il fut longtemps tabou en Europe, d'exprimerquoi que ce soit de négatif à l'encontre d'Israël, mais désormais « le droit deporter des critiques est acquis » jusqu' à, semble -t-il, rendre possibles destermes et expressions tels que « Apartheid » ou « Israël, le monstre de laMéditerranée » (ibid.) dont j'ai trouvé justificationsous la plume de Rashid Khalidi (2002-2003 : 48) qui les considèrent « impropresmais évocateurs ». Écrivant depuis Montréal, je ne constate pas un phénomènesemblable dans l'espace canadien et québécois. Je ne lierais pas cette absenced'excès au fait que l'Amérique du nord est l'alliée d'Israël; je l'expliqueraisau moins autant par une tradition de l'écriture journalistique modelée, sur cecontinent, par l'idéologie du quatrième pouvoir et par une aversion chroniqueenvers la polémique, particulièrement au Canada et, encore plus, dans le Québecfrancophone. Le goût pour une distance qui tient la presse à l'écart de la« partisanerie » (c'est toujours une de ses sources de fierté) et le manqued'entraînement à l'écriture « vitriolique » ont peut-être pour effet de retenirl'apparition du type de rhétorique déploré par Daniel Dayan. Je peuxl'apprécier : comme bien d'autres, je suis lassée par le goût français tropfréquent pour l'hyperbole à la limite de la violence verbale. À ce titre, lapremière page que je propose est exemplaire de la réserve dont sont capables nosmédias, représentés ici par le quotidien Le Devoir ,réputé le plus « sérieux » des journaux québécois. Publiée à la « Une » de l'édition du 7 août 2006, prise par le photographe PedroRuiz, cette photographie exprime le désaveu de l'intervention israélienne auLiban l'été dernier. Un désaveu, dans une atmosphère pacifiste et œcuménique .J'ironiserais volontiers : ici, nous sommes contre toutes les guerres. Contre laguerre au Liban autant que contre la guerre en Irak (250 000 personnes dans larue en 2003, par moins vingt-cinq degrés celcius), contre les deux Guerresmondiales (éliminées des livres d'histoire jusqu' à tout récemment), etc. Et noussommes œcuméniques parce que nous sommes la Patrie du multiculturalisme (notrevoisin du sud nous a déjà traités de « Club Med pour terroristes »). Néanmoins ,il me paraît plus intéressant de prendre en compte comment cette photo inscritdiscrètement mais efficacement que même des Juifs ne sont pas d'accord avecIsraël ou, dit d'une autre façon, tous les Juifs ne haïssent pas les musulmans .Mon étonnement devant cette photo provient de la clarté de son message alorsqu'elle présente un cadrage qui, a priori, ne favorisepas une lecture avec un grand degré de précision. Prise en plan d'ensemble, àdistance d'une multitude de personnes qui pourraient aisément être confonduesles unes avec les autres, foisonnante de fragments colorés qui pourraientabstraire la représentation, elle est agencée suivant une composition quicontrôle complètement les risques de confusion. De ce fait, malgré leur petitetaille, les hommes en turban et les hommes en costume hassidique, portantensemble le drapeau libanais ne peuvent pas ne pas être vus. Le point de vue dujournal Le Devoir surl'intervention israélienne est parfaitement lisible tout en étantdéontologiquement irréprochable, et je considère cette photographie comme étantriche en contenu informatif et dénuée de représentation hostile. Néanmoins, jen'en déduis pas que la presse nord-américaine est un modèle de vertu, loin s'enfaut, et il y aurait beaucoup à dire sur les formes larvées d'angélismerégulièrement à l' œuvre dans les médias canadiens et québécois. Pour preuve, jeveux rappeler une image sur laquelle j'ai déjà travaillé (Saouter, 2003 ,2005). Dans un contexte sulfureux, dans les jours qui suivirent l'attentat du11-Septembre, une caricature (fig. 2) avait montré « qu'un conflit entre deuxpeuples peut être traité sur le registre de la ferveur » (Dayan, 2005 : 201) .Cette image est une caricature de Serge Chapleau, l'un des dessinateurs les plusappréciés de la presse québécoise; elle a été publiée le 25 septembre 2001 ,dans le journal La Presse : « Lacaricature exprime ce que le traitement documentaire refuse de formuler. Lefauteur de trouble, dans cette affaire, vient de là-bas, univers compact etindifférencié, capable de toutes les tortures et de toutes les sauvageries. Dansun dessin inconcevable, Serge Chapleau, de La Presse ,ratifie définitivement la césure. [. .. ]. Il propose une foule innombrabled'hommes barbus et enturbannés, résolument identiques, face à laquelle un hommebarbu et enrubanné, identique à ses comparses, demande : “est -ce que quelqu'unici a vu Ben ?” » (Saouter, 2003 : 167). Le caricaturiste est le fou du roi. Ce 25 septembre 2001, il avait dit tout hautce que tous pensaient tout bas. En conséquence – Daniel Dayan soulèverait sansdoute la question – il vaudrait se demander quelles sont les marques d'hostilitéet leur ampleur exprimées au Canada et au Québec, au-delà des lapsus éditoriauxet de la politically correctness .Sans doute peut-on estimer que, s'il y a une forme de discours hostile dans lapresse canadienne et québécoise, elle cible plus facilement le monde musulmanqu'un autre. Pour mieux en juger, il faudra surveiller les résultats de l'étudesur « les représentations des Arabes, des musulmans et de l'Islam dans lediscours médiatique au Canada et au Québec, en lien avec les conflitsinternationaux », étude entreprise par le sociologue Rachad Antonius (2007 : 1 )de l'université du Québec à Montréal. « Même si la recherche n'est pas terminée ,certaines hypothèses de départ semblent se confirmer. [. ..] On peut distinguerdeux tendances dans le discours dominant. La première est minoritaire etraciste. [. ..] L'autre tendance, majoritaire et non raciste, se nourrit dedistorsions de la réalité et de l'omission des faits, tout en manifestant uneindignation sélective face à la violence politique ». La question ne concerne pas seulement les médias d'information. À ce titre ,quelle pourrait être la réaction de Daniel Dayan lorsque je cite les propossuivants, à première vue dénués d'emphase, recueillis sous les sages plumesd'experts, tel Georges Vercheval (2005 : 5), directeur honoraire du Musée de laphotographie de Charleroi et président de Culture etdémocratie, dans la tout autant raisonnable revue de l'universitécatholique de Louvain-la-Neuve, Médiatiques. Récit etsociété, et son dossier « Le photo journalisme » : « Le grand reportageexiste toujours en 2005, mais à quel prix ? [. ..] Le fait nouveau estqu'aujourd'hui, les meilleures images sont celles des reporters irakiens ! Mais, au fond n'est -ce pas naturel ? » [mis en italiquespar nous ]. Est -ce à dire que le prix à payer est de n'obtenir de bonnes images qued'Irakiens ? Pourquoi ce point d'exclamation ? Pourquoi le faire suivre de cetaparté ? Pourquoi, encore, dans ce même dossier, ce fait est-il à nouveau retenupar Jean-Paul Marthoz (2005 : 21), directeur international de l'information deHuman Rights Watch et directeuréditorial de la revue Enjeux internationaux : « Débutseptembre 2005, 67 journalistes avaient perdu la vie depuis le commencement dela guerre. [. ..] Devant cette hécatombe, les journalistes américains ont aussicédé du terrain : aujourd'hui en Irak, la plupart des images sont transmises pardes photographes irakiens ». Cette fois sans point d'exclamation, le voisinagede ce propos avec le titre de l'article, « États-Unis. Les doutes duphotojournalisme de guerre », ne manque néanmoins pas de laisser perplexe. Laquestion de fond est-elle peut-on faire du bon photojournalisme avec des photosprises en majorité par des Irakiens ? Outre l'avis de Daniel Dayan, devrait-onaussi, si cela était encore possible, solliciter celui d'Edward W. Saïd( 2005) ? Les deux images que j'ai choisies pour cette partie me donnent l'occasion deplacer en parallèle l'amorce d'une discussion que je poursuivrai tout au long demon « Échange » : qu'en est-il du rôle et de la signification des images ? Jeréagis lorsque Daniel Dayan (2005 : 203) écrit : « Dans la majorité dessituations où sont associés un texte et une image, c'est le texte qui définit cequi sera mémorisé ». J'apprécie la nuance apportée par le terme majorité, maisl'assertion me rappelle immanquablement de nombreuses déclarations du mêmegenre, comme par exemple, dans le numéro hors série « Le monde de l'image » dela revue Sciences Humaines (2003-2004 : 67), à l'occasiond'une entrevue avec Daniel Bougnoux : « Notre tradition logocentrique exige pourl'image cette assistance du discours : l'image réduite à elle -même s'impose ànos sens et les flatte par le plaisir qu'elle induit. Enréalité, une image douée de sens ne va jamais seule : elle est accompagnéed'un texte ou d'un contexte qui la rend lisible » [mis en italiques parnous ]. Ce n'est donc pas l'image seule qui porte la responsabilité du message :nous la tenons pour véridique, stupide ou mensongère selon le texte ou lalégende qui va avec ». À cette étape, faisons remarquer que, dans la première image, le texte est tout àfait contingent et, dans la seconde, il est totalement assujetti à la partievisuelle. Pour une raison simple : « Rien ne vaut une bonne photo plutôt qu'unelongue description » (Bougnoux, 2003-2004 : 67). Le problème, s'il y en a un, nevient pas des moyens soi-disant limités de l'expression visuelle devant ceux del'expression linguistique. Ils viennent, pour une bonne part et en accord avecSusie Linfield (2004 : 4-5), journaliste à la BostonReview, du fait que, le plus souvent, « le spectateur ne peut pasdavantage “connaître” la réalité à partir d'une photo qu'il ne peut le faire enisolant une phrase d'un paragraphe ». La photographie et la caricature retenuesmontrent qu'il est possible de construire des images isolées signifiantes, aumême titre qu'on reconnaît du sens, par exemple, à des aphorismes. Laphotographie de Pedro Ruiz pourrait certainement être considérée commeemblématique du jugement de la société civile québécoise sur les événements d'uncertain été 2006. Enfin, on ne peut objecter la nécessité d'un contexte pour lacomprendre : toute production signifiante, quel que soit le système qu'elleutilise (verbal, visuel ou autre) exige un contexte, interne ou externe àl'énoncé (Peirce, 1978). Abordant le thème de l'incommensurable souffrance vécue en contexte de conflit ,Daniel Dayan (2005 : 201) souligne avec une justesse incontestable « [qu' ]unetelle souffrance est aisément instrumentalisée. De qui choisira -t-on de montrerla souffrance ? Quels sont les morts et les mourants crédités d'un visage ?Quels sont ceux qui devront périr en uniforme et en plan général ? La vocationde la télévision se confond -elle avec la gestion des pitiés et des courroux ?[. ..] La pitié est dépourvue de sens statistique. Elle ne sait compter quejusqu' à un ». Malgré tout, j'ai une réserve, non pas sur le fond du propos, maissur la forme. Le propos utilise, entre autres arguments, les formules « secontenter de périr en uniforme et en plan général et la pitié ne sait compterque jusqu' à un ». Mon argument contraire est une image impossible à dichotomisersuivant les oppositions construites par Daniel Dayan. On m'accordera encore que cette photographie est parfaitement lisible, sansrecours à un quelconque texte, mais, conformément aux exigences de la méthode ,j'indique qu'elle a été prise en 1950, pendant la guerre de Corée, qu'elle estla propriété de l'agence Bettmann-Corbis. Elle vient d' être publiée dans unnuméro récent du Nouvel Observateur, dans le cadre d'unarticle « Sans blessure apparente. J'ai vu la mort, je me suis vu mort, je suismort ». En plan d'ensemble et en uniforme, un soldat attire notre compassion etnotre pitié ne compte que jusqu' à un. Même si nous en connaissons d'innombrablesexemples, non, ni donner un visage, ni choisir le gros plan ne construisentautomatiquement la connivence, en vertu de ces règles de proxémie si bienétudiées par Edward T. Hall (1969). Et l'inverse n'est pas vrai non plus : leplan d'ensemble n'est pas la marque, de facto, d'unretrait loin des sentiments. Pour illustrer cela, voici une seconde image et un détail agrandi (fig. 4a etfig. 4b), d'un tableau à l'huile, œuvre de Lady Elizabeth Butler, Battle Painter, de l'époquevictorienne. La reine Victoria, la peinture de bataille et le peintre ElizabethThompson Butler (1846-1933) sont tombés dans la plus complète désuétude. Je leregrette car ce tableau, The Roll Call, repousse de plusd'un siècle le seuil de l'ère de la compassion que l'on place un peu rapidementaprès la Seconde Guerre mondiale. Ses moyens sont ceux du plan d'ensemble, desuniformes et des soldats indifférenciés. Difficiles à dénombrer, une quarantained'hommes sont rassemblés devant un officier qui fait l'appel : c'est la méthodepour déduire les pertes au cours d'un engagement, dans ce cas, pendant la Guerrede Crimée (1853-1856). Composé pour être parfaitement lisible – la mentalitéactuelle le qualifierait de didactique et d'académique –, le tableau exige aussid' être scruté, ce qui permet de remarquer les déclinaisons de la souffrance, dela détresse et de la compassion. « I never painted for the glory of war, but to portray its pathos andheroism » [Je n'ai jamais peint pour la gloire de la guerre mais pourfaire le portrait de sa douleur et de son héroïsme ], exprimait Lady Butler (in : Lambourne, 1999 : 323). On sera peut-être surprisd'apprendre le degré de connivence des spectateurs avec cette œuvre, qui luifirent un triomphe lorsqu'elle fut exposée en 1876. Les acquéreurs potentielsfurent nombreux et acceptèrent de s'incliner devant le plus fervent d'entreeux : la reine Victoria elle -même. Ces deux images permettent de questionner deux prémisses sous-jacentes àl'argumentaire de Daniel Dayan (2005). Tout d'abord, les ressources syntaxiquesdu langage visuel, telles la taille des plans, l'isolement des figures, etc. ,qui ne sont pas des traits permettant de construire des paradigmes parimplication (gros plan, donc portrait et empathie, plan d'ensemble, donc mise àdistance, etc.). Par exemple, ce sont des règles génériques de la grammaire dulangage visuel d'aujourd'hui qui permettent d'identifier les inflexions d'unestratégie rhétorique. Amalgamer le registre grammatical et le registrerhétorique est une faute sémiotique qu'on ne s'accorderait pas devant un énoncélinguistique. La seconde prémisse concerne une anthropologie de la souffrance etde la compassion selon laquelle il faudrait qu'elles soient représentées soustelle ou telle forme pour être communicables et partageables, permettant aupassage à certains médias de s'arroger « le droit de gérer les pitiés et lescourroux ». Le problème me paraît d'une complexité qui outrepasse largement les( basses) œuvres des médias dans le seul contexte de la seconde Intifada. Dans lecliché du soldat en Corée, comme dans le tableau des soldats de la guerre deCrimée, le problème n'est ni l'uniforme, ni la taille de plan, mais le faitqu'ils montrent des guerriers en train de souffrir. Or, la guerre et ceux qui lafont servent à réguler la violence entre les sociétés, à endiguer les envies demassacre, à protéger les civils, cela au prix de la mort des combattants, sinécessaire. Si depuis toujours, un tel programme est un ratage complet, ildemeure qu'il est un contrat fondamental des groupes humains (voir, parmid'autres travaux, Guilaine, Zammit, 2001; El Kentz, 2005). À l'aune de lalongue durée, si l'on convoque les représentations d'une guerre presquecontemporaine de la seconde Intifada, à savoir la guerre du Kosovo en 1999 ,l'étude a montré que le manichéisme de sa couverture médiatique, fondé sur legoût du moment pour la défense et l'illustration d'une ingérence ditehumanitaire, a été régulièrement contradictoire (Saouter, 2003). Car, derrièredes effets rhétoriques comparables à ceux dénoncés par Daniel Dayan, seprofilait, comme en 1853 ou en 1950, l'idée selon laquelle les femmes et lesenfants restent les seules victimes acceptables, les hommes servant à se battreet à mourir. Si les hommes cessent de combattre parce qu'ils en souffrent, noussommes perdus. Quoi qu'il en soit du niveau d'inconfort devant le travail desmédias, je crois que persiste, dans les cadres de référence, une idée primitiveselon laquelle Israël est dotée d'une armée d'une légitimité irréfutable quiremplit, sans qu'on ait davantage à s'en soucier, son devoir de protection. Lesfaibles et les victimes, vers qui diriger notre compassion, sont donc ceux ducamp d'en face. Pour moi, cela fait aussi partie de ce qui sous-tend lestraitements médiatiques réservés à la mort d'un enfant palestinien et aulynchage d'un soldat israélien en 2003 : « La mort de Mohammed Al-Durraest un“ bon piège à pensée ”, la mort de Vadim Norzichest, quant à elle, un mauvaispiège à pensée », dit Daniel Dayan (2005 : 213). Il y a pire : rappelons -nous lesort réservé à quelques mercenaires, à Falloujah, en mars 2003, et de la manière dont les médiaset l'opinion publique sont rapidement passés à autre chose. Il y a encore moinsde compassion pour ceux qui ont le statut de parias. « Les images de télévision relèvent d'abord d'une pragmatique de la monstration .Elles appellent une analyse qui est moins celle qu'on consacrerait à un tableauque celle qu'on consacrerait à ce tableau dans un musée » (Dayan, 2005 : 206) .Daniel Dayan (ibid. : 204) lie cette attentionnécessaire au contexte pragmatique en raison, d'une part, des caractéristiquesdu média qui diffuse les images, la télévision, et, d'autre part, de l'objet deces images : « Les situations traitées dans les nouvelles ne concernentgénéralement pas des objets du monde physique, mais ces objets du corps socialque sont les actions et les interactions ». De fait, la médiation télévisuellepeut être comprise comme une interaction à propos d'interactions. Il est doncjuste de remarquer que le traitement d'une nouvelle, et l'audience que luiaccorde un réseau, sont régulièrement conditionnés par une distance ou uneproximité physique et géographique. On peut aussi rajouter une proximité ou unedistance psychologique : le tsunami de décembre 2004 nous a concernés parce quenous avions de nombreux amis et amis d'amis en vacances en Thaïlande. Ceci étant admis, introduisons quelques nuances, en utilisant le cas de ladiffusion des photos de torture prises dans la prison d'Abu Ghraib. Échantillonsidérant des actions et des interactions que des humains peuvent s'infliger, ilest un événement pour lequel le facteur de la proximité n'a pas compté. Sansvouloir trop insister, je souligne que ces photos offrent un nouvel exempled'images qui parlent d'elles -mêmes sans besoin du secours d'un texte. Jeremarque qu'elles ont eu l'impact que l'on sait en raison de leur contenu autantque de « leur contexte pragmatique de monstration ». Il a très bien été comprisque ces photos d'amateurs placées sur des sites personnels, avaient été conçuespar leurs auteurs comme des trophées, pas du tout comme des preuves ou destémoignages (Saouter, 2006). Parce qu'elles montraient des scènes de torture ,parce qu'elles avaient été prises par les tortionnaires, parce qu'elles étaientdes photos d'amateurs, parce qu'elles ont été diffusées sur l'internet, ellesont horrifié. Pour toutes ces raisons, pas pour l'une plutôt que l'autre. Ceque, dans mon domaine, on appelle les conditions d'énonciation, participenécessairement à la mise en circulation d'un énoncé, à sa lisibilité, à savisibilité, et l'on fait, à l'analyse, une distinction entre le plan de l'énoncéet le plan de l'énonciation. Ce que j'illustre avec les exemples quisuivent. Une photo de Behrouz Mehri, de l'Agence France Presse, a circulé dans la presseimprimée en version couleur ou noir et blanc : elle montre, à Téhéran, sur unesorte de palissade, deux clichés des événements d'Abu Ghraib reproduits etprésentés à la manière de tableaux dans un musée. Le jeu sur les marques de l'énonciation, présent dans ce dispositif, est tout àfait évident. En installant dans l'espace public deux clichés métamorphosés enimitant la manière des musées, une part de dignité était rendue à ceux quisubirent la torture. Ici, cela permet de montrer cette photographie sans êtrecomplice des tortionnaires. Puisqu'il est question de Musée, considérons uneexposition temporaire de l'Ethniki Pinakothiki, à Athènes, entre le 22 mai et le23 septembre 2006. À ce moment, la Galerie Nationale grecque consacrait tout sonespace à une rétrospective du peintre colombien Fernando Botero. Les œuvres, engrand nombre, étaient réparties sur trois étages de mezzanines, niches ,passerelles et autres subdivisions largement ouvertes les unes sur les autres .Divers points de vue permettaient de surplomber et d'apprécier de vastesportions d'espaces lumineux et d'englober bon nombre d' œuvres d'un seul coupd' œil. Cette stratégie d'exposition mettait en valeur des groupementsthématiques et l'obésité chatoyante des sujets qui ont fait la célébrité dupeintre. Cependant, dans cette logique d'accès quasi panoramique, était installée unedisjonction tout à fait lisible, sous la forme de cloisons blanches emmurant unespace relativement restreint, accessible seulement par une porte étroite. Àl'intérieur : des murs sombres, un éclairage modulé, 21 huiles sur toile et 25dessins (plomb, fusain, sanguine), réalisés en 2004 et 2005. Près du seuil decet espace, sur une des cloisons blanches, en lettres noires, le titre del'exposition : Abu Ghraib. La stratégie de la monstrationet la vue qu'elle imposait des torturés d'Abu Ghraib, traités à la manièreBotero, c'est-à-dire bedonnants, rayonnants de couleurs, à la lisière de l'artnaïf, imposait au spectateur (ou, du moins, à ma personne) une perception à lalimite de l'insoutenable et d'une terrifiante déclinaison de la notion desublime. La stratégie utilisée dans les espaces ouverts visait à neutraliser aumaximum l'incidence du cadre architectural sur la lecture des tableaux et leurinterprétation. Pour la section réservée au thème d'Abu Ghraib, la stratégie demise en exposition, au contraire, participait explicitement et fortement à laréception et à l'interprétation des parodies accusatoires de Botero. « Soulignerle découpage en série, suites et séquences, suggérer un enchaînement et même unparcours, et, enfin, offrir des conditions de lumière, de “fond” et desrapprochements propices à la mise en valeur des œuvres » (Saint Girons, 1998 :50) : l'exposition est un média (Davallon, 1999) qui, avec la télévision et lesautres moyens de médiation, participe sémiotiquement au sens de ce qui estexprimé et transmis. Cela, tout simplement, parce qu'il n'y a pas moyen de faireautrement : il faut des sémiophores (Pomian, 1997). Toute image est une chosetangible en relation inévitable avec un contexte physique. Nous ne pouvonsconstruire du sens qu' à partir de notre rencontre avec ce qui n'est pas nous etce que cela nous fait éprouver : des choses, des gens, des événements. Onappelle cela le principe de réalité, n'en déplaise aux postmodernes. Pour conclure cette partie, je discuterai de l'analogie avec le tableau dans lemusée choisie par Daniel Dayan. Pourquoi cette analogie plutôt qu'une autre ?Pourquoi ne pas faire une analogie avec la photographie et la une de la presseimprimée ? Avec le film et la salle de cinéma et comparer des images quiappartiennent à la même famille, celle du mouvement ? Je me permets de présumerque cela est parce que, dans le domaine des images, le paradigme de référencequi vient spontanément à l'esprit est et reste le tableau et son musée. Letableau est une invention de la Renaissance (Stoichita, 1993), un objetquadrangulaire disjoint de l'espace contingent dans lequel il est disposé ensurlignant son cadre avec une bordure d'ampleur variable. Ce tableau donne àvoir une représentation qui forme un énoncé complet en soi, à interpréter per se, sans égard pour le vase de fleurs ou le fauteuilplacés à côté. Or, il s'agit là seulement d'un type de support parmi de nombreuxautres (y compris pendant la Renaissance). De nos jours, à l'heure del'impérialisme télévisuel, il peut même être considéré comme tombé enquasi-désuétude et déplacé du paradigme des médias vers celui du patrimoine .Pour expliquer sa persistance comme paradigme de référence, se profile leprestige qui lui reste associé et sa place au sommet de la hiérarchie desimages : le tableau est une image noble, une œuvre de l'art, le reste étant plusou moins mineur, décoratif et, au plus bas, un palliatif pour illettrés .« L'image réduite à elle -même s'impose à nos sens et les flatte par le plaisirqu'elle induit », ai -je cité plus haut d'une entrevue avec Daniel Bougnoux. Unemême référenciation était à l' œuvre : plus souvent qu'autrement, dans le mondedes érudits et des experts, le prototype de l'image est le tableau, œuvre del'art « prévue pour la délectation de l' œil et de l'esprit », pour reprendre lestermes de Nadège Laneyrie-Dagen (2001 : 13). Reconnaître ce paradigme deréférence permet de mieux cerner de nombreuses assertions dans les discours surl'image et les distorsions qu'elles impriment dans les analyses. Dans lecontexte contemporain où la prolifération des images est devenue celle que noussavons, le tableau comme prototype est un véritable anachronisme : s'y conformerrend insoluble le dernier problème soulevé par Daniel Dayan. L'entretien avec Daniel Dayan se termine sur un ton proche de la méditation. Parexemple, à propos de la place des intellectuels dans une sociétéhyper-médiatisée : « le chercheur n'est pas au centre de la sphère publique etil n'en contrôle pas le fonctionnement » (Dayan, 2005 : 218). Pour cela, lesprofessionnels des médias peuvent aller jusqu' à nous haïr : à eux l ' exposure, comme on le dit en anglais, ou, en français duQuébec, « une place dans la parade »; à nous le retrait et le temps de laréflexion, ce temps dérobé au journaliste. Ce facteur est certainement uninsigne privilège pour autant que nous soyons capables de ne pas nous enfermerdans nos disciplines car « l'histoire d'une discipline peut quelquefois masquerl'Histoire tout court » (ibid.). Seulement quelquesfois ? J'ai envie de vérifier. Tout autant, combien de chercheurs ,d'universitaires, d'intellectuels ne tirent-ils vanité de leurs travaux qu' àl'aune de l'audience qu'ils obtiennent dans les médias ? Autre thème de cetteméditation, une prémisse morale et citoyenne dessinant la place del'intellectuel dans la société contemporaine : « Oui, mes propos sont normatifs .Ils sont entièrement sous-tendus par l'idéal habermassien d'une sphère publiquecentrée sur la possibilité du débat » (ibid. : 216) .Exerçant ma profession en contexte nord américain, je soupçonne cette prémissed' être la grande caution récupérée par les CulturalStudies et « leur militantisme un peu brouillon » (ibid. : 218). De question en question, Daniel Dayan, revenant aux thèmes centraux del'entrevue, finit par interroger : « Ne vaut-il pas mieux détourner les yeux » (ibid. : 221). Cette question occupe la toute dernièreligne de l'entretien, ainsi décidée par l'équipe éditoriale de Questions de communication. Il faut sans aucun doute essayer d'yrépondre. L'actualité vient de nous livrer une occasion d'en discuter :l'exécution de Saddam Hussein, le 30 décembre 2006. La pendaison fut captéeclandestinement avec un téléphone cellulaire par un des protagonistes présents .En quelques jours, les images circulent sur l'internet, apparaissent à latélévision, sont imprimées dans des magazines, par exemple Paris-Match, dans son numéro de la première semaine de janvier 2007 .Deux images empruntées à la captation occupent deux pleines double-pages .L'envie de les montrer est manifeste et il est difficile de ne pas imaginer quel'envie d'en faire la couverture a dû tirailler l'équipe du pupitre. Pour toutessortes de raisons faciles à reconstituer, le magazine ne l'a pas fait. Enkiosque, le passant est donc exposé à l'un de ces agencements typiques, prévuspour être déchiffrés en quelques secondes (fig. 6). Une zone textuelle signale que les images sont là, quelque part à l'intérieur .Rhétorique du montré et du non montré : les mots ne donnent pas à voir, puisquece sont des signes arbitraires sans rapport organique avec ce à quoi ilsrenvoient. Ici, ils sont déictiques (ou admoniteurs) : le lecteur sait aveccertitude qu'il trouvera les images s'il les cherche. Dans le contexte obscènede cette couverture, qui associe dans une même proposition informationnelle unependaison, les horoscopes de candidats aux présidentielles françaises ,l'anniversaire d'une vedette locale, etc., un protocole déontologique, selon leprocès de la communication engagée, est pourtant présent. Le destinataire nerecevra le message médiatisé seulement s'il en prend la décision. Il y a quatre-vingts ans, un scénario similaire a saisi l'actualitéétatsunienne : le 12 janvier 1928, Ruth Snyder, condamnée à mort pourl'assassinat de son mari, est exécutée sur la chaise électrique dans la prisonde Sing Sing à New York. Le lendemain, à la une du New YorkDaily News, le public découvre la photo du moment décisif, prise par lephotographe Thomas Howard : « C'est la première photo volée du siècle .“ L'exécution étant interdite aux photographes, le journal a fait venir mon pèrede Washington, parce qu'il était inconnu des matons et des journalistes de NewYork [rapporté par la fille du photographe] ”. Le plan : faire entrer Tom Howardcomme rédacteur, avec un appareil miniature fixé à sa cheville gauche » (Robin ,1999 non paginé). Marie-Monique Robin rapporte encore que le journal connut untirage record de 1 556 000 exemplaires et que la prouesse propulsa la carrièrede Thomas Howard : il devint président des photographes de la Maison Blanche .Ces deux épisodes permettent d'identifier une série de problèmes : le besoin decaptation de ce genre d'événements, une récurrence des mêmes faits nonobstantl'évolution du monde des médias, l'envie de la propagation, dans l'espacepublic, de ce type de document, les protocoles de communication encadrant leurdiffusion, la connivence des publics qui plébiscitent ces gestes en cherchantactivement à les regarder. Ces problèmes ont à voir avec une sémiotique et uneanthropologie des images, avec une anthropologie de la mort et de l'extrême ,avec une histoire des médias et du photojournalisme. Les images des exécutions de Saddam Hussein et de Ruth Snyder sont à la fois despreuves, des reliques et, dans ces cas, des trophées médiatiques. Ellesaccomplissent des actes performatifs dont la teneur est liée à leur arrimageanthropologique. Davantage appréciées comme indices plutôt que comme icônes ,elles transportent avec elles, dans leur rôle usuel de porteuses dereprésentations, une partie de la chose qu'elles représentent, ne serait -ce quepar empreinte : ce qui compte, ce n'est pas tant ce qu'elles donnent à voir( d'une visibilité bien médiocre) que le fait qu'elles ont été modelées par lachose elle -même, à la manière des ombres sur les murs après la bombe larguée surHiroshima. Elles appartiennent à la même famille de signes que le suaire deTurin, famille dans laquelle prennent place aussi tous les clichés despaparazzi. Leur pouvoir d'attraction vient d'une valeur quasi animiste qui leurest dûment accordée. Par leur magie, elles transportent leur spectateur dans unesorte de symbiose inespérée avec ce qui a eu lieu sans lui. N'importe quelleimage de ce type vaudra toujours plus que n'importe quel récit d'un témoinoculaire. Aujourd'hui, les médias entérinent cette acception : c'est cette sorted'images qui a été publiée à la suite de l'attentat de Londres, en juillet 2005 .Paris-Match n'a pas pu résister à publier celles dela pendaison de Saddam Hussein. Pour autant, toutes ces images ne peuvent être amalgamées les unes aux autres .Les images évoquées au long des échanges avec Daniel Dayan forment un groupe àpart qui ne peut être confondu avec celles des paparazzi. Elles ont pourspécificité de renvoyer totalement et exclusivement à la finitude humaine : lamort et les conditions de cette mort lorsqu'elle advient. Georges Didi-Hubermana écrit à propos de quelques unes d'entre elles, à l'extrême de l'extrême, àAuschwitz (2003). La force animiste de ces photos est démultipliée au point deles effacer en tant que sémiophores, en tant que choses par lesquelles transitequelque chose d'autre. Pourtant « une photo n'est révoltante que parce quel'acte dont elle témoigne est révoltant » (Linfield, 2004 : 4). Le mécanisme decette condensation a été expliqué par Marie-France Bacqué (2006 : 60) : « Lesdescriptions écrites [. ..] sont plus tolérables que les images, du fait mêmequ'elles emploient des éléments non visibles mais entraînant un travail dereprésentation qui peut être stoppé à tout moment. C'est ainsi que l'envie detourner la page, de sauter les lignes, permet de s'évader de l'horreur ». Biendes producteurs d'images connaissent parfaitement cette distinction et nombred'entre eux savent construire des solutions rhétoriques pour permettre auregardant de suspendre, à sa convenance, le travail de représentation. WilliamWider, pendant la Première Guerre mondiale, Lee Miller pendant la Seconde ,Sophie Ristelhueber, au Moyen Orient, pour ne citer que ceux -là : « Ce n'est pasparce qu'on cache qu'on ne montre pas, et vice versa », pour paraphraser BaldineSaint Girons (1998 : 37). La possibilité de ce travail de suspension est tout à fait fondamentale, pourdeux raisons. Tout d'abord pour endiguer le rapport traumatique à l'événementreprésenté, que ce soit dans l'ordre du voyeurisme et de la jouissance ou del'identification et de la souffrance. Ensuite, afin d'inscrire, dans laprocédure de l'image, quelque aspect des rituels primordiaux entourant la mortde l'un de nos semblables. Sinon, « le tabou du corps mort est brisé et avec luiles fondements de la culture humaine planétaire » (Bacqué, 2006 : 61). Desphotographes l'ont expérimenté. Certains se sont suicidés, d'autres onttémoigné, comme le rapporte Jean-Paul Marthoz : « Je croyais au témoignage ,j'étais naïf, s'exclamait le grand photographe anglais Don McCullin. Ça changequoi d'aller au Rwanda ? Dans un monde dominé par les intérêts personnels etl'argent, les gens continuent à couper les bras des enfants. Je hais mes photosde guerre. Avoir fait ce métier si longtemps est la honte de ma vie (citantMichel Guerrin, « Don McCullin, toute une vie en noir », Le Monde, 22/11/01 :34) » (2005 : 23). Si l'image est considérée comme exigeant le secours des mots pour être comprise ,si elle est prévue pour le plaisir des sens et la délectation de l'esprit, laportée sémiotique et les enjeux liés aux images de la mort et de l'extrêmedeviennent totalement incompréhensibles. Pire : ils sont niés et invalidés parce contresens entériné encore par de trop nombreux intellectuels. Entre unpositionnement à la une en 1928 et un déplacement dans les pages intérieures en2007, je repère trois moments de l'histoire des médias qui, de mon point de vue ,ont une incidence cruciale sur cette problématique du montrable et du nonmontrable, sur « le seuil du regardable », pour reprendre une expression deSusan Sontag. Le premier moment est la diffusion des photographies prises à l'ouverture descamps de concentration et d'extermination, en 1945, ainsi que le commenteClément Chéroux (2001 : 35-36) : « Le Daily Telegraph [21 avril 1945] signale, à côté d'une imagepubliée, qu'il en reçu une douzaine d'autres tellement “révoltantes ”, qu'il apréféré ne pas montrer. Le journal anglais Newspaper World [28 avril 1945] publie une série d'articlesintitulés “To Print or not To Print ”. The Illustrated LondonNews [28 avril 1945] contourne la difficulté en publiant un supplémentdétachable qui peut être retiré facilement pour ne pas heurter les jeuneslecteurs ». On sait que le débat avait eu lieu aussi à propos des prises de vueelles -mêmes. Certainement, l'adéquation indéfectible entre photojournalisme ettémoignage a -t-elle était définitivement soudée à cette occasion, par delà lessituations antérieures, y compris la Guerre d'Espagne. Le second moment est certainement l'avènement de l'ère télévisuelle etl'apparition du phénomène tant décrié : le flot ininterrompu des images. À coupsûr, devant ces images qui non seulement défilent sans interruption, mais desurcroît sont animées, une expertise pour réussir à les déchiffrer correctementest-elle sérieusement mise à mal. Le problème de fond me paraît être un écartaccru entre la compétence à construire autant qu' à lire ces images et leur déversement exponentiel, ce quiest bien illustré par la séquence d ' Euronews décrite parDaniel Dayan (2005 : 205-206). « Il faut comparer images et flux, confronter cequi se dit à ce que les images montrent effectivement. Une fois soumises à desretours en arrière, les images se mettent enfin à parler », exprime -t-ilailleurs (Dayan, 2002-2003 : 68). En accord avec lui, je crois qu'il n'est guèrecomplexe d'identifier ce que l'on voit, nonobstant le parasitage de la langueverbale, pour autant que l'on active sa conscience sémiotique. Par deux fois ,Daniel Dayan se dit déconcerté par la prégnance du « hamburger », imposée à luipar la puissance de la langue. « Si vous voyez une truite et qu'on vous dit“ ceci est un hamburger ”, vous vous souviendrez d'avoir vu un hamburger » (Dayan ,2002-2003 : 65) « et certains, comme moi -même, maintiendront qu'ils ont vu destruites » (Dayan, 2005 : 203). Il faut vraiment, à nouveau, interpeller lesintellectuels. Leur inconfort séculaire devant les images participe, hors detout doute, à la lenteur d'une réflexion approfondie sur le langage visuel et ,peu ou prou, ils contribuent à laisser croire que les images se font parelles -mêmes, qu'elles sont des prélèvements quasi spontanés sur le réel. Ledirect télévisuel laisse même croire à certains que de l'ère de lareprésentation nous serions passés à celle de la présentation. Le troisième moment est celui du déploiement de l'internet. De mon point de vue ,la conception sémiotique de l'image n'en est pas renouvelée. En revanche, lesconditions de médiation, étant ce qu'elles sont, ruinent de façon radicale cequ'on appelle le contrat de lecture, la négociation des règles de communication .Le destinateur, sur l'internet, impose son message tout azimut, avec unefacilité et une puissance que même la télévision ne possède et ne peut posséder .Les médias étant reconnus depuis des décennies comme garants de l' être ensemble ,l'internet est de facto la performance la plus parfaiteen la matière : chacun, un par un, peut prendre place sur l'agora. Le déléguéqui s'exprime au nom des autres, légitimé par une représentativité, devientobsolète. La négociation du sens entre protagonistes, pour assurer la validitéd'un échange, devient inutile. D'où, entre autres conséquences, la dite crise dujournalisme et du photojournalisme. Tout peut être dit, tout peut être montré ,et leur contraire. Il devient lénifiant de distinguer un film d'horreur, un jeuvidéo, un snuff movie etl'exécution de Daniel Pearl. Il faut donc tout à fait s'arroger le droit d'undésaccord et le manifester. Il n'est pas plus obligatoire de regarder toutes lesimages, qu'il ne l'est de lire tous les textes. Étrangement, une telle évidence ,devant le contexte médiatique actuel, devient une véritable posture éthique etcitoyenne .
Le présent texte est une participation aux « Échanges » avec Daniel Dayan, suite à une entrevue réalisée avec le chercheur, en 2005, par Béatrice Fleury et Jacques Walter pour la livraison 8 de la revue Questions de communication. Plutôt qu'une reprise systématique des propos de celle-ci, centrée sur le traitement télévisuel, l'auteur propose de prolonger les réflexions de Daniel Dayan en s'appuyant sur un choix d'images relevant d'autres genres ou médias, en rapport elles aussi avec les représentations de la guerre. Les quatre problèmes retenus sont la pauvreté informationnelle et l'hostilité des représentations, la composition des images devant l'identité des victimes, le contexte pragmatique de la monstration, les relations entre le regard et le retrait du regard.
sciencesInfo_10-0227867_tei_1104.xml
termith-511-communication
Les travaux sur les usages des technologies de l'information et de communication (TIC), en sociologie des usages en France (Jouët, 2000), se sont multipliés dès les années 1980, tant pour comprendre les enjeux sociaux relatifs aux innovations techniques, que pour répondre aux besoins de production des industries de l'informatique, des télécommunications et de l'édition. Ce courant de recherches produit des connaissances sur l'appropriation sociale des innovations interactives, sur l'insertion de nouveaux usages dans les pratiques préexistantes et leurs significations. Dans un rapport concret aux technologies qui se présentent avant tout sous la forme d'objets, participant d'une culture technique, les usagers développent des pratiques, des représentations et un imaginaire associés aux notions d'efficacité et de performance, qui contribuent à leur appropriation. La figure du récepteur a bien évolué durant le 20e siècle; d'un récepteur soumis aux messages à un hyperacteur conduisant à la figure de l'usager doté d'un pouvoir d'opposition et de négociation dans la relation avec l'émetteur, en adaptant les contenus grâce à une interprétation culturelle (Mattelart, 2003). Avec les technologies interactives en particulier, l'évolution des usages des TIC est riche d'enseignements. Il s'agit alors, dans un premier temps, de cerner cette notion complexe, l'interactivité. Celle -ci en effet ne se réduit pas à l'arborescence à parcourir sur le mode fondé sur l'hyperchoix. Développée grâce aux recherches en informatique et télécommunications, à celles sur les interfaces adaptatives, en relation avec les sciences cognitives, et à celles sur l'ergonomie qui révèlent l'inscription de l'usage, cette notion fait également l'objet de nombreuses études en sciences humaines et sociales. Les sciences de l'information et de la communication (SIC) se trouvent au cœur de cette multiplicité de travaux, et la démarche interdisciplinaire semble nécessaire pour cerner cette notion qui recouvre plusieurs représentations. L'interactivité peut être appréhendée comme processus informationnel et communicationnel, comme signe, message, discours, écriture, image, esthétique, médiation, pratique, expérience, service, stratégie marketing, innovation sociale, économique et politique, enjeu de pouvoir et de liberté, etc. L'interactivité, qui implique une présence et une participation continue de la part de l'usager, est à la fois considérée comme favorisant la symétrie des échanges, et confondue avec la facilité de diffusion des contenus. L'utilisateur est susceptible de devenir émetteur d'information, dans le cadre du courrier électronique pour une communication médiatisée par ordinateur, mais également dans le cadre d'une connexion à un site web, même si toutefois il convient de considérer le poids des inégalités d'accès. L'interactivité est également associée à la liberté et au plaisir du choix parmi les fragments, à la personnalisation des contenus, adaptés en fonction des utilisateurs étiquetés. Les développements de contenus personnalisés, d'interfaces adaptatives, de l'auto-paramétrage correspondent à des modèles d'usages construits à partir de calculs de traces. Même si ces modèles demeurent extrêmement réducteurs par rapport à la complexité du comportement humain, la personnalisation de l'accès est globalement appréciée. L'interactivité peut encore être considérée comme un système de commandes, de mise en relation des informations ou comme un moyen de communication, ce qui tendrait davantage vers l'interaction. Or, l'interaction fait référence à une action réciproque entre émetteurs et récepteurs, alors que l'interactivité se définirait plutôt comme une activité de dialogue entre un être humain et un programme informatique, comme la simulation de relations médiatisées par ordinateur. Une majorité des recherches actuelles sur les technologies interactives, ou ce que l'on en sait à partir des publications et discours, tend vers une réévaluation de l'usage contribuant au paradigme de l'usager libre de toutes expériences, visant une fonction auctoriale dans les contenus hypermédias et capable d'inventer un « web 2.0 ». Mais, il est tout à fait indispensable de ne pas considérer les usagers hors d'un contexte socio-culturel, parce qu'ils s'approprient des technologies interactives. Certes, l'interactivité informatique et l'édition sur l'internet facilitent les interventions des usagers, mais il ne faut pas nier la position inégale entre usagers et émetteurs. De plus, les usagers ne revendiquent pas toujours être hyperacteurs, notamment quand la culture audiovisuelle intervient au cours des consultations multimédias, quand l'interprétation d'une proposition conduit à se laisser immergé sans intervention fonctionnelle. Ces situations ne signifient pas pour autant passivité; chaque usager peut être différent selon ses humeurs ou sa disponibilité. Il est alors possible d'adopter une démarche active à un moment et vouloir se laisser aller à un autre, de réconcilier attitude critique du connaisseur et plaisir (Benjamin, 2003). L'interactivité peut devenir une contrainte, dans un sentiment paradoxal de liberté. Pour saisir cette complexité, il s'agit, dans un second temps, d'aborder plus précisément les usages des technologies interactives. Si l'on s'intéresse à l'univers netart, qui interroge le média internet, pour évaluer ce sentiment de liberté, on retient la place du corps, de la main, le plus fréquemment en permanence sur la souris, qui facilite les répétitions par simples clics sur les images, les textes, les barres de menus ou de navigation et les invitations multimédias. Sans bouger, par des subterfuges via les dispositifs techniques, les internautes vivent cette posture interactive et l'immédiateté de l'accès comme une délectation, socialement valorisée, pour retrouver ou inventer des sensations porteuses de significations dans leur vie. La quête de l'immédiateté au cours des « transactions » effectuées sur les sites peut néanmoins être perturbée. L'usager doit alors trouver les moyens pour accéder à ce qu'il souhaite ou pour vivre sa consultation hypermédia : télécharger ou mettre à jour un plug-in, interroger une base de données, saisir des objets multimédias apparemment insaisissables, affronter des codes inédits de l'interactivité. Si ces contraintes font parfois l'objet de rejets ou de critiques, parfois celles -ci engagent les usagers dans un rapport créatif aux TIC. Ils revendiquent alors une conquête de la technologie, des tactiques mises en œuvre pour éviter, contourner, résoudre ou tirer profit des problèmes qui se présentent comme tels. Cet engagement dans la médiation, durant laquelle le corps devant l'ordinateur est un des instruments de celle -ci, leur confère le statut d'acteur, de producteur de sens par leurs consultations, préalablement inscrites dans des cadres de connaissances et des pratiques culturelles 1. En effet, les usages des technologies interactives témoignent d'interactions de pratiques informatiques, télécommunicationnelles, audiovisuelles et culturelles. En ligne, l'usager veut « prendre la parole », traduite dans ses parcours hypermédias, les « fragments indéfiniment manipulables » (Chartier, 1995). L'usager devient-il pour autant un « nouveau sujet communicant » (Proulx, 1998) ? Les internautes, intégrés dans des processus de sophistication technologique, visant la maîtrise de la réception participent-ils au renouvellement du paradigme du spectacle, qui crée les rapports sociaux médiatisés par les images (Debord, 1992, p. 4) ? Dans un cadre (télé)communicationnel, l'utopie du pouvoir de l'internaute grâce à la participation dans la médiation indique une volonté de s'approprier différemment les contenus en ligne. Mais, le plus souvent, elle ne permet pas de confirmer l'appropriation des moyens de production par les récepteurs, telle qu'elle s'opère par les émetteurs, exceptés quelques usagers-experts. Toutefois, de nouvelles inventions d'usages perturbent les logiques de production-diffusion des médias, tel qu'on peut l'observer par exemple avec les phénomènes blogs, wikis et P2P. Pour avancer encore plus concrètement dans la compréhension des usages des innovations interactives, en particulier provenant des netartistes qui participent à la multiplication de nouvelles expériences interactives, nous avons exploré un territoire d'observation des enjeux en la matière. L'analyse d'usages de l'interactivité dans des sites d'artistes 2, menée durant cinq mois (entre février et juillet 2005) 3 dans deux Espaces Culture Multimédia (ECM) au Crac-scène nationale de Valence (désormais Lux-scène nationale à Valence) et au Cube à Issy-les-Moulineaux auprès de seize internautes 4 permet de vérifier que les internautes s'engagent dans un processus d'expérimentation. Grâce à une démarche qualitative, nous avons pu relever la mise en œuvre de l'interactivité selon des usages courants de l'internet et des représentations des artistes, pouvant étonner, surprendre, émouvoir, provoquer, conduisant à la réception ou au rejet des propositions déstabilisantes. Cette analyse met en relief la complexité des usages différenciés, qui revêtent une multitude de significations, pouvant être reliées à un brûlant désir d'agir, à des horizons d'attente inscrits dans des cadres de référence. Cherchant à éviter la désorientation, les internautes s'appuient par ailleurs sur une organisation des consultations et des repères. Toutefois, certains abandonnent, d'autres adoptent une posture de visualisation, et/ou engagent une critique. Mais entre déstabilisation des repères et émotions, les internautes verbalisent leurs interprétations, réflexions et parfois font preuve d'inventions d'usages, ne serait -ce que dans l'intention, étant donné le fait qu'ils conçoivent de nouveaux possibles en matière d'interactivité. Tout en mêlant le plaisir de l'interactivité et le besoin de repères dans les signes-passeurs (Jeanneret, 2003) non conventionnels, les usagers, mus par la représentation du virtuel, expérimentent les propositions interactives. Ils vivent des émotions inédites, tout en puisant dans la mémoire de leurs émotions passées. Dès lors, les actions « microscopiques », selon le terme de Certeau (1990), des usagers s'inscrivent dans un processus lent de transformations d'accès à la culture. Le fait d'accéder à de nouvelles expériences sensibles via un ordinateur engendre un cercle vertueux pour consolider une image de soi performante, mais aussi parfois un sentiment de frustration, soit en termes de méconnaissance culturelle, soit en termes de limites techniques. Ils souhaitent pourtant être maîtres des médiations technicisées, pour se sentir libres d'orchestrer leurs consultations, hors de toute injonction. L'imaginaire (Flichy, 2001) joue en outre un rôle moteur pour nourrir un désir de contenus inaccessibles, mais tout en retrouvant des repères. Quand les sites sont considérés expérimentaux, comme avec le netart, les internautes visent une posture originale, en se plaçant découvreurs d'innovations esthétiques et techniques. Les internautes rencontrés connaissent bien l'internet, les interfaces fonctionnelles tant physiques (clavier/souris/écran) que logicielles (plug-in multimédias), ils ont une culture des téléchargements, de la communication client/serveur, et ont une pratique de l'interactivité courante. Nous avons donc analysé les usages de l'interactivité des internautes, pour qui les propositions esthétiques étaient globalement nouvelles. Néanmoins, ceux -ci sont révélateurs d'une capacité de s'adapter à de nouvelles situations interactives. Des réflexions et des tentatives de postures inédites pour quelques internautes, comme ne plus attendre la fin d'un « programme », éclairent sur la possibilité de tracer une piste relative au potentiel d'appropriation de l'innovation interactive, grâce à des remises en cause des habitudes. Pourtant, la majorité des internautes rencontrés désirent agir immédiatement à la surface des œuvres. Pour eux, l'interactivité c'est en priorité 5 pouvoir agir sur les contenus, pouvoir intervenir, participer, parfois jusqu' à se revendiquer co-auteur. Néanmoins, peu évoquent l'idée d'envoyer un mail à l'auteur, quelques-uns pensent apporter une contribution (par exemple : déposer une photographie). Ils veulent mobiliser leur posture interactive selon les normes standard des hyperliens, pour déployer les sites. Toutefois, lorsqu'ils rencontrent des difficultés à trouver leur place d'usagers, des postures originales peuvent s'engager. Ces dernières sont ponctuées d'usages ancrés dans une culture de l'informatique et de l'internet. Entre usages normatifs et déstabilisations dues aux rencontres avec le netart, qui « discute » les signes-passeurs, les internautes donnent à observer une scène timide et éphémère d'innovations d'usages de l'interactivité. Ils ne se bornent pas à réagir, suivre, décrypter les propositions esthétiques, mais engagent leur corps et leurs émotions, pour découvrir l' œuvre, la technologie comme événement : caresses, sourires, confrontation, croisement du subjectif et de l'altérité. Leur réflexion dépasse parfois leur intérêt hédoniste pour atteindre un dialogue avec les œuvres en ligne (certains parlent à voix haute à la technologie, à l'interface, à l'artiste), abordant des thèmes aussi variés que l'écrit, le récit, la lecture, les images, l'intime, le quotidien, la violence, le plaisir, l'art, le temps, l'infini, la liberté. Ils se donnent la liberté de s'exprimer sur les artistes et le netart qui est pour eux un univers globalement flou, mais leurs connaissances des arts (arts plastiques, graphiques, décoratifs, photographie, cinéma, vidéo, musique, livres, théâtre) peuvent être mobilisées pour découvrir les œuvres en ligne. Ils verbalisent alors des interprétations des propositions, des critiques des interfaces ou des modalités de consultation, des analyses des technologies. Cependant, malgré une maîtrise partielle, voire des usages récalcitrants à l'égard des interfaces internet innovantes, une motivation et un engagement dans l'enquête leur permettent de dépasser des situations (ergonomiques, interactives et esthétiques) vécues comme déconcertantes. Le paramètre de la temporalité est à prendre en considération pour cerner encore plus finement les conditions de découverte des propositions interactives sur l'internet. En effet, les temporalités instaurées par les technologies employées, les choix des auteurs et le temps accordé par les internautes fournissent des indicateurs à l'étude des usages de l'interactivité, ici dans le contexte du netart. Certains usagers laissent ouverte la liste de sites pour s'organiser, ouvrent plusieurs sites parallèlement, s'échappent en naviguant sur d'autres sites du corpus via les hyperliens externes. Le temps de paramétrer, de télécharger, de lire un mode d'emploi, le temps du tâtonnement avec la souris notamment, de la sélection des thèmes proposés par certains sites comptent également. Mais passer plus de temps sur l'un ou l'autre site ne correspond pas obligatoirement à une appréciation particulière. En effet, des internautes ont déclaré apprécier un site, alors qu'ils n'y étaient restés que quelques minutes, tandis qu'ils passaient beaucoup plus de temps sur un site qu'ils n'appréciaient pas spécialement. Les internautes prennent aussi du temps quand la consultation d'un site suscite une introspection et de fait des rapprochements avec des activités personnelles, par exemple la création d'un site de photographies, l'évocation d'un film ou d'un roman, des échanges avec des proches. Le temps du calcul d'un programme également est à prendre en compte, les choix des artistes conduisent des internautes à adopter une posture pour suivre des lettres, des mots, des images, pour lire un texte en cours de chargement. Certains internautes abandonnent alors la tentative d'entrer en dialogue par la souris et disent « se laisser aller », pour ne plus rechercher une suite, une fin, ou pour appréhender le site dans son entier. Le temps des verbalisations est important puisque les internautes font part de leurs réflexions, analyses, critiques, colères, émotions ou tout simplement veulent faire le bilan de leur consultation. Les temporalités marquent donc un contexte, tout comme les cadres d'usages et de pratiques, offrant les conditions des expériences interactives, durant lesquelles les internautes ont besoin de repères, déploient leurs jugements, réflexions et émotions. La curiosité et la relative ouverture aux expériences interactives de la part des internautes rencontrés permettent la découverte des innovations interactives. Pourtant, ils éprouvent le besoin de se repérer dans les sites. De fait, le double cadre d'usages culturel et de l'interactivité peut à la fois servir une découverte et une « concertation » d'usages, autrement dit les internautes semblent parfois disposés à composer de nouvelles postures interactives à partir de celle qu'ils connaissent déjà. Mais ce double cadre peut aussi former un contexte contraignant, dû à l'appropriation préalable des signes, comme la main signifiant le lien, une couleur spécifique des hyperliens, les sommaires et menus, qui offrent une distribution des accès, une fenêtre de lecture et de visualisation, les boîtes de dialogue, les barres de progression des téléchargements, les curseurs pour avancer, interrompre ou reculer, pour augmenter le volume, ou bien encore le clic sur les images considéré comme un réflexe. En effet, cette appropriation est contraignante, pour les internautes, troublés, face aux codes de consultation perturbés, aux signes dynamiques insaisissables. Ils attendent le téléchargement des signes habituels pour agir, et abandonnent parfois le site, en pensant que rien n'a pu s'afficher à l'écran, par exemple devant un écran vide. D'autres usagers, après de multiples tentatives, tout en proférant des remarques négatives à propos de l'impossibilité d'interagir, peuvent aussi adopter une posture de visualisation. Cette dernière semble minimiser une interrogation sur les outils, le média. Rivés à la surface de l'écran, ils reçoivent l' œuvre, tel qu'ils pourraient le faire avec une vidéo, un film, lorsqu'ils cherchent un récit. Cela n'empêche pourtant pas un engagement visuel et corporel dans la matière de l' œuvre, dans son dévoilement progressif et pour plusieurs internautes réjouissant. Les internautes doivent dès lors adapter leurs pratiques internet, multimédia et/ou inventer des usages inédits pour établir un dialogue avec l' œuvre. Ce dernier peut entraîner des angoisses provoquées par des images, un désappointement, une réflexion sur les rapports aux textes et à la lecture, ou la joie d'une révélation, l'exploration de l'inattendu. Certains cherchent à tâtons des interstices de nouvelles modalités interactives. Des tactiques, pour également se rassurer avec des repères, sont donc mises en œuvre : tout voir méthodiquement, se donner un ordre, revoir la liste de sites, garder une page ouverte pour constater l'évolution du site, attendre la fin de l'évolution d'une œuvre, chercher une logique ou une narration, constater le résultat de leurs interventions dans le programme, de leurs choix de thèmes ou d'une URL. Les usagers attendent l'affichage des données à consulter dans un rapport humain/machine, selon une logique de commande : sélectionner/paramétrer, envoyer, recevoir le perceptible. Le désir d'agir via l'interactivité informatique, qu'il soit comblé ou non, ou via la posture d'observation et d'analyse n'empêche aucunement les émotions positives comme négatives conduisant les usagers à juger ou interpréter pour tenter de se comprendre face aux innovations interactives. Ces expériences esthétiques et interactives provoquent des émotions et des plaisirs, mais également agacent et déconcertent. En éprouvant des émotions, les usagers rencontrés se souviennent d'un film, d'un site web, d'une exposition, qui ont pu provoquer un sentiment similaire ou opposé. Dès lors, ils parlent de ces sentiments et interprètent leur posture et l' œuvre. Les internautes peuvent aussi éprouver un sentiment d'échec lorsqu'ils sont agacés de ne pas pouvoir agir ou de ne pas comprendre l' œuvre. Ils se sentent désorientés soit par l'ergonomie, soit par le propos de l'artiste. En découvrant le code html, alors qu'ils entrent une url à partir d'un des sites netart du corpus d'étude, la plupart des internautes pensent que la requête a échoué et estiment ne pas pouvoir consulter le site désiré. La rencontre est interprétée comme absente dans ce cas de figure. D'autres ont pensé que le site était non spécifique au netart, étant donné le fait qu'ils savent ouvrir le code html de n'importe quel site. Des usagers abandonnent un autre site du corpus, interprétant une petite fenêtre superposée comme un piège, un virus 6, un cookie, qui est fermé très vite, comme si les usagers avertis étaient alertés par le fait de pouvoir être espionnés, surveillés sur l'internet. Pour se rassurer, les internautes appliquent leurs habitudes temporairement déstabilisées, cherchent à interpréter, comme pour retrouver une histoire avec un début, une fin, pour décoder un message, pour comprendre les intentions de l'auteur, tout en mêlant leurs interprétations du monde. Forts de leurs savoirs et savoir-faire, ils s'arrogent le droit de juger la proposition esthétique, politique, sociologique, graphique, l'exploitation informatique et multimédia, le message tel qu'ils l'ont interprété. Les internautes refusent qu'on leur impose un point de vue; si un site provoque la colère, le désaccord, si l'usager ne peut interrompre la proposition, la seule échappatoire est la déconnexion. L' œuvre est dès lors accueillie dans le cadre d'un débat que l'internaute invente par ses usages du site de l'artiste. Des usagers jugent l'exploitation du logiciel flash par les artistes, comme étant « facile », et veulent montrer et valoriser qu'ils savent en faire autant avec le même logiciel sur leur site personnel. L'ironie de plusieurs internautes, concernant le fait que des artistes ne mettent pas à jour leur site, provoque une interprétation qui consiste à penser certains sites comme des sites d'étudiants qui s'entraînent, mais non pas d'artistes. Quelques internautes ont discuté la question de la propriété intellectuelle, de la protection des œuvres et du droit de copie et d'usage. D'autres encore développent plus particulièrement des analyses critiques des technologies : l'immersion n'est pas obligatoirement associée à la haute technologie, la technologie est considérée comme un obstacle à la communication : « je préfère qu'on parle à son voisin » déclare un internaute rencontré, qui n'a « pas envie de chercher à comprendre » et dit avoir un « rapport conflictuel » avec la technologie informatique. Un autre usager se déclare en faveur d'un déploiement plus massif de la production artistique sur l'internet et d'une répartition des tâches pour une maîtrise à tous les niveaux des développements de sites d'artistes 7, à l'image du cinéma. Ces jugements sont parfois très éclairés et parfois très subjectifs fondés sur quasiment aucune connaissance préalable, tant sur le plan technique que sur le plan artistique. Quand leurs repères sont déstabilisés, les internautes culpabilisent les artistes, mais parfois se sentent coupables de ce qu'ils estiment être un échec de consultation. Dès lors, nous relevons deux points de vue, technique et culturel, pour revendiquer son estime de soi, sa culpabilité. Cependant, les interventions et accusations proviennent aussi d'internautes s'estimant avertis. Ces sentiments de culpabilité, surtout quand ceux -ci se retournent contre les internautes eux -mêmes, les placent dans une situation cadrée par des référents comme la lecture linéaire de textes ou d'images. De fait, les usagers dans ce cas de figure n'accèdent pas aux explications des artistes qui communiquent sur leurs projets. Soit les internautes ont quitté auparavant, soit ils estiment que la proposition en ligne doit suffire à elle -même pour l'explorer de façon intuitive et l'expérimenter sans devoir passer par la lecture d'explications. Le manque de repères est toutefois à l'origine de motivations d'usages à expérimenter et les internautes vivent de grandes émotions, qui font l'objet de rapprochement avec des émotions similaires déjà ressenties, mais parfois qui ne font l'objet d'aucun ancrage préalable. Dans ce dernier cas, ils les vivent dégagées de toute comparaison, pour laisser place à une autonomie des émotions, comme l'expérience de l'inachevé. Des émotions négatives et ambivalentes sont également à souligner quand des usagers vivent physiquement leur rapport aux images de façon oppressante. Les rapports aux œuvres s'établissent dans un temps composé au fur et à mesure de la découverte de l' œuvre, tout en discernant de potentielles nouvelles compétences interactives. Les émotions peuvent encore provenir de contournements ou détournements. En effet, des internautes font parfois preuve de détournement de l' œuvre telle qu'elle a été mise en ligne par l'artiste : ne se préoccupant guère de l' œuvre, des internautes se servent de la musique d'un des sites comme musique de fond, lors de la consultation d'autres sites. Quand les internautes cherchent uniquement le blocage d'un « robot » et une position hors prescription du programme. Sur un autre site, certains dessins donnent lieu à des tentatives de contournements par des raccourcis et des manipulations de clavier notamment pour changer la couleur des dessins, ou insérer des mots, ou encore par des enregistrements. En nous appuyant sur cette volonté d'autonomie, nous pouvons faire l'hypothèse que les usagers s'émancipent, en tentant de contourner les possibilités prescrites, les contraintes, pour créer leur propre parcours et surtout pour intervenir dans l' œuvre tel que cela n'est pas prévu. Cette situation provoque des plaisirs de deux ordres : physiques et intellectuels. L'appréciation subjective et le plaisir sont présents tout au long de la consultation et ne relèvent pas seulement d'émotions liées aux œuvres. Le plaisir relève aussi de l'implication active de l'usager via l'interactivité programmée; ainsi le plaisir provient de l'estime de soi capable de participer aux expériences interactives, provoquant des images mentales et des interprétations intellectuelles, projetant un individu doué de raison. La réflexion procure du plaisir comme celle sur l'écriture, la lecture, l'expérience hypertextuelle, le fragment, le rapport aux mots, à l'innovation technique, l'image sans référent. Ne plus attendre la fin d'un programme, penser la non fin grâce aux nouvelles expériences, tels sont d'autres plaisirs éprouvés. Des introspections sont également livrées : s'interroger sur ce qu'est la vie, sur son corps face aux ordinateurs. De fait, l'expérience se loge tant au niveau de l'accès à un contenu qu'au niveau de l'action à faire pour mener à bien la consultation, pour vivre l'expérience esthétique et interactive. L'implication interactive de l'internaute, qui l'engage dans des expériences en ligne, dans un « visuel recorporalisé… au détriment d'un visuel… essentiellement rétinien » (Couchot, 1998, p. 16), a ainsi des conséquences sur des sensations physiques : la sensation de dessiner, le ressenti physique via les images et explications en texte lorsque l'internaute bouge sur sa chaise en mimant les gestes prescrits, le stress provoqué par des effets visuels, la caresse de l' œuvre via l'écran de l'ordinateur, la caresse encore de l'écran par la souris pour dévoiler un texte, vécue comme le soulevé d'un voile, la simulation d'un dialogue amusant avec un robot, d'un jeu, la gêne avec des images, avec des mots. L'analyse des données, recueillies auprès de seize internautes rencontrés entre février et juillet 2005 dans deux espaces culture-multimédia, permet d'avancer qu'ils mettent en œuvre l'interactivité selon les normes actuellement courantes de l'internet, dans le cadre d'horizons d'attente s'y référant, mais aussi parfois selon les propositions déconcertantes des artistes. En se référant à leur culture de l'interactivité, les internautes rencontrés ont un vif désir d'agir. Sans doute guidés aussi par leurs représentations des artistes capables de propositions déroutantes sur l'internet, les usagers attendent de découvrir dans une immédiateté leur place dans le site. Pour intervenir dans l'espace de l'auteur, ils organisent leur consultation et se sentent engagés dans une sorte de contrat qui entraîne une temporalité des découvertes, ancrée dans leur expérience de l'interactivité et leurs pratiques culturelles (notamment visites d'expositions, cinéma et lecture). Leurs découvertes donnent lieu à des subjectivités, des interprétations, des critiques, tant des technologies employées par les artistes que des situations de communication. Des images abstraites et concrètes émergent alors sous forme verbale, lorsque les internautes parlent durant la consultation ou les entretiens. Des images issues des interprétations traduisent des émotions, des sensations, alors que d'autres traduisent des expériences passées en expositions ou sur l'internet avec des technologies ou des scénarios de circulation dans les interfaces similaires. Tout en exigeant des repères pour trouver leur place dans le site, ils désirent l'innovation. Cette ambivalence met en tension l'expérience interactive. Même si celle -ci donne lieu à des inquiétudes, elle permet d'envisager de nouvelles compétences, de ressortir grandis de l'expérience, qui se traduit alors dans de nouveaux gestes, hésitants. Les internautes vivent le moment présent, dans le cadre de la connexion client-serveur, comme l'original de l'expérience interactive. Mais, les observations de ces découvertes de sites netart ont permis de mettre surtout en relief une culture de l'interactivité fondée sur une représentation désormais banale de l'interactivité : cliquer, pouvoir intervenir à la surface du site, parfois pour une prise en compte des contributions dans le site. Plusieurs internautes se disent plutôt déçus quand ils ne peuvent agir dans le site consulté. Ils mettent par ailleurs en doute la pertinence de la mise en ligne sur l'internet de certaines œuvres; ils veulent souvent savoir rapidement si le site offre une interactivité visible. Si ce n'est pas le cas, ils déclarent préférer autant consulter l' œuvre dans un environnement d'expositions. Certains internautes estiment en effet que le site doit donner à voir dans une immédiateté les possibles interactifs, sans avoir besoin d' être un public averti. Nous constatons en outre une mise à plat globalement pauvre de la notion de l'interactivité. Néanmoins, les émotions ressenties et les interprétations par les internautes rencontrés révèlent une richesse qui peut nourrir une réflexion en matière d'invention de l'interactivité, et témoignent d'une réception riche d'enseignements, en matière de développement de l'interactivité, de l'internet et de l'offre informationnelle et culturelle. Les industries du logiciel multimédia, les industries culturelles ont sans cesse innové pour offrir de nouveaux services et produits. Peuvent-elles s'inspirer des exigences et réticences des internautes pour renforcer le processus d'industrialisation de l'internet et des technologies interactives ? Les acteurs du marché internet innovent dans des boucles de récupération (Boltanski, 1999). Les internautes, prêts à amplifier leurs compétences en matière d'interactivité, déploient une volatilité d'usages. Toutefois, cette volatilité s'inscrit dans une filiation d'usages, puisque les internautes étendent leurs usages de l'ordinateur et de l'internet dans des cadres de référence nécessaires aux nouvelles expériences. De fait, rien ne serait possible sans le paramètre de la reproduction socio-technique des environnements interactifs, même si les internautes, capables par ailleurs d'innovations ascendantes (Von Hippel, 2002) telles qu'on les observe dans le web2.0, sont en relation avec des innovations esthétiques et interactives .
L'analyse d'usages de l'interactivité, non conventionnelle, proposée par les sites de netart, permet de saisir un désir d'agir déstabilisé. En effet, les internautes revendiquent une posture interactive selon les normes standard hypermédiatiques. Cependant, ils ne se bornent pas à réagir aux propositions en ligne, ils tâtonnent, cherchent des repères et s'engagent dans des interprétations, des critiques, tant des technologies que des situations de communication. Ils apprécient alors la désorientation qui provoque de nouvelles compétences ou émotions dans l'environnement numérique. Entre l'envie de l'inconnu et l'exigence de repères, les usagers se retrouvent dans une ambivalence qui met en tension l'expérience interactive.
sciencesInfo_10-0384087_tei_DN_103_0011.tei.xml
termith-512-communication
CET ARTICLE PRÉSENTE UN PROJET DE recherche exploratoire en veille stratégique mené en 2002-2003, auprès de six PME de Suisse romande, par la filière Information documentaire de la Haute École de gestion de Genève [8 ]. Il tire les enseignements acquis et en indique les prolongements actuels. La technologie a certes évolué en quatre ans, et on a vu notamment l'arrivée des outils du type Web 2.0 (blogs et wikis). Mais les enseignements méthodologiques de cette recherche appliquée restent valables et sont le fondement de nos travaux actuels. La veille est un outil de pilotage de l'entreprise qui sert à accroître les opportunités et réduire les risques [1] [3 ]. Elle consiste en « une activité continue et en grande partie itérative visant à une surveillance active de l'environnement technologique, commercial, etc., pour en anticiper les évolutions 1 ». Dans une économie qui, en un demi-siècle, est passée d'une économie de production à une économie globale, dans laquelle l'offre est nettement supérieure à la demande, dont l'environnement ne cesse de changer, où le nombre de concurrents ne cesse de s'accroître et où les produits se renouvellent constamment, l'information sur les clients, sur les concurrents, sur l'environnement réglementaire et sur les nouveaux marchés est devenue un enjeu stratégique essentiel pour les entreprises. Depuis quelques années (2000), on parle même d'une « économie de rupture » [5] [6] [15 ], dans laquelle les changements vont s'accélérant et, du fait de la globalisation des marchés et de l'apparition des nouvelles technologies de l'information et de la communication (NTIC) ou de la société dite « de l'information », la capacité d'adaptation des entreprises est vitale pour elles. Pour cela, il est nécessaire que les entreprises puissent non seulement disposer de toutes les informations nécessaires à leur survie et à leur développement, mais aussi qu'elles sachent les exploiter au mieux pour pouvoir anticiper, détecter les risques et croître. Si l'on s'en tient à la définition d'une petite ou moyenne entreprise (PME) comme une structure de moins de 250 salariés, il faut savoir qu'une écrasante majorité des entreprises suisses (99,7 %) sont des PME 2 et que de ce fait elles apportent une contribution majeure à l'économie et représentent une importante source d'emplois et d'innovation. Ce pourcentage, assez stable depuis 2001, cache en fait des mouvements fréquents et de fortes disparités. En effet, même si beaucoup d'entreprises se créent chaque année, il y en a presque autant qui ferment. En 2004, l'OFS a recensé 11 200 fermetures d'entreprises pour 11 800 créations de nouvelles. Mais ce solde positif ne comble pas la perte d'emplois résultant des fermetures d'entreprises, qui se traduit par un solde négatif de 19 000 emplois. Et d'après une étude récente, plus d'un tiers des faillites des PME suisses est lié à des problèmes de management et d'orientations stratégiques inadaptées [9 ]. Par ailleurs, plusieurs experts interrogés dans des journaux spécialisés, comme L'AGEFI [19 ], soulignent les difficultés des PME suisses à innover, dues à plusieurs facteurs : la difficulté du transfert de technologie, l'insuffisant soutien des structures publiques ou associatives et les limites des capacités. Dans la mesure où la veille permet d'anticiper les grandes tendances concernant notamment les marchés, les produits et les concurrents, une bonne maîtrise de celle -ci éviterait aux organisations des erreurs stratégiques fatales, elle les inciterait à innover en devançant leurs concurrents et leur permettrait de renforcer leur compétitivité. On en veut pour preuve diverses expériences réalisées et analysées tant en France que dans les pays anglo-saxons [2] [10] [12 ]. Depuis 2003-2004, les expériences de veille avec des PME se sont multipliées en France, surtout au niveau d'un secteur d'activité et/ou d'une région : on parle maintenant d' « intelligence économique territoriale », notamment par la création de pôles de compétitivité et d'innovation. En Suisse, si la veille et même l'intelligence économique (IE) sont pratiquées, comme en France, dans les grandes entreprises telles que Nestlé ou Novartis, par exemple, il en va tout autrement dans les PME qui étaient en 2002-2003, et restent encore en 2007, relativement peu sensibilisées à la veille et surtout aux avantages qu'elles pourraient en tirer. Comme dans d'autres pays européens, leur pratique de veille est en général ponctuelle, informelle et non systématique [14 ]. Il est donc apparu opportun de démontrer ce que pouvait apporter à des PME de Suisse romande une collecte et une exploitation systématiques de l'information sur les réseaux. Les Hautes Écoles spécialisées (HES) ont été créées en Suisse en 1995 et constituent des universités des métiers : elles dispensent une formation de niveau universitaire fortement axée sur la pratique, permettant ainsi un accès plus rapide au marché du travail. Actuellement, elles offrent des formations de niveau « bachelor », c'est-à-dire licence, mais proposeront des masters dès 2008. Les HES ont aussi pour mission, outre l'enseignement, de faire de la recherche appliquée destinée précisément au tissu économique, c'est-à-dire aux PME et aux institutions publiques locales. Parallèlement, elles proposent aux organisations des missions de conseil et d'expertise, ainsi que de la formation continue. Toutes les HES de Suisse romande sont regroupées dans une structure appelée HES-SO (SO pour Suisse occidentale) qui les dirige et leur attribue des fonds, notamment pour la recherche appliquée. Le projet de recherche décrit dans cette étude a été mené dans le cadre de la HES-SO, à la Haute École de gestion de Genève, qui est la seule HES de Suisse romande à proposer un bachelor, et bientôt un master, en information documentaire. Il a été dirigé par la HEG 3 et mené en collaboration avec d'autres hautes écoles de gestion (Neuchâtel et Valais) qui ont notamment permis de trouver des PME partenaires. L'objectif principal de ce projet de recherche appliquée était d'évaluer les conditions de réussite d'une démarche de veille stratégique sur les réseaux auprès de plusieurs PME romandes, en analysant chaque phase du processus de veille. Cette évaluation devait nous permettre, à l'issue du projet, d'identifier des actions de soutien éventuelles dans la mise en place d'une veille permanente pour les PME qui le souhaiteraient. Cette démarche, qui constituait en soi une sensibilisation à la veille, s'est concrétisée par une exploitation systématique et automatisée de l'information, notamment à l'aide d'agents dits « intelligents ». Il faut rappeler ici que, en 2002-2003, on était en pleine expansion d'Internet et qu'il y avait alors une tendance nette, dans la littérature spécialisée, à vanter les avantages de ces fameux agents, qui allaient simplifier et résoudre toutes les opérations de veille en les automatisant [16] [18 ]. Quelle était la part d'automatisation réelle, la part restante de travail non automatisable ? Tester ces agents était un des objectifs du projet. Il s'agissait essentiellement de veille, c'est-à-dire de surveillance active et continue de l'environnement, et non d'intelligence économique. En effet, les actions d'influence et de protection du patrimoine informationnel de l'entreprise ne faisaient pas partie de l'étude. Cela dit, cette surveillance devait se faire en lien étroit avec la stratégie de la PME considérée. Le projet de recherche était exploratoire dans la mesure où aucune expérience de ce type n'avait été réalisée auparavant en Suisse romande avec des PME et où nous comptions récolter des données essentiellement d'ordre qualitatif. Nous présenterons tout d'abord la méthodologie utilisée lors des phases préalables du projet, à savoir le choix des PME et la sélection des outils, et ensuite la méthodologie utilisée pour chaque étape en fonction des quatre phases du cycle du renseignement : l'identification des besoins, la collecte des informations, le traitement et la diffusion des informations ainsi que la réévaluation des besoins. Puis nous évaluerons le travail réalisé pour chaque étape, en nous fondant à la fois sur notre expérience acquise et sur les remarques des PME formulées au cours et à l'issue du projet. Nous conclurons par une évaluation finale en indiquant les perspectives de l'expérience. Entreprises PME 1 PME 2 PME 3 PME 4 PME 5 PME 6 Domaine R&D et production de cosmétiques de soins Conseil en gestion des déchets Technologie assistée pour handicapés Placement temporaire et fixe Communication web Ingéniérie et conseil en télécoms et sécurité Canton Valais Genève Neuchâtel Vaud Valais, puis Vaud Genève Année de création 1952 1998 1982 1989 2002 1998 Nb de collaborateurs 55 8 20 30 6 18 Chiffre d'affaires n.c . Environ 1 million Environ 4 millions Environ 20 millions Environ 2 millions Environ 5 millions de CHF de CHF de CHF de CHF de CHF Clients 100 en Suisse 50 en Suisse : chantiers , 12 000 en Suisse 500 en Suisse romande 7 directs , 100 en Suisse et Asie (B2B ) collectivités publiques , et à l'étranger : nombreux indirects formation personnes handicapées et institutions Produits Cosmétiques : laits , Concepts de tri et Appareils électroniques Services de placements Publicité en ligne et Gestion de projets crèmes, toniques d'élimination et services marketing direct complets de déchets Internet Concurrence Peu connue Fragmentée Mondiale, surtout Multiple et intense Multiple et mondiale Multiple : bureaux aux États-Unis (Suisse et étranger ) d'ingénieurs conseils Extrait du rapport final du projet « Veille stratégique pour les PME » Description des PME étudiées [8] Les étapes de cette recherche ont été les suivantes : identification et choix des PME; analyse des besoins de veille des PME; sélection des outils de veille; préparation du travail de veille, en deux étapes : réalisation d'un premier plan de recherche et élaboration d'une grille d'auto-analyse à destination du veilleur; réalisation de la veille elle -même; analyse et synthèse des expériences. Les étapes 1 à 3 ont été menées de juin à décembre 2002, la quatrième en janvier 2003, la cinquième entre février et juillet 2003, et la synthèse a été terminée en août 2004. Tous les entretiens avec les PME ont été menés par deux membres de l'équipe de projet, pour réduire les oublis ou la subjectivité qui peuvent en découler : entretiens d'évaluation des besoins, entretiens intermédiaires et entretiens de synthèse. Les entreprises choisies, au nombre de six, provenaient des cantons de Genève, de Neuchâtel, du Valais et de Vaud. Pour identifier les PME intéressées, des contacts ont été pris avec les chambres de commerce des cantons concernés et des articles ont été écrits dans un journal gratuit genevois destiné aux entreprises 4. Ces contacts ont été complétés par l'intermédiaire des réseaux privés des différents professeurs impliqués dans le projet. N'ont pas été retenues les entreprises de plus de 250 salariés ainsi que celles qui étaient des filiales de grands groupes. Les critères essentiels de choix étaient la motivation du chef d'entreprise et l'équipement de la PME en NTIC. A priori, toutes les PME retenues s'intéressaient à la veille stratégique, mais si leurs responsables disaient volontiers la pratiquer, il s'est avéré que leur méthode consistait généralement en une lecture ponctuelle de la presse spécialisée, en des participations à des salons et des contacts avec leurs clients et fournisseurs. Mais de manière essentiellement épisodique, intuitive et surtout non formalisée. Dans tous les cas, il n'était pas tiré méthodiquement parti de l'information électronique disponible via Internet. Entreprises PME 1 PME 2 PME 3 PME 4 PME 5 PME 6 Domaine R&D et production de cosmétiques de soins Conseil en gestion des déchets Technologies assistées pour handicapés Placement temporaire et fixe Communication web Ingénierie et conseil en télécoms et sécurité Nb de collaborateurs 55 8 20 30 6 18 Stratégie exprimée Assurer la rentabilité Croissance en Suisse Développement en Assurer pérennité Implantation Consolidation de et développer de et en France Suisse romande de l'entreprise européenne sa position de leader nouvelles marques de niche Concurrence Peu connue Fragmentée Mondiale, surtout Multiple et intense Multiple et mondiale Multiple : bureaux États-Unis (Suisse et étranger ) d'ingénieur conseils Axes de veille retenus Identification et suivi Idées innovantes et Éléments Droit du travail et Identification Suivi des tendances des concurrents (CA , alternatives dans technologiques réglementation des concurrents dans le secteur de étendue de la gestion de Identification de en relation avec (Europe et États Unis ) la sécurité la gamme, clients) : personnel (personnel , concurrents aux les accords bilatéraux sur le marché de informatique Suisse et Europe taux d'activité, gestion États Unis la communication du temps, famille , Innovations dans et du marketing Identification de hommes/femmes, etc.) , Identification de les services de en ligne produits IP dans la communication projets de recrutement sur le Web externe (image , de recherche et relations presse , partenaires Suivi de quelques participation à des européens technologies réseaux , (richmedia projets, concours , flashstreaming , associations, etc. ) streaming… ) Extrait du rapport final du projet « Veille stratégique pour les PME » Axes de veille retenus par les PME [8] Les motivations étaient donc d'abord de mieux connaître la veille ou les outils de veille, mais dans deux cas sur six, il s'agissait d'entreprises qui avaient une certaine habitude de collaborer avec des hautes écoles sur des sujets différents, que ce soit pour des raisons de marketing ou d'apports « gratuits » toujours utiles. De ce fait, les attentes étaient parfois moins claires. Le tableau 1 contient une description succincte des PME partenaires de notre projet. Ce projet concernait la veille sur Internet et impliquait donc l'utilisation d'outils. La recherche et la sélection d'outils ont été menées par la HEG du Valais fin 2002, au même moment que le choix des PME. Les tests ont été faits sur la base de versions d'essai (trial), de démonstrations, ou alors à partir d'articles, de sites et d'ouvrages professionnels spécialisés. Cette recherche a mis en évidence deux types d'outils : les monotâches et les multitâches, ou les outils pour petites structures et ceux pour grandes structures. Dans le cadre de notre projet, il était plus justifié d'envisager la solution « petites structures » dans la mesure où l'on ne souhaitait pas créer une structure offrant de la veille pour un groupe d'entreprises mais avant tout sensibiliser chacune d'entre elles à l'intérêt et la faisabilité d'une démarche de veille. Par ailleurs, les outils multitâches présentés (Digimind Évolution, de la société Digimind, et OpenPortal4U, de la société Arisem) dépassaient de loin le budget qu'une PME pourrait affecter à un projet de veille stratégique puisqu'il fallait compter entre 80 000 et 100 000 euros par an. Les critères de choix des outils ont été la simplicité d'utilisation, leur performance reconnue, la prise en charge de plusieurs fonctionnalités comme la recherche et la fonction d'alerte, ainsi que la modicité du prix. Le groupe de projet a donc opté pour les outils suivants : Copernic Pro Agent + Summarizer, BullsEye Pro, Webspector 5. Les deux premiers outils, les méta-moteurs Copernic Pro Agent et BullsEye Pro, avaient l'avantage de présenter des fonctionnalités de recherche développées sur un nombre très important de sources et de moteurs, de filtrer les résultats et de rechercher sur les pages sauvegardées. Copernic Summarizer, offert avec Copernic Pro, proposait quant à lui de mettre en évidence les principaux thèmes d'un texte et de les présenter sous forme de résumé. Le dernier, Webspector, permettait de surveiller un nombre illimité de pages Internet et d'alerter le veilleur sur toutes les modifications du site. Tous ces outils avaient l'avantage d' être proposés à un prix très abordable (entre 79 et 169 dollars) pour une petite structure comme une PME. Par ailleurs, les agrégateurs suivants (qui existent toujours) ont été utilisés : Dialog, pour sa couverture très large, et Europresse, pour son fonds francophone développé, incluant donc des sources suisses romandes, et la relative modicité de ses tarifs. Pour les six PME, trente-deux rapports de veille ont été livrés entre février et juillet 2003. Nous décrirons dans cette section le déroulement de chaque phase correspondant à une étape du cycle du renseignement. Cette identification a été réalisée au cours d'un entretien en face-à-face de type semi-directif avec chaque responsable de PME ou avec un autre collaborateur de la PME, à l'aide d'une grille élaborée sur la base de la littérature existante recensant principalement les points suivants. A. Informations générales sur l'entreprise : carte d'identité de l'entreprise, développement depuis trois ans, objectifs pour les trois ans à venir, clients, produits/marchés, concurrence, financement, production/technologie, organisation interne /RH, réglementation, environnement. B. La gestion de l'information dans l'entreprise : structure existante /personnes en charge, compétences, pratiques (circonstances, types d'information, sources, traitement), acteurs externes, équipements informatiques et comportements, niveau de satisfaction actuel, production d'informations, rôle de l'information dans la prise de décision. Sur cette base étaient alors proposés, en lien étroit avec les responsables de l'entreprise, des axes de veille possibles. Ensuite, des recherches étaient réalisées par l'équipe de projet à l'aide des méta-moteurs et des agrégateurs choisis pour préciser et développer les axes de veille. Pour ce faire, l'équipe effectuait d'une part des recherches à partir d'annuaires thématiques relevant du domaine de la PME, et d'autre part traduisait les axes proposés en termes de recherche d'information, c'est-à-dire en mots clés, avec leurs synonymes. Les résultats issus des recherches thématiques ainsi que les équations de recherche en français et en anglais (sauf pour les deux PME qui ne souhaitaient pas d'information dans cette langue) étaient ensuite validés par le responsable de l'entreprise. Le tableau 2 présente les axes de veille retenus par chaque PME. Cette phase comprend le travail préalable de préparation de la collecte (identification des sources utiles et paramétrage des alertes et des outils), ainsi que la collecte et la sélection des informations utiles. Il faut tout d'abord préciser que la préparation elle -même est une étape importante qu'il ne faut pas sous-estimer. Elle comprend en effet la recherche et la sélection des sources, l'élaboration des équations de recherche, le paramétrage des alertes et des agents, l'organisation documentaire ainsi que le recadrage éventuel des thèmes à surveiller avec les PME. La première recherche était très volumineuse puisqu'elle donnait toutes les informations concernant un axe de recherche; les recherches suivantes, qui recensaient les nouveautés par rapport à la première livraison, étaient forcément moins étoffées. Nous avons choisi d'indiquer systématiquement, en cas de veille sur un concurrent, par exemple, s'il y avait eu ou non un changement dans la période écoulée entre les deux rapports (environ trois semaines). Chaque document trouvé par les alertes était classé au préalable dans des dossiers électroniques préconstitués. Puis les contenus des dossiers étaient imprimés et chaque document faisait l'objet d'un premier tri et était classé systématiquement sur une échelle de pertinence allant de 1 à 3 : hors sujet, en suspens et pertinent. Dans un second temps, les documents classés en suspens étaient revus par plusieurs personnes et comparés avec l'ensemble pour être classés soit pertinents, soit hors sujet. Traitement des informations. Les documents pertinents étaient rassemblés et mis en forme de façon à présenter un ensemble cohérent : un rapport structuré en rubriques renvoyant à des titres et en-têtes des articles sélectionnés, puis aux textes complets édités en HTML et sous Word. La forme des rapports fournis a évolué après les premières évaluations. Les premiers rapports contenaient environ une centaine de pages alors que les rapports suivants représentaient en moyenne un volume de 15 à 20 pages. Pour chacun d'entre eux, il fallait uniformiser la présentation des articles et donc enlever les métadonnées non nécessaires, voire nuisibles à leur compréhension (comme les noms des codes-champs présents dans les bases de données des agrégateurs, par exemple), cela à partir de formats hétérogènes comme Word, PDF, HTML, etc. Enfin, il fallait compiler ou résumer et mettre en évidence les informations utiles dans un texte. Il nous a manqué des experts susceptibles de valider l'information mais finalement ce sont les PME elles -mêmes qui s'en sont chargées, grâce à la mise en forme plus élaborée, adoptée après une première évaluation. Nous avons choisi de produire ces rapports toutes les trois semaines environ, notamment pour nous permettre de planifier les tâches. Diffusion des informations. Les rapports étaient transmis par courrier électronique et restaient disponibles sur un site web accessible seulement par la PME concernée et par l'équipe de projet. Pour l'évaluation des besoins, nous avions tenu à rencontrer, dans la mesure du possible, deux interlocuteurs : le responsable (ou responsable de la veille) et une autre personne impliquée (un assistant, une secrétaire). Ce fut le cas dans deux des PME, où les rapports envoyés étaient lus par ces deux interlocuteurs. Dans les autres, ils étaient lus par le responsable et éventuellement les personnes de son choix, sans qu'il y ait formalisation du processus. Nous avons donc procédé à une première évaluation par téléphone juste après la remise du premier rapport puis à une seconde évaluation à mi-parcours, et enfin à une évaluation finale menée par des entretiens sur place, en présence de plusieurs collaborateurs (pour la moitié des cas). Les évaluations à mi-parcours et finales ont été préparées à l'aide de questionnaires envoyés à l'avance aux PME. Le premier entretien est fondamental : il permet non seulement de connaître les activités et orientations de l'entreprise, mais également de comprendre son fonctionnement et sa culture. Il donne ainsi des indices sur la réceptivité des interlocuteurs à la veille qui sera effectuée. Cet entretien permet également d'identifier ce qui peut facilement faire l'objet d'une veille et ce qui est plus difficile à surveiller régulièrement, surtout dans un laps de temps relativement court (six mois) : s'il s'agit d'une veille réglementaire, les changements peuvent être relativement peu fréquents pour qu'une veille soit réellement utile; certaines informations seront moins faciles à identifier sur des réseaux que de façon informelle (retours de salons, relations avec clients ou fournisseurs, etc.); certaines demandes relèvent davantage d'un état de l'art ou de recherches documentaires ponctuelles que d'un suivi régulier. Les recherches préalables sont aussi importantes car elles permettent de préciser les questions et de montrer concrètement les apports d'une veille. Lors de l'évaluation des besoins, nous avons rencontré trois types de difficultés liées les unes aux autres, qui peuvent être présentées, a contrario, comme trois conditions essentielles pour une bonne analyse des besoins. 1. Le temps consacré à l'analyse ne doit pas être sous-estimé. Un seul entretien préalable ne suffit pas. En effet, après un deuxième entretien, on peut faire des recherches beaucoup plus ciblées qui permettront de préciser encore les axes de veille. D'autre part, les difficultés de l'entreprise ne peuvent pas toujours être abordées lors du premier entretien, faute de temps en particulier. Un deuxième entretien est donc nécessaire. 2. L'analyse de l'entreprise doit être approfondie. Dans notre cas, l'analyse est restée relativement superficielle, ce qui a engendré une identification incomplète, voire fausse des problèmes. Ce n'est pas tant une question de temps que de pertinence dans l'analyse. La grille de départ était très utile, mais une meilleure connaissance de l'économie d'entreprise par l'équipe de projet aurait peut-être permis de dégager les forces et les faiblesses réelles de la PME. Des axes d'amélioration ont certes été retenus pour chaque entreprise, mais il n'est pas certain que cela correspondait à ses besoins réels. Une analyse plus approfondie et plus méthodique aurait permis d'éviter cet écueil. En effet, le responsable (ou du moins le commanditaire de la veille) n'a pas toujours une idée claire des problèmes ni des enjeux. Soit parce qu'il est nouveau, soit, plus rarement, parce qu'il ne souhaite pas en faire part ou parce qu'il n'a pas fait lui -même l'exercice. Dans plusieurs cas, les axes suggérés ne correspondaient pas toujours précisément à des besoins fondamentaux de la PME. Exemples. Pour la PME 2, la demande explicite était d'identifier des façons innovantes de gérer une entreprise; or le problème essentiel de cette PME était de gérer au mieux sa croissance en interne et d'adopter un mode de gestion tout à la fois plus professionnel et participatif (peu hiérarchique). La PME 1, en grande difficulté financière, aurait pu davantage tirer profit de la recherche de nouveaux débouchés plutôt que de la recherche de concurrents immédiats. 3. Il ne peut y avoir de veille sans stratégie et objectifs définis. Ce dernier point découle du précédent : les PME qui n'avaient pas de vision stratégique claire pour leur entreprise sont celles qui ont le moins profité de la veille. La PME 4 en est une parfaite illustration : son ambition essentielle était la survie. Elle n'avait ni objectif ni stratégie précise. Les axes de recherche ont donc été très difficiles à identifier puisqu'ils ne s'appuyaient sur aucune démarche stratégique. L'expérience s'est du reste révélée sans intérêt pour l'entreprise. Ces deux dernières limites montrent le lien étroit qui doit exister entre la stratégie de l'entreprise (et la communication de cette stratégie) et la veille. Pour être réellement efficace, celle -ci doit pouvoir s'appuyer au minimum sur des objectifs et une stratégie clairs, et au mieux sur un diagnostic stratégique identifiant les forces et faiblesses de l'entreprise ainsi que les menaces et opportunités la concernant. Pour parvenir à réaliser une bonne matrice SWOT 6, il pourra être utile d'employer les outils et méthodes de l'analyse stratégique. Si l'on n'en dispose pas, il nous est apparu qu'une démarche cherchant à exprimer systématiquement les finalités de chaque axe de veille pourrait être profitable. On souhaite, par exemple, rechercher des produits concurrents. Pourquoi ? Que fera -t-on de ces informations ? Quels en sont les enjeux ? S'agit-il de se situer ? De revoir sa tarification ? De s'inspirer des produits et services concurrents ? D'identifier la stratégie de l'entreprise qui les produit ? D'améliorer son propre produit X ? Etc. Il peut, bien sûr, y avoir plusieurs finalités mais chacune peut être déclinée et traduite en une ou plusieurs problématiques de recherche d'information dans un plan de veille. Cela permet de préciser les besoins, d'identifier les résultats possibles et finalement d'obtenir une veille qui pourra davantage correspondre aux attentes. Cela dit, comme on le sait, le processus de la veille est un processus itératif et les besoins identifiés au départ sont appelés à être réévalués en permanence, après chaque diffusion de produit de veille, afin de recibler les recherches et ainsi de mieux répondre aux attentes. C'est ce qui a été réalisé en grande partie dans le cadre de ce projet. Pour certaines PME (1, 3 et 6, en particulier), ces évaluations en cours de projet se sont révélées très profitables. En revanche, pour les deux autres PME qui n'avaient pas de stratégie (PME 4) ou une stratégie peu explicite (PME 2), ces évaluations et reciblages n'ont pas pallié les lacunes de la première étape. En y incluant les tâches de recherche de sources, élaboration des équations, prise en main et paramétrage des agents, organisation documentaire et validation avec les PME, nous avons estimé la phase préparatoire pour la recherche à environ sept jours par PME. En termes de fiabilité et de pertinence, on relèvera sans surprise les points suivants : les informations retrouvées via les alertes des agrégateurs sont souvent précises et pertinentes; les informations trouvées via les agents intelligents le sont moins et exigent une pré-validation; les informations collectées sur Internet via un méta-moteur comme Copernic permettent de retrouver avec profit de la littérature grise (études non publiées commercialement, en l'occurrence) ou encore des entreprises spécialisées dans un domaine spécifique. D'autre part, un important travail de sélection est nécessaire. En effet, même si les agrégateurs permettent de collecter des informations plus précises, il faut malgré tout évaluer systématiquement chaque document collecté. Nous avons remarqué que plus l'analyse de départ était précise, plus le travail de sélection en était simplifié. Nous avons estimé que, sur l'ensemble des informations livrées grâce aux alertes, 50 % au plus étaient pertinentes. Enfin, en ce qui concerne les agents, on notera que : les fonctionnalités ne permettaient pas d'inscrire des équations avancées, ce qui engendrait du bruit; pour surveiller un site entier, il fallait entrer les URL de chaque page; en termes de recherche et de tri intelligent, l'automatisation était très partielle et le travail humain de tri et de sélection reste très important. Sans sous-estimer l'aide apportée par ces agents, on ne peut que constater que nous restions loin de l'intelligence dont ils étaient censés faire preuve ! En terme de facilité d'utilisation, le paramétrage des agents, tout comme l'élaboration des équations de recherche des agrégateurs, ne sont pas simples pour un utilisateur occasionnel et ne permettent pas une utilisation autonome par les PME sans aide extérieure. Le travail général de collecte et de sélection a représenté environ 40 % du temps du veilleur. La modification des rapports après la première évaluation s'est révélée utile : les PME se sont dites satisfaites de ces types de rapports qui leur permettaient une appréhension plus rapide du contenu utile. Les fonctionnalités de résumé des agents se sont révélées inutilisables et l'interprétation des résultats plus longue que l'élaboration humaine de résumés. Le temps de mise en forme des rapports est important : nous l'avons estimé à environ 30 % du temps du veilleur. Exemples d'apports concrets de la veille et de développements possibles Entreprises PME 1 PME 2 PME 3 PME 4 PME 5 PME 6 Développement Former une personne Former une personne Former une personne Pas de développement Trouver un prestataire Former une personne envisagé en interne en interne en interne envisagé qui fournisse des en interne , Formaliser ce qui existe en complément informations utiliser des outils Prestataire externe gratuitement de veille en complément Faire appel ponctuellement à un prestataire pour des études spécifiques Problèmes principaux 1. Mauvaise circulation Les informations 1. Pas assez de temps Aucun problème majeur 1. Pas assez de temps 1. Pas assez de temps à résoudre des informations utiles sont rares pour chercher pour chercher pour chercher dans l'entreprise 2. Trop d'informations 2. Trop d'informations 2. Trop d'informations 2. Pas assez de temps toutefois pour chercher 3. Mauvaise circulation des informations 3. Les informations 3. Mauvaise gestion dans l'entreprise utiles sont rares des documents électroniques Investissement Entre 1 000 et Moins de 1 000 CHF / an Entre 5 000 et Moins de Moins de Entre 1 000 et potentiel envers 5 000 CHF / an 10 000 CHF en l'état 1 000 CHF / an 1 000 CHF / an 5 000 CHF / an des tiers externes 10 000 CHF /an et plus si les processus sont améliorés En terme de périodicité, si cette régularité de diffusion toutes les trois semaines nous permettait de planifier les tâches et, pour les PME, de planifier les lectures, il est apparu, lors des évaluations, que la périodicité, tout comme le type de produit d'information, pourrait varier en fonction du type de veille. En effet, un état des lieux sur un secteur peut se faire sur une base semestrielle ou annuelle, alors que des informations stratégiques pourraient être diffusées en continu. Circulation de l'information. Dans quatre PME, nous avons noté la préoccupation de partager l'information et de la faire circuler. Trois d'entre elles (PME 1, PME 3 et PME 6) souhaitaient améliorer l'organisation, la circulation et le partage d'informations en interne. Ce sont justement les PME qui étaient prêtes à investir le plus en matière de veille et dont la stratégie était plus claire et plus explicite que les autres. Exploitation des informations. Lors de l'entretien final d'évaluation, cinq PME sur six ont déclaré avoir identifié, grâce à la veille, des informations opérationnelles utiles. Mais trois PME ont relevé la nécessité de mieux relier les informations issues de la veille à l'organisation générale des systèmes d'information de l'entreprise, de manière à mieux exploiter cette veille. C'est une piste de recherche que nous pensons intéressante à développer (voir l'évaluation générale ci-dessous). Non seulement ces évaluations se sont révélées utiles mais, en fin de projet, il apparaît qu'elles sont une des conditions de l'efficacité d'une veille. En effet, la première évaluation est essentielle : c'est concrètement à la lecture du premier rapport que les PME se rendent compte de ce que peut leur apporter la veille et qu'elles peuvent, le cas échéant, réorienter les thèmes de surveillance ainsi que la forme des produits de veille qui leur est proposée, ce qui a été le cas. Cela permet également de mieux suivre les besoins et leur évolution. À la suite des évaluations à mi-parcours, la satisfaction a augmenté : 80 % des documents ont été considérés comme pertinents par cinq PME sur six. Ensuite, ces entretiens exigent des PME un certain investissement en temps, en termes de préparation et de déroulement, et ils impliquent donc une lecture réelle des informations trouvées. Ils permettent aussi d'officialiser le processus, de le rendre réel : il ne s'agit pas seulement de rapports reçus par courrier électronique dont on ne voit pas l'expéditeur. Ces facteurs induisent alors une plus grande implication du « client » et donc une meilleure interactivité avec le veilleur. Mais, à la réflexion, on pourrait instituer une évaluation systématique par formulaire (très court) lors de l'envoi de chaque rapport, qui permettrait de rester constamment au plus près des besoins, à l'instar de ce qui a été décrit dans le projet de veille à l'INRA [4 ]. Au terme de cette expérience, il s'est avéré que la veille avait été utile pour cinq des six PME concernées par le projet. Elle leur avait permis d'identifier des informations utiles pour leur activité immédiate : un nouveau concurrent proche, un nouveau service ou produit dont elles pouvaient s'inspirer, une opportunité de communication. Les veilles qui se sont révélées les plus pertinentes étaient donc des veilles de type technologique et concurrentiel (voir le tableau 3 : exemples d'apports concrets). Quatre PME sur six ont considéré que leur compétitivité était dépendante d'une pratique régulière de la veille et le projet les a renforcées dans cette conviction. Ainsi, à l'issue du projet, l'intérêt opérationnel de la veille pour les PME a été démontré. Lors de l'entretien final, nous leur avons demandé quel serait leur investissement potentiel pour accéder à un système de veille : les PME 1 et 6 étaient prêtes à investir CHF 5 000 francs suisses par an, et la PME 3 au moins 10 000 si cette veille était accompagnée d'une amélioration de leurs processus internes pour exploiter ces informations 7. Cela dit, si ces informations leur ont été très utiles, elles n'ont pas été réellement stratégiques, c'est-à-dire susceptibles à la fois de modifier les orientations à long terme des PME et de leur procurer un réel avantage concurrentiel. Au fond, c'est un problème essentiel qu'a fait ressortir notre projet et qui rejoint également d'autres expériences du même type [12, p. 37-53] : comment faire en sorte que la veille devienne stratégique, qu'elle apporte un avantage compétitif ? Comment mieux exploiter les informations trouvées ? Comment augmenter la capacité des décideurs à capter signaux forts et faibles et à savoir les interpréter ? Certains auteurs ont parlé de la capacité d'attention qui devait être améliorée [7] [20 ]. D'autres, comme Guilhon et Levet [11 ], mentionnent l'importance de « développer les aptitudes à transformer, c'est-à-dire comprendre, interpréter et utiliser des objectifs spécifiques » dans un but d'innovation. Pour des petites structures comme des PME, il est de toute façon difficile, faute de ressources spécialisées [17 ], de faire de la planification stratégique à long terme et de l'analyse stratégique. Lorsque c'est le cas, elles conçoivent souvent la stratégie comme une simple consolidation des positions acquises mais pas toujours comme un moyen de croissance [13 ]. Si l'on établit un parallèle avec l'information reçue, on peut avancer l'hypothèse que les PME utilisent en priorité l'information pour obtenir la confirmation de ce qu'elles savent déjà, et non pas comme support à une décision peut-être différente de celle qu'elles s'apprêtaient à prendre. Pour tenter de pallier ces lacunes et pour inscrire davantage la veille dans la stratégie de l'entreprise, plusieurs pistes de recherche nous paraissent intéressantes à développer. Parmi celles -ci, il apparaît qu'une véritable analyse stratégique de départ, avec un accent mis sur les finalités de la veille, ainsi qu'une aide pour l'exploitation des informations, pourrait en grande partie rendre la veille réellement décisive et pertinente pour un dirigeant de petite structure : c'est-à-dire une analyse basée sur les outils du diagnostic stratégique (telle que décrite ci-dessus à l'évaluation de la phase 1), ainsi que la conception et mise en œuvre d'outils et de méthodes permettant une intégration des informations issues de la veille aux systèmes d'information existants (système décisionnel et système de gestion) aussi bien en amont qu'en aval du processus. Ce sont des pistes de recherche vers lesquelles s'est engagée l'auteure de cet article, avec une équipe pluridisciplinaire qui comprend des ressources spécialisées en stratégie, en informatique de gestion et en sciences de l'information. Ces pistes permettront de dépasser les approches d'intelligence économique et de veille partielle pour développer une appréhension globale et intégrée de toutes les informations, externes et internes, utiles à la prise de décision stratégique et, finalement, de mieux mettre en évidence les liens entre information et stratégie. MARS 2007
L'objectif principal du projet de recherche appliquée que présente cette étude était de sensibiliser des PME de Suisse romande à la pratique de la veille en ligne et d'évaluer les conditions de réussite de plusieurs expériences de veille stratégique sur les réseaux. Après une présentation de la démarche et de la méthode adoptées par l'équipe de la Haute École de gestion de Genève, chaque phase du cycle du renseignement est analysée en détail et ses résultats évalués. Au terme de cette recherche exploratoire, l'auteure en tire des enseignements méthodologiques et dégage des perspectives pour concevoir des actions de soutien à la mise en place au sein des entreprises d'une veille permanente et réellement stratégique.
sciencesInfo_08-0071169_tei_DOCSI_idPAS_D_ISBN_pu2007-04d_sa02_art02.tei.xml
termith-513-communication
La recherche d'information (RI) est une discipline ancienne, elle remonte aux années 1950. Sa problématique peut être vue comme la satisfaction d'un besoin en information d'un utilisateur, qui est exprimé par une requête, sur un ensemble de documents appelé collection ou corpus (Van Rijsbergen, 1979; Salton et al., 1983). Les systèmes de recherche d'information (SRI) permettent d'automatiser la tâche de la RI. L'évaluation de tels systèmes apparaît comme une nécessité. Cette évaluation s'articule autour de la notion de pertinence (Wei et al., 2007). Afin d'améliorer la pertinence de la RI dans les SRI, plusieurs travaux ont été faits à divers niveaux. Ainsi, il y a eu proposition de plusieurs modèles de RI : le modèle booléen, le modèle vectoriel (Salton, 1971), le modèle probabiliste, le modèle connexionniste, LSI… Des travaux ont porté sur la représentation des besoins en information, sur la longueur de la requête (Voorhees, 1996) ou la reformulation de la requête (Rocchio, 1971). D'autres travaux se sont penchés sur l'indexation, les processus et les langages (techniques) d'indexation. Plusieurs techniques ont été proposées : les listes de mots-clés présentent le problème d'ambiguïté due à la polysémie; les thésaurus à l'inverse des réseaux sémantiques ne se limitent qu' à des liens définissant des relations lexicales entre les nœuds (Saint-Dizier et al., 1995), comme par exemple Mesh dans le domaine médical et Wordnet (Miller, 1996) pour la langue anglaise. La représentation approximative, pauvre et partielle de contenu sémantique des documents à l'aide des techniques d'indexation (par mots-clés ou par thésaurus) a poussé à l'utilisation des formalismes de représentation de connaissances plus précis et plus riches d'expression. Parmi ces formalismes, les ontologies permettent de caractériser un domaine par un ensemble de concepts et de relations entre concepts. Ce papier s'intéresse au développement d'un système de recherche d'information qui se base sur l'utilisation d'une ontologie de domaine relative à l'e-learning de l'informatique. La section 1 présente la notion d'ontologie et son utilisation en recherche d'information. La section 2 précise l'ontologie de l'e-learning développée. La section 3 décrit succinctement l'ontologie de l'e-learning de l'informatique utilisée. Dans la section 4 est détaillée notre approche qui se base sur l'utilisation de l'ontologie de domaine pour l'indexation de documents et l'utilisation de liens sémantiques entre documents ou fragments de documents de la collection, pour permettre l'inférence de tous les documents pertinents. La section 5 est relative à la mise en œuvre de cette approche dans le contexte du web sémantique. La section 6 est consacrée aux interactions de ce travail avec le web 2.0. La dernière section fait la synthèse de cette étude. Le terme « ontologie » est issu du domaine de la philosophie où il signifie science ou théorie de l' être. Dans le domaine de l'intelligence artificielle le sens en est différent. (Neches et al., 1991) furent les premiers à en proposer une définition : « une ontologie définit les termes et les relations de base du vocabulaire d'un domaine ainsi que les règles qui indiquent comment combiner les termes et les relations de façon à pouvoir étendre le vocabulaire ». La définition de Gruber (1993) est la plus citée dans la littérature : « une ontologie est une spécification explicite d'une conceptualisation ». Elle a été légèrement modifiée par Borst (1997) : « une spécification explicite et formelle d'une conceptualisation partagée ». Celle -ci s'explique ainsi (Studer et al., 1998) : explicite signifie que le type des concepts et les contraintes sur leurs utilisations sont explicitement définis, formelle se réfère au fait que la spécification doit être lisible par une machine, partagée se rapporte à la notion selon laquelle une ontologie capture la connaissance consensuelle, qui n'est pas propre à un individu mais validée par un groupe, conceptualisation se réfère à un modèle abstrait d'un certain phénomène du monde basé sur l'identification des concepts pertinents de ce phénomène. Les ontologies peuvent être classées selon plusieurs dimensions (Psyché et al., 2003) : l'objet de conceptualisation, le niveau de détail, le niveau de complétude, le niveau de formalisme de représentation. En RI, une ontologie peut être utilisée à divers niveaux (Benslimane et al., 2006) (Mao, 2007; Masolo, 2001). Tout d'abord elle permet d'affiner un système basé sur un processus d'indexation traditionnel en augmentant les chances de formuler une requête à partir des termes ou descripteurs représentant au mieux le besoin en information. Ce procédé présente plusieurs intérêts : réduire le silence par rapport à l'ensemble des documents restitués en s'appuyant sur des termes non explicitement présents dans la requête. Pour cela, les requêtes sont étendues à partir de termes contenus dans l'ontologie et liés aux concepts présents dans la requête; réduire le bruit dans l'ensemble des documents restitués. L'idée est d'éviter de restituer les documents contenant les termes de la requête mais utilisés dans un sens différent. L'ontologie définissant de façon unique et non ambiguë chaque concept, l'objectif est donc d'exploiter au mieux ces propriétés en utilisant correctement les relations de synonymie et la désambiguïsation pour ne conserver dans la requête que les termes exprimant sans ambiguïté le besoin d'information. Une ontologie peut servir à l'indexation des documents. Dans ce cas, les descripteurs ne sont plus choisis directement dans les documents mais au sein même de l'ontologie. Les textes sont alors indexés par des concepts qui reflètent leur sens plutôt que par des mots bien souvent ambigus. Il convient dans ce cas d'utiliser une ontologie reflétant le ou les domaines de connaissance abordés dans la collection documentaire. Bien que l'indexation utilisant une ontologie présente quelques inconvénients comme par exemple : la définition d'une ontologie (concepts et relations entre concepts) est un travail difficile et de longue haleine; ou comme parfois son inadéquation (qui peut être calculée en utilisant une analyse lexicale et une analyse conceptuelle) par rapport au corpus indexé, les avantages d'une telle indexation sont multiples : permettre une représentation fidèle du contenu sémantique des documents; faciliter la RI au sein de collections hétérogènes en indexant tout type de document à partir des mêmes concepts; permettre une recherche intelligente, et cela en exploitant la sémantique des liens entre concepts d'indexation, par des mécanismes d'inférence (qui permettent des raisonnements élaborés). Nous allons nous intéresser à la problématique de la RI en utilisant une ontologie relative à l'e-learning de l'informatique. Mais auparavant nous allons décrire les notions fondamentales en rapport avec cette ontologie de l'e-learning. L'e-learning est la diffusion d'une formation à travers un réseau (Internet, Intranet…). Toute formation quel que soit le domaine enseigné repose essentiellement sur les éléments suivants : les acteurs (intervenants), le domaine d'enseignement sous-jacent et les ressources pédagogiques utilisées pour l'apprentissage. Ces éléments sont modélisés ici comme des sous-ontologies de l'ontologie globale de l'e-learning. Une formation à distance (e-learning) est organisée autour de plusieurs acteurs classés ici en deux catégories principales (figure 1) : les apprenants et les facilitateurs. Les apprenants : un apprenant est une personne qui cherche à acquérir de la connaissance et à appréhender un savoir dans un domaine particulier. Les facilitateurs : les facilitateurs sont les personnes qui permettent et qui facilitent à l'apprenant de suivre une formation dans un domaine donné. Ce sont les formateurs, les gestionnaires, les concepteurs et les présentateurs. Le découpage des connaissances du domaine d'enseignement (figure 2) permet de classifier les connaissances d'un domaine à enseigner spécifique suivant un cadre générique réutilisable organisé autour des concepts suivants (Ahmed-Ouamer, 1996). Didacticiel : un didacticiel est un logiciel pédagogique dédié, d'aide à l'enseignement et/ou à la formation personnalisée. Il est constitué d'une collection de scénarios et enseigne des concepts. On distingue les didacticiels de test, les didacticiels informatifs, les drills, les didacticiels de simulation, les didacticiels complets ou tutoriels et les didacticiels intelligents ou pédagogiciels; Concept : un concept est constitué d'un ensemble d'éléments de connaissance valués, il peut être lié à d'autres concepts par diverses relations (cf. figure 3); Elément de connaissance : c'est le « granule » de la matière à enseigner. Il est présenté seul ou combiné avec d'autres éléments de connaissance; Scénario : c'est un ensemble d'exposés, d'exercices d'assimilation et de contrôle de connaissances; Profil initial : le profil initial est décrit par la liste des concepts que l'élève est supposé a priori posséder; Profil final (objectif d'enseignement) : l'objectif d'enseignement est un ensemble de concepts à faire acquérir à l'apprenant. La figure 3 présente le diagramme UML de l'ontologie du domaine à enseigner. Les ressources pédagogiques disponibles pour être utilisées dans une formation sont nombreuses et de divers types. Elles sont ici réparties en deux classes : les cours et la documentation complémentaire (figure 4). Les cours : les cours sont produits ou développés selon une structure, qui est modélisée par l'ontologie du domaine à enseigner. La documentation complémentaire : pour permettre à l'apprenant d'approfondir sa compréhension sur un concept ou de voir les recherches qui sont en train de se faire à propos d'une notion, il est nécessaire d'adjoindre aux cours une documentation complémentaire, cette documentation peut être composée d'articles, de pages web, de journaux, de messages… Ces ressources peuvent être des documents sur support physique ou digitales. En outre elles peuvent avoir différents accès : privé, semi-publique ou publique (Abel et al., 2004). L'ontologie globale de l'e-learning présentée précédemment comporte des éléments communs (invariants) à toute formation à distance : ce sont les acteurs et les ressources pédagogiques. En revanche la définition de l'ontologie d'un domaine particulier à enseigner est déduite à partir de la définition et du classement des concepts et des relations de cette matière (domaine) à enseigner (Cassin et al., 2003; Hwang, 2003; Hammache et al., 2005; 2006). L'ontologie de l'e-learning de l'informatique (enseignement à distance de l'informatique) est obtenue par instanciation de l'ontologie du domaine à enseigner précédente, et par le classement des connaissances relatives à l'informatique sous forme de : didacticiels, scénarios, concepts et éléments de connaissance. Quatre didacticiels : l'algorithmique, les bases de données, les systèmes d'exploitation, et la téléinformatique, une trentaine de scénarios, une cinquantaine de concepts et une centaine d'éléments de connaissance sont développés. La figure 5 présente un extrait de l'ontologie du domaine à enseigner dans le cas de l'informatique. Les liens entre concepts de l'ontologie et les profils apprenants ne sont pas décrits ici. L'approche proposée a pour objectif d'améliorer la pertinence de la RI et s'appuie sur les points suivants (Hammache et al., 2005; 2006) : le premier consiste en l'indexation d'une base de documents (ressources pédagogiques) par une ontologie du domaine de l'e-learning de l'informatique. Une telle indexation augmente la pertinence de la RI, car l'ontologie est un formalisme qui offre une couverture sémantique plus large et appropriée pour un domaine donné et permet également d'adjoindre à ce modèle d'indexation des inférences par l'exploitation de la sémantique des liens existants entre les concepts de l'ontologie; le deuxième point est fondé sur l'utilisation des liens sémantiques existants entre documents ou fragments de documents de la collection, pour faire des inférences au niveau document, c'est-à-dire qu' à partir d'un document (ou d'un fragment de document) jugé pertinent pour une requête d'un utilisateur on peut y inférer d'autres documents. La figure 6 montre l'architecture générale du système développé qui traduit cette approche. Ses principales fonctionnalités sont l'instanciation, l'indexation et la définition de liens sémantiques entre documents ainsi que la recherche (interrogation). Elle permet à l'expert d'un domaine donné (informatique dans notre cas) d'instancier l'ontologie de l'e-learning, afin d'obtenir l'ontologie de l'e-learning de ce domaine particulier, qui est alors utilisée par les fonctionnalités, indexation et recherche. Notre approche se base sur deux volets essentiels : l'indexation par une ontologie de domaine et la définition et l'exploitation des liens sémantiques interdocuments. Le but d'un processus d'indexation est d'avoir une représentation synthétique d'une collection. Cette représentation est appelée index. Le processus d'indexation est basé ici sur une ontologie, les descripteurs sont choisis parmi les concepts de l'ontologie considérée, et à chaque concept de l'ontologie est attaché une ou plusieurs ressources. Notons qu'une ressource pédagogique par exemple de type documentation complémentaire peut décrire un concept d'une façon qui n'est pas toujours précise (détaillée). Cette imprécision, est alors traduite sous la forme d'un poids (pcr ∈ [0] [1 ]) de concept dans cette ressource (Hammache et al., 2005; 2006). Un lien sémantique entre deux documents ou deux fragments de document(s) peut être représenté par un pointeur typé orienté d'un document ou fragment de document prédécesseur vers un autre document ou fragment de document successeur. Les liens sémantiques peuvent être de différents types (Baziz et al., 2005; Hammache et al., 2005; 2006; Zhuge, 2003) : Cause-résultat (cause-conséquence) : il est dénoté ainsi : d-cr → d', ce qui signifie que le document (fragment) prédécesseur est la cause de document (fragment) successeur et le document (fragment) successeur est le résultat (conséquence) de son prédécesseur. Ce type de lien est transitif i.e. : d-cr → d', d' - cr → d " ⇒ d-cr → d ". Ainsi, un raisonnement cause-résultat peut être fait et cela en chaînant les liens cause-résultat. Implication : il est dénoté ainsi : d-imp → d', qui précise que la sémantique de document (fragment) prédécesseur implique celle de son successeur. Ce lien est transitif : d-imp → d', d' - imp → d " ⇒ d-imp → d ". Sous-type : dénoté comme ceci : d-st → d', où le successeur (d') est une partie de son prédécesseur (d). Ce lien est transitif : d-st → d', d' - st → d " ⇒ d-st → d ". Similaire à : qui dénote que la sémantique de successeur est similaire à celle de prédécesseur, d-(sim, sd) → d', où sd est le degré de similarité entre d et d'. Instance : dénoté ainsi : d-ins → d', qui indique que le successeur est une instance de son prédécesseur. Séquentiel : dénoté ainsi : d-séq → d', qui indique que le contenu de document prédécesseur (d) doit être parcouru par le lecteur (apprenant) avant de parcourir le contenu de son successeur (d'). Ce lien est transitif : d-séq → d', d' - séq → d " ⇒ d-séq → d ". Référence : dénoté ainsi : d-ref → d', indique que le document successeur (d') est plus explicatif que son prédécesseur (d). Ce type de lien est transitif : d-ref → d', d' - ref → d " ⇒ d-ref → d ". Elle permet à l'utilisateur (apprenant) de faire des recherches dans la base de documents, et cela par l'introduction d'un concept via le moteur de recherche. Les requêtes et les documents sont représentés ici sous forme de vecteurs dans l'espace des termes d'indexation. Le moteur de recherche ordonne les documents en fonction de leur ressemblance avec la requête. La mesure de similitude correspond au calcul de distance entre vecteurs (le vecteur de la requête et les vecteurs des documents) (Bai et al., 2005; Petrovic et al., 2006; Zhu et al., 2000). Différentes mesures peuvent être utilisées. Nous avons retenu la mesure de cosinus qui est ici bien adaptée aux types de requêtes formulées par les usagers (apprenants). L'interrogation peut concerner une recherche de cours ou une recherche de documentation complémentaire. L'apprenant recherche des portions de cours qui traitent le concept introduit. L'unité documentaire de restitution dans ce cas est le scénario. Exemples de règles utilisées basées sur l'exploitation de relations entre concepts de l'ontologie du domaine à enseigner et du profil de l'apprenant : si le concept recherché par l'apprenant est de type « didacticiel » alors retourner à l'apprenant tous les scénarios de ce didacticiel, grâce à l'exploitation de la relation « composé de » entre « didacticiel » et « scénario »; si le concept recherché est de type « scénario » alors retourner à l'utilisateur en plus du scénario concerné les scénarios adaptés à son profil, tels que : si le concept recherché est de type « concept » alors retourner à l'utilisateur tous les scénarios qui contribuent à enseigner ce concept, la relation « contribue à enseigner » entre « scénario » et « concept » est exploitée ici. En outre : L'apprenant recherche ici des documents ou des fragments de documents qui traitent le concept introduit. L'unité documentaire de restitution est alors le document (ou le fragment de document). La recherche se base ici sur l'exploitation des relations entre concepts de l'ontologie du domaine à enseigner, des relations entre concepts de l'ontologie des ressources pédagogiques, du profil de l'apprenant ainsi que des liens sémantiques entre documents (ou fragments de documents). Les liens entre concepts de l'ontologie peuvent être exploités pour étendre la requête de l'utilisateur (la requête étendue contient des concepts autres que le concept introduit par l'utilisateur. Celle -ci contient aussi les concepts voisins du concept utilisé dans la requête initiale). Le résultat de la recherche va contenir tous les documents (ou fragments de documents) qui sont attachés aux concepts associés à cette requête étendue. Par exemple si la requête initiale de l'utilisateur porte sur le concept « Entité », et que celui -ci est lié au concept « Entité-association » par la relation inverse de « formé de », et au concept « Type d'entité » par la relation inverse de « précédé par » et au concept « Référence » par la relation « dépend de » alors la requête étendue contient tous ces concepts identifiés. La relation de type héritage « est un » entre concepts de cette ontologie est exploitée ici pour étendre le résultat d'une requête. Par exemple si la requête initiale de l'utilisateur porte sur un concept donné par exemple « SGBD objet » et que le type de document recherché est « article » alors inclure dans la recherche les « articles scientifiques » qui traitent le concept « SGBD objet » (par exploitation de la relation « est un » entre les concepts « article » et « article scientifique »). Le niveau (profil) de l'apprenant est déterminant pour le résultat d'une recherche, i.e. une même requête formulée par deux apprenants ayant des niveaux différents aura deux réponses différentes. Exemples de règles utilisées dans ce cas : si le niveau de l'apprenant est « débutant » alors privilégier les relations « précédé par » et « dépend de »; si le niveau de l'apprenant est « expert » alors privilégier la relation inverse de « précédé par ». Pour améliorer le processus de RI un moteur d'inférence y est incorporé. Celui -ci se base essentiellement sur les liens sémantiques entre documents (ou fragments de documents) et sur les règles d'inférence utilisées. Le moteur d'inférence permet d'inférer de nouveaux documents à partir des documents jugés pertinents pour une requête de l'utilisateur et cela en se basant sur les liens sémantiques définis plus haut et sur un ensemble de règles d'inférence. Les liens sémantiques entre documents (ou fragments de documents) sont utilisés pour mettre en œuvre des règles de raisonnement, par exemple si on a : d-cr → d ' et d' - cr → d " nous pouvons déduire le résultat suivant : d-cr → d ", cela est du à la transitivité du lien sémantique cause-résultat. Le tableau 1 présente les règles d'inférence utilisées (Zhuge, 2003; Hammache et al., 2005; 2006). Règles d'inférence utilisées Numéro Règle Description Règle 1 d-cr → d', d' - imp → d " ⇒ d-cr → d " Règle 2 d-cr → d', d' - st → d " ⇒ d-cr → d " Règle 3 d-imp → d', d' - st → d " ⇒ d-imp → d " Règle 4 d-imp → d', d' - ref → d " ⇒ d-ref → d " Règle 5 d-st → d', d' - cr → d " ⇒ d-cr → d " Règle 6 d-st → d', d' - ins → d " ⇒ d-ins → d " Règle 7 d-ins → d', d' - cr → d " ⇒ d-cr → d " Règle 8 d-ins → d', d' - ref → d " ⇒ d-ins → d " Pour trouver le lien le plus important entre les liens candidats, le moteur d'inférence (M.I) s'appuie sur une relation d'ordre entre les différents types de lien ref ≤ ins ≤ st ≤ imp ≤ cr où le lien le plus à droite est plus important que le lien le plus à gauche. Les liens sémantiques peuvent être inexacts, l'inexactitude qui reflète la possibilité de son existence est représentée par un degré de certitude (dc) ∈ [0] [1 ]. Ainsi, un lien sémantique inexact est représenté par : d-(α, dc) → d ' où α ∈ {cr, imp, st, sim, ins, ref }. Avec l'introduction du degré de certitude, les règles d'inférence sont alors étendues (Hammache et al., 2005; 2006). Par exemple la règle 1 devient la règle étendue suivante : d - (cr, dc1)→ d', d' - (imp, dc2) → d " ⇒ d-(cr, min (dc1, dc2)) → d " Un apprenant « débutant » désire rechercher tous les types de documents en rapport avec le concept « Entité » (une requête utilisateur est ici simplement un concept choisi dans l'ontologie). Ce concept « Entité » étant lié à d'autres concepts. Des documents sont attachés à ces concepts. En outre, les documents de la collection sont liés entre eux, comme le montre le graphe de la figure 7, dans lequel les types des concepts (didacticiel, scénario, etc.) et des documents (page web, article, etc.) ne sont pas ici représentés. Le résultat de la recherche sur le concept « Entité » est le suivant : les documents D7 et D1 car ils sont attachés au concept recherché. Les documents D4 et D2 car le lien « cause-résultat » est plus important que le lien « référence ». Le document D3 attaché au concept « Entité-association », qui est lié au concept recherché par la relation « formé de ». Enfin le document D5 attaché au concept « référence », qui est lié au concept recherché par la relation inverse de « dépend de ». Ces résultats sont illustrés par la figure 8. Nous avons implémenté le système sous forme d'une application web. Pour cela nous avons utilisé le langage Java et les Servlets qui permettent une grande flexibilité et la portabilité de l'application. Celle -ci rentre dans le cadre de la nouvelle génération du web (le web sémantique). En effet nous avons utilisé le langage OWL pour représenter l'ontologie développée et l'API Jena pour son exploitation et sa manipulation. La figure 9 présente l'architecture logicielle du système développé. Cette application est destinée à deux classes d'utilisateurs, les experts d'un domaine particulier (par exemple : l'informatique) et les apprenants. La classe des experts effectue les tâches suivantes : la définition de l'ontologie (concepts et relations entre concepts), l'indexation de la collection (cours et documentations complémentaires) ainsi que la définition des liens sémantiques entre documents ou fragments de documents (cf. figure 10). Les apprenants quant à eux effectuent des recherches sur la collection indexée. Les recherches peuvent porter sur le cours ou sur la documentation complémentaire. Les technologies du web 2.0 contribuent à améliorer les fonctionnalités d'un système d'e-learning sur le web et entraînent différents usages. Dans cette section sont abordées les principales interactions entre la RI (et le domaine d'application e-learning) et le web sémantique. Le premier point concerne les techniques utilisées dans les systèmes d'annotations collaboratives en permettant notamment aux usagers la possibilité de compléter la description des documents. Ces annotations décrivent le contenu du document et fournissent une information sémantique supplémentaire pouvant être utilisée dans le processus de filtrage d'information, pour la classification des documents ainsi que pour l'identification des centres d'intérêt des apprenants. En effet, l'exploitation de larges taxonomies disponibles sur le web comme une source de connaissance sémantique sur le domaine d'application rend possible la classification des documents; et la mise à jour du profil de l'apprenant en fonction du retour de pertinence fourni par l'apprenant sur les documents qu'il a reçu permet de mieux identifier ses centres d'intérêt. En outre, si le suivi individuel de l'apprenant par le système d'e-learning permet de déterminer si les concepts sont acquis, et d'adapter la présentation à ses aptitudes, le suivi du groupe (ou classe) d'apprenants permet de mesurer l'efficacité pédagogique du système et la pertinence de la documentation mise à la disposition des apprenants et juger si les objectifs sont atteints. Le second aspect consiste en la possibilité de présenter des ressources pédagogiques d'une manière individuelle, adaptée au profil de l'apprenant. Cette adaptation peut affecter la présentation des documents ou bien les possibilités de navigation offertes à l'apprenant. XML est le plus souvent utilisé pour représenter le domaine d'application, le profil de l'apprenant, ainsi que pour décrire la structure des ressources pédagogiques. Par exemple une DTD comprend les balises <Introduction> </Introduction>, <Exercice> </Exercice>, <Exemple> </Exemple>, <Explication> </Explication>, <Conclusion> </Conclusion> permettant de définir la structure d'un document, ainsi que les balises <Concept> </Concept> servant à associer un concept à un document, et <Condition> </Condition> permettant de spécifier les notions prérequises nécessaires pour permettre l'activation d'un lien ou la présentation d'un élément. La balise <Activité> précise la fonction pédagogique associée, déterminée par un attribut type-activité, par exemple type-activité = « définition ». D'autres attributs peuvent spécifier des conditions portant sur le profil de l'apprenant, comme niveau="intermédiaire ". Le comportement de l'application pédagogique peut ainsi exploiter les avancées récentes du web en termes de spécifications (en utilisant XML) plus facilement réutilisables pour générer différents cours. Par ailleurs la personnalisation de manière générique et indépendante de l'application pédagogique, la présentation du cours aux besoins spécifiques de l'apprenant via des capacités adaptatives de l'application pédagogique (génération dynamique de parcours) sont alors possibles. Ce papier traite de la thématique de la RI en s'appuyant sur les ontologies de domaines. L'objectif de cette étude est le développement d'un SRI permettant d'augmenter la pertinence de la RI dans une collection de documents. L'intérêt de ce travail est l'utilisation d'une ontologie en tant que support à un système de recherche notamment un système d'e-learning où la sémantique ne doit souffrir d'aucune ambiguïté. En effet, la précision du domaine d'application nécessite que les concepts utilisés soient définis de façon précise et que les liens entre les concepts soient exprimés de façon à permettre la multiplicité et la précision. L'approche présentée apporte une certaine intelligence dans le processus de RI mais aussi plus de pertinence grâce à l'utilisation de l'ontologie de domaine comme technique d'indexation et par l'exploitation des liens sémantiques entre documents ou fragments de documents à travers des règles d'inférence étendues. Un prototype concrétisant cette approche est développé. L'e-learning de l'informatique a servi de domaine d'application. L'ontologie de domaine de l'e-learning de l'informatique est composée de plus de deux cent concepts structurés en quatre didacticiels (« Bases de données », « Algorithmique », « Systèmes d'exploitation » et « Téléinformatique »), une trentaine de scénarios, une cinquantaine de concepts et une centaine d'éléments de connaissance. La collection de documents utilisée est formée de plus de trente documents. Les requêtes ont été réalisées sur deux didacticiels (« Bases de données » et « Algorithmique »). Trois scénarios (« Niveau conceptuel », « SQL » et « Instructions ») ainsi que quelques dizaines de concepts et d'éléments de connaissance sont utilisés. Les tests effectués localement (sur un intranet) sont assez satisfaisants et les résultats obtenus montrent que l'objectif initial est atteint. En effet dans cette approche, l'exploitation des liens sémantiques entre documents (ou fragments de documents) permet de restituer également des documents pertinents (des ressources supplémentaires) qui ne sont pas fournis par les techniques d'indexation traditionnelles et qui sont déduits à travers des règles d'inférence étendues définies sur ces liens. En outre les documents restitués sont bien adaptés aux besoins et spécificités des apprenants grâce notamment à l'utilisation de règles basées sur l'exploitation des relations entre concepts de l'ontologie du domaine à enseigner et du profil de l'apprenant (« débutant », « intermédiaire » ou « expert »). Nos travaux en cours consistent à enrichir ce domaine d'application pour pouvoir évaluer ce SRI dans un environnement réel d'exploitation et à étendre cette approche à l'accès par le contenu aux bases de données multimédias et particulièrement aux images et aux vidéos. L'objectif est ici l'intégration des techniques d'indexation d'images fixes et animées, notamment celles en rapport avec les travaux du langage de description de vidéo MPEG'7, et le développement d'une architecture adéquate de système de stockage, d'indexation et de consultation pour des applications telles que les bibliothèques virtuelles et les applications d'e-learning. Dans le cadre du web sémantique cette étude peut servir de base pour le développement d'un système d'e-learning permettant entre autres la structuration et la présentation de cours d'une façon dynamique et adaptée au profil de l'apprenant. Celui -ci est alors caractérisé non seulement par son niveau mais aussi par ses préférences, ses centres d'intérêt, ses objectifs, son expérience, etc. et ses relations avec le contenu des ressources pédagogiques disponibles .
De nos jours, les ressources disponibles sur le web augmentent considérablement. Dans cet immense entrepôt de données, les systèmes de recherche d'information actuels ne permettent pas de retourner aux utilisateurs les documents répondant exactement à leurs besoins exprimés par une requête sur une collection de documents. Cela est dû, en grande partie, aux techniques d'indexation utilisées (mots-clés, thésaurus, etc.). Afin d'améliorer la pertinence de la recherche d'information, nous proposons dans ce papier une approche qui se base sur l'utilisation d'une ontologie de domaine pour l'indexation d'une base de documents et l'utilisation des liens sémantiques entre documents ou fragments de documents de la collection, pour permettre l'inférence de tous les documents pertinents. Cette approche est testée sur le domaine de l'e-learning de l'informatique dans le contexte du web sémantique. Quelques résultats obtenus sont également présentés.
sciencesInfo_09-0148891_tei_DN_111_0085.tei.xml
termith-514-communication
Le vocable « vulgarisation » est couramment usité dans la langue française pourdésigner toute activité de communication de la science en direction du grand public .Pourtant, ce vocable n'est pas neutre. Il pointe vers une figure bien précise dupublic. Comme le rappelle Yves Jeanneret (1994), le terme latin vulgus désigne la foule indistincte, anonyme, plutôt que le peuplesouverain qui vote. Il enchevêtre le social et le cognitif : il évoque la multitudeanonyme de gens peu cultivés, par opposition aux savants, sapientes. La parole de science ne s'adresse pas aux savants, aux pairs ,mais à un public défini par un « manque ». La vulgarisation s'impose comme unemission nécessaire à un public en manque de science. Les historiens ont coutume desituer l'origine de cette activité au siècle des Lumières, et présentent volontiersLouis Bernard Le Bovier Fontenelle comme « père fondateur » de la vulgarisation( Mortureux, 1982). Or, il s'agit d'un anachronisme qui tend à naturaliser uneactivité sans s'interroger sur les conditions historiques de son développement. Leverbe « vulgariser » est entré en usage au cours du XIX e siècleau moment où prolifèrent les livres, magazines, expositions et musées, prétendantmettre la science « à la portée de tous ». Toutefois, sous la plume des auteursd'astronomie populaire, ce terme avait une connotation nettement péjorative. Il neconcurrençait pas l'expression « science populaire » alors courante. C'est seulementau XX e siècle que la vulgarisation détrône la sciencepopulaire. D'autres langues européennes – l'anglais, par exemple – ont adopté leterme « popularisation » évitant ainsi les connotations de vulgaire. Et, de nosjours, l'usage a consacré le terme « médiation » scientifique ou « communication »dans la plupart des langues européennes. Néanmoins, dans tous ces substantifs, onretrouve le suffixe « - ion » qui marque une transformation par transport outranslation. Alors que l'expression « science populaire » laissait entendre qu' àcôté de la science professionnelle, académique, il y avait place pour une autrescience, le terme « popularisation », comme ses modernes substituts, suggèrentplutôt qu'il existe une seule science que l'on se propose de traduire en languevernaculaire. Qu'importent ces choix de vocabulaire ? De quelques études historiqueset d'un suivi attentif de l'évolution récente des formes de médiation scientifique ,j'ai retiré la conviction que cette évolution lexicale est le symptôme dechangements assez radicaux dans les rapports entre science et société. Sans entrerdans un récit historique, cette contribution vise à dégager les présupposés et lesenjeux propres à trois figures successives des rapports entre science et public : lascience populaire du XIX e siècle, la vulgarisation du XX e siècle et les mouvements de science citoyenne qui fleurissentau début du XXI e siècle. En accusant de manière volontairementschématique les contrastes entre ces trois moments, je m'attacherai à souligner queles pratiques de médiation scientifique configurent non seulement le public maisaussi la science elle -même. Dans une grande entreprise de vulgarisation du milieu du XX e siècle, l ' Encyclopédie française, dirigée parl'historien Lucien Febvre, on trouve un article « vulgarisation » qui tente deproblématiser cette activité. L'auteur, René Sudre, esquisse à grands traits unpanorama historique qui justifie d'un même argument la nécessité comme ladifficulté de la tâche des vulgarisateurs. Après avoir évoqué l'époque( bienheureuse) de Fontenelle ou de Voltaire où le même texte pouvait s'adresserégalement aux savants et aux gens du monde, René Sudre (1939) constate unedifficulté croissante dans la vulgarisation. À l'époque des savants amateurs, ily avait peu d'écart de culture entre eux et les gens du monde. L'abîme s'estensuite creusé entre des scientifiques de plus en plus spécialisés qui parlentune langue incompréhensible du public. L'idée que le progrès des sciences creuseinévitablement un fossé entre science et public est ici clairement exposée. Maisce fossé n'installe pas seulement une distance spatiale. René Sudre esquisse unesorte de « loi des trois états » du fossé. Simple différence de style au siècledes Lumières, l'écart entre savants et public serait devenu une différence delangue au XIX e siècle, puis une différence de monde au XXe siècle. La différence de langue est surmontable : lesécrivains scientifiques ont vocation à traduire le discours scientifique enlangue familière. En revanche, la différence ontologique que suscitentl'espace-temps de la théorie de la relativité et l'étrange monde de la physiquequantique, totalement étrangers au monde perçu et vécu dans l'expériencequotidienne, crée un obstacle dirimant. À force de considérer les entretiensgalants de Fontenelle avec une marquise et la science populaire du XIX e siècle comme une sorte de proto-vulgarisation, au méprisdes différences de contextes historiques, on en vient à présenter lavulgarisation comme une mission impossible, rançon du progrès des sciences. Sile noble dessein de la vulgarisation scientifique est de servir de pont, decombler le fossé grandissant, l'entreprise est condamnée d'avance. Dans lamesure où le monde des savants diffère du monde du sens commun, il n'y a plus deréférent commun pour une éventuelle traduction. Si la mission du vulgarisateurest de faire le pont entre le monde scientifique et le monde de tous les jours ,elle ne peut plus consister en une traduction et doit être repensée en termesd'arbitrage. Ainsi cet éditorial de la revue Atomes (1949), lancée après la guerre, qui constate que « les savants, à tout seigneurtout honneur, parlent entre eux un langage qui n'est pas celui de tous » etn'ont pas le temps de « traduire » leurs découvertes dans le langage de tous lesjours : « Entre le public et le savant, le vulgarisateur occupe une positiondiplomatique peu enviable [. .. ]. Au centre, puisque le sort l'a placé là, levulgarisateur [. .. ], l'arbitre sera -t-il ou non impartial ? ». La dynamiqued'écartèlement paraît aussi inexorable que problématique. Et cependant, elleprocède d'une fiction historique, d'une reconstruction de l'histoire dessciences, ignorante du formalisme mathématique de la science classique ;ignorante de son abstraction et de sa distance à l'égard de l'expériencecommune; ignorante enfin du fossé primordial installé dès l'aube grecque de lascience occidentale entre épistémê et doxa (Bensaude-Vincent, 2003). En fait, l'évidence du fossé qui secreuse repose, sur une connaissance vague de l'histoire et non moins vague de lascience contemporaine perçue comme un désenchantement du monde. À vouloirtoujours lisser le cours de l'histoire pour maintenir à tout prix l'image d'uneflèche du progrès scientifique et technique, on occulte les tensions etcontroverses et l'on s'interdit de comprendre les tenants et les aboutissants durégime de savoir entretenu par la vulgarisation. La vulgarisation scientifique se fonde et se légitime sur le postulat d'un fosségrandissant entre l'élite scientifique et la masse du public. C'est ce no man's land supposé qui est envahi depuis un siècle pardivers pouvoirs de la communication : conférences, journaux, magazines, musées ,observatoires, radio, TV, cinéma, web, etc. Les flux decommunication traversent cet espace à sens unique : de la source savante vers unpublic cible réceptif. La vulgarisation s'adresse à une masse d'ignorants quireçoit passivement la « bonne nouvelle ». L'allusion à l'évangile n'est pasfortuite : la réminiscence de la vulgate de saint Jérôme, traduction de la bibleen latin est clairement endossée par Jean Rostand (1966 : 35) qui rappelle « quela bible elle -même n'a pu se répandre dans le monde que grâce à la traductionqu'on nomme la Vulgate ». Le partage de la population entre une minorité deproducteurs de savoir et une majorité de consommateurs de science vulgarisée etde techniques est certes un effet de la professionnalisation de la recherchescientifique, mais c'est tout autant un effet de l'essor de la vulgarisation quise déploie au XX e siècle. Pour construire cette figure dupublic amorphe, ignorant et passif, il a fallu dépouiller les pratiquesscientifiques d'amateurs de toute légitimité pour réserver le monopole de laparole scientifique à des diplômés membres d'une institution scientifiquereconnue. En ce point précis, se mesure l'abîme entre les ambitions de lascience populaire qui prospère au XIX e siècle et celles dela « vulgarisation » (Béguet, 1990; Bensaude-Vincent, Rasmussen, 1997). Au XIXe siècle, Camille Flammarion (1882 : 3) discrédite lesvulgarisateurs qui font de la mauvaise science pour mieux exalter le sérieux etla dignité de son astronomie populaire. Il entend faire une science belle parceque non hérissée de chiffres, une science unitaire qui dépasse la fragmentationdu savoir en spécialités multiples et cloisonnées : « Nous voulons populariserla science, c'est-à-dire la rendre accessible sans la diminuer ni l'altérer, àtoutes les intelligences qui en comprennent la valeur et veulent bien se donnerla peine d'apporter quelque attention aux études sérieuses; mais nous nevoulons pas la vulgariser, la faire descendre au niveau du vulgaire indifférent ,léger ou railleur. Il y a là une distinction qu'on ne fait pas assez ». Même sil'opposition entre science populaire et vulgarisation relève d'une stratégie dedistinction, l'ambition d'engager les amateurs dans des pratiques de savoir estcommune à bien des auteurs de science populaire, par exemple, François Raspail ,Victor Meusnier. Loin de se poser en humbles traducteurs du discours dessavants, loin d'exalter leur prestige aux yeux des profanes, certains militantsde la science populaire prétendent rivaliser avec la science officielle, voirela délégitimer. La science populaire n'a pas à être l' « écho du monde savant » ;elle se donne plutôt pour une science alternative, libre parce que non tenue parl'orthodoxie de la science officielle (Bensaude-Vincent, 1988). En revanche, lavulgarisation invite le public à « consommer » la science sous forme demagazines, livres ou spectacles plutôt qu' à s'exercer à la pratiquer. Pour cefaire, la vulgarisation doit supposer que le public ignorant partage néanmoinsun trait caractéristique de l'amateur, à savoir l'intérêt, la curiosité pour lessciences. En effet, loin d' être captif comme le public des manuels scolaires, lepublic de la vulgarisation doit être attiré, séduit, fidélisé. D'où lesmultiples stratégies d'intéressement qui jouent sur le merveilleux, l'émotion etle ludique. La vulgarisation ne s'adresse pas qu' à l'entendement et ne vise pasnécessairement à aiguiser le jugement. Au lendemain de la Première Guerre mondiale, la vulgarisation devient uneactivité professionnelle qui vise plus à exalter les prouesses de la sciencequ' à répandre les lumières. Un Science Service est crééaux É tats Unis en 1920 par un magna de la presseaméricaine avec le soutien de plusieurs institutions scientifiques (Ehrardt ,1993; Lewenstein, 1995). Au premier rang figure l ' AmericanChemical Society, soucieuse de corriger l'image de mort associée à lachimie par l'utilisation des gaz de combat durant la guerre. L'alliance entrejournalistes et scientifiques officiellement promue pour informer le public setraduit par une grande offensive et de multiples campagnes destinées à restaurerla confiance du public dans la science. Aux portraits mythiques des savantsprésentés dans les magazines ou à la radio comme de purs esprits vivant dans leshautes sphères, s'ajoutent les « cathédrales » de science des expositionsuniverselles ou internationales (La Follette, 1990). Le but est d'impressionner ,de diffuser une image de pureté et de susciter le respect (Rydell, 1985). À cetélan vulgarisateur s'associent les firmes industrielles, comme Du Pont, quiconfondent volontiers information et propagande dans un concert de célébrationde la vie moderne (Rhees, 1993). Les multiples expositions des années 30véhiculent un message implicite qui forgera le cliché bien ancré : « On n'arrêtepas le progrès ». En témoigne le slogan de l'exposition de Chicago en 1933 « Science discovers, industry applies, man conforms » (la science découvre, l'industrie applique, l'homme se conforme). Le public duXX e siècle n'est pas seulement supposé passif et « enmanque » de science, il est en plus privé de l'exercice du jugement. Le postulatqui sous-tend bien des entreprises de vulgarisation de masse est que le publicpeut penser par lui -même les sujets qui relèvent de la science. Il vit dans uneautre sphère, un autre monde, le monde de l'opinion qui est obstacle à lascience. Cette reconfiguration du public qui le place sous tutelle des expertsest favorisée par l'importance que prend la physique, dans la première moitié duXX e siècle. Elle devient la science modèle et inspire uneépistémologie de la rupture dont Gaston Bachelard (1938 :14) est leporte-parole : « La science dans son besoin d'achèvement comme dans sonprincipe, s'oppose absolument à l'opinion. S'il lui arrive, sur un pointparticulier, de légitimer l'opinion, c'est pour d'autres raisons que celles quifondent l'opinion; de sorte que l'opinion a en droit toujours tort. L'opinionpense mal; elle ne pense pas : elle traduit des besoins en connaissances […] .On ne peut rien fonder sur l'opinion. Il faut d'abord la détruire ». L'idée que la science progresse par ruptures avec le sens commun, en surmontantles divers obstacles que constitue l'opinion, contraste avec le postulat qui aprésidé à l'essor de la science populaire au XIX e siècle .Auguste Comte (1844 : 127-129), qui fut un pionnier de la science et de laphilosophie populaires, affirmait haut et fort la continuité entre science etsens commun : « Le véritable esprit philosophique consiste surtout dansl'extension systématique du simple bon sens à toutes les spéculations vraimentaccessibles. Leur domaine est radicalement identique, puisque les plus grandesquestions de la saine philosophie se rapportent partout aux phénomènes les plusvulgaires, envers lesquels les cas artificiels ne constituent qu'une préparationplus ou moins indispensable. Ce sont, de part et d'autre, le même point dedépart expérimental, le même but de lier et de prévoir, la même préoccupationcontinue de la réalité, la même intention finale d'utilité ». L'idée de ruptureclaironnée par Gaston Bachelard place la majorité de la population dans lerégime de la croyance, de l'irrationnel, tandis que la science devient de plusen plus distante, lointaine, effrayante. Elle occupe la place d'une puissancesacrée. Quant au profane, privé de sa faculté de juger en matière de science, ilest condamné à vivre sous tutelle des experts, à ne pas penser par lui -même. Lavulgarisation renvoie ainsi au musée l'idéal du public éclairé qui caractérisaitle siècle des Lumières et l'injonction fameuse de Kant (1784) dans son opusculeQu'est -ce que les Lumières  ? Sapereaude ! (ose savoir !) (Bensaude-Vincent, 2003). Dans les années 50, le fossé entre science et public devient un thème récurrentde complaintes et de débats. On y perçoit une menace pour la culture, comme pourla société. Ainsi, le lancement de Spoutnik en 1957 ne suscite pas qu'unecélébration des prouesses technologiques dans les magazines scientifiques maisaussi un questionnement angoissé. Témoin, un éditorial paru dans Science et Vie en 1958, sous le titre « Si c'étaitvrai ». L'éditorialiste constate que l'incroyable est aujourd'hui possible, que« la science a fait un bond si stupéfiant que l'opinion des sages a rejointcelle des naïfs [… ]. Un tel fossé s'est creusé entre l'élite scientifique et lamasse que nous risquons de retomber dans une nuit de crédulité(ou descepticisme, qui ne vaudrait pas mieux) comparable à celle qu'engendrèrent lesgrands bouleversements de l'an 1000 ». La mission des vulgarisateurs s'en trouveplus urgente et plus lourde : au rôle de gardien du temple de la sciences'ajoute celui de gardien de la société, qui doit veiller pour éviter lapanique. Le fossé est plus que jamais perçu comme une fatalité, consécutive auxavancées de la science, dont l'autonomie n'est jamais questionnée. Seule laphilosophe Hannah Arendt (1958) ose écrire que le fossé est de la responsabilitédes scientifiques qui ont choisi de s'exclure de la société civile en adoptantun langage ésotérique et un point de vue qui les abstrait du monde commun. Sacritique de la science trouve un écho chez certains scientifiques qui créent lemagazine Science for the people aux É tats-Unis et au Royaume-Uni. Ces mouvements d'autocritique dénoncentl'embrigadement des chercheurs au service d'objectifs technocratiques oumilitaires et en appellent à la responsabilité scientifique. Mais ils restentminoritaires. L'opinion qui prévaut est plutôt que le fossé est de laresponsabilité du public, des enseignants et des médias. Au fil des décennies ,on teste périodiquement le niveau de compréhension du public (public understanding of science) et l'on déplore le degrécatastrophique d'ignorance du public. Les acteurs du mouvement Public Understanding of Science estiment que l'ignorance encourage lacrédulité et nourrit les penchants à l'irrationalisme. Pour résumer, on peut donc décliner le credo de lavulgarisation qui définit le régime de savoir dominant au XX e siècle en trois articles : 1) il existe un fossé entre science etpublic qui ne cesse de croître à mesure des progrès des sciences, de laspécialisation et de la technicité des connaissances. D'un côté, donc, on trouvedes producteurs de savoir et, de l'autre, un public défini négativement pardéfaut de science plutôt que par ses qualités, ou même ses soucis, ou intérêtspropres (modèle du déficit); 2) le fossé appelle des médiateurs ouvulgarisateurs dont la tâche est de faire le pont entre l'élite scientifique etla masse du public soit en « traduisant » le langage des experts, soit enmettant en scène la saga de la conquête scientifique qui repousse les frontièresde l'inconnu. Le médiateur parle toujours « au nom de la science », il instaureune communication à sens unique (modèle diffusionniste); 3) enfin, le troisièmearticle est celui qui relève le plus d'une foi aveugle : il faut – et ilsuffit – de lutter contre l'ignorance en diffusant la science pour réconcilierle public avec la science et, par voie de conséquence, faciliter l'acceptabilitésociale des innovations techniques. Ces trois articles de foi ont été dégagés àpartir des années 70 par diverses études dénonçant les illusions entretenues parl'alliance entre scientifiques, médiateurs et décideurs (Jurdant, 1973, 1993 ;Bolstanski, 1977; Shinn, Whitley, 1985; Jacobi, 1986, Lewenstein, 1992 ;Wynne, 1992). Elles font voir la vulgarisation sous une autre lumière. Enréalité, elle creuse elle -même le fossé qu'elle présuppose en isolant lesscientifiques du reste du monde; elle contribue à sacraliser la science, àentretenir la foi dans le progrès et à soumettre le public à l'autorité desexperts. Peut-on parler de révolution au tournant du XXI e sièclequand, partout, on entend les slogans « sciencecitoyenne » et « participation du public » ? Prendre en compte l'opinion, telest le mot d'ordre qui enterre la figure du public comme une masse passive ,crédule et manipulable. Mais ce mot d'ordre est ambigu : s'agit-il d'introduiredans le monde de la communication scientifique les techniques éprouvées dumarketingdestinées à capter et séduire le public en respectant ses spécificités ,c'est-à-dire en le segmentant, ou s'agit-il d'une nouveau régime de savoir ? Unlarge spectre de nouvelles formules visant à impliquer le public dans les choixscientifiques et techniques tendent à supplanter – sinon évincer – les formulesclassiques de la médiation scientifique (Bucchi, Trench, 2008). Les forums dediscussion, enquêtes, auditions publiques et cafés de sciences réactivent lemode de sociabilité du siècle des Lumières qui fut le berceau de l'opinionpublique. La presse scientifique elle -même redevient un espace de critique quipourrait susciter un genre nouveau : la critique de science comme il y a unecritique littéraire ou musicale. Avec la coutume des « votations » sur des choixscientifiques ou techniques en confédération helvétique s'exprime le soucid'introduire la démocratie directe dans un territoire jusqu'ici placé hors dudébat public, au nom du sacro-saint « On n'arrête pas le progrès ». Lesconférences de consensus, d'abord développées au Danemark dans les années 80 ,comme les jurys citoyens plus fréquents en Angleterre, témoignent d'une volontéde donner la parole aux citoyens, du moins à un panel de citoyens jugéreprésentatif de la population afin que leurs avis, éclairés par une formationvolontaire et accélérée, pèsent sur les décisions politiques. En invitantexperts et non experts – individus ou groupes concernés – à co-construire lesavoir sur des questions précises, les focus groups etles forums hybrides vont un cran plus loin (Callon, 1999; Callon, Lascoumes ,Barthes, 2001). Dans le cas des votations, auditions publiques, jurys citoyens ,les citoyens sont investis d'un rôle d'évaluateur : on leur demande de former etd'exprimer leur opinion sur des programmes de recherche ou sur des innovationsscientifiques et technologiques. Quand ils sont invités à participer en amont etnon plus en aval de la Recherche et Développement, au moment de la mise sur lemarché, les citoyens peuvent espérer influencer les décisions de politiquescientifique et initier des régulations. Tel est le cas des recherches ennanotechnologies qui se développent depuis 2000 dans un climat de débat publicmobilisant toutes les parties prenantes, chercheurs, industriels, pouvoirspublics, associations et « simples citoyens ». Si les initiatives de mise endébat de la science se multiplient, il est néanmoins trop tôt pour évaluer leurimpact réel sur le cours des innovations et la vigilance s'impose( Benoît-Browaeyes, 2009). Quand les citoyens sont invités à coopérer à laconstruction du savoir, c'est le modèle de l'amateur éclairé qui se trouveréactivé avec une dimension politique en plus. Par exemple, le mouvement deslogiciels libres qui contribue à l'avancement du savoir mobilise non seulementdes citoyens volontaires capables de maîtriser la science de l'information, maisaussi des militants politiques. C'est ainsi que les ong, les associations de patients ou de consommateurs deviennent acteursde la recherche, certaines disposant même de laboratoires propres. Aucune des formules de participation développées depuis deux décennies negarantit un fonctionnement vraiment démocratique. Chacune peut-être neutraliséeou dévoyée au service d'intérêts particuliers. On est clairement dans le domainede l'expérimentation sociale et l'expérience comporte des risques. Il n'empêcheque toutes ces formules procèdent de deux présupposés communs qui attestent d'unchangement radical d'identité de la science comme du public. D'une part, lepublic n'est plus une masse passive et indifférenciée de consommateurs définispar leur défaut de science. L'usage même du terme « public » est banni au profitdu terme politique de « citoyens » qui renvoie à des membres de la sociétécivile, pourvus de motivations, d'opinions, de savoirs ou compétences divers ,enfin et surtout de droits. Ici encore l'évolution du registre lexical est unprécieux indicateur : elle traduit un net déplacement de la question vers lepolitique. Les formes traditionnelles de médiation « au nom de la science » sontrelayées par de nouvelles pratiques de médiation « au nom de la démocratie ». Lacommunication à sens unique, de la source pure du savoir vers un public réceptifqui doit s'imprégner des questions que se posent les scientifiques et dessolutions qu'ils inventent, a cédé la place à des formules d'interaction. Lesquestions, angoisses et intérêts des citoyens doivent être pris en compte, etinterpeller les experts. D'autre part, la science n'est plus considérée commeune activité neutre, transcendant les intérêts particuliers, indifférente auxvaleurs sociales ou morales. C'est parce que les experts sont souvent soupçonnésde partialité que les associations entreprennent elles -mêmes des recherches etmettent en place des procédures de contre-expertise leur permettant de produiredes résultats « indépendants » sur des sujets controversés de recherchemédicale, d'environnement ou de toxicologie. Les communautés scientifiques nesont plus vues comme des lieux où s'imposerait un consensus autour de véritésincontestables. La science ressemble plutôt à un archipel de petites communautéstraversées de controverses, incapables d'atteindre un consensus quand elles ontà affronter des situations d'incertitude. Le virage radical suggéré par ces mots d'ordre est souvent présenté comme uneconséquence de quelques moments de crise, comme l'affaire du sang contaminé ,l'épidémie de sida, l'accident de Tchernobyl ,l'épizootie de « la vache folle » qui ont dévoilé à la fois les risquesinhérents aux progrès technologiques et la difficulté de les anticiper, de lesenrayer, de les prévenir. Ces affaires ont conduit des « profanes » à bousculerle modèle inculqué à force de propagande selon lequel « la science découvre ,l'industrie applique et l'homme se conforme ». Des malades atteints du sida et des associations de handicapés ont oséintervenir sur le cours des recherches pour les infléchir (Epstein, 1996). Lerefus des ogm en France a montré que les citoyens nesont pas prêts à adopter aveuglément toutes les nouveautés. Mais la mutation encours ne procède pas seulement d'événements conjoncturels. Elle va de pair avecun changement structurel dans le monde des sciences. Alors que la physique futla science reine, hautement prisée et valorisée, au milieu du XX e siècle, au cours des dernières décennies, c'est la biologie, de plusen plus associée aux problèmes de santé, qui est devenue la science reine .Ainsi, dans la recherche médicale, voit-on émerger un nouveau paradigme dit« d'inclusion-différence » qui consiste à inclure des femmes, des enfants, despersonnes âgées, des minorités ethniques et raciales dans les tests de manière àdifférencier les thérapeutiques (Epstein, 2007). Avec les sciences del'information, les biotechnologies, puis les nanotechnologies, ce sont lestechnosciences qui deviennent le modèle dominant. Or, ce modèle signifie moinsune subordination de la science aux impératifs techniques qu'une pénétration dela science par la société, la politique et surtout l'économie, c'est à dire uneaspiration à la gouvernance des sciences (Bensaude-Vincent, 2009). Loin d' êtreen guerre contre l'opinion, les sciences et les technologies sont pilotées pardes politiques scientifiques supposées répondre à une demande sociale ou à desimpératifs économiques. Ainsi les politiques de recherche jouent-elles un rôlemajeur d'incitation et d'orientation qui menace l'autonomie revendiquée par lesscientifiques au XX e siècle au nom d'un objectif de« société de la connaissance » souvent confondue avec une « économie de laconnaissance » (Callon, Foray, 1997). De nouveaux critères d'évaluation de larecherche émergent sous la pression des sponsors et des politiques de larecherche. L'excellence scientifique, évaluée par les pairs, est de plus en plusdoublée par des considérations d'efficience, de pertinences économique etsociale, prenant en compte les aspects éthiques, économiques, juridiques quidevraient impliquer la société civile (Bruno, 2008). Cela ne signe pasnécessairement un arrêt de mort pour la vulgarisation. La diffusion à sensunique connaît encore de beaux jours. Elle se double même de leçons de moralequand l'information scientifique sur le réchauffement climatique ou sur laprévention du cancer vise à changer le comportement des citoyens. Le stylepropagande pour la science est d'autant plus vivace que la recherche fait deplus en plus appel à des sponsors pour son financement. Assumée parfois par leschercheurs eux -mêmes, la communication scientifique entre dans une économie dela promesse : elle laisse entendre que les laboratoires sont sur le point derésoudre tous les problèmes de santé ou de société dans un bref avenir. Mais, sila logique de participation du public entre un jour pleinement en jeu, elledevrait conduire à privilégier la diversité des options scientifiques ettechnologiques plutôt que l'investissement dans une trajectoire unique, jugéeoptimale et toujours présentée comme « la révolution » qui va résoudre unefoultitude de problèmes. Au regard des initiatives actuelles d'investissementdans les nanotechnologies et les technologies convergentes qui déroulent leurprogramme selon une feuille de route, ce scénario de développement peut semblerun peu spéculatif. Mais un certain nombre d'associations, comme demos au Royaume-Uni, œuvrent en ce sens et laCommunauté européenne encourage la co-construction sociale des sciences. Le lienentre choix scientifiques ou technologiques et choix politiques étant enfinreconnu, le modèle de participation du public porte en lui un potentiel quipourrait profondément changer la nature du travail scientifique, le rôle descitoyens et le jeu démocratique. Bref, une approche « cosmopolitique » devientpensable qui pourrait mettre un terme aux guerres de la science contre l'opinion( Stengers, 1996-1997). Cet avenir est possible mais sa réalisation dépend detant de circonstances et contingences qu'elle échappe à toute prédiction En somme, la vulgarisation scientifique n'est pas le paradigme qui règle pourtoujours les rapports entre science et public. Elle n'est qu'un moment parmid'autres dans une longue histoire. Elle s'inscrit dans un régime de savoir quivalorise l'autonomie des sciences tout en les plaçant sous tutelle des É tats qui les financent et les orientent. En assumantl'existence d'un fossé grandissant entre science et société, elle contribue àl'autonomie de la science et à sa sacralisation. Même si la vulgarisation peutêtre conçue comme un compte rendu aux contribuables qui, par l'intermédiaire desÉ tats, financent la recherche, elle maintient lescitoyens en position de spectateurs passifs d'une dynamique qui leur échappe etsur laquelle ils ne peuvent influer. D'autres modèles de rapports entre scienceet public sont pensables et possibles .
La vulgarisation scientifique est un concept daté, ancré dans un contexte précis de rapports entre sciences et sociétés.Tel est l'argument développé dans cet article qui souligne le contraste entre la vulgarisation ― caractéristique du XXe siècle ― et le grand élan de science populaire qui anime le XIXe siècle, d'une part, le modèle émergent de science citoyenne, d'autre part. Ainsi cette contribution tente-t-elle de dégager les présupposés ainsi que les enjeux des différents régimes de communication scientifique et de comprendre le changement de paysage qui s'esquisse à l'aube du XXIe siècle.
sciencesInfo_12-0000961_tei_1045.xml
termith-515-communication
La préservation à long terme des informations sous forme numérique constitue un enjeu capital, un problème grave et un défi commun dans le sens où il concerne aujourd'hui l'ensemble des secteurs d'activité. L'enjeu est capital car d'une part, la quasi-totalité de l'information créée, gérée, transmise, stockée dans notre société l'est aujourd'hui sous forme numérique et d'autre part, la force probante reconnue par la loi à l'écrit électronique, va permettre de se passer entièrement du support papier. Ne pas être en mesure de préserver convenablement et durablement cette information conduirait à une société sans mémoire. Mais surtout, les enjeux vont maintenant bien au-delà des questions culturelles et historiques, ces enjeux sont aussi politiques, économiques et sociaux. Que deviendrait une société incapable de justifier sur le moyen et long terme les droits des personnes, incapable d'assurer la protection de ses informations patrimoniales ? Tout le monde imagine que c'est impossible. Que deviendrait une société qui perdrait progressivement les avancées scientifiques et technologiques qui lui auront coûté tant de ressources humaines et financières ? C'est tout autant impossible mais peu nombreuses sont les entités à en avoir pris conscience aujourd'hui. Le problème est également complexe. Il trouve sa première source dans l'obsolescence constante des technologies qui nous conduit à relever un défi paradoxal : comment préserver durablement de l'information avec une technologie qui n'a pas de pérennité et qui nous conduit à changer les systèmes d'exploitation, les logiciels, les ordinateurs tous les 5 ans et les médias de stockage tous les 7 ou 8 ans ? Dans un tel contexte, le long terme ne s'applique pas seulement à la conservation définitive des documents. Le long terme sera défini comme une période suffisamment longue pour qu'on se soucie des conséquences que peuvent avoir sur l'information contenue dans un entrepôt numérique les changements technologiques, et notamment la gestion des nouveaux médias et formats de données d'une part, l'évolution des communautés d'utilisateurs d'autre part. Le vocabulaire et la navigation dans les connaissances archivées sont sujets à fluctuation au cours du temps et doivent être eux aussi pris en compte dans la pérennisation. Cette complexité n'est pas seulement technique mais résulte de l'insuffisance de l'organisation généralement en place dans les organismes et de l'incapacité à penser l'information en termes de flux et de cycle de vie de l'information depuis son intégration dans un système d'information jusqu' à son archivage. Cette exigence en matière d'identification fine de l'information, de traçabilité des événements qui affectent le document tout au long de sa vie devient cruciale dans un environnement électronique, afin de prouver la fiabilité d'un système, l'intégrité et l'authenticité d'un document. Enfin, cette complexité provient de l'insuffisance du réseau de normes, de législation et réglementation peu appropriées par rapport à ce contexte nouveau. Toutes les institutions et toutes les entreprises sont concernées par la pérennisation de l'information numérique. On peut schématiquement classer les archives numériques en trois grands domaines. – Le domaine scientifique : ainsi, de nombreux phénomènes observés dans le domaine des sciences de l'univers sont totalement uniques et il est impératif de les conserver pour les confronter dans le futur aux modèles élaborés pour expliquer et comprendre ces phénomènes. C'est le cas par exemple lorsque l'Agence spatiale européenne a lancé en 1985 une sonde spatiale pour observer la comète de Halley. Par ailleurs, l'analyse du comportement de notre planète et notre capacité à prédire son évolution suppose de disposer de données pendant des dizaines d'années, voire beaucoup plus. Ces archives prennent la forme de Centres de données dont le financement est assuré par les organismes de recherches nationaux, par les agences spatiales. Ce domaine concerne aussi les archives des laboratoires de recherche médicaux, les archives de la météorologie, etc. – Le domaine « opérationnel » : il s'agit des archives en relation directe et permanente avec les activités industrielles, économiques, politiques, sociales, juridiques. .. de notre société. Ainsi dans le secteur industriel, les compagnies pétrolières disposent par exemple d'un gisement d'informations issues des multiples forages. Ces informations sont leur patrimoine. Dans l'aéronautique, l'énorme documentation des avions doit être préservée pendant 50 ans, et en permanence immédiatement accessible. Citons également le secteur de la santé ou des caisses de retraite car les dossiers des patients ou des salariés doivent être conservés pendant toute leur vie. Le domaine administratif ou juridique relève également de cette logique. Le plan stratégique de l'administration électronique (2004-2007) annoncé en février dernier par le Gouvernement vise, dans un objectif de simplifier et d'améliorer les services aux usagers, à dématérialiser des pans entiers de ces différents secteurs d'activité. – Le domaine patrimonial représenté par les institutions en charge de gérer les archives de l'Etat et également de préserver le patrimoine culturel, artistique et historique : les archives nationales, les grandes bibliothèques, les organismes en charge de préserver les enregistrements sonores ou vidéo. .. Chacune de ces catégories dispose d'un ensemble de spécificités propres mais toutes ont en commun la majeure partie de la problématique de la pérennisation des informations numériques : collecte de l'information, stockage physique pérenne, gestion les migrations de médias imposées par l'obsolescence des technologies, accès à cette information par les producteurs et plus largement les usagers, les chercheurs, les citoyens. Elles ont également besoin que les informations préservées soient parfaitement décrites, répertoriées, intelligibles et sécurisées. C'est en juin 2000 que le Centre national d'études spatiales (CNES) a organisé, conjointement avec la Bibliothèque nationale de France (BnF), une réunion inter-organismes pour présenter et faire connaître en France le modèle de référence OAIS (Huc, 2000). Ce modèle constitue aujourd'hui une incontestable référence internationale et multidisciplinaire pour l'archivage numérique. A la suite de cette présentation, les différents participants appartenant pour la plupart à des institutions partenaires du CNES ou de la BnF ont pris la mesure des difficultés à surmonter pour résoudre le problème posé et de l'intérêt qu'il y avait à continuer à travailler ensemble. C'est ce qui a conduit à la création, en août 2000, d'un groupe de travail PIN au sein d'une association à but non lucratif existante, l'association Aristote. Aristote est une association qui regroupe la majorité des grands comptes publics français dans le but de partager leurs expériences et leurs problématiques communes dans les domaines des réseaux informatiques et des nouvelles technologies. A l'image de la typologie proposée ci-dessus, le groupe PIN rassemble des représentants expérimentés des trois familles d'archives que nous avons citées. La diversité des institutions représentées dans ce groupe, les compétences et les points de vue croisés des participants en font un lieu unique pour l'émergence des solutions qui font aujourd'hui défaut. Son activité, comme son nom l'indique, est dédiée à l'ensemble des problèmes techniques, organisationnels, financiers, normatifs, méthodologiques, juridiques, etc., posés par la préservation à long terme de l'information sous forme numérique. L'originalité et la force de PIN résident dans le caractère transverse de sa composition articulée sur plusieurs pôles : des institutions patrimoniales comme la Direction des archives de France (DAF), le Centre des archives contemporaines de Fontainebleau (CAC), la Bibliothèque nationale de France (BnF) ou encore l'Institut national de l'audiovisuel (INA). Plusieurs ministères comme la Justice, la Défense, l'Agriculture ainsi que les Archives de la ville de Paris sont également représentés; des organismes à caractère scientifique et technique comme le Centre national d'études spatiales (CNES), le Commissariat à l'énergie atomique (CEA), l'Institut de recherche en informatique et en automatique (INRIA) ou encore l'Institut Pasteur; de grands groupes nationaux publics ou privés comme EdF-GdF, France Télécom ou Médéric (caisses de retraites); des experts et chercheurs indépendants reconnus du domaine. D'autres comme le constructeur d'avion Airbus ou encore le Centre européen de recherche nucléaire suivent les travaux du groupe au travers de son forum sans toutefois participer directement aux réunions de travail. C'est parce la problématique de pérennisation est commune à tous qu'il a été possible de rassembler au sein de PIN, des représentants d'organismes qui n'avaient auparavant aucune relation particulière. Mais la diversité des organismes représentés n'est pas le seul facteur de richesse. La diversité des compétences et des expériences professionnelles des membres du groupe est tout à fait remarquable et caractéristique du croisement de compétences scientifiques, littéraires et juridiques : experts dans le domaine de l'archivistique, ingénieurs en sciences de l'information, spécialistes de l'élaboration de normes du domaine, enseignants et formateurs de haut niveau, gestionnaires de dépôt numérique, juristes. Le groupe publie un site web 1 sur lequel les comptes-rendus de réunion et les présentations des intervenants classées par thème, sont disponibles. Le groupe dispose également d'un forum de discussion par messagerie. Il se réunit en séance plénière tous les trois mois à Paris. Les thèmes traités ont vocation à couvrir l'ensemble des facettes de la problématique : le domaine normatif et méthodologique, la terminologie, les pratiques et procédures propres à chaque institution; l'organisation des archives numériques et leur coût; la pérennisation physique des données : le stockage pérenne; les formats de données et de métadonnées; les nouvelles technologies (XML, OAI. ..); etc. Ces thèmes sont abordés de multiples façons : retours d'expérience, présentations de projets ou d'outils, comptes rendus de colloques et de conférences, synthèses de lectures. Certains sujets occasionnent la création d'un sous-groupe de travail qui se réunit indépendamment et rend compte de ses travaux lors des séances plénières. Une animation collégiale du groupe reposant sur les représentants des institutions les plus actives a été mise en place. Enfin, PIN dispose du support et de l'expérience de l'association Aristote, notamment pour l'organisation d'activités tournées vers l'extérieur : séminaires, journées de formation. .. Des animateurs de PIN interviennent également comme organisateurs de séminaires Aristote (le Droit et les nouvelles technologies en 2002, Internet : la mémoire Courte en 2004) ou comme intervenants dans ces séminaires. De par leurs responsabilités propres, les membres du groupe ont tous conscience du caractère stratégique de la pérennisation. Nombreux sont ceux qui, dans leur domaine, au sein de leurs institutions respectives, ont pris l'initiative de conduire des actions de toute nature afin de progresser vers des solutions réalistes et fiables. Le groupe PIN est un lieu de partage de tous ces savoirs et de toutes ces expériences. C'est un lieu de réflexion nourrie par la confrontation d'approches et de points de vues diversifiés. C'est aussi un lieu de partage dans un environnement non commercial et non concurrentiel. C'est enfin un lieu d'action d'où émergent peu à peu des esquisses de solution réalistes et applicables. Cette expérience collective n'a pas de précédent en France. C'est pourquoi la première ambition du groupe PIN est d' être le creuset d'une formulation de la problématique et de ses solutions où se reconnaissent aussi bien les ingénieurs que les spécialistes des contenus, les décideurs que les opérationnels. Dans le cadre d'un sous-groupe nommé SAPIN (Sous-groupe des Archivistes de PIN), une contribution significative a été apportée à l'élaboration de deux manuels publiés par la documentation française sous les auspices de la direction des Archives de France : Les Archives électroniques, manuel pratique, publié en 2002 par C. Dhérent (2002); L'archivage des documents bureautiques, manuel pratique, publié en 2004 par Joël Poivre (à paraître). Le choix de formats de données acceptables dans une perspective de préservation à long terme est une question cruciale. C'est sur ce choix que repose en bonne partie notre capacité future à restituer le contenu et/ou l'apparence des documents préservés sous la forme voulue. Cette question s'applique à toutes les catégories d'information numérique : texte, image, son, vidéo, documents multimédias, etc. PIN a conduit dans ce domaine une réflexion méthodologique approfondie permettant de définir les différents critères qu'il faut prendre en compte pour évaluer au regard de leur aptitude à la pérennisation de l'information les formats informatiques. PIN a ensuite entrepris d'organiser une répartition du travail d'évaluation entre les différents organismes en mesure d'y contribuer : CNES, BnF, DAF. .. Il s'agit à ce stade de joindre nos forces et nos capacités respectives pour permettre à chacun de bénéficier d'un travail d'analyse qu'il n'aurait pas eu la possibilité de mener seul. Enfin, connaissant le grand nombre de formats de représentation d'information existant sur le marché, sachant que pour chaque format, les versions se multiplient, il est évident que PIN ne peut pas maintenir seul une base de données d'évaluation des formats. Le besoin se situe au niveau international et doit être résolu à ce niveau. C'est dans cette perspective que le travail méthodologique de PIN a été traduit en anglais et que des discussions sont en cours, notamment avec la DPC (Digital Preservation Coalition) en Grande-Bretagne et le Global Digital Format Registry (GDFR) initiative internationale lancée aux Etats-Unis. Dans un environnement où les concepts, les mots et les outils touchant à la pérennisation de l'information numérique fluctuent selon les acteurs et n'ont pas encore trouvé de normalisation stable, le groupe PIN entend diffuser son approche pluridisciplinaire et transverse de cette problématique. C'est ainsi que dans un premier temps, différents membres du groupe, notamment en raison des apports substantiels apportés par les travaux menés en son sein, ont été amenés, à la demande de différents organismes et écoles de formation, à coordonner, animer et conduire différentes actions de formation. Dans un second temps, le projet de lancer et produire un module de formation en son nom propre s'est précisé : il s'agit de proposer aux responsables et acteurs d'archivage numérique à long terme, dans toutes les catégories d'institutions et d'entreprises évoquées plus haut, un discours organisationnel et technique commun, élaboré conjointement par des archivistes et des informaticiens et dispensés en commun à des archivistes, des informaticiens ainsi qu'aux producteurs d'informations. PIN constitue un exemple unique en France de collaboration efficace entre archivistes et informaticiens qui illustre bien le fait que pérenniser une information numérique n'est pas l'affaire d'une seule personne ou d'un seul corps de métier mais nécessite la mise en commun de compétences complémentaires
Le groupe de travail PIN (pérennisation de l'information numérique) a été créé en 2000 à l'occasion de la diffusion en France de la norme OAIS (Open Archival Information System). Il regroupe des représentants de grandes institutions publiques (CNES, BnF, CEA, etc.) et d'entreprises qui mettent en commun leurs réflexions et leurs expérimentations concernant l'archivage de données scientifiques, patrimoniales ou opérationnelles. PIN s'efforce de développer une culture commune aux différents acteurs de l'archivage.
sciencesInfo_05-0036214_tei_DN_082_0127.tei.xml
termith-516-communication
« Des clubs très privés ! Ils ont des centaines d' " amis " Facebook ,mais croient que la réussite en affaires ou en politique passe encore par unepoignée de main. De jeunes professionnels ont donc ressuscité les bons vieux clubsprivés ». Simon Coutu (2012 : 56) Dans un article publié à l'hiver 2012, l'auteur, journaliste pour un mensuel, tracele portrait de ces jeunes professionnels qui ont décidé de remettre au goût du jourles rencontres entre amis appartenant à un même « club » (Coutu, 2012 : 58). Lejournaliste prend soin de préciser que ces « entrepreneurs » sont présents dans lesréseaux sociaux (Twitter, Facebook), mais qu'ils préfèrent se rencontrer, discuterde vive voix, échanger en face à face et établir une relation privilégiée, voireconfidentielle. L'objet de l'article – les discussions dans un club – surprend ! Eneffet, à l'ère des réseaux numériques, de la téléphonie cellulaire, dugéopositionnement, des tablettes de communication, des jeux vidéo et autresassistants numériques personnels, on peut se demander quelles sont les formes decommunication qui ne nécessitent pas le recours aux dispositifs technologiques. Plusencore, nous souhaitons déterminer si l'usage de certains outils, le cellulaire, parexemple, ne conduit pas à des ruptures communicationnelles. En termes plus précis ,il s'agira de considérer dans quelle mesure et à quelles conditions les technologiesde l'information et de la communication (tic) conduisent àde nouvelles exclusions numériques. Pourquoi se questionner sur les formesd'exclusion numérique ? Comment se fait-il que, plus les moyens (ou outilstechnologiques) se multiplient, plus les individus se questionnent sur la nécessitéde communiquer de cette manière ? Pourquoi laisser de côté certaines formesd'exclusion qui sont avant tout sociales, économiques et peut-être enfinnumériques ? Les enjeux posés concernent les changements sociaux qui modifient lerapport de l'Humain à la technique. Débat que Jacques Ellul a posé dès les années 50et qu'il a repris dans son ouvrage Le bluff technologique (1988). Partons d'un constat : les technologies de l'information ont envahi l'espace social et numérique dessociétés post-modernes. L'usage des dispositifs technologiques est tel que plusieursn'hésitent pas à se définir à travers l'utilisation qu'ils font de l'artefacttechnologique reconnaissant par le fait même leur degré de dépendance à l'objettechnique : « c'est une drogue, quasiment » (Femme 18-24 ans, Québec, Fusaro, 2010 :75) s'exclame sans hésitation une jeune femme de Québec en parlant de son iPhone .Cependant, cette utilisation ne serait pas problématique si au fil des années lesdétournements communicationnels n'étaient pas apparus de plus en plus clairement .Nous définirons ces détournements comme des ruptures de liens sociaux qui affectentla communication humaine et conduisent à de nouvelles formes d'exclusion numérique ,parfois volontaires et souvent involontaires. L'objectif de cette contribution estdonc double : identifier les mutations sociales à l' œuvre (le rapport dialogique del'individu aux dispositifs technologiques) et montrer que – paradoxalement – cestechnologies considérées comme un « formidable » vecteur d'intégration des diversespopulations au sein de la société de l'information conduisent au retrait de certainsgroupes sociaux de la participation citoyenne. Afin de répondre à ces interrogations, nous proposons une discussion articulée autourde trois thèmes. Il nous faut d'abord définir ce que signifie l'exclusion socialenumérique et déterminer en termes statistiques quelle est la réalité de cetteexclusion au Québec. Dans un second temps, nous illustrerons notre propos en prenantappui sur les recherches réalisées au cours des dix dernières années .Nous montrerons que les formes de l'exclusion numérique sont nombreuses etdiversifiées, mais que, de manière surprenante, le « visage » de cette exclusiontend à s'uniformiser et ce, peu importe l' âge (les jeunes et les aînés), lacatégorie sociale (les démunis ou les classes aisées) ou encore l'activitéprofessionnelle. Enfin, la dernière partie sera consacrée à la discussion des enjeuxque pose l'usage des tic en termes éthiques. La question que nous pourrions poser en guise d'introduction est « qu'est -ce quirelève de l'exclusion sociale et qu'est -ce qui mène à l'exclusion numérique ? » .Dans l'article « Combating social exclusion in Europe », Rob Atkinson (2000 :1039) trace les contours du concept et indique que les théories à l'origine dece phénomène sont aussi nombreuses et variées qu'il y a d'auteurs qui abordentle sujet. Considérant les formes économiques et les formes politiques del'exclusion sociale liées au système de production ainsi qu'aux institutionspubliques, le chercheur précise : « L'exclusion sociale survient lorsqu'un ou plusieurs systèmess'écroulent, nous permettant ainsi de découvrir un processus étendu ,multidimensionnel et dynamique. Il semble probable que nous ne puissions parlerd'exclusion sociale que lorsque, pour les individus ou les groupes, plusieurs deces systèmes s'écroulent des suites d'une réaction en chaîne » (ibid. : 1041). En matière d'usages des tic, nous souhaiterions poser laquestion à l'envers, soit à partir de quelle réaction en chaîne, le systèmes'écroule -t-il ? Lorsqu'un jeune adolescent se fait stigmatiser sur Facebook, laréaction du groupe social sera de rejeter le jeune, ce qui conduira àl'exclusion sociale de la personne (Morrow, 2001 : 45). Dans certains cas, rejetsocial et exclusion sociale deviennent synonymes et posent la question ducapital social, soit ce que Robert Putman (in : Morrow ,2001 : 38) définit comme l'ensemble des caractéristiques du réseau social, soitl'engagement citoyen, l'identité et l'appartenance communautaires et lesrelations de confiance co-construites avec les autres communautés. En effet, le rejet de leur réseau socialou communauté d'attache conduit les populations étudiées à se démobiliser parrapport à l'utilisation des outils technologiques. Par exemple, dans le cas desaînés interviewés, la possession d'une adresse courriel devient obligatoire souspeine d' être exclu par son entourage, ses amis et sa famille. Or, cetteobligation « technologique » loin de constituer une motivation à l'usage ,devient un levier de non-usage qui mène à l'élimination de la communication :« Mais moi, je me dis que si je ne suis qu'en courriel, je ne leur parlerai plusau téléphone, et moi je trouve que la communication parlée s'en va aussi »( Femme, Montréal, Fusaro, 2010 : 22). La crainte de cette aînée est partagée par les autres groupes interviewés quiconstatent ce retrait du face-à-face ou des conversations téléphoniques, ce quipose la question des réseaux sociaux mobilisés et de l'engagement envers la (sa )communauté d'appartenance. En 2008, Mary Daly et Hilary Silver tentent uneclarification de ces deux concepts (exclusion sociale et capital social) qui ,selon les auteurs, sont devenus interchangeables, alors que les construitsthéoriques sont divergents. L'objectif de leur discussion est d'identifier lesconvergences entre les concepts, mais également de montrer les différences quimilitent pour le maintien des deux, surtout en ce qui concerne les relationssociales au sein d'un réseau pouvant conduire à l'exclusion sociale ou bien lesrelations en face à face qui concourent à l'établissement de communautés àtravers le concept de capital social (Daly, Silver, 2008 : 543). Bien que leurpropos ne concerne pas les technologies de l'information, leur comparaison etcritique sont pertinentes, puisque l'utilisation des tic repose sur un réseau social (les jeunes et Facebook; les aînés etla recherche d'informations; les professionnels et les mobiles) où lesrelations se transposent d'un face-à-face à un échange médiatisé par l'objettechnologique dans un cadre normatif. Ce dernier relève soit de la technologieelle -même, soit des valeurs « communautaires », ou encore des normes sociétales ,par exemple la fausse nécessité d' être présent dans les réseaux sociaux. Si le concept d'exclusion sociale est protéiforme, qu'en est-il de l'exclusionnumérique ? Cette dernière se traduit-elle seulement par un état de fracturenumérique, c'est-à-dire l'état d'isolement d'un groupe ou d'une population quin'a pas accès ou qui ne sait pas utiliser les technologies de l'information( Britz, 2004) ? La littérature sur la fracture numérique est abondante et met envaleur, là aussi, plusieurs points de vue. D'abord utilisé pour décrire laréalité des pays émergents et des pays en voie de développement afin decaractériser les niveaux d'infrastructures, d'équipement et enfin d'accès auxtechnologies de l'information, le concept s'est rapidement généralisé aux paysdéveloppés pour décrire l'état des divers groupes sociaux qui ont accès ou nonaux diverses technologies. Le consensus qui semble se dégager tient aux deuxconstats suivants : la fracture numérique est d'abord économique, c‘est-à-direque les populations les moins favorisées ont moins accès à l'univers des tic; elle est ensuite liée au degré d'appropriation etdonc de maîtrise des outils technologiques. À cet égard, ce sont les modalitésd'apprentissage et d'accompagnement des tic auprès desjeunes et des moins jeunes qui vont visées. Cependant, il existe d'autres formesd'exclusion numérique qui relèvent de la volonté des usagers de ne pas avoiraccès ou de littéralement « laisser tomber » ces technologies. En 2009, Annabelle Boutet et Jocelyne Trémembert analysent les conditions de lafracture numérique en effectuant une typologie des usages et des non-usages destechnologies de l'information. Au-delà des modèles d'usages, elles mettent enévidence les typologies « discriminantes » à l'égard des non-usagers (Boutet ,Trémenbert, 2009 : 73). En premier lieu, elles soulignent que cette question dela fracture numérique, et donc d'exclusion numérique est encore et toujours liéeau problème de l'accessibilité aux tic et àl'équipement requis pour apprendre et ensuite maîtriser les outilstechnologiques. En second lieu, les auteurs font valoir que l'on ne peutappréhender l'exclusion numérique en se contentant de la définir par oppositionà l'inclusion numérique. En d'autres termes, il ne conviendrait pasd'appréhender les non-usages des tic en prenant appuisur les usages de ces mêmes technologies. Selon leur recension des étudeseffectuées auprès des non-usagers, c'est la recherche d'Amanda Lenhart et al. (2003, in : Boutet ,Trémembert, 2009) qui propose une typologie de non-usagers ayant choisi de nepas utiliser l'internet. Cette typologie identifie quatre groupes : « lesgroupes des evaders (que les auteurs identifient à ceuxqui se dérobent), des dropouts (ceux qui renoncent), ceuxqui utilisent par intermittence (les intermittent users )et non-usagers absolus (les truly unconnected) » (ibid. : 77). Sally Wyatt (2010) abonde dans lemême sens, mais ajoute une nuance importante puisque, selon elle, le non-usagedes technologies est un « choix volontaire qui n'aboutit pas toujours àl'exclusion sociale ». Son propos tend à démontrer que non-usage et exclusionsociale sont mutuellement exclusifs, sans qu'il y ait de relation de cause àeffet. Comme Amanda Lenhart et al. (2003), Sally Wyatttente de catégoriser les usagers et les non-usagers de l'internet en distinguantle comportement d'évitement passif et les formes de résistance active (Bauer in : Wyatt, 2010 : 24). Dans l'application de nos cas ,nous utiliserons la taxinomie de Sally Wyatt qui présente quatre groupes : lesrésistants, les « abandonnistes », les exclus et les expulsés, et nouspréciserons les transformations communicationnelles observées. Car au-delà desmanifestations de résistance active ou passive pour reprendre l'expression deSally Wyatt, se pose la question de la nature, voire de la qualité de lacommunication engagée. Les données de Statistique Canada, de l'Institut de la Statistique du Québecainsi que du cefrio soulignent l'augmentation constantedes taux d'utilisation d'Internet et des autres technologies, du cellulaire enparticulier. Au Canada, c'est l'enquête sur l'utilisation de l'internet (ecui, 2010) qui « mesure l'étendue et la portée del'utilisation par les particuliers » .L'Institut de la statistique du Québec (isq) et le cefrio mesurent, quant à eux, les diverses utilisationsqui sont faites par les particuliers au Québec. De ces rapports d'enquête, ilressort qu'en 2010, le taux d'utilisation de l'internet s'élève à 75,9 % contre80,3 % pour la moyenne canadienne. Il est intéressant de noter qu'entre 2009 et2010, le taux pour le Québec est passé de 77,1 % à 75,9 % et qu'il s'agit doncd'une diminution. Toutefois, lorsqu'il s'agit de considérer la tranche des 16 à24 ans, le pourcentage est 97,8 % ([email protected] ,mars 2012). Parmi les données intéressantes recueillies par ces organismes ,notons celle selon laquelle 14,3 % des utilisateurs qui accèdent à l'internet lefont désormais à partir de leur assistant numérique personnel ([email protected], mars 2011). Si l'on considère lesdonnées par ménage cette fois, 72,9 % des ménages ont accès à l'internet et « laproportion de ménages branchés utilisant une connexion de type haute vitesse estde 93 % au Québec » (isq, août 2011). Dans tous lescas de figure, les données liées aux ménages ou aux particuliers montrent queles pourcentages sont systématiquement inférieurs à la moyenne canadienne. Contrairement à l'image véhiculée – dans les médias principalement –, le Québecn'est pas entièrement branché. En effet, les taux d'utilisation montrent queseulement 75 % environ de la population québécoise a accès à l'internet. Demanière plus significative, les données analysées par l'Institut de lastatistique du Québec montrent la corrélation entre l'accès à l'internet et leniveau de revenus et de scolarité des ménages. Ainsi dans « le 1 er quartile du revenu familial (30 000 dollars et moins), 47, 3 % desménages utilisent l'internet » (isq, 2011). Lorsqu'ils'agit de considérer les applications que font les particuliers ou les ménagesquébécois, les usages les plus répandus demeurent l'utilisation du courriel, larecherche d'informations et le magasinage en ligne. Au-delà des statistiquesd'utilisation, ce sont raisons pour lesquelles les ménages n'utilisent pasl'internet qui sont d'intérêt. Le bulletin de l ' isq (2011 : 3) mentionne : « La principale raison pour laquelle certains ménages n'ont pasaccès à Internet au domicile est l'absence de besoin ou d'intérêt (57,2 %). Laproportion est semblable au Canada (56,2 %) et en Ontario (55,5 %). Comme autresraisons, on trouve aussi le coût pour les services ou équipements (20,6 %), lemanque de confiance, de connaissances et de formation (13,9 %) et l'absenced'appareil d'utilisation Internet accessible dans le logement (12,5 %) ». Quoi qu'on en dise, cette fracture numérique existe et les formes d'exclusionnumérique vont au-delà des taux d'équipement, des modalités d'accès (à partir dequel terminal) et des raisons militant pour l'usage et le non-usage destechnologies, et d'Internet en particulier. Au cours des dix dernières années, nous avons mené trois recherches sur lesusages des tic auprès des adolescents, des aînés etdes professionnels (adultes et jeunes adultes). Dans les trois cas, nousavons examiné les conditions d'usages des tic (tauxd'équipement, apprentissage des diverses fonctionnalités, capital socialmobilisé, résistance à l'utilisation). Pour chacune de ces études, lesadolescents et les tic (2002-2007), lesprofessionnels et les mobiles (2008-2011) et les aînés et l'internet (ycompris diverses applications technologiques, 2005-2011), nous avons procédéà une collecte de données en trois temps, soit la phase qualitative, laphase quantitative et les groupes de discussion comme moyen de validation. Chaqueétude possède ses objectifs de recherche spécifiques. Cependant, de manièregénérale, les principales questions peuvent être regroupées autour des pôlessuivants : les usages spécifiques, les mécanismes d'appropriation destechnologies (processus d'apprentissage) et les constats d'usage ou denon-usage de ces technologies. Pour chacune de ces recherches, nous avonsidentifié une ou plusieurs formes d'exclusion numérique. Et comme nous lementionnions en introduction, nous avons constaté que, malgré lesdifférences sociodémographiques, ce sont presque les mêmes exclusions quevivent les adolescents, les aînés et les professionnels. Dans le cadre de cette étude, réalisée de 2003 à 2007, nous avons analysé lescomportements des jeunes usagers québécois de 13 à 17 ans qui utilisent lestic quotidiennement. En posant un regard pluriel sur l'usage des technologies ,c'est-à-dire en observant et en documentant les diverses modalitésd'appropriation des tic, nous avons considéré larelation que les jeunes établissent spécifiquement avec l'internet et lecellulaire. À cet égard, nous souhaitions appréhender les diverses formes decommunication établies par les adolescents avec leur communauté en marge deleur parent. Depuis la réalisation de l'étude, les données ont étéconfirmées grâce à l'avènement et la généralisation des réseaux sociaux etde Facebook notamment. Nous insistons sur le rôle des parents afin dedéterminer de quelle manière s'exerce ce contrôle parental à traversl'examen des règles familiales, le suivi des déplacements des adolescentsdésormais joignables en tout temps sur leur cellulaire et les attitudes faceaux rencontres d'inconnus par le biais du chat, desréseaux sociaux et des outils comme les blogues où les photographies desadolescents se répercutent dans le cyberespace, sans que la personneconcernée ait donné son accord, sans qu'elle le sache parfois. Dans cecontexte de surconsommation « technologique » où les parents disposent deplusieurs moyens de surveiller les activités de leurs enfants, nous voyonsémerger de nouvelles problématiques liées au droit à la vie privée desadolescents et au sentiment de vulnérabilité que peut générer l'utilisationdes tic. Lorsque Lucien Sfez (1996), dans un article sur les idéologies dominantes ,évoque la notion d'interactivité, « il remarque que cette notion sesubstitue à l'une des trois valeurs républicaines, la liberté : […] elle setrouve réalisée par l'interactivité issue des progrès techniques desmachines à communiquer, qui laisse à l'homme, à l'individu, sa libertéd'intervention face au déterminisme des machines ». Nous pourrions presqueadopter mot pour mot cette citation et la transposer aux discours desparents et de leurs adolescents qui situent sur le même plan la liberté etles technologies, faisant ainsi de ces dernières le catalyseur de cetteliberté. Pourtant, lorsque nous analysons les liens entre les tic et les parents et les relations entre les tic et les adolescents, ce sont également lesthèmes de danger, de vie privée, voire d'insécurité que nous identifionsdans leurs propos. L'insécurité des parents à l'égard des tic utilisées par leurs adolescents engendre uneorganisation de « l'espace technologique » qui détermine les modalitésd'accès des adolescents aux tic. Conscients de lanécessité d'ouvrir leur foyer aux technologies et d'outiller leursadolescents pour des raisons scolaires, voire professionnelles, ces parentsinstaurent parfois un contrôle parental insidieux qui s'oppose au discourslibertaire qu'ils affichent à l'égard de l'accès, puis de l'utilisation destic par les adolescents. Ainsi l'atteinte à lavie privée et aux libertés des adolescents se vérifie -t-elle à deuxniveaux : dans le discours des parents, elle se traduit par la nécessité deprotéger l'adolescent de mauvaises expériences ou de mauvaises rencontres ,tandis que dans le discours de ces jeunes usagers, elle prend la forme d'unmanque d'intimité indirectement mentionnée – voire critiquée – par lesadolescents. Par exemple, le discours des parents a parfois révélé descomportements extrêmes tels que le bris de Webcams en raison de leurdangerosité ou bien l'installation de logiciels permettant de retracer lesconversations chats de leurs adolescents. Cependant ,dans bien des cas, pour vaincre le sentiment d'insécurité des parents ,l'apprentissage des tic au sein de la sphère privéedevient l'un des plus sûrs moyens de se prémunir contre les éventuelsdangers du cyberespace. Josiane Jouët (1993) montre également que« s'établit en effet un lien entre, d'une part, l'architecture de latechnique et, d'autre part, la construction des pratiques sociales ». Maiscette chercheuse va plus loin en précisant que la médiation technique n'estpas neutre et imprime sa marque sur les pratiques communicationnelles d'uncorps social. En l'occurrence, les pratiques des adolescents et de leursparents n'échappent pas à ce constat. Alors que les parents se servent destechnologies essentiellement pour des raisons professionnelles, lesadolescents québécois interrogés construisent leurs discours surl'apprentissage des tic autour du jeu. L'usageludique a favorisé l'apprentissage et la banalisation des technologies dansleur quotidien. Les parents affirment faire confiance à leurs enfants etdemeurent vigilants pour s'assurer qu'il n'y a pas d'abus. Selon eux, ils'agit de « faire preuve de bon sens » en effectuant une gestion au « caspar cas » des éventuels comportements abusifs ou dangereux. Les abusauxquels ils font référence concernent avant tout le nombre d'heuresconsacrées par leurs enfants à l'utilisation des technologies. Les parentsexpriment leur désaccord lorsque l'utilisation des tic par leurs enfants cause des inconvénients précis, par exemplesi l'adolescent passe plus de temps à jouer sur son ordinateur qu' à faireses devoirs. Par exemple, la mère d'un participant raconte que son mari apris les grands moyens en désinstallant le jeu de l'ordinateur de leur fils ,car ils estimaient que celui -ci n'était pas en mesure de limiter lui -mêmeson utilisation. Au-delà du dialogue et de la prévention, les parentsexercent un contrôle réel sur leurs adolescents en établissant des règles deconduite et en assurant une surveillance de leurs activités. La mise enœuvre de règles d'encadrement des tic sembledébuter à l'adolescence – voire à la préadolescence dans certains cas –lorsque la vulnérabilité des adolescents est importante et que l'initiationà la technologie dans un cadre privé débute. Pour limiter ou surveiller lesactivités de leurs adolescents, les parents les empêcheront d'avoir unordinateur dans leur chambre ou ils en limiteront le temps d'utilisation ,changeront le mot de passe ou utiliseront un logiciel de surveillance, pourles conversations par messagerie instantanée sur Internet, par exemple. Tousles parents ont sensibilisé leurs enfants au danger de rencontrer desétrangers peut-être mal intentionnés. Certains parents disent même avoiraccompagné leurs enfants lors de rendez -vous planifiés après une rencontresur le Web. Peu d'adolescents interrogés ont choisi de ne pas tenir comptedes avertissements parentaux concernant les limites du chat et des dangers pouvant en découler. La communication par l'internet constitue souvent un lieu significatifd'appropriation de la technologie par les adolescents. Cependant, ellereprésente pour les parents une source de dangers qui explique souvent lefaible taux d'ordinateurs branchés à l'internet et présents dans leschambres des adolescents. Le père d'une autre adolescente a mis un frein àl'utilisation des Webcams de manière assez drastique en brisant délibérémentles appareils pour qu'ils ne soient plus utilisables. Les adolescents n'ontpas d'autre choix que de respecter les limites imposées par le cadrefamilial afin de conserver leur accès aux technologies. La mise en œuvre desrègles parentales conduit à évaluer l'espace privé dont disposent lesadolescents en fonction des dangers potentiels de l'espace public. Qu'enest-il donc de cette promesse de liberté offerte par les tic, à laquelle les jeunes aspirent ? Plusieurs éléments de réponse se trouvent du côté des possibilités offertespar la technologie lorsque celle -ci leur permet de développer et deconstruire une identité totalement privée, une identité qui lesindividualise, qui les rend plus libres, plus autonomes, qui leur permet dese détacher de la cellule familiale. Ce faisant, les outils technologiquesleur procurent un sentiment d'autonomie, d'efficacité, d'indépendance etmême de supériorité face à leurs parents. Certains adolescents ont testé leslimites des règles imposées. Des témoignages relatent le piratage de boîtesde courrier électronique ou font état de pratiques de « hacking » et illustrent le rapport complexe qu'entretiennent lesjeunes avec les technologies. En portant atteinte à la vie privée desautres, en ayant un accès quasi-permanent à leurs pairs, les adolescentsreconnaissent facilement que les technologies utilisées dans l'espace privéou public peuvent menacer leur vie privée (Fusaro, Hildgen, 2007). L'intégration des jeunes dans le cyberespace se traduit de plus en plus parune présence accrue dans les réseaux sociaux et sur les autres plates-formesde blogues où ces jeunes se racontent et se mettent en scène. Est -ce sidifférent des conversations téléphoniques d'il y a quelques années ?Vraisemblablement, car ce qui relevait d'une communication bilatérale entredeux individus sur un canal de communication « privé » prend désormais laforme d'un échange multipartite où tout un chacun doit commenter la dernièreblague, la dernière photo ou autre trouvaille. Cet échange déconstruitutilisant un vocabulaire et des formes langagières liés au format de latechnologie (les textos, le chat et l'utilisationmassive d'images) donne aux adolescents le sentiment d' être connectés entemps réel sur ce qui se passe après l'école. Toutefois, nombreux sont lesauteurs qui depuis 2008 attirent l'attention des « adultes » sur lesphénomènes de « bullying » ou de « Cyberbulling »; en d'autres termes sur l'ensembledes formes d'intimidation qui peuvent parfois conduire au suicide (Hinduja ,Patchin, 2010, 2011; Hoff, Mitchell, 2009; Valkenburg, Jochen, Schouten ,2006). Si l'ensemble des acteurs s'entend sur les possibilités d'ouvertureoffertes par l'internet, par exemple, la possibilité de communiquer avecn'importe qui, n'importe quand sans aucune entrave, tous reconnaissent lestransformations en cours et s'inquiètent des dérapages observés auprès deces jeunes adolescents. Dans ce cas particulier, et en reprenant lataxinomie de Sally Wyatt, ce sont bien des « expulsés » que nous parlons ,mais ces expulsés ne représentent pas ces individus qui ont changé detravail ou terminé leurs études (Wyatt, 2010 : 25). Ce sont plutôt desjeunes à qui l'on a interdit l'accès aux diverses plates-formes en raison deleurs activités ou carrément en raison de ce qu'ils sont. Le texte de CheriJo Pascoe (2011) insiste en particulier sur les reconfigurations sociales àl' œuvre lorsque les jeunes utilisent les réseaux sociaux. L'auteur met enlumière leur fragilité et surtout révèle que l'inégalité que certains jeunesvivent affecte les relations sociales comme le dating et leur culture de la romance. Le cas des jeunes usagers des tic montre ensubstance que l'exclusion numérique à laquelle ils sont confrontés est dedeux ordres : ou bien ils n'ont pas accès en raison de difficultésmatérielles ou familiales (les cas des abandonnistes et des non-usagersabsolus; Boutet, Trémembert, 2009; Wyatt, 2010) ou bien ils sont exclus deleurs réseaux (les dropouts et les expulsés; ibid.). Dans tous les cas de figure, ces situationsse traduisent par une rupture communicationnelle – parfois dramatique – quibrise les relations de confiance indispensables à l'établissement du capitalsocial et donc du réseau social. L'étude réalisée auprès des professionnels s'est déroulée au cours de l'année2010 a permis de mieux comprendre les relations que ces individus entretiennentavec l'objet technologique qu'est le cellulaire (le téléphone intelligentnotamment). En reprenant la segmentation de Statistique Canada, nous avonsinterrogé trois groupes d'usagers, les 18 à 24 ans, les 25 à 34 ans et les 35 à44 ans dans les régions suivantes : la grande région de Montréal, la granderégion de Québec et la région de Sherbrooke. Au total, ce sont 113 participantsque nous avons questionnés sur leurs usages et leurs non-usages du cellulaire .Nous avons d'abord constaté un sentiment de dépendance à l'égard de l'objettechnologique. En effet, plusieurs ont affirmé ne pas pouvoir vivre sanscelui -ci, en précisant que son oubli crée parfois une situation anxiogène. Lesutilisateurs ont envers leur téléphone cellulaire une relation de dépendance etun sentiment d'insécurité accompagne le manque ou l'absence du téléphonecellulaire chez son propriétaire. Ce sentiment était particulièrement probantchez les répondants de la tranche des 18-24 ans. Lorsque nous avons analysé lesréponses des participants sur leur relation au téléphone cellulaire, nous lesavons classées en trois catégories : « Amour, haine et dépendance » (Fusaro ,2010 : 7). Dans le premier cas, les participants disaient spontanément : « jesuis en amour avec mon cellulaire », l'objet devenant le prolongement de leuridentité professionnelle et personnelle : « Il me permet de me sentirimportant » (Fusaro, 2010 : 74). Ils se définissent à travers l'utilisationqu'ils en font, utilisation qui devient à ce point importante en termes defréquence que l'ensemble des participants reconnaît vivre une forme dedépendance. Ils préfèrent oublier leur portefeuille que leur cellulaire. Àl'opposé de l'axe, nous retrouvons ceux pour qui l'idée d' être joint en touttemps et à tout moment n'est plus supportable. Ce cas de figure a été mentionnépar plusieurs participants et relève d'une situation où la personne utilisaitauparavant son téléphone mobile à tout moment. À la disponibilitéprofessionnelle s'ajoute la disponibilité familiale et amicale, voire ladisponibilité spatiale et temporelle : « Je n'ai plus le choix de répondre aucellulaire, mes amis savent où je suis » (ibid.). Enfin ,ceux que nous avons appelés les « dépendants » sont ceux pour qui le mobilereprésente un lien nécessaire et important avec leur milieu social, qu'il soitprofessionnel ou personnel). Cette catégorie d'usagers considère le mobile commeun passe-temps qui occupe le vide des moments du quotidien (l'attente à l'arrêtde bus, par exemple). L'utilisation fréquente entraîne une relation dedépendance. Cependant, contrairement à ce qui se passe dans la premièrecatégorie, ici, l'objet est presque considéré comme « un mal nécessaire » quiremplit des fonctions utilitaires. À cet égard, les « dépendants » rejoignentceux qui désormais vivent une relation difficile avec leur mobile. En analysant les données et en simplifiant peut-être à l'excès, nous pourrionsdire que ceux qui aiment leur cellulaire se retrouvent majoritairement dans lacatégorie des 18 à 24 ans. Les « dépendants » sont plus nombreux au sein dugroupe des 25 à 34 ans, et ceux qui souhaiteraient se départir de leur mobile ,mais ne peuvent le faire sont majoritaires dans la catégorie des 35 à 44 ans .Pourtant, malgré un profil différent au sein des trois groupes (utilisationhomogène chez les plus jeunes et utilisations hétérogènes chez les plus âgés) ,tous ont dit se sentir exclus s'ils ne l'avaient pas. Le sentiment devulnérabilité ressenti est tel qu'il provoque des attitudes anxiogènes quiconduisent les plus dépendants à consulter leur Facebook, textos et autresapplications toutes les cinq minutes. Malgré la différence des trois postures ,un point commun reliait les participants : l'impact sur la communication. Eneffet, au fil des discussions, plusieurs ont manifesté de l'inquiétude quant àla place et au rôle qu'occupent les mobiles au sein de la société. Soucieux dela perte du lien social, des transformations des relations humaines et de ladangerosité pour les plus jeunes, les interviewés évoquaient une communicationdevenue tributaire de l'objet technologique : « On ne se parle plus ». Cet étatde fait était principalement attribué à l'utilisation massive des textos et duchat à partir de leur mobile. Comme c'était le cas chez les jeunes, les participants considèrent que lapossession (ou non) d'un téléphone cellulaire peut mener vers des formesd'exclusion numérique. « Je téléphone, donc je suis » devient, dans leurs mots ,« je n'ai pas de téléphone, donc je n'existe pas ». Cependant, au-delà de lanature de l'équipement, ce sont encore les ruptures communicationnelles qui sontmontrées du doigt puisque de l'avis des usagers, l'utilisation du téléphonecomme principal moyen de communication conduit à une instrumentalisation desrelations sociales. Ils sont âgés, ils ont entre 65 et 85 ans et au cours des dix dernières années ,ils se sont mis à utiliser les technologies de l'information. Dans le cadre duprojet « Génération @ », nous les avons interrogés sur leurs utilisations destic et sur les déterminants facilitant ou nonl'usage des diverses technologies. L'analyse des données a contribué à unemeilleure compréhension des freins et des motivations des aînés quant à l'usagedes technologies de l'information, et de l'internet en particulier. S'il existechez eux un réel engouement pour l'ordinateur et l'internet, les aînés sontégalement confrontés à différents blocages, tout aussi tangibles, qui révèlentles principales craintes ressenties par les aînés lorsqu'il s'agit d'utiliserl'ordinateur et Internet. Un premier constat est que les aînés représentent ungroupe d'utilisateurs non homogène, avec des besoins et des « croyances » quiles conduisent à considérer les tic comme un vecteur dechangement et d'intégration sociale. L'internet est vu comme un nouvel espace decommunication et d'échanges qui peut réduire l'isolement dans lequel ils setrouvent et peut contribuer à l'amélioration de leurs relations sociales etfamiliales. Pourtant, plusieurs aînés rencontrés ont affirmé que l'internetaugmente l'isolement et contribue à ce que certains se trouvent coupés del'environnement social. Lorsque nous avons demandé aux aînés de définir ce que représentent lestechnologies, les points de vue exprimés ont pu être regroupés en deuxcatégories : « C'est un outil indispensable pour communiquer, c'est l'ouverturesur le monde, la mondialisation, l'accessibilité, c'est un outil illimité ," extraordinaire ", " indispensable " »; mais aussi : « On est facilement dépassépar les changements technologiques, c'est impersonnel, dangereux, lesinformations sont désuètes, les technologies empêchent la socialisation »( Homme, Montréal, Fusaro, 2010 : 13). Lorsque nous avons questionné lesparticipants sur les principales raisons expliquant la « popularité » des tic, ces derniers ont identifié plusieurs élémentscomme la rapidité d'accès à l'information, la possibilité d'emmagasiner unegrande quantité d'information, la facilité d'utilisation du courriel et enfin lacapacité à communiquer facilement avec sa famille et son entourage n'importe oùdans le monde. Cependant, malgré les avantages mis de l'avant, les aînés sesentent exclus de la société dans laquelle ils évoluent. Leurs propos sont à cetégard révélateurs du malaise qu'ils ressentent. Certains vont jusqu' à direqu'ils sont handicapés, qu'il leur manque « quelque chose ». Ils ne peuventavoir accès aux informations qui les concernent et sont constamment à laremorque de ceux qui « connaissent » ces outils technologiques, leurs amis ouleur famille. D'ailleurs, ils constatent de plus en plus que la non-possessiond'un ordinateur ou la non-utilisation de l'internet ou d'une adresse courrielles exclut de leur entourage, de leur groupe d'appartenance : « C'est sûr que dans le temps des fêtes, on a souvent desdiscussions, puis des fois, je me sens comme exclu parce que je ne suis pascapable d'embarquer dedans. Tu sais, ils te parlent de toutes sortes d'affaires ,qu'ils ont été là ou là. C'est surtout à ces moments -là que je trouve qu' à unmoment donné … Là, tu te dis : « Il me semble qu'il m'en manque un bout ». En outre, ils sont encore peu nombreux à posséder un ordinateur et à utiliserl'internet en raison de la difficulté liée au processus d'acquisition et à lafréquence des changements technologiques. À cet égard, plusieurs ont mentionnéla relation de dépendance qui existe avec leurs proches qui doivent les aider àfaire un choix approprié : par exemple, acquérir un équipement qui répond àleurs besoins en termes physiques et en termes d'ergonomie, bénéficier d'unapprentissage permettant d'assimiler les connaissances de base et enfin, avoiraccès à une forme d'accompagnement lors de l'apprentissage et surtout lorsqueles problèmes d'utilisation surviennent. De manière générale, les aînés sontprudents et méfiants à l'égard des technologies qu'ils utilisent. Si l'internetconstitue un levier important pour communiquer et s'ouvrir sur le monde, il faut– selon eux – conscientiser les aînés quant aux dangers d'Internet. Favoriserl'utilisation des technologies, et de l'internet en particulier passe par lamise en œuvre de mesures d'accompagnement lors de l'apprentissage des tic. Il apparaît également que la complexité del'environnement technologique constitue un frein important à l'utilisation del'internet. Toutefois, lorsque les aînés se sentent en « zone de confort » parrapport aux technologies, leurs usages se diversifient progressivement (chat ,blogues, etc.). L'internet et les technologies de l'information représentent un outild'intégration des aînés qui, il n'y a pas si longtemps s'étaient « retirés » del'espace public. L'enthousiasme avec lequel certains se sont mis à utiliser cesoutils ne doit cependant pas occulter l'exclusion numérique que vivent plusieursaînés, surtout ceux âgés de 75 ans et plus. Comme dans les cas de figureprécédents, cette exclusion est en lien avec la possession de l'objet technique ,mais ici s'ajoute la problématique de la maîtrise des applications. L'exclusionnumérique à laquelle les aînés sont confrontés se traduit là encore par desruptures communicationnelles importantes, d'autant plus critiques dans leur casqu'ils sont parfois déjà isolés. C'est dans l'étude de « Génération @ » que nousavons trouvé une application presque directe de la taxinomie de Wyatt, puisqu'ily a réellement un usage volontaire et un non-usage tout aussi volontaire ,certains aînés ayant le statut de « résistants », c'est-à-dire qu'ils nesouhaitent pas avoir accès à Internet, par exemple. Les « abandonnistes » ontessayé, mais faute de moyens liés à l'apprentissage et à la maîtrise des TIC ,ils ont dû renoncer. Les « exclus » n'ont jamais eu accès, mais cela ne relèvepas de leur choix et ce sont ici les moyens financiers et l'absence de réseausocial qui sont en cause. Enfin, les « expulsés » sont dans ce cas -ci, les aînésqui ont été victimes d'une fraude et qui se sont retirés du cyberespace. Lesruptures communicationnelles se traduisent alors par le retrait des communautésd'appartenance. À travers l'examen de trois cas, nous avons tenté de montrer que l'exclusionnumérique tend à se renforcer au fur et à mesure que « l'arsenal technologique »se diversifie. En s'appuyant sur l'exclusion sociale d'une part, et sur lafracture numérique d'autre part, les trois populations observées mentionnentqu'elles vivent des situations d'exclusion numérique. Ces formes d'exclusiondéjà documentées par d'autres sont ici analysées en termes communicationnels. Eneffet, ce sont les ruptures communicationnelles qui sont principalementsoulignées par les participants qui s'inquiètent de la transformation des lienssociaux, voire de la « communication parlée » qui semble diminuer. Ainsil'analyse des relations entre les tic et les individusmontre -t-elle l'importance que ces derniers accordent à la communication .Cependant, la question que nous posons « La communication à l'épreuve des tic » est-elle réellement liée aux technologies ? Nes'agit-il pas plutôt d'un positionnement éthique ? De fait, en ce qui concerneles jeunes et leurs usages des réseaux sociaux, c'est la question de lapréservation de la vie privée qui est remise en question. Qui se cache derrièrela photographie affichée sur le réseau ? Qui utilisera les données égrenées aufil des discussions ? Qui devrait intervenir pour modérer les échanges ? Lorsquenous considérons le cas des professionnels, c'est l'usage du téléphonecellulaire et de ses nombreuses fonctionnalités qui est questionné. Répondre oune pas répondre ? Faire semblant d' être disponible ? Sélectionner les appelsentrants ou utiliser le téléphone comme un outil de contrôle. Enfin, les aînéss'interrogent sur ces technologies que les gouvernements tentent d'imposer sansleur donner les moyens de s'approprier l'objet technique. Ainsi n'est -ce pas tant l'usage des technologies qui pose problème, mais bel etbien l'usage éthique de ces mêmes technologies dans uneère de communication. D'ailleurs, cette réflexion se pose déjà en termes decursus scolaire ou universitaire, puisqu'au cours des dernières années, lesprogrammes d'apprentissage ont introduit des cours sur l'éthique de lacommunication. La véritable question n'est donc pas « Quelle communicationprivilégier ? », mais peut-être « Quelle formation aux tic faudrait-il favoriser ? » .
Les technologies de l'information et de la communication (TIC) représentent a priori - un « formidable » vecteur d'intégration et de participation citoyenne au sein de la société de l'information (Nora, Minc, 1977). Pourtant, les statistiques le montrent, la fracture numérique subsiste, les usages des TIC évoluent vers le non-usage et, de manière paradoxale, la généralisation des TIC conduit à la consolidation de formes d'exclusion numériques. L'article présente trois cas de figure où les jeunes, les professionnels et les aînés s'interrogent sur les rapports sociaux et éthiques liés à la communication médiatisée par les dispositifs technologiques.
sciencesInfo_13-0090569_tei_1023.xml
termith-517-communication
La norme ISO/CEI 10646 dont un sous-ensemble s'appelle Unicode est passée assez discrètement dans les faits. Sa manifestation la plus claire est la possibilité de consulter des sites du monde entier, lire la presse arabe ou japonaise de chez soi, en Côte d'Ivoire ou en France, sans plus être pénalisé par l'incompatibilité des systèmes d'échange et d'affichage des données texte. Donner à voir des documents dans des graphies très diverses, ou « multiscript », mais aussi indexer, traiter l'information automatiquement est désormais possible. Face à ce progrès technique, les réactions sont plus ou moins rapides. Nous présentons ici un exemple de réalisation d'automate de collecte et de traitement d'information à partir de documents Unicode, et évoquerons les difficultés ou réticences constatées par ailleurs. Unicode est une étape importante, mais ce n'est qu'une étape pour atteindre le rêve de Babel. Dans le cadre d'activités de recherche et développement centrées sur l'intelligence économique et la veille stratégique, nous avons été amenés à concevoir un agent de recherche sur internet dont une des fonctionnalités premières est la surveillance et la collecte des informations diffusées en continu sur les sites de presse, sites d'information, portails spécialisés et groupes de discussions. Ces sites sont sélectionnés par les experts selon divers critères éventuellement contradictoires : la rapidité de mise en ligne de l'information, l'autorité de la source (c'est-à-dire le recoupement de l'information par rapport à d'autres sources), le coût d'accès à la source, la reprise de la source par des compilateurs ou « agrégateurs » de contenu, le degré de spécialisation. Une des caractéristiques d'UniCrawl (un tel agent de recherche étant souvent appelé crawler), réalisé par David Lecavelier 1 (Université de Caen), est d'effectuer un recueil de l'information mondiale, quels que soient la langue et le jeu de caractères utilisés par la source d'émission. La gestion de cette diversité de langue et de codage passe par une transposition immédiate et systématique de toutes les données textuelles entrantes vers Unicode, représentation interne permettant un traitement uniforme et cohérent Dans cette partie nous présenterons quelles ont été les implications pratiques du choix d'Unicode comme unique mode de représentation des données textuelles mais tout d'abord nous présenterons en quelques mots les caractéristiques d'UniCrawl. UniCrawl est un agent de recherche sur internet dont une des fonctionnalités premières est la surveillance et la collecte des informations diffusées en continu sur les sites d'information, quels que soient les langues et jeux de caractères utilisés par la source d'émission. UniCrawl visite donc régulièrement un ensemble de sources généralistes et spécialisées, sites de presse ou portails sélectionnés par des experts, à la recherche d'informations nouvelles. Sur ces sites, l'information est dite « furtive » dans la mesure où, présente un jour, elle peut avoir disparu le lendemain (c'est le cas des sites de quotidiens), voire même dans la journée. La périodicité des visites est donc variable et dépend de la fréquence de renouvellement de l'information sur chaque site. UniCrawl dispose d'un système de localisation automatique de l'information pertinente dans les pages de contenu. Ce système permet de masquer les éventuels rubans publicitaires et menus contextuels qui perturbent la lecture et l'analyse des documents issus des sites internet. Il est activable à souhait et ne présuppose aucune configuration manuelle, caractéristique essentielle vu que chaque source possède sa propre ligne éditoriale et que cette ligne est susceptible d' être refondue sans préavis. UniCrawl dispose également d'un système de filtrage et de catégorisation de l'information au sein de plans de classement. Ce système est basé sur la cooccurrence et la fréquence de mots-clés définis lors de l'initialisation de la veille et modifiables à volonté en cours de veille. UniCrawl est par ailleurs capable de gérer plusieurs dossiers de veille simultanément, dossiers reposant sur des périmètres variés (ensemble de sources à surveiller), des langues variées, des thématiques variées. Les mots-clés peuvent ainsi être fournis dans n'importe quelle graphie et n'importe quelle langue. L'enjeu d'UniCrawl réside dans l'alimentation d'une plate-forme d'analyse de l'information multilingue pouvant gérer de multiples dossiers correspondant chacun à une problématique de veille particulière. Un dossier est défini par un ensemble de thématiques à considérer, un ensemble de langues ou de zones géographiques à contrôler, un ensemble de sources à surveiller. Plus le périmètre de la veille est vaste, et plus le nombre d'acteurs sur le dossier est important. Le projet rassemble alors des profils très variés, fonction du degré d'expertise du domaine et des compétences linguistiques de chacun. Bien évidemment les ressources humaines « rares » sont affectées à plusieurs dossiers, un expert du chinois ou du coréen pourra par exemple travailler simultanément sur quatre ou cinq dossiers. Se pose alors un problème de travail collaboratif, notamment pour l'accès au contenu d'une information rédigée dans une langue inconnue des experts du domaine : l'information est identifiée comme pertinente par le système mais comment y avoir accès ? Les experts linguistiques travaillant simultanément sur plusieurs dossiers ne peuvent être systématiquement réquisitionnés lors de la détection d'une nouvelle information. La constitution d'une plate-forme d'analyse multilingue et collaborative, construite autour d'Unicode apporte une réponse. Les experts du domaine ou responsables de dossier n'ayant pas les compétences linguistiques nécessaires peuvent de manière autonome visualiser l'information et demander au système une traduction automatique. Celle -ci, même de piètre qualité, permet d'avoir un premier aperçu de la pertinence de l'information. Si c'est le cas, ils peuvent alors formuler une requête de synthèse « manuelle » auprès de l'expert linguistique compétent. Celui -ci traitera alors le document en fonction de la répartition de son activité. C'est donc en unifiant les procédures de détection, d'archivage, de visualisation et d'analyse automatique (indexation, résumé, traduction automatique), qu'Unicode permet d'améliorer la surveillance d'une information internationale chaque jour plus abondante. La constitution d'un fonds documentaire électronique à partir de sources variées nécessite, comme pour toute conception de systèmes d'information ouverts, une réflexion sur la gestion des codages des documents. Faut-il conserver les documents dans leur codage d'origine ? les convertir dans un codage unique dès leur entrée dans le système et ne garder que le document sous cette forme résultante ? ou bien conserver de manière permanente les deux versions ? ou bien alors convertir la version d'origine dans un codage commun uniquement lorsque le document est manipulé ? et si oui, quel codage unique choisir ? quelles propriétés doit-il avoir ? Et tout d'abord pourquoi ne pas tout simplement stocker et manipuler les documents sous leur forme d'origine, sans du tout se soucier de leur codage ? La réponse réside dans la nécessité d'un décodage correct des documents pour permettre un rendu visuel correct à l'utilisateur et une cohérence de l'analyse automatique de leur contenu. Concernant le décodage, la problématique est simple. Qui n'a jamais reçu de courriers électroniques dans lesquels les caractères accentués d'origine étaient mystérieusement et régulièrement remplacés par des caractères incongrus ? À qui la faute ? à l'auteur du message qui aurait dû se soucier de la diffusion de son document ? à son système informatique qui n'est pas compatible avec le vôtre ? ou bien au vôtre qui n'est pas compatible avec le sien ? ou bien à vous qui ne savez pas configurer votre machine pour afficher correctement un document externe ? ou bien au réseau au travers duquel a transité le fameux document ? Quoi qu'il en soit, le document ne s'affiche pas correctement et c'est plutôt rageant ! Sur internet, auquel on accède couramment via un navigateur tel que Netscape ou Internet Explorer, les problèmes de décodage des pages ont quasiment disparu. Ceci est possible grâce à un enrichissement des protocoles d'échanges d'informations entre les systèmes informatiques distants, qui incluent des informations facultatives sur le codage utilisé, et des capacités des dits navigateurs qui assument désormais beaucoup plus correctement la gestion des codages à partir des informations contenues dans les protocoles et des techniques complémentaires d'identification automatique des codages. Cet enrichissement rend quasiment transparent pour l'utilisateur la variété des codages. Ceci dit, lorsque le problème est de concevoir un nouveau système d'information, ou en l'occurrence un agent de recherche, ces fonctionnalités de prise en charge des codages sont à intégrer. Elles sont d'ailleurs d'autant plus importantes à considirer si le systhme est censi jtre 2 multilingue car autant le texte reste lisible si le codage utilisé à la réception est proche de celui utilisé à l'émission, autant la compr=E9hension 3 peut xr%r$^l ^toudd^*nr 4 si les codages diffèrent totalement. Le rendu visuel est un premier point qui conduit à se soucier des variétés de codages; la cohérence de l'analyse automatique du contenu en est un deuxième. Le rendu visuel est un premier point qui conduit à se soucier des variétés de codages; la cohérence de l'analyse automatique du contenu en est un deuxième. L'agent de recherche incluant des fonctionnalités de filtrage et de catégorisation de l'information en fonction de leur contenu, il convient de gérer convenablement les codages afin de traiter de manière uniforme deux documents écrits dans la même langues et codés de manières différentes, afin de ne pas considérer deux sequences d'octets comme représentant deux mots différents, alors que la différence ne réside que dans la manière de représenter ce mot UniCrawl est un agent de recherche disposant d'une certaine autonomie. Nous souhaitions en effet disposer au minimum d'une interface de supervision permettant bien entendu de configurer des veilles mais également de composer et de publier des synthèses récapitulatives multiscripts (mêlant différents alphabets) sur l'information recueillie. La nécessité de passer par un codage unique était alors incontournable. Par ailleurs, UniCrawl a été conçu avec un soucis d'interfaçage avec un système d'analyse et de traitement de l'information plus général, incluant notamment des analyses linguistiques de contenu (résumé automatique, extraction de citations…). Ne souhaitant pas aborder dans tous les modules du système d'information la question du codage, nous avons choisi de régler le problème en amont, c'est-à-dire lors de l'alimentation : UniCrawl a donc été chargé de fournir des documents dans un codage unique. La stratégie de gestion des codages retenue dans UniCrawl est de passer par un codage unique, un format pivot dans lequel les documents sont convertis et stockés dès leur entrée dans le système. Ce codage ne devant pas induire de perte d'informations, c'est JUC 5, ou plus précisément Unicode, qui a été choisi pour sa capacité à représenter l'information multilingue. La forme stockée de caractère retenue est Unicode Transformation Format 8, à savoir UTF-8, la taille des documents devant rester raisonnable. UTF-8 convient également pour ses capacités à transmettre, traiter et stocker l'information, tout en garantissant une compatibilité avec d'autres standards (notamment IS0 4873 et ISO 2020). Avec UTF-8, le nombre d'octets nécessaires pour coder un caractère JUC varie de 1 à 6, le premier octet indiquant si besoin le nombre d'octets à suivre pour représenter le caractère. Le tableau 1 illustre ce principe. Le tableau 2 illustre la transformation de caractères JUC en UTF-8. La mise au point de la stratégie de gestion des codages et notamment le choix d'adopter Unicode comme format pivot n'a en fait pas suscité de longs débats. Des décisions plus délicates ont résidé dans le choix des langages et librairies permettant la manipulation aisée d'Unicode. L'intégration a montré que le support d'Unicode n'était encore que partiel dans beaucoup de distributions de langages de programmation, et qu'une fois réglés les derniers problèmes techniques sous-jacents, quelques lourdeurs d'utilisation liées semble -t-il à la conception même d'Unicode subsistent. Format des octets d'une séquence UTF-8 Fonction de l'octet Format binaire Nb de bits libres dans l'octet Nb de bits libres à suivre 1er d'une séquence de 1 0xxxxxxx 7 - 1er d'une séquence de 2 110xxxxx 5 6 1er d'une séquence de 3 1110xxxx 4 6+6 1er d'une séquence de 4 11110xxx 3 6+6+6 1er d'une séquence de 5 111110xx 2 6+6+6+6 1er d'une séquence de 6 1111110x 1 6+6+6+6+6 2e au 6e d'une séquence 10xxxxxx 6 Exemples de codage en UTF-8 d'un caractère JUC Glyphe Code JUC (hexa) Nom du caractère JUC Code JUC (binaire) Code UTF-8 a 0061 LETTRE MINUSCULE LATINE A 1100001 01100001 é 00E9 LETTRE MINUSCULE LATINE E ACCENT AIGU 11101001 11000011 10101001 € 20AC SYMBOLE EURO 10000010101100 11100010 10000010 10101100 Comme dans tout système d'information ayant abordé cette problématique, nous avons distingué deux phases dans la conversion des pages de contenu recueillies vers Unicode : une phase d'identification du codage de la page; une phase de transcodage du codage source vers Unicode L'identification du jeu de caractères d'une page de contenu recueillie sur internet peut se faire au moyen de différentes techniques complémentaires à l'aide du paramètre optionnel « charset » du Content-Type situé dans l'entête mime définie par le protocole d'échange de documents hypertextes HTTP (c'est une des techniques utilisées par Internet Explorer); à l'aide de critères discriminants (séquences de bits caractéristiques d'un codage – technique mise en œuvre par exemple dans le package international de Mozilla de Netscape) ou par fréquence de séquences d'octets à l'aide de l'attribut optionnel ‘ charset'qui indique le codage utilisé dans une page HTML à l'aide d'un nom de codage associé à un site particulier. La phase de transcodage peut être réalisée en utilisant des bibliothèques de transcodage existante (par exemple ‘ iconv ', ‘ recode '). Plusieurs bibliothèques sont souvent nécessaires car elles ne couvrent pas toutes le même ensemble de codage. Le package international (‘ intl ') de Mozilla est également un bon point de départ. Les langages de programmation ne sont pas tous égaux face à Unicode. En fait, peu nombreux sont les langages qui supportent Unicode en natif. Le langage Perl fournit un support particulièrement agréable, notamment via les packages Unicode et utf8. Alors que la plupart des langages font correspondre un caractère à un octet, le support d'UTF-8 nécessite de gérer les caractères comme ayant des tailles variables en octets. Il s'ensuit que les primitives de manipulation de chaînes de caractères, conçues pour des caractères de taille fixe en octets, deviennent obsolètes. La longueur d'une chaîne n'est plus son nombre d'octets (ou un multiple du nombre d'octets), le nième caractère n'est plus le nième octet… tous les mécanismes d'itération sur les caractères sont à reconsidérer si le langage de programmation ne supporte pas UTF-8 en natif, idem pour les primitives de conversion ou de comparaison de chaînes en minuscules ou en majuscules 6. Un des points les plus critiques concerne le support d'Unicode dans les expressions régulières, beaucoup utilisées en traitement automatique des langues 7. Ces différents points sont abordés dans les rapports techniques Unicode accessibles en ligne à partir du site web http:// www. unicode. org. Perl a été un des premiers langages à fournir un support UTF-8 de qualité et reste aujourd'hui une excellente solution pour des mises en œuvre rapide d'Unicode. Une fois réglés les problèmes de support d'Unicode par l'utilisation de primitives adaptées, l'analyse automatique de contenu avec Unicode ne pose pas de véritables problèmes. Les techniques d'analyse automatique de contenu traditionnelle restent valides. Bien entendu les éditeurs de fichiers ne fournissent pas tous un support d'Unicode et manipuler des lexiques ou des fichiers de règles Unicode dans un éditeur non compatible Unicode n'est pas toujours immédiat ! mais cela peut se régler facilement par l'utilisation d'un éditeur adapté. Unicode n'apporte cependant pas une réponse à tous les problèmes. On pourrait par exemple s'étonner du fait que plusieurs occurrences de caractères tels que les guillemets « à la française » ouvrant et fermant existent dans Unicode. Ce choix peut a priori surprendre. Il est motivé par le rendu visuel de ces caractères qui différent selon la langue : les ponctuations ont par exemple un alignement différent en chinois et en français. On aurait pu s'attendre à ce qu'une seule occurrence du caractère existe dans Unicode et que l'alignement soit géré contextuellement lors de la mise en page du texte, de la même manière qu'un texte en arabe est affiché contextuellement de droite à gauche lors de la mise en page. Lors d'analyse automatique de contenu, ces redondances imposent la manipulation de classes d'équivalence d'un caractère » unique » plus exactement à valeur fonctionnelle unique dans un traitement. Pour qu'un module isolant les ponctuations fonctionne de manière identique sur un segment de texte en français et un segment de texte en chinois, il faudra par exemple construire une classe d'équivalence pour chaque type de ponctuation, les points de fin de phrase ou les guillemets, et manipuler cette classe dans l'algorithme. En cela, Unicode peut ressembler à une mise bout à bout de codes existants et ne pas répondre complètement aux problèmes de redondances (ou de factorisation) des caractères. Mais à l'usage, on s'aperçoit que les choix conceptuels n'étaient pas si faciles et que le gain dans l'utilisation d'Unicode est substantiel. L'indexation des contenus, qui se fait en grande partie automatiquement, est une pratique courante et qui désormais n'est plus limitée à une zone culturelle, comme nous l'avons évoqué plus haut. Pour revenir à des situations plus banales que la veille technologique, prenons le cas des annuaires et moteurs de recherche sur internet. Dans la mesure où des documents, quelle que soit leur origine, ont été indexés par un moteur de recherche tel que Yahoo ou Google, ils peuvent, à moins d'avoir été supprimés ou déplacés entre-temps, être retrouvés et visualisés. Les problèmes d'affichage ne se posent pas ou pratiquement plus, comme on le sait par expérience. Après une recherche d'information par mots-clés, la consultation des textes réputés pertinents peut dévoiler des documents de langues variées, un premier article en anglais et un autre en chinois par exemple. Bien entendu, la capacité d'utiliser l'original est conditionnée par les connaissances de l'utilisateur. Un utilisateur francophone peut fort bien lire et l'anglais et le chinois… ou se trouver démuni. A vrai dire, la même éventuelle frustration existait bien avant Unicode, et peut apparaître à chaque fois que l'on passe par un système d'indexation, qu'il soit automatique ou manuel. Lorsque des indexeurs humains ont répertorié des articles de toutes langues et rendu théoriquement accessibles des ressources très variées, il se peut qu'au terme d'une recherche, après avoir raffiné les descripteurs, on trouve enfin la référence tant attendue sur la mécanique des fluides en milieu fermé interdisques… et que l'on s'aperçoive qu'elle correspond à un article en russe. Déception si on ne lit pas le russe… Il ne reste alors qu' à envisager une traduction. La nouveauté induite par l'indexation de documents Unicode et leur signalement réside donc dans le fait que les publics concernés sont de plus en plus larges, non plus quelques spécialistes, mais la majorité des internautes. Plus le standard Unicode se répand et plus la masse des documents disponibles augmente, n'étant plus limitée de facto par le système de codage local. Unicode permet de donner à voir des textes, mais aussi de traiter l'information par des moyens informatiques. Le fait d'avoir accès à de l'information synthétisée à partir de nombreuses sources d'origine mondiale est un indiscutable gain de couverture, apprécié par les utilisateurs qui s'intéressent généralement à un domaine particulier. Ils sont satisfaits de ne plus avoir de zones d'ombre, dues aux barrières d'écriture et/ou de langue : les barrières de transmission électronique sont tombées. Mais rien ne change en apparence, dans la pratique, car les informations, entrées par exemple dans une base de données, sont normalisées pour correspondre au langage de requête de cette base, puis synthétisées. Elles sont fournies en sortie sous des formes variées, depuis la liste de descripteurs de thésaurus (normalisés) jusqu'aux statistiques, graphiques ou autres modes de représentation, avec des légendes ou commentaires adaptés à l'usage qui en est fait : pour des utilisateurs francophones, par exemple, un système convivial fournit les dénominations d'items et les légendes de schémas en français, mais aussi les menus et les aides en ligne en français. Les données traitées en interne représentent des informations abstraites, détachées de leur origine, et l'information synthétisée est fournie en sortie de façon parfaitement transparente. Cependant, elle doit être présentée dans un format lisible par quelqu'un, appartenant à une communauté culturelle et linguistique, et à un marché potentiel. Ainsi, dans la plupart des cas, Unicode permet cette transformation de données textuelles hétérogènes en information unifiée. Un cas particulier d'usage est l'informatique linguistique et plus précisément l'analyse textuelle, que nous aborderons tour à tour du côté des utilisateurs et à nouveau du côté des concepteurs de programmes ou systèmes informatiques. Plusieurs rapports de l'utilisateur au texte original sont possibles. Comme on l'a vu, ce rapport peut être totalement inexistant, l'information étant filtrée puis reformulée sous une forme très synthétique. Mais on souhaite souvent annoter directement le texte d'origine, fonction prévue par de nombreux systèmes d'analyse de l'information, par exemple pour surligner les citations de personnalités dans la presse. On peut aussi prévoir l'accès au texte d'origine pour valider un résultat ou raffiner une recherche. Les pratiques nouvelles d'analyse de l'information sont fondées sur des procédures de plus en plus largement automatisées notamment de résumé automatique. Si l'information apportée par le résumé est intéressante, l'utilisateur demande à consulter le texte original. Il n'y a pas de problèmes pour l'utilisateur, qui consulte les textes qu'il peut lire et comprendre. En ce qui concerne les concepteurs, il n'en va pas de même. Le traitement automatique de documents Unicode pose le problème de manipulation d'ensembles de textes multiscripts qui ne sont pas lisibles par ceux qui écrivent les programmes, ou lisibles seulement en partie. L'attitude des étudiants et chercheurs en informatique linguistique oscille entre deux extrêmes que nous pouvons schématiser par l'attitude de repli et l'attitude d'ouverture. Dans le premier cas, on observe un refus net de traiter des textes dans une langue inconnue du programmeur, a fortiori si la graphie lui est inconnue. Si c'est du chinois, alors on ne peut rien faire ! Le programmeur s'estime totalement incompétent, voire lésé s'il ne peut valider lui -même la pertinence ou la qualité sémantique des sorties. La seconde attitude, plus fréquente chez les ingénieurs, consiste à considérer qu'une chaîne de caractères n'est jamais qu'une chaîne de caractères, et que les pratiques établies pour un traitement informatique sont applicables sur n'importe quel document électronique. Ils laissent à un utilisateur final le soin de valider les aspects sémantiques, donc de décider si les résultats, qu'ils soient directement lisibles ou non par le programmeur, ont réellement un sens et répondent aux attentes du commanditaire du traitement. Comme cette attitude est plus rare que l'attitude de repli, nous avons souvent l'impression d' être des pionniers en terra incognita. Pouvoir collecter des textes en n'importe quelle graphie, en n'importe quelle langue est une situation très nouvelle et s'attacher à des traitements Unicode paraît encore un défi. Il n'empêche que les utilisateurs réclament pour leur part et de plus en plus souvent une couverture dite multilingue. Alors même que ce souci s'affirme, la validation du résultat passe par la confrontation avec l'original, et plus la couverture du système est grande, plus les utilisateurs doivent être nombreux et polyglottes. Les techniques Unicode sont un bon exemple de l'élargissement d'une palette de possibles; en face d'une offre plus variée, il faut avoir en contrepartie une meilleure capacité à identifier des médiateurs, des traducteurs notamment, pour rendre l'information réellement accessible et significative pour un utilisateur final. Nous avons évoqué les pratiques rendues possibles par la norme ISO/CEI 10646 dite Unicode et en particulier l'intégration d'Unicode dans UniCrawl, un agent de recherche d'information sur internet, dont nous avons décrit la réalisation. Nous avons également évoqué quelques facettes de l'accès au texte libre, éventuellement « exotique ». Une avancée technique en dévoile une autre à accomplir. Unicode satisfait des besoins d'échanges ou de consultation en ligne mais dans le même temps suscite des besoins de traduction, dirons -nous pour simplifier. La traduction automatique existe, elle rend de grands services, notamment pour juger si un document est intéressant ou non, mais elle n'est pas encore d'excellente qualité. Aussi pensons -nous que l'adoption de la norme ISO est un premier pas vers une demande qui se fera plus forte d'ingénierie linguistique .
La norme ISO/CEI 10646 que l'on appelle couramment Unicode est passée assez discrètement dans les faits. Sa manifestation la plus claire est la possibilité de consulter des sites du monde entier, sans plus être pénalisé par l'incompatibilité des systèmes d'échange et d'affichage des données texte. Donner à voir des documents dans des graphies très diverses, ou « multiscript ", mais aussi indexer, traiter l'information automatiquement est désormais possible. Face à ce progrès technique, les réactions sont plus ou moins rapides. Nous présentons ici un exemple de réalisation d'automate de collecte et traitement d'information à partir de documents multiscript, et évoquerons les difficultés ou réticences constatées par ailleurs.
sciencesInfo_06-0253621_tei_DN_063_0225.tei.xml
termith-518-communication
LE PROJET DE CE CODE DE DÉONTOLOGIE DESTINÉ AUX professionnels de l'information scientifique et technique exerçant dans le monde de la recherche a bénéficié du soutien du CNRS et a été mené par un groupe de documentalistes issus de ses rangs. Il a abouti, en février 2007, à une proposition de principes déontologiques qui participent de la co-régulation entre les différents acteurs de la recherche : chercheurs, professionnels de l'information, institutions et autres. Ce « terrain de la régulation » – une régulation fortement souhaitée par la Communauté européenne – correspond à une évolution de la norme juridique. Car, plutôt que d'édicter des règles juridiques et pour éviter une multiplicité de lois, il est préférable de se placer sur le plan du débat et de la négociation, afin d'aller vers un droit accepté, négocié et susceptible de révision. Le code de déontologie présenté à la fin cet article correspond à la mise en œuvre de cette évolution. Son application interviendra après sa validation (en cours) par le CNRS. Dès 2001, le groupe ISIDORA (Réseau d'information scientifique interdisciplinaire des documentalistes en région Rhône-Alpes) a mis en place avec le Service de la formation permanente du CNRS, délégation Alpes, une session intitulée « Droit et documentation ». À l'issue de cette formation, certains participants ont souhaité créer un groupe de travail afin de confronter les pratiques des professionnels de l'information avec les règles du droit. Avec une juriste, ce groupe, baptisé « Isidroit », a entamé un travail de recensement des problèmes juridiques que rencontrent les documentalistes dans leur pratique. La mise en place de ce dispositif original, fondé sur la collaboration entre documentalistes et juristes, a fourni l'occasion de porter un double regard sur l'ensemble des problématiques rencontrées par la profession. En 2004, par l'intermédiaire de sa Mission des ressources et compétences technologiques (MRCT), le CNRS a lancé un appel à projets auquel Isidroit a répondu. Une source de financement a ainsi été obtenue pour élaborer un code de déontologie. Dès le démarrage des travaux, le groupe Isidroit-Déontologie s'est ouvert à d'autres établissements publics à caractère scientifique et technologique (EPST) : documentalistes du Commissariat à l'énergie atomique, du Cemagref, de l'European Synchrotron Radiation Facility (ESRF). Cette volonté a été fondamentale pour confronter des expériences diverses selon les organismes et les domaines scientifiques. Les réunions se sont tenues régulièrement en présence de l'experte juriste : la mise en place du projet a nécessité des rencontres avec des documentalistes de la recherche d'horizons divers, toutes disciplines confondues. Dès le départ, il a fallu recenser l'ensemble des pratiques spécifiques à chaque domaine afin de faire apparaître les différents questionnements juridiques afférents dont les réponses seraient reprises sous forme de principes dans le code de déontologie. Le travail réalisé se décompose de la manière suivante : travaux autour de la notion de code de déontologie; recherche d'une méthodologie; ateliers de création; analyse des résultats et rédaction du code; validation et communication. Une journée d'étude autour de la notion de code de déontologie a ouvert le processus, en avril 2005. Les questions relatives à la responsabilité juridique des professionnels de l'information ont été posées à partir d'exemples concrets. Puis des professionnels (bibliothécaire ou documentaliste ou archiviste), qui ont joué un rôle actif dans l'élaboration de codes 2, les ont présentés tout en expliquant les difficultés qu'ils avaient rencontrées et les écueils à éviter : Jean-François Jacques, alors président du Conseil supérieur des bibliothèques, a présenté le code élaboré par l'Association des bibliothécaires français (ABF); Michèle Battisti, de l'ADBS, a présenté celui de l'European Council of Information Associations (ECIA); enfin Michel Gorin, enseignant à la Haute École de gestion de Genève (Suisse), celui des bibliothécaires de son pays. En conclusion de cette journée, il est ressorti qu'un code de déontologie est fondé sur des pratiques professionnelles rigoureuses et qu'il doit absolument expliciter les valeurs professionnelles auxquelles adhèrent ceux dont il régit les pratiques. Une fois ces fondamentaux posés, il a fallu trouver une méthodologie pour impliquer dans ce travail les professionnels de l'information et documentation de nos laboratoires. Le groupe Isidroit a commencé par se tourner vers le groupe-métier d'Isidora. Des réunions de travail ont été organisées avec des documentalistes volontaires de ce groupe. Il a fallu rapidement comprendre qu'il était difficile de faire émerger des axes de réflexion précis et cohérents. L'animation de telles rencontres nécessitait une démarche particulière, notamment une certaine neutralité de l'animateur pour recadrer les débats engagés. Il a alors été décidé de faire appel à un cabinet extérieur qui avait déjà travaillé avec des documentalistes et qui avait donc une réelle connaissance de leurs pratiques. Les contraintes de départ et les contradictions à dépasser ont alors été listées avec l'expert de cet organisme : un budget limité : le groupe de projet souhaite disposer d'une méthodologie de travail reproductible pour éviter le recours systématique à un cabinet extérieur si la démarche doit être démultipliée; une nécessité : trouver des volontaires pour rédiger le code, sachant que leur participation ne sera pas financée et que la disponibilité des documentalistes est limitée; réunir une diversité représentative de documentalistes pour tenir compte des spécificités de chaque discipline ou institution, tout en trouvant le dénominateur commun dans un code de déontologie : il faut pouvoir entendre les cas particuliers tout en construisant un code de référence pour l'ensemble de la profession; pour pouvoir être reconduites, les réunions doivent prouver leur efficacité. Le travail de groupe n'est efficace et productif qu'avec des groupes de huit à dix personnes au maximum; plusieurs codes existent déjà (documentalistes, bibliothécaires), mais aucun ne souligne les particularités ni la spécificité des documentalistes de la recherche. Il faudra en tenir compte. Partant de ce constat, une première proposition d'intervention a permis d'arrêter un format d'animation sur mesure alternant des séquences en travail individuel et des séquences de réflexion collective. Une deuxième réunion a permis d'affiner et d'enrichir cette première proposition à partir des remarques du groupe de projet. L'objectif est donc d'impliquer les futurs usagers du code en amont de la rédaction du code proprement dite. Professionnels de l'information, ces usagers doivent : s'approprier la démarche, comprendre quelle est l'utilité de ce code pour eux, pour leurs usagers et pour leur profession; comprendre qu'ils sont collectivement les garants du code : celui -ci sera ce que les intéressés veulent en faire, il doit leur correspondre, ils doivent s'y retrouver; comprendre qu'ils sont les auteurs du code : rien n'est figé a priori, ni le format, ni le type de document, ni le style rédactionnel, ni les modes de diffusion. Plus qu'une simple consultation, cette démarche de concertation des acteurs est un gage de crédibilité pour les institutions qui valideront ce code afin d'en faire un document de référence. Le format d'animation qui a été choisi vise d'une part à créer une dynamique de travail et à fédérer la profession pour initier une réflexion collective qui se poursuive dans le temps; d'autre part à collecter des idées pour la rédaction du code, même si certaines séquences ne sont pas immédiatement opérationnelles (au sens où elles ne donnent pas un matériau directement exploitable pour rédiger le code). En toile de fond, chacune des séquences doit permettre aux documentalistes d'identifier les particularités de leurs pratiques en recensant les problèmes juridiques, éthiques et organisationnels auxquels ils sont confrontés. Partant de ces principes, il a été décidé d'organiser plusieurs sessions de « création » avec des groupes différents de huit à dix personnes. Chaque session s'est déroulée sur une journée et a alterné des phases d'expression individuelle et collective ainsi que des exercices écrits et oraux, et se sont partagées en deux ateliers d'une demi-journée chacun : un « atelier des pratiques » visant à expliciter les pratiques professionnelles, les valeurs de la profession et à faire le point sur ses évolutions; et un « atelier de rédaction » visant à engager un travail d'écriture collective. Chaque atelier comprenait plusieurs séquences. Chacune d'elles abordait un thème et comportait une consigne de travail précise énoncée par l'animateur. A partir du canevas précédemment évoqué, le groupe de projet a mis en place, avec l'animateur, un certain nombre d'exercices que nous décrivons ici. Ces exercices ont été affinés ou adaptés chaque fois que nécessaire. • La journée commence par une présentation du programme et des modalités de travail. Il s'agit de motiver les participants, de leur donner une visibilité sur les enjeux et la finalité de la démarche. Cette première étape est un peu formelle, mais indispensable pour poser le cadre de travail et mettre les participants en confiance. • Elle se poursuit par la présentation des participants, après qu'il leur a été demandé de se choisir un totem représentatif de leur métier. Les présentations devraient être riches et permettre de dresser un panorama de la manière dont les documentalistes de la recherche vivent et conçoivent leur métier. Le passage par la symbolique des totems offre une présentation moins formelle, très personnelle et très imagée. Il s'agit d'une technique projective classique en animation de groupes. • Le travail sur les valeurs. Il s'agit de noter sur des post-it (un mot clé / une idée par post-it) les qualités d'un bon documentaliste de la recherche : son état d'esprit, son attitude, ses compétences, son éthique, ses souhaits, etc. Après cinq minutes d'écriture individuelle, les productions sont mises en commun au tableau, commentées et regroupées par thèmes. Cette technique est une variante du diagramme des affinités. L'objectif de cet exercice est de définir individuellement ce qu'est un bon documentaliste de la recherche de manière à, d'une part, fédérer le groupe de travail autour de valeurs communes et, d'autre part, à réunir, grâce à la synthèse de ces formulations, un matériau utile pour la rédaction d'une introduction au code de déontologie. Cet exercice doit permettre de réaliser rapidement une sorte de cartographie des valeurs des documentalistes au travers d'un ensemble de mots clés, de fédérer les participants autour de ces valeurs et de réaliser quelques ajustements sémantiques. • Descriptif de pratiques : les zones problématiques. Cet exercice combine plusieurs approches (sociologie, ergonomie) qui sont utilisées, par exemple, pour la conception de produits nouveaux. Une liste des tâches effectuées par les professionnels de la documentation a été préalablement établie, complétée et validée par le groupe de projet [<hi rend="italic">tableau 1</hi> ]. À partir de cette liste affichée, on demande à chaque participant d'identifier : les trois tâches les plus appréciées : celles par lesquelles les documentalistes de la recherche se sentent le mieux valorisés; les trois tâches les plus problématiques : celles qui peuvent notamment poser des problèmes éthiques et juridiques. Cet exercice vise à extraire des « zones critiques » et à les représenter visuellement. Descriptif de pratiques : identifier les zones problématiques N° DES TÂCHES INTITULÉS DES TÂCHES (AJOUTS DU GROUPE ) 1 Accueil et orientation de publics, d'usagers sur place 2 Recherche d'informations à la demande des utilisateurs 3 Localiser et fournir des documents 4 Administrer une base de données, l'exploiter, la mettre à jour 5 Alimenter un site Internet, Intranet ou portail 6 Élaborer des circuits d'information, gérer des processus, optimiser les procédures 7 Réaliser/piloter une veille documentaire 8 Réaliser/piloter une veille sur l'évolution des techniques documentaires et du métier 9 Acheter, gérer des acquisitions 10 Gérer des abonnements 11 Cataloguer 12 Archiver 13 Indexer 14 Classer et ranger des documents 15 Gérer les entrées et les sorties de documents 16 Réaliser des synthèses ou dossiers documentaires 17 Choix, suivi des éliminations périodiques, politique de conservation 18 Elaborer des catalogues 19 Collaborer ou animer un réseau documentaire 20 Réaliser une revue de presse 21 Valorisation de la production scientifique, gestion de la publication scientifique 22 Mettre en œuvre des actions de communication interne 23 Mettre en œuvre des actions de communication externes 24 Édition 25 Gérer un budget 26 Établir des indicateurs et tableaux de bord 27 Réaliser un relevé des besoins et enquêtes de satisfaction 28 Former des utilisateurs ou organiser des formations (à la recherche documentaire et aux outils ) 29 Manager une équipe, encadrer, animer 30 Se former à l'évolution des technologies 31 Impulser ou participer au développement et au choix de nouveaux outils (logiciels, etc. ) 32 Gérer les équipements et matériels (photocopieurs, informatique, etc. ) 33 Impulser et participer à la mise en place d'une politique documentaireCette séquence doit permettre d'identifier les problèmes éthiques liés au métier de « documentaliste de la recherche » pour chacun des participants. Elle doit également permettre de repérer les éventuels besoins d'évolution professionnelle. • Les évolutions de la profession. Il s'agit de s'assurer que le code sera en phase avec les évolutions du métier. Deux questions sont posées individuellement avant une mise en commun des réponses : que diriez -vous des évolutions de votre métier ? Qu'est -ce qui a changé selon vous ces dernières années ? Ces évolutions sont en partie connues mais le questionnement du groupe sur ce thème permet de partager les perceptions de chacun sans prétendre à l'exhaustivité. • Critères d'évaluation de la qualité du code. L'énoncé de ces critères permet d'exprimer ou de reformuler des besoins, d'établir, pour le groupe de travail, un cahier des charges du projet et d'impliquer les participants dans la production finale. Cet exercice vise à cerner tout l'intérêt du code et à entrevoir ce qu'il peut apporter. Ce questionnement est indispensable pour produire un code « consensuel ». • Dans quelles situations peut-il être utile de recourir à un code de déontologie ? Il s'agit, pour motiver le groupe, de cerner l'utilité du code. Cet exercice consiste, à partir d'une question simple, à lister les situations où l'on devrait avoir recours à un code de déontologie. Le travail s'effectue en deux sous-groupes pour dynamiser et comparer les résultats. Deux questions sont distribuées (une pour chaque groupe) : si vous aviez un code de déontologie, imaginez les situations dans lesquelles vous pourriez y avoir recours ? quelles sont les situations dans votre quotidien où vous souhaiteriez pouvoir consulter un code de déontologie ? Cet exercice est une forme d'entraînement à la rédaction proprement dite du code. La deuxième demi-journée de chaque session va permettre aux participants de s'imprégner et de comparer des codes déjà existants. Quatre codes 2 ont été retenus car ils concernent soit les bibliothécaires soit les documentalistes et sont rédigés en français : le Code de déontologie des bibliothécaires genevois, les Principes déontologiques des professionnels de l'Information et Documentation de l'ECIA, le Code de déontologie du bibliothécaire de l'ABF et le Code de déontologie de la Corporation des bibliothécaires professionnels du Québec (CBPQ). L'idée est de s'inspirer de ces codes pour évaluer ce qui reste pertinent pour la profession dans le cadre de la recherche et identifier ce qu'il faudra ajouter par rapport à la spécificité de la recherche et aux évolutions récentes. À partir de ces quatre codes, un tableau synoptique est créé par le groupe de travail moteur du projet. Les rubriques d'analyse retenues sont : les rapports avec la tutelle, les rapports avec la profession [<hi rend="italic">voir un exemple en tableau 2</hi> ], les rapports avec les usagers et le traitement de l'information. Les différents items de chacun des codes sont donc reclassés selon ce plan. Chaque groupe participant aux ateliers de création est invité à discuter chacun des 138 items ainsi définis, à les valider ou à les reformuler. Par la suite, toutes les propositions seront reprises dans un document synthétique. Tableau synoptique des codes existants classes selon différentes rubriques exemple d'une page RUBRIQUE CODE CONTENU RE-FORMULATION Profession ABF Les personnels des bibliothèques forment un corps professionnel solidaire Au sein de ce corps, le bibliothécaire trouve ? aide et assistance, et apporte ses connaissances et son expérience. Dans ce cadre, le bibliothécaire • Contribue à l'utilité sociale de la profession • Exerce son métier sans laisser interférer ses intérêts ou ses opinions personnelles • Développe son savoir professionnel, se forme et forme afin de maintenir un haut degré de compétence • Visite des bibliothèques, rencontre des collègues, y compris à l'étranger • S'implique dans la vie professionnelle en étant membre d'associations professionnelles, participe à des congrès (nationaux ? et internationaux ?) et en rend compte • Publie et transmet, fait avancer le réflexion autour ? du métier en participant à des publications, à des colloques et journées d'étude • Encourage la coopération, la mutualisation d'outils, l'appartenance à un réseau de coopération et de partage des savoirs • recherche l'amélioration des services par l'innovation • Milite activement pour le recrutement et la promotion de personnel qualifié • Élargit les publics • S'implique professionnellement et intègre son établissement dans la vie de la cité SUISSE Le bibliothécaire acquiert, entretient et approfondit les compétences professionnelles requises par l'exercice de sa profession. Il bénéficie d'une formation professionnelle ? continue et contribue à promouvoir la bonne image de sa profession Il œuvre pour l'obtention d'un statut professionnel reconnu et favorise l'engagement de personnel qualifié dans les bibliothèques. Il fait preuve de solidarité professionnelle en conseillant les bibliothèques et les bibliothécaires en fonction de leurs besoinsQuatre journées ont été organisées dans différentes villes (Paris, Lyon, Grenoble) et ont rassemblé chaque fois une vingtaine de participants issus de divers laboratoires du CNRS ou d'autres EPST. L'expérimentation n'a pas été poursuivie car les résultats et les propositions obtenus se recouvraient suffisamment pour offrir une base de travail pertinente. • Les ateliers des pratiques ont permis aux participants de s'exprimer sur leur vécu et d'avoir des échanges structurés autour de situations de travail tout en objectivant leurs pratiques. L'animateur, quant à lui, reformulait d'une manière synthétique les remarques ou les propositions faites. Ce travail a été fondamental pour que chaque professionnel se sente à l'aise et écouté. Par la suite, il a permis de s'assurer que le code prenait en compte tous les points évoqués. Prenons l'exemple de l'exercice 4 « Descriptif des pratiques ». Une trame de départ est donnée qui liste un certain nombre de tâches [<hi rend="italic">tableau 1</hi> ]. Parmi celles -ci, « l'alimentation d'un site Internet, Intranet ou portail » a donné pour résultat les formulations suivantes au moment de la synthèse : nécessité de connaître les règles de base du droit de l'information et le droit lié à l'utilisation des données; le documentaliste doit transmettre aux utilisateurs les notions élémentaires de droit en ce qui concerne l'information; le documentaliste doit veiller à la validité scientifique des informations diffusées à partir d'un travail scrupuleux de recoupement de l'information (cf. le journaliste) et de vérification des sources; nécessité d'une politique d'établissement claire pour l'alimentation de certaines bases de données; il faut une répartition précise des tâches entre les chercheurs et les documentalistes : définir la place du documentaliste dans le processus d'alimentation des bases. Il sera ainsi possible de vérifier que ces propositions ont bien été prises en compte d'une manière ou d'une autre dans l'énoncé des principes de la version finale du code. • Les ateliers de rédaction : à partir du tableau synoptique des quatre codes considérés, chaque participant est invité à lire les textes et à surligner ce qui lui paraît important à garder. Puis le groupe se met d'accord sur les items à conserver ou sur leur reformulation. Après chaque journée, un travail important de synthèse est réalisé par le groupe de travail moteur pour offrir une présentation visuelle confortable des résultats [<hi rend="italic">voir l'exemple proposé en tableau 3</hi> ]. Tableau synoptique des codes existants classes selon différentes rubriques avec les propositions des différents groupes exemple d'une page RUBRIQUE CODE CONTENU RE-FORMULATION Profession ABF Les personnels des bibliothèques forment un corps professionnel solidaire Grenoble : Au sein de ce corps, le professionnel de l'information trouve ? aide et assistance , Les documentalistes forment un corps professionnel et apporte ses connaissances et son expérience. Dans ce cadre, le professionnel solidaire. Dans ce cadre, le documentaliste de l'information - agit au mieux pour servir ? les intérêts scientifiques de la communauté des usagers LYON 1 : OK LYON 2 : OK PARIS 2 : 10 Dans l'exercice de sa profession, le professionnel de l'IST • Contribue à l'utilité de la profession Grenoble : Non LYON 1 : OK LYON 2 : Non PARIS 2 : 11 Non • Exerce son métier sans laisser interférer ses intérêts ou ses opinions Grenoble : personnelles - Développe son savoir professionnel, se forme et forme afin de faire évoluer ses compétences ? et pomouvoir une bonne image de la profession . - S'implique dans ? la vie professionnelle en étant membre d'associations professionnelles - Publie et transmet, fait avancer la réflexion autour du métier en contribuant aux travaux de recherche dans son domaine de compétence - Participe à des congrès (nationaux et internationaux) colloques, journées d'étude et en rend compte - S'engage activement pour le recrutement et la promotion de personnel qualifié LYON 1 : OK LYON 2 : OK 12 PARIS 2 : OuiAprès les quatre « journées ateliers », il reste au groupe moteur à accomplir un très gros travail de remise en forme, car les redites sont nombreuses, le plan doit être précisé, et les propositions faites lors des ateliers de création doivent non seulement figurer dans le texte mais il faut leur donner le « poids » que les documentalistes de la recherche leur ont accordé. Partant de ce constat, le groupe pilote a opté pour un plan qui s'appuie sur le Code de la recherche et plus particulièrement sur les objectifs de la recherche qui ont été précisés dans ce document 3 : « Art L 112-1 – La recherche publique a pour objectifs : le développement et le progrès de la recherche dans tous les domaines de la connaissance; la valorisation des résultats de la recherche; la diffusion des connaissances scientifiques; la formation à la recherche et par la recherche. » Pour vérifier que ce séquencement pouvait être retenu, un premier travail a consisté à répartir les 138 items du synoptique des quatre codes dans les quatre chapitres définis ci-dessus. Ce travail a servi de point de départ à une réflexion collective (juin 2006) menée par un groupe de vingt documentalistes volontaires, pendant deux journées en site fermé (juin 2006, Clos des Capucins, Yenne 73). Le plan proposé a alors été adopté. Le travail de rédaction a été engagé en reprenant les items selon les chapitres, et en les reformulant de manière à tenir compte des propositions faites par les groupes–ateliers. Les consignes sont alors les suivantes : éviter les expressions moralisantes ou de caractère par trop syndical, repérer les doublons, se situer au niveau d'un code et non d'une charte ou d'un règlement de laboratoire, mettre en valeur les compétences spécifiques de la profession, comprendre ce qui a été exprimé, puis reformuler en donnant une homogénéité à l'ensemble du texte. À l'issue de ces deux journées de travail, il a fallu que ce texte, déjà bien élaboré, mûrisse encore. Sa relecture au mois de septembre 2006 et sa remise en forme ont été réalisées par le groupe pilote avec l'aide d'un consultant. Ce regard extérieur et neutre a permis de surmonter certaines difficultés de formulation sur lesquelles les documentalistes butaient régulièrement. Conscients de la nécessité d'impliquer et d'alerter un maximum de documentalistes sur cette opération, les membres du groupe de projet ont fait de nombreuses interventions en milieu professionnel, au fur et à mesure de l'avancée des travaux. Le code a ainsi été présenté à deux occasions lors des Journées des professionnels de l'information organisées à Nancy par l'INIST en 2005 et en 2006. Chaque intervention a été suivie de discussions laissant une large place à l'expression libre et aux questions. Les réseaux thématiques et régionaux de documentalistes ont également été conviés à suivre des sessions sur l'évolution du projet. Enfin, en septembre 2006, une présentation du code a été réalisée en présence des responsables de l'information scientifique et technique des EPST. Un long mûrissement a été nécessaire pour que chacun s'approprie la problématique. La réflexion déontologique s'est appuyée sur une série d'allers et retours avec le terrain, pour dégager les manières de pratiquer ainsi que les attitudes collectives. Il a fallu une ferme volonté de la part de quelques-uns pour impulser à tous le goût de la réflexion et la conviction que l'apport de chacun était central. Conformément au contrat signé en 2004, le code tel que nous le livrons aujourd'hui a été remis à la MRCT. Il est en cours de validation par notre tutelle, le CNRS. Dés que cette validation sera effective, certaines actions devront être réalisées. Pour ce faire, la création d'un réseau national de documentalistes du CNRS (RENATIS) permettra, grâce à un groupe de projet, de suivre la mise en œuvre du code ainsi que sa mise à niveau chaque fois que nécessaire. Au-delà de ce code, c'est une méthodologie qui a été mise en place et qui pourrait être réutilisée par d'autres professions qui souhaiteraient se doter d'un texte similaire. Principes déontologiques des professionnels de l'information scientifique et technique dans l'environnement de la recherchéVersion provisoire de juin 2007 1 Préambule Ce recueil de principes déontologiques s'adresse aux professionnels des bibliothèques, de la documentation et de la gestion de l'information, ci-après dénommés professionnels de l'information scientifique et technique (IST). Il vise à encadrer les actions de collecte, de traitement et de mise à disposition de l'information scientifique et technique auprès de l'ensemble des utilisateurs concernés 2. Par leur action dans la communauté scientifique, les professionnels de l'IST interviennent en appui au processus de recherche. Ils participent : au développement et au progrès de la recherche dans tous les domaines de la connaissance; à la diffusion et à la valorisation des résultats de la recherche; à la sauvegarde des connaissances et savoir-faire de la communauté scientifique; à l'amélioration des compétences des acteurs impliqués dans le processus informationnel. Les mutations récentes du paysage info-documentaire, telles que la diversification des sources d'information, la généralisation de la production des documents sous forme numérique, l'apparition du concept d'archives ouvertes, ont conduit à une évolution du rôle des professionnels de l'IST. De ce fait, ceux -ci ont souhaité formaliser quelques principes déontologiques qui permettront notamment de conforter la relation de confiance réciproque avec leur employeur et les usagers. Ces principes déontologiques ne sauraient se substituer ni à la loi, ni aux règlements intérieurs. Ils concernent plus particulièrement les professionnels de l'IST qui exercent leur activité dans le cadre de la recherche publique ou privée et qui concourent à une mission d'intérêt collectif 3 quel que soit leur niveau de qualification. Le signataire de ces principes déontologiques s'engage à les respecter, à les faire respecter, à les faire connaître auprès des communautés de la recherche. 1. La contribution au développement et aux progrès de la recherche Du fait de son expertise, le professionnel de l'information : est force de proposition pour la définition de la politique en matière d'IST de son établissement; éclaire la direction, le cas échéant, sur les conséquences des choix politiques en matière d'IST; participe à la mise en œuvre de la politique en matière d'IST; prend part, pour le domaine qui le concerne, à la rédaction du règlement intérieur. Il agit au mieux des intérêts et besoins scientifiques de sa communauté et de son établissement. Il contribue aux projets de recherche et s'y associe à hauteur de ses compétences. Il suscite, le cas échéant, des partenariats thématiques, géographiques et institutionnels. Si la nature d'une demande dépasse son niveau de qualification ou si son environnement technologique ne lui permet pas d'y répondre, il mobilise l'expertise existant au sein de son réseau professionnel ou oriente l'utilisateur vers un autre spécialiste ou une autre structure. Il fait preuve d'objectivité, de probité et de désintéressement; il exerce ses missions et son expertise en toute indépendance. Il sert tous les utilisateurs sans discrimination ni préjugé, tout en respectant et gérant les priorités qui découlent des missions qui lui sont confiées. Il ignore toute intervention d'un tiers susceptible d'influer sur l'exécution de ses devoirs professionnels au préjudice de l'utilisateur. Il refuse toute mission contraire aux principes déontologiques énoncés dans ce document. Il est tenu au secret professionnel. Il garantit la confidentialité des informations qu'il possède sur les utilisateurs et la nature de leurs demandes. Il respecte et fait respecter les textes juridiques régissant, notamment, le droit des auteurs et les droits voisins, la protection des bases de données, la protection des données à caractère personnel. Il veille à une utilisation rationnelle des moyens et des ressources (matériels, humains, financiers…) qui lui sont confiés. Il rend compte à sa hiérarchie, en les évaluant, des services et des activités qu'il a développés dans le cadre des missions confiées. 2. La diffusion des connaissances scientifiques, la valorisation et la sauvegarde des résultats de la recherche Le professionnel de l'IST analyse et anticipe les besoins ou les demandes de sa communauté en matière de gestion ou d'accès à l'information. Pour servir au mieux les utilisateurs, il constitue, développe et met à jour, en fonction des besoins recensés et des moyens mis à disposition, un fonds documentaire physique ou virtuel regroupant des ressources externes et internes ou/et des services et procédures d'accès, de recherche, de diffusion et d'archivage documentaires adaptés. Il les améliore par la veille et l'innovation. Il assure la visibilité de ses services auprès des utilisateurs, fait connaître leurs caractéristiques d'usage et précise les conditions générales d'accès. Il signe et assure la responsabilité de tout produit info-documentaire à valeur ajoutée dont il est l'auteur. Il fait preuve de rigueur et se porte garant de la qualité de l'information qu'il produit, qu'il gère et qu'il diffuse. Il s'interdit notamment toute déformation ou falsification du contenu d'une information ou d'un document. Il reconnaît et corrige toute erreur qui pourrait être de son fait. Il fait preuve de transparence; il explicite les critères de sélection des ressources; il cite les sources, précise autant que possible leur degré de fiabilité et leur date. Il applique les règles d'usage et de confidentialité d'accès aux ressources et les fait respecter. Il veille à ne pas utiliser les ressources protégées au titre de la propriété intellectuelle sans obtenir l'autorisation des auteurs ou ayants droits. Il veille à la pérennité de l'information scientifique et technique pour assurer au mieux la conservation du patrimoine scientifique. Dans cet esprit, il respecte et fait respecter les protocoles et les standards. Il promeut tout dispositif favorisant la diffusion la plus large possible de l'information scientifique et technique; dans ce cadre, il peut être amené à œuvrer pour alimenter ou inciter à alimenter les dispositifs « archives ouvertes ». 3. L'amélioration des compétences des acteurs impliqués dans le processus informationnel Le professionnel de l'IST œuvre pour la reconnaissance et le respect de sa fonction. Il agit en faveur du recrutement de personnels qualifiés en gestion d'information. Il se tient au courant des évolutions méthodologiques, technologiques et juridiques par des actions de formation professionnelle continue ou par d'autres actions d'acquisition de compétences 4. Au sein de son équipe, des réseaux et des associations professionnelles, il participe activement à la réflexion sur le métier et au développement des compétences professionnelles. Dans le cadre de ses missions, il peut être amené à publier dans des supports professionnels (revues, ouvrages…), intervenir dans des rencontres professionnelles, appartenir à des réseaux de partage des savoirs, collaborer à des travaux de recherche en bibliothéconomie et en gestion de l'information. Il veille à s'intégrer au mieux dans le processus de la recherche. Dans un souci constant d'améliorer ses connaissances scientifiques du domaine, il reste en relation permanente avec les chercheurs. Par exemple, il participe aux séminaires de recherche de l'équipe, il assiste aux soutenances de thèse, et suit les publications des chercheurs. Il veille à la continuité du service par la transmission des savoir-faire à ses collègues. Par la formation, par l'organisation documentaire ou par la mise à disposition d'accès conviviaux, il favorise l'autonomie des utilisateurs. 4. L'application des principes déontologiques Un Comité de déontologie, composé de cinq représentants des réseaux et associations professionnelles de l'environnement de la recherche, est chargé de veiller à l'application de ces principes, à leur respect ainsi qu' à leur évolution. Ces cinq représentants sont désignés par… pour une durée de… ans à compter de la date de désignation. Tout professionnel de l'IST adhère aux principes énoncés en signant le présent texte et en remettant copie du document à sa hiérarchie d'une part, et au Comité d'autre part. Un utilisateur ou un autre professionnel de l'IST jugeant qu'un signataire de ces principes déontologiques ne les respecte pas peut déposer une réclamation motivée auprès du Comité, qui statuera sur la suite à donner. Les dispositions des présents principes déontologiques sont destinées à être constamment enrichies afin de répondre aux évolutions et de bénéficier de l'expérience acquise. Tous les professionnels concernés peuvent y contribuer en formulant des propositions. Version n° … du (date) Ce document est le résultat d'un travail engagé par le groupe Isidroit du réseau CNRS Isidora (http:// isidora. cnrs. fr et http:// isidora. cnrs. fr/ Groupes/ Droit/ code. htm). Ce travail a été financé par le CNRS (Mission des ressources et compétences technologiques, MRCT). Tout public ayant recours aux professionnels de la gestion de l'information tel que précisé dans le règlement intérieur ou le document d'entreprise. Les objectifs de la recherche publique sont définis à l'article L. 112-1. du Code de la recherche : ordonnance n° 2004-545 du 11 juin 2004 relative à la partie législative du Code de la recherche (JO du 16 juin 2004) Telles que : - participer aux journées / voyages d'étude / colloques; - collaborer à des associations professionnelles ou à des forums; - rencontrer des collègues ou des experts; - lire des publications spécialisées; - constituer une veille sur les outils, ressources et pratiques documentaires du domaine scientifique .
Après une première approche parue l'an dernier dans nos colonnes sous la forme d'un entretien intitulé « Vers un code de déontologie à l'usage des professionnels de l'information du monde de la recherche? », Christine Aubry et Claudie Beck expliquent ici, concrètement et par le menu, la démarche qui a été adoptée pour parvenir à la rédaction du code Principes déontologiques des professionnels de l'information scientifique et technique dans l'environnement de la recherche dont la version en cours de validation est présentée pages 235-236.
sciencesInfo_07-0502531_tei_DOCSI_idPAS_D_ISBN_pu2007-03s_sa03_art03.tei.xml
termith-519-communication
La revue savante constitue la matérialisation principale de la dissémination desconnaissances scientifiques. Communiquer la recherche, c'est tout à la fois :partager des connaissances, les livrer à l'examen et à la validation des pairs ,consigner la propriété intellectuelle d'une découverte empirique ou d'un mode dethéorisation inédit, et être évalué en tant que « scientifique ». Le cas échéant ,cette communication va marquer l'histoire de la discipline et contribuer à en faireévoluer les contours. Dès lors que la communication scientifique est médiatisée( lettre, livre, revue, document numérique…), elle ambitionne également d'archiverles connaissances produites et constitue le fondement de la cumulativité desconnaissances. Or, ces différentes dimensions sont présentes dès les origines de larevue savante, promue sous sa forme moderne par Henry Oldenburg, éditeur des Philosophical Transactions en 1665 (Lindsey, 1978). En effet ,il s'agissait pour ce dernier de trouver un moyen de structurer et de formaliser lesdébats savants en cours à la Royal Society de Londres, et delimiter les controverses publiques, parfois échevelées concernant la primauté desinventions, nuisibles à l'image de marque de la profession alors naissante descientifique (Guédon, 2001). Depuis, la revue scientifique constitue la matérialisation médiatique d'un acte decommunication complexe et articule des fonctions tant épistémiques que socialesautour des textes qu'elle publie (Vanholsbeeck, 2012a). Elle dissémine des contenusscientifiques porteurs de connaissance signifiante au-delà de son contexte deproduction. En outre, la revue participe à la structuration des relations entre lesacteurs de la recherche, les « parties prenantes ». De cette façon, elle contribue àagréger ces acteurs en discipline, définie en tant que « communauté épistémique dontles membres partagent un cadre de référence particulier, orienté vers des objetsd'étude abstraits spécifiques » (Lindholm-Romantschuk, 1998 : viii, notretraduction). Souvent, la réussite d'une discipline ainsi que son inscription pérennedans le champ général de la science dépendent non seulement del'institutionnalisation de celle -ci dans le paysage éducatif de l'enseignementsupérieur et au sein d'associations savantes (Becher et al. ,2001), mais aussi du succès et de la persistance des liens de sociabilité tissésautour des projets éditoriaux des principales revues qui contribuent à sonorientation. En sciences humaines et sociales (shs), un exemplehistorique est L'Année sociologique, revue autour de laquelleÉmile Durkheim – qui avait saisi, mieux que nul autre de ses contemporains, ladimension collective du travail de chercheur – parvint, dès 1898, à fédérer descollègues de premier plan (tels que Marcel Mauss ou Maurice Halbwachs). L'Année jouera un rôle clef dans la disciplinarisationultérieure de la sociologie et dans l'établissement des relations entre cettedernière et d'autres disciplines, alors mieux établies. Aujourd'hui encore, lerédacteur en chef (editor) d'une revue assume le rôlecrucial de garant de la cohérence épistémologique et de l'inscription( inter-)disciplinaire du titre. Arbitre de la qualité des articles qui lui sontsoumis et de leur adéquation avec le projet éditorial, le rédacteur en chef estsouvent seul maître pour désigner, au sein de la communauté épistémique deréférence, les évaluateurs (referees) auxquels les textesseront soumis dans le cadre de l'évaluation par les pairs, et dont il se fera le caséchéant l'arbitre et le porte-parole auprès des chercheurs (Meadows, 1979). Considérée dans l'optique de sa fonction structurante des relations au sein de ladiscipline, la revue fournit également un cadre spécifique à la conversation savanteque mènent les différents coauteurs d'un article – y compris, de plus en plussouvent, un promoteur de thèse et ses doctorants –, ainsi qu' à celle qu'engagent cesderniers avec les referees (commentaires d'évaluation) etavec le public des lecteurs-pairs (citations ou références à l'article dans leurpropre production). Aujourd'hui, dans le contexte de l'internationalisation de larecherche en sciences de l'information et de la communication, la publication d'unarticle dans une revue internationale constitue également, de plus en plus souvent ,le catalyseur relationnel qui motivera la coopération entre coauteurs actifs au seinde différents pays (Vanholsbeeck, 2012b). Pour fonder puis renforcer la légitimité d'une revue dans le paysage médiatique de ladiscipline, le rédacteur en chef et, dans le cas des revues commerciales, l'éditeur( publisher), doit s'assurer que le comité éditorialcomprenne les personnalités les plus prestigieuses de la discipline et du champconsidérés. La publication de contributions signées d'auteurs considérés comme desautorités est également souhaitable. Un grand nombre de nouvelles revues, dontbeaucoup sont actuellement disponibles exclusivement en « libre accès » font ainsila chasse aux candidats potentiels à un siège dans les comités éditoriaux (Gross ,2012) et multiplient les appels à contribution d'articles, notamment par lamédiation des sociétés savantes. Plus récemment, avec le développement de la bibliométrie, un Facteur d'Impact élevédevient l'un des garants les mieux reconnus, au niveau institutionnel, de la bonneréputation. Cet indicateur bibliométrique exprime le rapport entre le nombre decitations faites, dans une année considérée, aux articles publiés par une revue aucours des deux années qui précèdent, et le nombre total d'articles publiés par cettemême revue durant ces deux années. Pour tenir mieux compte des disciplines (dont lessciences de l'information et de la communication) aux pratiques de citation plusétalées dans le temps, un Facteur d'Impact calculé sur 5 ans existe également depuis2010. Si les revues jouent un rôle clé dans la consolidation et la légitimation d'unediscipline ou d'un quasi-paradigme particulier au sein de cette dernière, ellespeuvent, une fois instituées, constituer un facteur d'inertie entravant lesrenouvellements scientifiques trop radicaux et de ce fait inhiber l'innovationintellectuelle. Pour autant, le cadre épistémologique initialement fixé par lerédacteur en chef évoluera immanquablement avec les propositions, plus ou moinsinnovantes, qui seront soumises par les auteurs et acceptées par les referees : « Les auteurs d'articles acceptent la spécialisation adoptée par larevue, mais, dans le même temps, ils en modifient continuellement les contours parl'effet cumulé de la publication de leurs recherches. De ce point de vue, lespublications scientifiques – d'abord intégrées dans des réseaux nationaux, ensuitesupranationaux – jouent un rôle central dans les processus de spécialisationintellectuelle et de disciplinarisation scientifique » (Vanderstraeten, 2010 : 60 ,notre traduction). La création d'une revue savante, la constitution de son comité de rédaction, ladéfinition d'un positionnement thématique et épistémologique, l'animation d'uneéquipe et les efforts de promotion pour attirer des propositions pertinentesaussi bien que pour assurer la diffusion des contenus constituent un ensembled'activités dont les effets débordent du cadre de la revue elle -même. Leconsensus qui prend forme, et évolue, révèle ou parfois provoque l'émergenced'orientations significatives de la recherche, lesquelles peuvent infléchir latrajectoire de toute une discipline, ou marquer une bifurcation, une dissidencedans certains cas, ou simplement une ramification lorsqu'un objet ou un domainese révèlent ainsi suffisamment spécifiques pour retenir l'attention et canaliserles efforts d'une part significative de la communauté scientifique. Dès lors ,les revues matérialisent ces sous-domaines ou ces approches; elles enconstituent un point de ralliement, un étendard et un vecteur fondamental devisibilité et de diffusion. Les revues scientifiques qui se sont développées dans le domaine de lacommunication sont, de ce point de vue, exemplaires. Au fil des ans, un certainnombre de titres se sont développés autour d'un spectre thématique assez large ,faisant de ces publications à la fois des ensembles remarquablement hétérogènes ,mais aussi des éléments fondamentaux de la représentation du domaine dansl'espace scientifique, voire d'autant d'éléments probants d'une véritablediscipline scientifique émergente. On peut rattacher à cette catégorie desrevues telles que Communications, Communication Research, Communication Studies ,Communication Theory, Études decommunication, European Journal ofCommunication, Journal of Communication, Medien und Kommunikationswissenschaft, Quaderni, Questions de communication, Recherches encommunication. .. D'autres titres matérialisent, portent et légitiment des sous-domaines ou desobjets spécifiques liés à la communication : Communication, Communication et organisation ,Heatlh Communication, CorporateCommunications : An International Journal, Hermès, Human Communication Research, Journalism Studies, Journal ofAdverstising, Journal of Broadcasting and ElectronicMedia, Journal of Computer-MediatedCommunication, Journal of Health Communication ,Journal of Media Economics, Management Communication Quarterly, New Media andSociety, Political Journalism, Public Opinion Quarterly, Public RelationsReview, Science Communication, Sur le Journalisme, Television and New Media. .. Certaines revuesaffichent un positionnement davantage fondé sur une approche disciplinaire ,méthodologique ou épistémologique : Continuum : Journal ofMedia and Cultural Studies, Critical Studies in MediaCommunication, European Journal of CulturalStudies, Feminist Media Studies, International Journal of Cultural Studies, Media Psychology. .. Enfin, d'autres affichent un ancragegéographique particulier : European Journal ofCommunication, European Journal of CulturalStudies, Intercom Revista Brasileira de Ciências daComunicação, Nordicom Review, Revue canadienne de Sciences de l'information et de bibliothéconomieRevista Latina de Comunication Social. .. Les revues scientifiques ont tendance à se multiplier et, dès lors, à nourrir unedynamique de ramification voire de fragmentation du champ. L'importance desgrandes revues disciplinaires transversales, ainsi que des congrès etconférences à large spectre thématique, s'en trouve accentuée pour consoliderl'existence et la légitimité d'une discipline qui, sinon, pourrait se trouveratomisée en une galaxie d'objets, d'approches et de domaines qui tendraient àdémontrer l'absence de cohérence d'une pseudo-discipline plus qu'ils nesembleraient définir et constituer une discipline encore en gestation. Leschercheurs en sciences de l'information et de la communication étant souventissus de formations dans des disciplines mieux établies (science politique ,sociologie, psychologie, philosophie. ..), alors que d'autres ont entrepris desétudes dans ce domaine dès leur formation initiale, la question de l'identitéacadémique des chercheurs se reconnaissant dans ce lien à la communication esten soit problématique (Heinderyckx, 2007). Du fait qu'elle se fonde sur l'appréciation et la validation par les pairs, larevue scientifique a été historiquement associée au processus d'évaluation desconnaissances et des chercheurs qui les ont produites (la création d'un « Committee on Papers » à la RoyalSociety remonte à 1752; voir Fitzpatrick, 2011 : 20-23). Récemment, cerôle s'est vu renforcé dans le contexte du nouveau management public de larecherche et de l'enseignement supérieur. Ce dernier engage à renoncer aucontrôle direct des processus de fonctionnement de la recherche pour privilégierdes modes de pilotage à distance (Power, 1999; Bruno, 2008). En particulier ,des instruments d'évaluation des différents types de productions académiques et ,en premier lieu, des publications scientifiques, sont mis en place (Lefebvre ,2008). Ainsi la « qualité » prêtée aux revues scientifiques est-elle de plus enplus sollicitée dans les processus d'évaluation en tant qu'indicateur de celledes chercheurs à recruter ou à promouvoir, dans un contexte de concurrenceinternationale accrue entre des universités plus autonomes et plus« responsables ». D'une part, en aval de l'évaluation des articles par les pairs proprement dits ,des comités de pairs experts établissent désormais des listes de revues« qualifiantes » ou « de qualité » en shs, avecclassement hiérarchique ou non. Ces processus de listage et de ranking ont pris une ampleur particulière, à l'échelle mondiale (leJournal Citation Reports de Thomson Reuters, établisur base du sci évoqué plus haut), européenne (esf - erih), nationale (cnu – Conseil national des unviersités – et aeres – Agence d'évaluation de la recherche et del'enseignement supérieur – en France) ou régionale (vabb-shw – Vlaams Academisch Bibliographisch Bestand voor de Socialeen Humane Wetenschappen, Fichier académique bibliographiquepour les SHS - en Belgique néerlandophone). D'autre part, dans le mêmetemps, la scientométrie permet à des comités d'experts et aux commissions derecrutement et de promotion au sein des universités et des institutions derecherche de recourir à une diversité d'indicateurs et d'outils issus de labibliométrie. Or, les instruments bibliométriques se fondent principalement sur le nombre depublications produites par une entité (chercheur, laboratoire, université ,pays. ..) et/ou sur le dénombrement des citations qui en sont faites, dans lecontexte principalement des revues savantes, les monographies étant très peuprises en compte actuellement. Ainsi du Facteur d'Impact, mais aussi du Eigenfactor, du H-Index et autres mesures agrégéesgreffées sur le nébuleux Google Scholar (notamment Publish orPerish d'Anne-Wil Harzing ou le Scholarometer del'Indiana University Bloomington). Ces instruments affichent tous une certaine« objectivité » mécanique (Bruno, 2008) et ont en commun d'offrir laréconfortante apparence de mesures impartiales, surtout si on les considère àl'aune des luttes d'influence qui président parfois à l'établissement de listespar les pairs experts (Pontille, Torny, 2012). Dans les processus d'évaluationconcrets, ils se combineront néanmoins le plus souvent, à des degrés certesdivers, à l'évaluation traditionnelle par les pairs (Lovel, Lange, 2010). Indirectement, les revues jouent désormais un rôle important également dans lesclassements des universités (classements controversés, mais à l'impact certainsur les décideurs académiques), puisque le palmarès du Academic Ranking of World Universities (arwu, dit « ranking de Shanghai ») fonde trois deses cinq critères sur la bibliométrie etles revues, à savoir : le nombre de chercheurs de l'institution parmi la listedes chercheurs les plus cités du sci, le nombred'articles de l'institution publiés dans les revues Nature et Science et le nombre total d'articlesrecensés dans la base de données de Thomson Reuters (Gingras, 2008). Certaines limitations propres à la scientométrie avaient déjà été relevées parEugene Garfield (1972 : 536-537) lui -même : « La fréquence des citations est, bien sûr, fonction denombreuses autres variables que le mérite scientifique. Certaines sont connuesou peuvent être raisonnablement présumées : la réputation d'un auteur, lecaractère controversé d'une matière, la circulation [de la revue ], ladisponibilité et l'étendue des fonds possédés par les bibliothèques ». On reprochera aussi aux bases de données bibliométriques leur manque detransparence concernant les critères d'inclusion (sci), voire leur opacité totale à cet égard (Google Scholar). De plus ,parce que le Facteur d'Impact mesure, dans le meilleur des cas, la qualitémoyenne d'une revue (et non celle d'un article ou d'un chercheur spécifique) ,son usage sera souvent jugé acceptable dans l'évaluation des collectifs, voiredes pays, mais déconseillé dans les évaluations individuelles des chercheurs ,sinon comme premier tri préalable à l'évaluation en profondeur des candidaturesindividuelles (Académie des Sciences, 2011; Vinckler, 2010 : 123-124). Enoutre, l'évaluation sur base bibliométrique encourage des comportementsstratégiques de citation motivés parfois par des aspirations purementpragmatiques de performance sur le plan des indicateurs, tels que la citation decomplaisance au sein d'une même revue ou d'un numéro thématique (Gross, 2012 ;Tuchman, 2012; Vanholsbeeck, 2012b), ou le « salamislicing » de la connaissance produite en autant d'articles que possible( Lawrence, 2008). On peut craindre aussi que la motivation à publier dans untitre spécifique ne soit in fine davantage motivée par ledésir de bénéficier de l'aura due aux bonnes performances bibliométriques de larevue que par la volonté de contribuer véritablement à l'identité scientifiqueet éditoriale du titre. Certains problèmes liés à l'évaluation bibliométrique sur base des revuessavantes sont plus spécifiques aux shs. Premièrement ,les principales bases de données utilisées pour l'évaluation bibliométrique (sci de Thomson-Reuter et Scopus de Elsevier )présentent un fort biais en faveur des titres anglo-saxons et, plus largement ,anglophones (Archimbault et al., 2006), alors que latradition d'écrire dans des revues nationales, en langue vernaculaire, estencore vivace dans les shs et parfois même souhaitabled'un point de vue épistémologique. Deuxièmement, les méthodes bibliométriquesactuelles, importées des stm (sciences, technologie etmédecine), tiennent trop peu compte des médias autres que la revue savanteinternationale – médias pourtant particulièrement importants dans ladissémination de la recherche en shs – que sont lelivre, la revue savante nationale et la littérature de vulgarisation (Hickx ,2004). Troisièmement, le Facteur d'Impact survalorise les références faites àdes articles très récemment publiés, dans une logique qui correspond une foisencore davantage à celle du temps court des découvertes et de l'innovation enstm qu' à celle du temps généralement plus long del'évolution des connaissances en shs. Le mouvement pour le libre accès a vu le jour dans les années 1990. Il trouve sesorigines principalement dans les stm. Ainsi la premièrearchive ouverte, ArXiv, a -t-elle été créée en 1991 dans le domaine de laphysique théorique des hautes énergies où s'ancre une longue tradition d'échangede prépublications (Mounier, 2010). De même, nombre de chercheurs et debibliothèques universitaires se sont engagés pour le libre accès en réaction àla crise des prix des périodiques, particulièrement aigue en stm, et aux bénéfices considérés comme excessifs des grandes maisonsd'édition commerciales (Guédon, 2001). En février 2002, la Budapest Open Access Initiative a constitué un des moments fondateursde l'engagement de plusieurs centaines de chercheurs et d'institutionsscientifiques pour le libre accès. Durant cette dernière décennie, la réussitede ce mouvement a notamment tenu au fait qu'il a dépassé progressivement lecadre de la communauté scientifique et mobilisé les pouvoirs publics poussantdirigeants et organismes de financement à adopter des mesures favorables aulibre accès. Par ailleurs, les grandes maisonsd'édition scientifique commerciales ont été poussées à se repositionner parrapport aux thématiques du libre accès et à en intégrer certains aspects. Lamaison d'édition Springer a développé une politique particulière de libre accès .Elle propose pour une partie de ses revues un « choix libre » (open choice) qui donne la possibilité aux auteursd'ouvrir l'accès à leurs articles moyennant le payement de frais de publication .Elle a également acquis un grand nombre de revues scientifiques en accès librenotamment avec le rachat de l'éditeur BioMed Central. Récemment, un des plusgros éditeurs de stm, Elsevier, a retiré son soutien àune proposition de loi aux États-Unis jugée défavorable au libre accès suite àune importante mobilisation (Elsevier, 2012; Howard, 2012). Cet événementmarque certainement une nouvelle étape dans la publicisation des enjeux du libreaccès. Si la question du libre accès a, dès le début, été posée par certains chercheursen shs, le mouvement vers cette forme de publications'y est propagé plus lentement. En sciences de l'information et de lacommunication, l'idéal d'accessibilité universelle et, plus pragmatiquement, lapossibilité qu'il offre d'augmenter la visibilité des travaux scientifiques ,semble avoir notamment rencontré l'aspiration des chercheurs à davantage asseoirla légitimité de cette jeune discipline. De la sorte, la création de @rchiveSICen 2002 a clairement été présidée par la volonté d'améliorer la visibilité, ycompris internationale, des sciences de l'information et de la communication etd'y dynamiser la recherche (Gallezot, Chartron, Noyer, 2002). Cette archiveouverte disciplinaire française s'est construite sur le modèle d'ArXiv. Elle assure une modération a minima (Bester, Chartron, 2011) et accepte une diversité de documents. De cette façon ,elle propose une autre forme de publication scientifique qui dépasse le modèlede la revue tout en mettant davantage en avant des productions isolées. Ils'agit ici pour les chercheurs de s'engager individuellement à fournir un libreaccès à leurs communications (articles, rapports. ..) en les déposant sur cetteplateforme. Pourtant, certains indices laissent à penser qu' @rchiveSIC neremporte qu'un succès modéré auprès des auteurs, si on en juge par le nombremodeste et stagnant de documents mis à disposition. Par ailleurs, les revendications, l'idéologie même du libre accès ont exercé uneinfluence directe sur les revues scientifiques. Un certain nombre de jeunesrevues en sic ont directement été créées en ligne et enlibre accès, telles queJournal of Science Communication (jcom) ou InternationalJournal of Communication (ijoc) ou d'autres plus particulièrementdestinés aux doctorants (graduate journals) tels que Platform : Journal of Media and Communication ou commp osite. Quelques revues sont aussi passées à l'accès libre après unelongue période de publication papier payante. Communicationpubliée depuis 1975 par l'université Laval a même abandonné définitivementsa version physique pour se diffuser exclusivement et immédiatement en versionélectronique et libre (au moins en ce qui concerne sa version html). Soulignonsque le passage au numérique a souvent été lié à la question du libre accès (oude l'accès gratuit à une partie de la publication) en shs, notamment dans le sillage d'initiatives de plateformes en lignede revues. Dans le monde francophone, Persée, Revues.org, iRevues ou encore Erudit ont accompagné la mise en ligne de centaines derevues en promouvant le libre accès. Ces plateformes proposent en effet desmodèles alternatifs de publication qui permettent un accès partiellement gratuit( via des barrières mobiles entre autres moyens) quandelles n'offrent pas véritablement le libre accès. Semen ,Études de communication, Communications ou Quaderni, par exemple ,pratiquent cet embargo avant diffusion gratuite via lesdifférentes plateformes. Même les grandes maisons d'édition commerciales entendent occuper ce terrain .Sage a lancé en mai 2011 sa publication en libre accès SageOpen. Celle -ci couvre une grande diversité de shs, y compris les sciences de l'information et de la communication .Elle se base largement sur le mode de fonctionnement de la publication de stm pl o s One. Les pairs n'y effectuent qu'unerévision minimale se limitant à évaluer la validité scientifique des articlessoumis sans émettre de jugement sur l'importance de ceux -ci dans le domaine derecherche. Celle -ci est par conséquent censée être estimée par les lecteurs quipeuvent interagir directement sur le site de la revue. Les auteurs des articlesacceptés sont du reste invités à payer des frais de publication. La communication scientifique n'échappe pas à l'hégémonie de la langue anglaisequi s'est imposée dans la plupart des canaux internationaux de diffusion etd'échange, y compris les conférences et les publications. Les sciences del'information et de la communication ne font pas exception. Deux élémentsaccentuent cette tendance. D'une part, un nombre considérable d'auteurs etd'ouvrages de référence, mais aussi d'équipes de recherche s'inscrivent dans latradition anglo-américaine, pas seulement aux États-Unis et au Royaume-Uni, maisaussi en Australie, au Canada, ou encore en Scandinavie et aux Pays-Bas. D'autrepart, les indicateurs généralement retenus dans les exercices d'évaluation de larecherche, et tout particulièrement les outils bibliométriques, accordent uneplace très prédominante aux publications en langue anglaise. La logique même deces indicateurs (la citation) incite à disséminer dans la langue accessible auplus grand nombre et utilisée par les revues les mieux cotées, donc en anglais. La tendance n'est toutefois pas inexorable. Les communautés scientifiquesimplantées dans des pays pratiquant d'autres langues majeures telles quel'espagnol, le portugais, l'allemand ou le français maintiennent un usageprépondérant de la langue vernaculaire. Colloques et publications dans ceslangues peuvent s'inscrire dans une dynamique internationale, alors que l'usagede langues moins répandues risque de confiner les chercheurs et leur productionà l'échelle nationale ou locale. Afin d'atténuer les risques d'isolement etd'insularité, certaines revues ont développé des efforts considérables afin dedépasser les confins de leur bassin linguistique, notamment en proposant destraductions au moins des résumés des articles d'une revue. À titre d'exemple ,Hermès propose la présentation de ses numéros et lesrésumés des contributions en anglais et en espagnol. Et des grandes revues enlangue anglaise font le chemin inverse. L'ensemble des revues publiées parl'International Communication Association (ICA), y compris l'emblématique Journal of Communication proposent ainsi des résumés detous les articles en six langues. Certaines revues vont même jusqu' à panacherleurs contenus entre plusieurs langues (par exemple, časopisza upravljanje komuniciranjem/Communication Management Quarterly publiedes articles en anglais et en serbe; Sur le journalisme -About journalism - Sobre jornalismo se positionne comme une revuepubliant des contributions rédigées en français, anglais, espagnol ou portugais ,les résumés étant disponibles dans les quatre langues). Le caractère interdisciplinaire des sciences de l'information et de lacommunication tend à compliquer les relations entre publication des revues etprocessus de disciplinarisation. Polarisées essentiellement entre communicationinterpersonnelle et étude des médias de masse dans le monde anglo-saxon (Rogers ,1999) et entre étude des médias de masse, relations publiques et sciences del'information et de la documentation dans les pays francophones (Boure, 2006) ,les sciences de l'information et de la communication ne sont sans doute pascaractérisées autant que d'autres disciplines par un noyau dur de revuescentrales et essentielles. En étudiant les citations croisées opérées par lesrevues indexées dans les catégories « communication » ,« social psychology », et « politicalscience » du sci, Loet Leydesdorf et CaroleProbst ont montré que, si les Communication Studies sontde plus en plus identifiables en tant que champ disciplinaire spécifique ,considérées « de l'extérieur » (c'est-à-dire en considérant les citations qui ensont faites par des revues extérieures au champ), il n'en va pas de même quandon les considère « de l'intérieur » (c'est-à-dire en considérant les revues quecitent les revues du champ lui -même). Les auteurs y voient une notammentconfirmation de la tendance des chercheurs en communication à citer d'autreschamps disciplinaires, alors que les chercheurs d'autres disciplines nemobilisent que marginalement les connaissances des sciences de la communication( Leydesdorf, Probst, 2009). Relevons, pour conclure, un paradoxe qui nous semble être typique d'uneinterdiscipline encore en quête de légitimation, et qui procède des évolutionsrécentes en matière de publication scientifique évoquées plus haut. Il s'agit dela tendance que manifestent certains chercheurs en communication à publier destravaux dans des revues prestigieuses hors champ, dans des disciplines mieuxreconnues, trouvant dans ces revues une forme de légitimation pour leurstravaux, pour eux -mêmes et pour leur discipline : « J'ai toujours été sensible à la perception selon laquelle lacommunication ne constitue pas une vraie science […] et je trouve très importantde faire la différence entre l'étude scientifique des médias et les applicationspratiques de la communication. C'est pourquoi c'est important pour moi depublier dans des revues médicales pour la légitimité et pour l'image de marquede ma discipline » (extrait d'un entretien personnel, en avril 2011, avec unprofesseur en sciences de la communication, vice-doyen pour la recherche dansune faculté de sciences sociales en Belgique néerlandophone) .
Les revues offrent un cadre spécifique à la conversation savante et un lieu de développement, de consolidation et de légitimation d'une discipline. Cet article examine la situation des revues scientifiques en information et communication dans le contexte des turbulences que traverse actuellement le secteur de l'édition scientifique. Le réagencement des moyens de dissémination et de partage de la recherche bouscule le rôle et la forme des revues scientifiques. Par ailleurs, les procédés de ranking et la constitution de listes de revues qualifiantes suscitent des débats et des initiatives ouvrant des perspectives nouvelles qui s'inscrivent notamment dans les pratiques du libre accès. La question de l'hégémonie de langue anglaise est également abordée, tant pour en identifier les causes que pour souligner les efforts entrepris pour éviter l'insularité des publications dans d'autres grandes langues vernaculaires.
sciencesInfo_13-0090573_tei_1019.xml
termith-520-communication
DANS SON ACCEPTION LA PLUS LARGE, LA GESTION DE CONTENU RECOUVRE L'ENSEMBLE des phases qui régissent le cycle de vie des documents disponibles dans un système d'information, de leurs création et validation jusqu' à leurs publication et diffusion multimédias (sur des sites Internet, notamment). Apparue il y a deux ans environ avec l'émergence des technologies Internet, cette notion fait appel à de nombreuses fonctionnalités qui doivent assurer une gestion globale et transversale de la production documentaire d'une entreprise. GED, CMS, ECM : que recouvrent exactement ces sigles mystérieux ? Comment le professionnel de l'information, acteur du système d'information de l'entreprise, peut-il articuler le système de gestion documentaire et ses outils « métiers » au système de gestion de contenu de l'entreprise ? Les trois interventions de ce séminaire, l'une à caractère délibérément technique, les deux autres présentant des réalisations dans des contextes professionnels différents, ont permis d'éclairer différentes approches de la gestion de contenu. Cette contribution se concentrait sur les fonctionnalités de la gestion de contenu qui font appel à des outils spécifiques rassemblés sous la dénomination de CMS pour content management system et, plus largement, de ECM (enterprise content management), dont le champ fonctionnel est censé être plus large. Alors que, dans le cycle de vie de l'information, la GED ne s'intéresse qu'au processus de production de celle -ci (produire, valider, stocker, indexer, archiver) et se résume pour ainsi dire à la gestion de « containers », le CMS va plus loin et prend en compte la structure interne du document, autrement dit l'accès à l'information (publier, diffuser, rechercher, interagir). Le CMS crée de la cohérence par le format html pour accéder à des informations hétérogènes. Il permet ainsi la génération de pages html, la création de sites intranet/Internet, l'intégration multimédia, la diffusion multicanal, la navigation, l'indexation des pages, la personnalisation des interfaces, la création et la gestion d'annuaires, la consultation de statistiques d'utilisation, la gestion multilingue, celle de versions de contenu et des droits. Son modèle d'organisation s'apparente au réseau, avec une navigation intuitive entre les pages et une appréhension du sens en naviguant à l'intérieur du fonds documentaire. Pour obtenir une valorisation maximum des contenus, il faut donc associer la GED, plus proche dans son organisation de la bibliothèque numérique, donc du classement, à un CMS et à un moteur de recherche. Ce couplage (souvent intégré dans un portail) permet un stockage unique de l'information, un affichage sélectif et dynamique suivant les besoins de mise en valeur, une publication automatique d'extraits du document : il facilite ainsi la construction d'une base de connaissance. L'intégration et l'interopérabilité de ces différentes technologies deviennent alors une nécessité pour permettre une véritable gestion de l'ensemble des documents produits et gérés dans les entreprises. Le Forum des acteurs du numérique Est né du rapprochement du Forum de la Geide, organisé par l'Association des professionnels de la Ged (Aproged), et du salon Éditique Documents à la Demande, deux salons dont la complémentarité répond à l'évolution actuelle du marché et aux attentes de ses acteurs. Cette première édition a réuni pendant deux jours à Paris plus de 4.000 visiteurs et 120 exposants. Ce qui, pour ses organisateurs, confirme la pertinence du rapprochement entre gestion électronique de documents et éditique. Les visiteurs ont ainsi pu rencontrer, réunis en un seul espace, tous les acteurs du management des flux d'informations et des documents. Parallèlement à l'exposition, le cycle de conférences a également rencontré un vif succès tant auprès des participants que des intervenants qui ont apprécié la vision prospective et sociétale apportée par certaines d'entre elles. Les neuf conférences ont réuni plus de 600 participants sur des sujets aussi variés que la création de richesse dans l'économie de l'immatériel, les technologies de dématérialisation et d'impression numérique, les documents à la demande dans les entreprises, la gestion de l'information non structurée. .. Partenaire de longue date de l'Aproged, l'ADBS proposait une demi-journée d'étude consacrée à la gestion de contenu et aux outils associés à cette notion. Dans l'avenir, ces deux associations ont l'intention de travailler de plus en plus sur des propositions communes. Les éditeurs ont créé le nouveau concept d'ECM, une sorte de boîte à outils qui intègre ces différentes technologies (GED plus workflow plus moteur plus outils collaboratifs) pour créer une plate-forme permettant une gestion complète de l'information, quel que soit son format. Des modules spécifiques à la gestion documentaire y sont également disponibles. Les professionnels de l'information devraient trouver, dans les projets d'ECM, une réelle opportunité d'affirmer leur compétence et la valeur ajoutée qu'ils apportent en matière de gestion de l'information, domaine généralement dédaigné par les informaticiens. La mise en œuvre, au sein du Centre national interprofessionnel de l'économie laitière, d'un portail d'informations professionnelles de la filière laitière française illustrait les propos précédents. Cette application devait permettre la production collaborative de données et leur diffusion dans le respect de multiples droits d'accès – ce dernier aspect, essentiel, ayant pour une bonne part déterminé les options technologiques. En effet, le CNIEL, en tant que centre interprofessionnel, regroupe différentes entités (syndicats et fédérations professionnels, Centres régionaux de l'économie laitière (CRIEL), laboratoires) et est organisé en différentes instances (conseil d'administration, commissions, groupes de travail). Tous ces acteurs, qui œuvrent dans le même domaine d'activité mais n'ont pas forcément les mêmes intérêts ni la même culture professionnelle, sont producteurs et utilisateurs de données; ils disposent de fonds d'informations hétérogènes à la fois dans leurs structures et formats et dans leurs applications. Le défi consistait donc à rassembler tous ces matériaux dans un même outil et à développer de manière progressive des pratiques collaboratives, tout en privilégiant la gestion des droits d'accès. L'option retenue a donc été de personnaliser et de rassembler : en créant, sur la page d'accueil du portail, un espace spécifique (qui peut contenir plusieurs sous-espaces) pour chaque entité et instance et en créant un espace commun. Les documents sont regroupés dans des bibliothèques organisées en fonction des besoins dans l'espace commun et dans les espaces spécifiques. L'accès aux espaces dédiés aux entités et instances est lié au profil de l'utilisateur. Ainsi, ce dernier ne verra pas apparaître sur sa page d'accueil les espaces qui ne lui sont pas autorisés. Cette gestion des droits fait l'objet d'un traitement très détaillé car de multiples cas sont possibles : par exemple, un document joint n'a pas le même statut que sa notice; au sein d'une même notice, deux documents joints peuvent être soumis à des règles d'accès différentes, etc. Cette gestion très fine mais complexe permet également de proposer l'accès du fonds à des partenaires extérieurs. Pour uniformiser les données importées dans le portail (bases de données documentaires préexistantes et documents des extranets), de nouveaux référentiels ont été créés (liste thématique à quatre niveaux, produits, typologie, etc.). Puis un inventaire des métadonnées utiles (préexistantes et nouvelles) a été effectué pour élaborer une bibliothèque de base. Un espace du portail est organisé autour de deux types de pages : la page d'accueil (personnalisée) et une page de recherche structurée en trois colonnes (accès par plans de classement, affichage des résultats, retour à la page d'accueil). Chaque bibliothèque est composée de documents décrits via des notices spécifiques à chaque bibliothèque, auxquelles peuvent être associés des documents en texte intégral (notion de pièce jointe) ou des liens vers d'autres bibliothèques ou sites externes (notion de « voir aussi »). Ainsi, cette organisation permet de classer les notices par autant de champs dont dispose la bibliothèque interrogée : auteur, thème, date, etc. Et elle permet à l'usager de rechercher une information selon ses besoins du moment. Des recherches rapides (grâce à un moteur intégré au portail), des recherches personnelles enregistrées ou préenregistrées pour des groupes spécifiques sont également possibles. Le portail offre d'autre part des outils collaboratifs : alertes personnelles, agendas accessibles selon les droits de l'utilisateur, forums, workflows de validation, outils de publication. Les interventions Pour répondre aux nouvelles attentes d'accès à l'information, quels types de solutions mettre en place ? Quelles différences entre outils de gestion de contenu (CMS, ECM. ..) et gestion documentaire ? Gonzague Chastenet de Géry, cabinet Ourouk Publication et production de fiches pratiques, quelles solutions pour un accès efficace à l'information ? L'exemple de Spoth-btp. Jean-Luc Decouvelaere, Organisme de prévention professionnelle dans le BTP (OPPBTP) Production collaborative et diffusion de données (structurées ou non, internes et externes) dans le respect de droits d'accès multiples, au sein d'une application unique : le portail de la filière laitière. Dominique Velten, Centre national interprofessionnel de l'économie laitière (CNIEL) Autre illustration de ces problématiques avec l'application Spoth-btp, mise en place à l'Organisme de prévention professionnelle dans le BTP (OPPBTP). Elle permet la production et la mise à disposition des clients professionnels du BTP (entreprises, médecins du travail, centres de formation, etc.) d'un catalogue en ligne de plusieurs milliers de solutions pratiques de prévention des risques. Cette application repose sur deux systèmes séparés : un système de production des documents et un système de publication et consultation sur Internet. Le premier permet la création collaborative de fiches pratiques au format XML, dont la rédaction obéit à des règles précises pour garantir la qualité et l'homogénéité des contenus, et liées à des documents non structurés stockés dans une base de données techniques (BDT). Le second offre un outil de recherche et de mise à disposition d'une fiche pratique à partir d'une combinaison de critères définie par l'utilisateur, la constitution à la volée d'une présentation de la fiche (html ou pdf), la gestion des utilisateurs (inscription) et celle de dossiers personnels. La base de données des critères de sélection offre 14 000 combinaisons de cinq critères (métiers, activités, phases de travail, situations de danger, dangers). Chacune correspond à une solution pratique de prévention sous forme d'une fiche qui propose une action (ou une suite d'actions) compréhensible et pertinente, réalisable par un professionnel (artisan ou entrepreneur du BTP) pour répondre à une question de prévention posée par le biais de la combinaison des critères. À une même fiche peuvent être affectées une ou plusieurs combinaisons de critères. L'utilisateur peut donc rechercher une fiche à partir d'un ou de plusieurs critères (cinq au maximum) proposés sous forme de menus déroulants. À chaque étape, les fiches correspondantes sont consultables en format html ou pdf. On peut affiner la sélection en choisissant un nouveau critère pour aboutir à une seule fiche pratique quand les cinq critères ont été renseignés. Cette approche par « entonnoir » permet à l'usager d' être guidé dans sa recherche et lui évite ainsi d'obtenir des informations non pertinentes. Le sommaire d'une fiche présente d'abord l'objectif de la solution proposée puis les causes possibles du problème posé. Puis la rubrique Prévenir présente les titres des actions par niveau de prévention, actions elles -mêmes détaillées en items qui s'affichent au passage de la souris. Chaque utilisateur peut créer ses propres dossiers personnels en fonction de critères sélectionnés. Ces dossiers seront alimentés automatiquement au fur et à mesure de la mise à disposition de solutions correspondantes. Afin de satisfaire tous les modes de recherche des utilisateurs, une recherche par mot clé de type Google reste toujours possible parallèlement à la recherche par critère. Et, dans l'avenir, une recherche par images n'est pas exclue afin d'adapter l'outil à tous les profils des utilisateurs potentiels de cette application .
Dans le cadre du Forum des acteurs du numérique, organisé par l'Aproged, l'ADBS proposait le 9 octobre 2007 une demi-journée d'étude centrée sur la gestion de contenu. De plus en plus souvent utilisée dans les entreprises, cette notion concerne la chaîne de l'information, le cycle de vie du document, la production d'information pour le Web. Après un examen approfondi des fonctions nécessaires pour qu'un outil puisse être considéré comme capable d'assurer une fonction globale, ont été présentées deux applications, récemment mises en œuvre par l'OPPBTP et par le CNIEL.
sciencesInfo_08-0148089_tei_DOCSI_idPAS_D_ISBN_pu2007-06s_sa02_art02.tei.xml
termith-521-communication
La gestion de connaissances est un processus d'explicitation, de modélisation, de partage et d'appropriation des connaissances (Dieng et al., 1998). La plupart des méthodes de gestion des connaissances visent la définition d'une mémoire d'entreprise considérée comme un patrimoine de connaissances de l'organisation. Nous pouvons classer ces méthodes en deux grandes catégories : les méthodes de capitalisation des connaissances et les méthodes d'extraction directe (figure 1). Les méthodes de capitalisation des connaissances utilisent essentiellement des techniques de l'ingénierie de connaissances. Ces techniques consistent principalement en un recueil (entretiens avec les experts ou recueil à partir des documents) et une modélisation des connaissances. Les méthodes d'extraction des connaissances visent à extraire les connaissances directement de l'activité de l'organisation. Nous pouvons distinguer plusieurs techniques comme la fouille de données (permettant d'extraire des connaissances à partir d'analyse statistique), la fouille de texte (extraction des connaissances en se basant sur une analyse linguistique des textes (Bourigault et al., 1996)), les techniques de traçabilité de communication (e-mail, forum de discussion, etc.) et de la logique de conception. Nous étudions dans ce papier, la traçabilité de la logique de conception Design Rationale qui vise à définir une mémoire de projet (leçons et expériences vécues lors de la réalisation des projets (Matta et al., 2000). Le principal problème dans cette traçabilité est la modélisation dynamique. En d'autres termes, comment formaliser les données et informations extraites en temps réel de l'activité. Notons que ces informations ne sont pas aussi complètes et cohérentes que les connaissances extraites a posteriori, à la fin d'un projet par exemple. La modélisation dynamique doit également être réalisée en parallèle de l'activité propre de l'organisation. Cette modélisation doit donc s'intégrer dans cette activité. En d'autres termes, l'extraction directe et la modélisation dynamique des connaissances induisent des changements dans l'organisation et dans la réalisation d'un projet. Plusieurs méthodes de logique de conception ont été définies. Ces méthodes permettent de garder une trace de résolution collective de problèmes, extraites spécialement dans des réunions de prise de décision. Les techniques préconisées dans ces méthodes induisent un travail conséquent. De ce fait, elles sont de moins en moins utilisées dans les organisations. L'objectif de notre travail est de définir une méthode de modélisation dynamique simple et n'exigeant pas un travail de formalisation important, donc une méthode s'intégrant facilement dans l'activité de réalisation de projet. Nous nous basons sur l'hypothèse de décomposition de la modélisation en plusieurs étapes, transformant légèrement l'activité de prise des notes et leur organisation. La méthode (cf. section 3) que nous avons définie est construite d'une manière ascendante à partir d'une expérience de traçabilité d'un projet de définition des principes d'évaluation des risques (collaboration avec l'INRS, Institut national de recherche et de sécurité) tout en se basant sur une étude de l'état de l'art en logique de conception (cf. section 2). Plusieurs méthodes ont été définies pour représenter la logique de conception dans un projet. Ces méthodes peuvent être classées en deux principales catégories : représentation dirigée par la prise de décision et représentation de la dynamique de résolution de problèmes. Dans ce type d'approches, la logique de conception, nommée aussi l'analyse de l'espace de conception (Buckingham Shum, 1997) est représentée de manière à mettre en avant les éléments qui ont influencé une prise de décision. Nous pouvons distinguer essentiellement les méthodes IBIS (Conklin et al., 1998), DRAMA (Brice, 1999) et QOC (Maclean et al., 1991). (Le lecteur peut se référer à (Matta et al., 2000) pour en savoir plus sur les différentes méthodes définies pour représenter la logique de conception.) Généralement, l'espace de conception est représenté dans ces méthodes par des choix de conception. Ces choix sont structurés comme réponse aux questions évoquées par les problèmes de conception. Des arguments peuvent justifier les choix d'une option suivant un critère donné. Les options génèrent d'autres questions auxquelles les concepteurs répondent par des options. Certaines approches offrent une représentation plus globale de la logique de conception. En effet, certains éléments du contexte comme l'organisation de l'activité, le rôle des acteurs ainsi que l'artefact sont représentés. Nous pouvons distinguer spécialement le système DRCS (Klein, 1993). Il offre plusieurs vues sur un projet : modules de l'artefact, association des tâches, évaluation des spécifications, prise de décision, alternatives de conception et argumentation. Une autre approche consiste à représenter la logique de conception sous forme d'une analyse cognitive d'une résolution de problème. Nous distinguons spécialement le formalisme DIPA (Lewkowicz, 1999). Ce formalisme (donnée, interprétations, propositions, accord) utilise des méthodes de résolution de problèmes définies dans l'ingénierie de connaissances pour structurer une prise de décision. Dans le modèle DIPA la prise de décision est représentée en trois étapes majeures une première étape de description du problème qui permet de recueillir des données, considérées comme des symptômes dans des situations d'analyse ou comme des besoins dans des situations de synthèse; une deuxième phase d'abstraction qui part des données du problème pour leur trouver une interprétation correspondant à une cause possible dans les situations d'analyse ou à une fonctionnalité de la solution dans les situations de synthèse; une troisième phase d'implémentation qui part de l'interprétation (cause ou fonctionnalité) et qui permet d'élaborer une proposition qui prendra la forme d'une réparation supprimant la cause du symptôme (analyse) ou d'un moyen répondant à la fonctionnalité exprimée (synthèse). Une mémoire de projet doit contenir des éléments d'expérience provenant tant du contexte que de la résolution de problèmes. Ces éléments ont une forte influence mutuelle de sorte que si le contexte est omis, la restitution de la résolution de problèmes est insuffisante. Nous observons souvent ce type de phénomènes dans les résultats obtenus avec les approches citées ci-dessus. A part le système DRCS, peu d'approches définissent des techniques pour représenter cette influence entre le contexte et la résolution de problèmes dans un projet. Le système DRCS lui même ne permet de représenter qu'une partie de ce contexte (l'organisation en tâches et la projection des décisions sur l'artefact). De même, nous pouvons observer certains efforts dans le formalisme DIPA pour représenter l'organisation du travail en un workflow (tâche/rôle). Cependant, d'autres éléments restent aussi à identifier comme les contraintes, les directives, les ressources et les compétences, les modes de communication, etc. Nous envisageons dans notre approche de représenter une vision plus complète du contexte d'un projet en mettant en avant son influence sur la résolution de problèmes. D'autre part, la représentation de la résolution de problèmes comme elle est suggérée par les approches citées ci-dessus, reste incomplète en tant qu'une représentation de l'espace de négociation entre les acteurs d'un projet. En effet, le premier type d'approches permet plutôt une représentation dirigée par la décision de façon à ne mettre en avant que les éléments qui ont influencé une décision. Dans le deuxième type d'approches, un effort est fait pour représenter la dynamique de la prise de décision. Or, une négociation est un espace de discussion entre plusieurs acteurs où différents objectifs sont confrontés, des alliances et des conflits sont constitués. De même, une négociation a une histoire et est influencée par les alliances et les décisions prises lors des négociations passées. Notre approche permet de garder en mémoire cette dynamique de négociation en sorte que sa restitution soit facile pour faire apparaître les différents éléments inclus dans une résolution de problème. Enfin, l'application des méthodes de logique de conception a prouvé leurs difficultés en temps réel. En fait, il n'est pas évident de noter toutes les énonciations et de les analyser et les structurer directement pendant le déroulement d'une réunion. La modélisation a posteriori présente un risque important d'oubli des arguments et des éléments qui ont influencé la prise de décision. Nous proposons dans ce qui suit, une approche procédant par étapes progressives pour une traçabilité directe et une modélisation de la négociation. Nous considérons notre approche comme étant un processus dynamique de modélisation d'une négociation. L'approche est basée sur une méthode permettant d'obtenir une trace structurée d'une négociation pour une prise de décision. la méthode permet d'une part de garder une trace des négociations en temps réel et d'autre part de structurer cette trace de façon à ce qu'elle soit facilement réutilisable. Nous avons donc défini deux étapes principales dans cette démarche : retranscription directe et structuration. L'objectif est d'obtenir une mémoire englobant d'une manière bien structurée toutes les connaissances émergeantes durant un projet et éviter leur perte. En intégrant le processus de traçabilité dans le déroulement du projet lui -même nous visons à garder au fil de l'eau une trace des connaissances qui circulent pendant le déroulement de ce projet. En outre, la traçabilité doit être assistée et guidée grâce à des supports de retranscription réalisés en se basant sur des modèles extraits de l'état de l'art et relevant des approches de la logique de conception. Pour avoir une vision globale sur le projet, après chaque étape nous proposons de restructurer l'ensemble d'informations retranscrites et donner un certain nombre de vues sur leur contenu afin de garantir une maturité et une représentation globale de toutes les parties du projet et éviter une vision partielle (figure 2). Les approches de logique de conception demandent généralement une analyse approfondie lors de la traçabilité d'une prise de décision. De ce fait, ils sont difficilement applicables en temps réel. La première étape de notre démarche consiste en une retranscription dirigée par une simple structure où les éléments de bases peuvent être classés. Des fiches de retranscription sont utilisées. Elles contiennent des schémas structurés, vides a priori, représentant la logique de discussion. Nous utilisons ces fiches pour noter d'une façon structurée et rapide tous les éléments d'information qui peuvent être recueillis durant une négociation (figure 3). L'objectif est de préparer une retranscription structurée de la négociation au cours des réunions et en temps réel. La structure de ces fiches permet de distinguer les éléments du problème discuté, de mettre en évidence les arguments des participants à la réunion (intervenants) ainsi que leurs éventuelles suggestions. La prise des notes est structurée d'abord par participant qui, pendant la réunion, est reconnu soit par son nom soit par son aspect visuel. En fait, la retranscription directe que nous proposons suit, d'une part, les méthodes classiques de prise de notes dans une réunion et d'autre part, prépare la structuration des connaissances. Cette retranscription peut être facilement réalisée par un secrétaire de séances. Aucune analyse approfondie n'est demandée dans ce type de retranscription. Si le type d'un énoncé n'est pas identifié, nous recommandons de le classer dans les arguments pour être structurée ultérieurement. Notons également qu'une suite chronologique de la négociation est sauvegardée dans ce type de retranscription. L'objectif principal d'une structuration est de permettre un accès intelligent aux connaissances de la mémoire. Nous proposons alors de fournir plusieurs accès à la mémoire selon diverses perspectives que nous définissons ultérieurement. La deuxième étape de notre démarche consiste en une structuration basée sur une analyse cognitive des fiches remplies lors de la retranscription directe. Nous nous sommes inspirés des approches de logique de conception pour définir une structure de représentation (figure 4) permettant de mettre en avant les éléments moteurs d'une négociation, tels que les arguments, les critères de justification et les suggestions. L'identification des critères est guidée par une classification de types d'arguments. Cela consiste à désigner des critères d'argumentations correspondant à chaque groupe d'arguments et de suggestions se basant sur le même fondement. Dans un souci d'applicabilité, la méthode que nous proposons peut être comparée à un reporting de réunions où la retranscription directe est similaire à la prise de notes et la structuration à la rédaction de compte rendu. Cependant dans notre cas, la prise de notes est dirigée et le résultat est plus riche et reflète une trace plus complète de la prise de décision. Certains critères, définis lors de cette structuration, peuvent être considérés comme simples à identifier et pourront être utilisés pour enrichir la structure de la retranscription directe (utilisés dans des futures réunions) et par conséquent faciliter la structuration. C'est dans ce sens que nous considérons notre méthode comme un processus dynamique agissant à la fois sur la démarche et la structure. Notre principal objectif est d'intégrer la traçabilité de décisions dans le processus de réalisation de projets. L'approche que nous proposons introduit un léger changement dans l'organisation d'un projet de manière à rendre cette traçabilité pertinente. Cette approche n'exige pas de compétences spécifiques en ingénierie de connaissances mais simplement une connaissance des objectifs du projet. Dans le but de garantir une représentation des connaissances profondes qui ont influencé la logique de conception, des réunions de validation à mi-parcours et a posteriori, surtout avec des participants ayant une vision globale sur le projet (par exemple, le chef du projet), doivent être tenues. Ces réunions permettent de reformuler les arguments, les suggestions et les critères et de revoir leur classification. La structure de la mémoire incite les participants à expliciter leurs connaissances, enrichissant par là le contenu de la mémoire. La structure représente une logique de discussion des éléments du problème discuté. Chacun des éléments du problème est discuté par des participants en donnant leurs opinions appuyées par des arguments de plusieurs types. Les participants peuvent aussi avancer des suggestions concernant l'élément du problème. L'ensemble des arguments et suggestions permet au groupe de prendre une décision concernant cet élément du problème. L'élément du problème est donc résolu, sinon il sera rediscuté de la même manière et passera par le même cycle. Ainsi on pourra voir l'évolution de cet élément pendant la discussion jusqu' à sa version finale. Dans la structure, les arguments sont classés selon leur critères. Chaque argument ou suggestion est lié au participant qui l'a émis. Sachant que chaque participant est caractérisé par ses compétences et son rôle, cela permet de bien voir la relation qui peut exister entre les contributions (arguments, suggestions) des participants et leurs compétences. Ce lien peut également donner accès aux relations entre participants. Objets du problème : le problème global discuté au cours des réunions est composé de sous-problèmes ou éléments de problème. L'idée est de décomposer l'ensemble de la discussion en éléments basiques discutés. La structure permet donc de représenter ces éléments de discussion avec leur contenu d'une façon structurée, de les lier entre eux et de représenter l'évolution de chacun d'eux au cours des négociations. Arguments : l'un des éléments les plus importants de toute négociation est l'argumentation. Dans notre approche l'argumentation est un élément essentiel de la structure représentative car elle est l'origine et la cause de l'évolution de la discussion du problème et par conséquent de la prise de décision. Suggestions : les arguments avancés par les intervenants au cours des réunions les amènent souvent à proposer leurs propres suggestions concernant tel ou tel élément du problème discuté, d'où la nécessité de prévoir dans le modèle un espace pour les suggestions des intervenants. Les suggestions sont liées aux arguments et aux intervenants qui les ont proposés. Intervenants (participants) : la représentation des participants à la négociation dans la structure est importante, elle permet de lier les arguments et les suggestions à leurs émetteurs. Chaque participant est caractérisé, essentiellement, par ses compétences et son rôle dans le projet (voir contexte). Cela permet de bien comprendre la logique et le raisonnement des intervenants et les motifs de leurs interventions. Comme nous l'avons noté précédemment des éléments du contexte doivent être également décrits dans une mémoire de projet. Nous présentons alors cette mémoire en deux grandes parties, contexte et logique de conception, incluant des influences mutuelles (figure 5). Nous représentons le contexte d'un projet (figure 6) comme une description de l'environnement du travail (les moyens et techniques, les référentiels, les directives ainsi que les contraintes du projet) et de l'organisation du projet (les participants, leurs rôles et l'organisation des tâches). Nous envisageons d'approfondir cette représentation. Nous avons mis en avant dans la figure 4 certains éléments du contexte qui peuvent être représentés en plusieurs niveaux de structuration, pour mettre en avant les différents aspects d'influence entre ses éléments et la logique de conception. La logique de conception, comme elle est généralement définie, représente l'espace de décision dans un projet. Nous proposons de décrire cet espace sous différents points de vue tout en se focalisant sur la négociation qui prend une place centrale dans la logique de conception. La plupart de ces points de vue peuvent être générés automatiquement à partir de fiches de structuration. Nous avons identifié quatre points de vue : résolution de problèmes, critères d'argumentation, évolution de la résolution de problème et point de vue chronologique. Nous étudions d'autres points de vue qui permettent de mettre en avant les liens entre les participants et la résolution de problèmes (Brown et al., 2000). Ce point de vue se base essentiellement sur les fiches structurées correspondantes aux éléments des problèmes traités. Une vue extraite à partir des critères d'argumentation montre une synthèse sur les éléments-clés qui ont influencé la résolution d'un problème et par là même la prise de décision. Cette vue présente les relations entre les critères, les arguments avancés et les problèmes posés. L'évolution des décisions est un élément important à mémoriser dans la logique de conception. Nous mettons en avant l'évolution des problèmes en reliant le problème à sa solution qui peut générer également d'autres problèmes. Les fiches de retranscription peuvent offrir une vue chronologique sur le déroulement de la négociation. En effet, à partir d'une présentation de la chronologie des réunions, nous pouvons accéder à n'importe quelle phase de l'évolution de la résolution du problème discuté. Cette vue, mise en parallèle avec celle de la résolution du problème, permet de refléter l'évolution de la négociation. La représentation des tâches dans le contexte sous forme de processus ainsi que le lien entre ces tâches et les fiches fournit une vue globale sur le déroulement du projet. L'objectif de ce projet est l'établissement d'un document contenant des principes d'évaluation des risques professionnels recommandés par l'institution Prévention. La tâche est confiée à un ensemble de spécialistes possédant différentes compétences en relation avec la nature du projet et provenant de divers domaines et organismes. Leur moyen de travail est essentiellement des réunions de négociations et discussions qui aboutiront à une formulation finale des principes. En se basant sur l'approche décrite auparavant, notre mission consistait à accompagner le groupe de travail dans le but d'assurer la traçabilité du projet et de constituer une mémoire de projet. La partie contexte de la mémoire contient tous les éléments caractérisant le cadre du projet notamment : les participants, leurs compétences ainsi que tous les moyens dont ils disposent. Lors de la première réunion il fallait noter tous les éléments de la négociation. Cette retranscription était sous forme d'une prise de note ordinaire. Elle avait comme objectif le recueil de toutes les informations relatives au contenu de la réunion c'est-à-dire : sujets de discussion, opinions, arguments, suggestions, intervenants, etc. La structuration a posteriori de ces informations était plus difficile et prenait plus de temps que la structuration à partir des fiches de retranscription (figure 7) utilisées à partir de la deuxième réunion. En effet, il n'était pas évident de reconnaître les liens entre les projets de principes discutés et les arguments et suggestions correspondantes. La fiche de retranscription, décrite auparavant, facilite la capitalisation au fil de l'eau des connaissances en permettant de placer les arguments ainsi que les suggestions selon des critères évidents déduits à partir des réunions précédentes comme des critères de fond (dans le cas du projet ERP : arguments correspondant au contenu des principes de l'ERP) et de forme (dans le cas du projet ERP : arguments correspondant à la formulation des principes de l'ERP). Un ensemble de critères est ensuite identifié afin de bien structurer les connaissances dans la mémoire, dans le but d'une future exploitation (figure 8). Différentes vues ont été ensuite générées à partir des fiches de structuration comme l'évolution des principes (figure 9) et les critères d'argumentation (figure 10). Les critères d'argumentation définis d'une manière strictement ascendante ne reflétaient pas parfaitement les types d'arguments qui ont influencé la prise de décision. Nous nous sommes servis d'un arbre de critères mettant en avant les problèmes sur les propositions et sur les stratégies de projets pour identifier des critères pertinents et reclasser les arguments. La présentation de la mémoire en différents points de vue a amené le chef de projet à suggérer des modifications dans les structures et à compléter les liens entre les connaissances (par exemple, des liens d'influence et d'interaction entre les différents principes ont été ainsi définis). Il a reformulé ensuite les arguments. Certains participants ont suggéré de garder les noms des participants dans le tableau de compétences. Notons également que les fiches de structuration ont été modifiées de façon à distinguer les suggestions des arguments. De même, nous avons ajouté l'option de création de nouveaux principes à partir de principes discutés. Le projet est actuellement dans sa phase finale. Nous définissons d'autres types de vues sur la mémoire (par domaines de compétences par exemple) et nous mettons en place une présentation bien adaptée en vue d'une future exploitation de la mémoire de projet. Une mémoire de projet reflète une expérience acquise, elle doit représenter tous les éléments d'information relatifs au projet, aussi bien le contexte que la logique de conception. Nous décrivons dans ce papier une approche qui permet une représentation globale de ces éléments. Elle met en avant les éléments et les relations mutuelles qui influencent la résolution de problèmes dans un projet, et ceci à travers des vues représentant les différentes faces du déroulement du projet. Les approches de traçabilité de la logique de conception présentent des limites, surtout dans la modélisation au cours de l'activité. Ces limites résident essentiellement dans la difficulté d'identifier et de classer en temps réel les questions, les suggestions, les types d'arguments, etc., avancés lors d'une négociation. Nous avons proposé un processus dynamique de modélisation basé sur une démarche en plusieurs phases partant d'une prise de notes semi-structurée vers une structuration plus avancée. La structure de représentation évolue avec l'évolution de problèmes. Notre approche se base sur une représentation similaire aux approches de logique de conception. En effet, la prise de décision est décrite avec des mots-clés comme : problème, arguments, suggestions, etc. Comme nous l'avons montré dans ce papier, elle s'intègre facilement dans le processus de réalisation de projets sans nécessiter des compétences spécifiques. Elle s'appuie aussi bien sur un accompagnement en temps réel que sur une analyse a posteriori, ce qui permet d'obtenir une trace riche et bien structurée. Notons que le processus de modélisation se base sur une abstraction dirigée par des classifications et des structures. Nous avons défini cette approche en s'appuyant sur une expérience réelle (le projet de définition des principes d'évaluation des risques professionnels) et nous envisageons de la valider sur d'autres champs d'application. La représentation du contexte dans notre approche n'est pas assez développée, nous examinons d'autres études du contexte émanant des approches mathématiques ainsi que des analyses faites en sciences humaines. Les travaux pragma-linguistique peuvent enrichir la représentation de la communication dans une mémoire de projet, de même, les études socio-organisationnels sont d'une grande importance pour identifier les relations interpersonnelles et leur rôle dans la prise de décision. Nous développons un outil support à notre approche offrant, d'une part, une structure flexible de représentation et d'autre part, une interface d'édition et de représentation bien adaptative .
Une mémoire de projet est une représentation de l'expérience acquise pendant la réalisation de projets (Dieng et al., 1998). Elle peut être obtenue à travers une capitalisation au fil de l'eau de l'activité de l'entreprise, notamment de la logique de conception (design rationale). La plupart des méthodes définies à ce propos ne permettent pas une structuration en temps réel de la logique de conception. Nous proposons dans cet article un processus dynamique de modélisation des connaissances, offrant une démarche de traçabilité en deux étapes (retranscription directe et structuration) et introduisant une dynamique, que ce soit dans la démarche ou dans la structure de la mémoire.
sciencesInfo_02-0464532_tei_DN_053_0193.tei.xml
termith-522-communication
Les bases de données audiovisuelles contiennent souvent des documents en plusieurs langues. C'est le cas par exemple pour les archives sur internet. Il arrive souvent que la langue utilisée dans un document soit inconnue et que le document contienne des énoncés prononcés dans différentes langues. Cela complique la recherche par le contenu dans les archives. Une possibilité consiste à appliquer un système de reconnaissance de la langue pour ensuite appliquer le système de transcription approprié mais les détecteurs de langue commettent des erreurs et des langues inconnues peuvent être rencontrées. Une autre approche consiste à transcrire les documents phonétiquement en utilisant un sous-ensemble de l'alphabet phonétique international (API), quelle que soit la langue parlée. La recherche par le contenu peut alors être effectuée au niveau des chaînes de caractères en API. Cette approche a été encouragée par l'agence de la science, de la technologie et la recherche (A*STAR) de Singapour dans le cadre du défi « Star Challenge » qu'elle a organisé entre Mars et Octobre 2008 1. Ce défi a également abordé le problème de la recherche dans des documents vidéo en utilisant uniquement l'image ou en utilisant des informations combinées de l'audio et de l'image. Le défi « Star Challenge » est organisé comme une compétition pour les moteurs de recherche multimédias. Il est un peu différent dans l'esprit des campagnes d'évaluation classiques dans ce domaine telles que celles organisées par le NIST. Il s'agit vraiment d'une compétition dans des conditions proches de celles des applications du monde réel, en particulier en ce qui concerne les aspects temps de traitement (bien plus réduits). Elle est moins orientée vers une mesure précise de la performance des méthodes ou des systèmes. Le défi consiste en une série de trois rounds éliminatoires portant sur la recherche par le contenu dans des documents audiovisuels respectivement par l'audio, l'image et la combinaison des deux. Les cinq meilleures équipes classées après les trois rounds ont été invitées à participer à une épreuve finale « en direct » à Singapour. La tâche de recherche par l'audio existe en deux variantes : dans la première (AT1), la requête est fournie sous la forme d'une chaîne de caractères phonétiques (qui pourrait être entrée telle quelle par un utilisateur ou provenir d'une conversion à partir du texte); dans la seconde (AT2), la requête est fournie sous la forme d'un énoncé audio et doit être transcrite de la même manière que les documents audio. Nous avons profité de cette occasion pour développer et tester des approches innovantes pour la recherche par le contenu audio et multimodal dans des bases de recherche audio. Nous décrivons dans cet article les méthodes que nous avons développées pour cette participation et la façon dont nous les avons testées dans le cadre de ce défi. L'article est organisé comme suit : dans la section 2, nous décrivons comment nous avons construit nos modèles acoustiques multilingues; dans les sections 3 et 4, nous décrivons deux approches que nous avons utilisées pour la recherche par API, la première basée sur la programmation dynamique et la seconde basée sur le modèle vectoriel de recherche d'information; dans les sections 5 et 6, nous décrivons les approches que nous avons utilisées pour la recherche visuelle et multimodale; dans la section 7, nous décrivons les expériences que nous avons effectuées dans le cadre du Star Challenge et nous présentons les résultats obtenus. Comme les langues parlées dans les documents audio sont supposées inconnues au départ, nous avons envisagé une approche multilingue pour la transcription automatique de documents audio. En effet, une solution aurait consisté à utiliser en parallèle différents systèmes de reconnaissance monolingue, mais celle -ci n'était pas réaliste dans le contexte de la compétition Star Challenge où le temps de calcul était une contrainte très importante. Par conséquent, nous avons envisagé une approche plus « bas niveau » où un décodeur phonétique-multilingue a été utilisé pour transcrire les documents et les requêtes. Ce décodeur a l'avantage d' être en principe indépendant de la langue et très rapide. En réalité, ce décodeur de phonème n'est pas tout à fait indépendant de la langue car il dépend d'un ensemble de langues sources utilisées pour entraîner les modèles acoustiques et les modèles de langage « phonémiques ». Pour chaque document audio, le signal audio a été extrait et segmenté en segments homogènes (parlés par un seul locuteur) en utilisant un système de segmentation audio fondé notamment sur le critère BIC (Bayesian Information Criterion - voir (Moraru et al., 2004) pour plus de détails). En principe, un segment obtenu par ce système correspond à un tour de parole. Ensuite, un décodeur de parole a été appliqué sur chaque segment. Aucun détecteur de musique ou de silence n'a été utilisé ici pour enlever les segments ne contenant pas de parole. Le décodeur Sphinx-3 2 de Carnegie Mellon University (CMU) a été utilisé pour transcrire automatiquement des documents audio et des requêtes du round 1 (tâches de recherche vocale monolingue) et de la phase de qualification (round 3) pour la finale (tâches de recherche vocale/vidéo multilingue). En fait, le décodeur Sphinx-3 est un décodeur rapide qui fonctionne en temps réel. Il implémente une stratégie de recherche en faisceaux via l'algorithme de Viterbi avec un contrôle de la largeur des faisceaux (Beam-Search) à plusieurs niveaux (état HMM, phonème, mot ou phrase). Sphinx-3 utilise les modèles acoustiques HMM créés et entraînés par SphinxTrain et il accepte en entrée des modèles de langage n-grammes ARPA standard au format binaire. Un module de paramétrisation du signal a été utilisé pour extraire toutes les 10 ms sur une fenêtre d'analyse un vecteur acoustique. Chaque vecteur acoustique consiste en 13 coefficients MFCCs, les dérivées première et seconde de ces coefficients pour obtenir finalement un ensemble de 39 paramètres. Toutes les unités acoustiques ont été construites sur une topologie de HMMs continus gauche-droit d'ordre 1 à 3 états où chaque état est une distribution multi-gaussienne. Pour apprendre les modèles de langage n-grammes, nous avons utilisé les boîtes à outils SRILM (Stolcke, 2002) et CMU (Clarkson et al., 1997). Pour les tâches de recherche vocale (voice search) monolingue (anglais natif et dialectal), des modèles acoustiques anglais de 4 000 états (tied-states) ont été utilisés. Chaque état a été modélisé par un mélange de 16 distributions gaussiennes à matrice de covariance diagonale. Ces modèles acoustiques ont été créés par Carnegie Melon University (Placeway et al., 1997) et ils ont été appris à partir du corpus d'apprentissage broadcast news HUB-4 1996-1997 (LDC, 1997) qui contient 140 heures de signal de parole. Ensuite, ces modèles natifs anglais ont été adaptés par nos soins avec la méthode d'adaptation supervisée MAP (Maximum a Priori) (Gauvain et al., 1994) en utilisant une petite quantité de données de parole dialectale de la région de l'Asie du Sud-Est. Par ailleurs, le modèle de langage HUB-4 3 et le grand dictionnaire de prononciation de CMU 4 avec 125 000 mots ont été utilisés. Pour les tâches de recherche vocale multilingue, comme les langues parlées dans les documents audio sont supposées inconnues au départ, nous avons décidé de construire des modèles acoustiques multilingues pour 4 langues : anglais, mandarin, vietnamien et malais. Nous pensions que ces 4 langues seraient largement utilisées dans les documents audiovisuels dans la région de l'Asie du Sud-Est et la région Singapourienne en particulier. Les modèles acoustiques multilingues indépendants du contexte sont entrainés séparément pour le mandarin, le vietnamien et le malais avec un mélange de 16 distributions gaussiennes pour chaque état du modèle HMM. Le modèle acoustique mandarin a été appris à partir du corpus CADCC (CCC, 2005), lemodèle vietnamien a été appris à partir du corpus VnSpeechCorpus (Le et al., 2004) et le modèle malais a été appris à partir d'un corpus donné par l'Université Sains Malaysia. Un modèle acoustique anglais indépendant du contexte avec un mélange total de 16 distributions gaussiennes a été combiné à partir de deuxmodèles acoustiques différents : HUB-4 (issu de CMU, de type broadcast news) avec 8 gaussiennes et WSJ0 avec 8 gaussiennes (de type parole lue) (LDC, 1993). Comme le modèle HUB-4 est originalement un modèle dépendant du contexte, nous n'avons extrait que les parties indépendantes du contexte à partir de ce modèle. Le tableau 1 présente le nombre de locuteurs et la taille des corpus de parole utilisés. Enfin, un modèle acoustique multilingue est composé à partir de l'union des 4 modèles acoustiques monolingues. Les étiquettes linguistiques ont été ajoutées à chaque modèle de phonème pour que les phonèmes venant de langues différentes puissent être différenciés le cas échéant. Corpus de parole utilisés pour la modélisation acoustique multilingue Corpus Description Nb. loc. Heures HUB4 Anglais, broadcast news – 140 WSJ0 Anglais, parole lue 123 15 VN Vietnamien, parole lue 29 15 CADCC Mandarin 20 5 MSC Malais 18 5 Pour la modélisation du langage, un modèle de phonème multilingue bigramme a été appris à partir du corpus de texte multilingue pour 4 langues. L'utilisation du modèle de langage phonétique a accéléré significativement le décodage de parole (le temps de calcul était environ de 0,25 × RT). La recherche est toujours effectuée au niveau des chaînes de caractères API, indépendamment du fait que la transcription ait été faite au niveau du mot ou du phonème et indépendamment du fait que la requête soit présentée comme une chaîne de caractères API (AT1) ou comme un énoncé vocal (AT2). Dans tous les cas, nous devons déterminer un alignement optimal et un score associé entre les représentations en API des requêtes et des documents. Nous avons pour cela adapté un algorithme de détection de mots dans un flot de parole continue (Gauvain et al., 1982) lui -même basé sur un algorithme de programmation dynamique appliqué à la reconnaissance vocale (Sakoe et al., 1978). La principale différence entre l'algorithme original de détection de mots de notre algorithme de détection de chaînes en API est de remplacer les vecteurs de caractéristiques audio (en général les « Mel Frequency Cepstral Coefficients » ou MFCCs) par des symboles de l'API. À cause de fréquentes erreurs de transcription, soit dans les documents pour les deux tâches, soit dans les requêtes pour la tâche AT2, la recherche de la chaîne phonétique de la requête dans celle d'un document doit permettre une correspondance inexacte. Que la correspondance soit exacte ou inexacte, il faut également lui attribuer un score afin de pouvoir classer en premier les documents pour lesquels la correspondance est la plus exacte. Afin de permettre les correspondances inexactes et d'attribuer un score à celles -ci, nous avons choisi de modifier la « distance » entre la chaîne de la requête et une sous-chaîne d'un document. Toutes les correspondances possibles entre la chaîne de la requête et l'ensemble des sous-chaînes d'un document sont prises en compte et, pour chacune de ces correspondances, une distance est calculée en comptant et en pénalisant l'ensemble des insertions, des suppressions et des substitutions entre la chaîne phonétique de la requête et la sous-chaîne du document. La figure 1 montre un exemple de calcul de distance. La programmation dynamique est un moyen de résoudre le problème consistant à trouver le meilleur alignement et le score correspondant entre une chaîne requête et une chaîne document avec un temps de calcul linéaire avec la longueur de la chaîne requête et la longueur de la chaîne document. Considérons la matrice produit de la chaîne de caractères représentant le document (horizontalement) et la chaîne représentant la requête (verticalement). Une correspondance (ou un alignement) valide entre la chaîne de la requête et une sous-chaîne du document est un chemin « continu et croissant » qui relie la rangée du bas de la matrice à la rangée du haut de la matrice (figure 2). Le meilleur alignement (ou chemin) est celui qui minimise la distance d'édition le long de lui -même. L'astuce de la programmation dynamique est de calculer le meilleur alignement par récurrence. Si nous considérons la distance d'édition e (i, j) selon le chemin optimal joignant la ligne du bas de la matrice au point (i, j) dans celle -ci, nous avons une équation de récurrence sur e (i, j) car le chemin optimal arrivant en (i, j) doit : soit venir de (i – 2, j – 1) avec une pénalité d'insertion, soit venir de (i – 1, j – 2) avec une pénalité de suppression, soit venir de (i – 1, j – 1) avec une pénalité de substitution éventuelle. (à moins que l'un de ces points ne soit en dehors de la matrice). e (i, j) peut être calculé par récurrence dans la matrice complète en initialisant e (i, j) à 0 sur la rangée du bas et à « infini » sur la colonne de gauche (à l'exception de la valeur du bas). L'équation de récurrence effectivement utilisée est donnée en équation 1. Les cxx sont des constantes dont les valeurs sont : cii = cdd = 2.0, csn = csd = 1.0, csi = 0.5 (normalisation selon la requête de façon à ce que tous les alignements aient le même poids total et poids identiques pour les pénalités d'insertion, de suppression et de substitution). Une fois terminé, le minimum de e (i, j) sur la rangée du haut donne la meilleure distance d'édition qui est aussi le score du document pour la requête (le document avec le score le plus faible est le meilleur). Le retour en arrière à partir de la position du minimum donne l'alignement complet et donc la position dans le document de l'instance de la requête avec la meilleure correspondance. Le temps calcul de la distance d'édition par programmation dynamique entre une chaîne cible et une flux de symboles phonétiques, ainsi que la localisation de la meilleure occurence est linéaire en fonction de la longueur de la chaîne cible et de la longueur du flux dans lequel on la cherche. Comme on travaille ici avec des symboles qui sont des phonèmes dont le débit est très faible (une dizaine par seconde) et comme les calculs pour chaque point de programmation dynamique sont très simples, le temps de recherche d'une chaîne cible dans plusieurs dizaines d'heures de vidéo est de l'ordre de la seconde. Les pénalités d'insertion, de suppression et de substitution peuvent soit être constantes soit dépendre des phonèmes effectivement insérés, supprimés ou substitués, certains phonèmes étant en effet plus susceptibles que d'autres d' être insérés, supprimés ou substitués. Pour les pénalités fixes, nous avons choisi : et pour les pénalités variables, nous avons choisi : Les probabilités ont été estimées par comparaison de transcriptions manuelles et automatiques. Nous avons également fait des expériences avec le modèle vectoriel (MV), classiquement utilisé en recherche d'information textuelle. Nous avons utilisé des bigrammes de phonèmes comme unité d'indexation de base avec un système de normalisation à cosinus pivoté. Cette normalisation a été proposée par (Singhal et al., 1996). Dans le modèle vectoriel de recherche d'information, on définit généralement dans le schéma de pondération, un facteur de normalisation visant à compenser le fait que de longs documents ont intrinsèquement plus de chances d' être pertinents pour une requête donnée. Une telle normalisation peut utiliser la norme du vecteur document ou la taille du document en termes de caractères, par exemple. (Singhal et al., 1996) ont découvert que l'utilisation de la normalisation cosinus tend habituellement à trop stimuler les documents courts et à trop pénaliser les documents longs. C'est pourquoi ils ont proposé une normalisation pivotée pour compenser la normalisation habituelle. Dans notre cas, les documents varient beaucoup en longueur et une telle normalisa-tion pivotée est néssaire. Par rapport à la pente de normalisation habituelle pour le texte (entre 0,2 et 0,3 selon (Singhal et al., 1996), les pentes de la normalisation pour nos meilleurs résultats avec le modèle vectoriel sont de 0,4 pour AT1 et 0,54 pour AT2. Cette pente, qui correspond à une normalisation, est plutôt élevée; ceci est probablement dû au fait que, sur cette collection, les documents longs on plus besoin d' être stimulés au cours de l'indexation pour être bien retrouvés. Nous utilisons la modalité visuelle pour la classification en concepts via un apprentissage supervisé exploitant les annotations fournies par les organisateurs du Star Challenge. Notre système de classification est générique dans la mesure où la même approche est développée pour détecter tous les concepts visés. L'approche met en œuvre des réseaux d'opérateurs qui incluent des extracteurs de descripteurs bas niveau, des détecteurs de concepts intermédiaires et des opérateurs de fusion (Ayache et al., 2007). Les sections suivantes décrivent ces étapes. Le flux visuel est analysé à plusieurs niveaux de granularité; des descripteurs globaux représentent l'ensemble d'une image, tandis que des descripteurs locaux sont extraits dans des blocs entrelacés, selon une grille de N×M blocs. La participation au Star Challenge posant une contrainte de temps d'exécution, nous avons fixé la granularité par descripteurs empiriquement, de façon à obtenir des taux de classifications satisfaisant avec des temps de calculs réduits. Ces descripteurs sont utilisés pour l'apprentissage et la classification en concepts des séquences vidéo. L'analyse visuelle traite une à plusieurs images-clés par séquence vidéo, puis les combine selon les schémas de fusions classiques « précoce », « tardif », ou une combinaison des deux, puis après classification des images-clés, attribue un score par concept pour chaque séquence vidéo. Nous considérons des descripteurs de couleur et texture globaux à l'image. La couleur est représentée par un histogramme 3D dans l'espace RGB, où l'espace de couleur est discrétisé de façon à obtenir un histogramme de 4×4×4 dimensions. La texture est extraite à l'aide de 40 filtres de Gabor sur 8 orientations et 5 échelles. Finalement, un descripteur visuel global est normalisé pour former un vecteur de 104 dimensions. Pour compléter ces descriptions, nous extrayons d'autres descripteurs visuels dans chaque bloc d'image. Ces descripteurs sont alignés pour former une description visuelle riche pour chaque image clé : Couleur (1) : décrit par un histogramme 3D de 3×3×3 dimensions, extraits dans une grille de 8×6 blocs. Ce descripteur forme un vecteur de 1 296 dimensions. Couleur (2) : décrit par les deux premiers moments statistiques, extraits dans une grille de 8×6 blocs. Ce descripteur forme un vecteur de 432 dimensions. Histogramme d'orientation : calculé dans une grille de 4×3 blocs. Chaque dimension correspond à la somme des magnitudes d'une orientation. Nous considérons 50 orientations. Le descripteur EDH forme un vecteur de 600 dimensions, il est connu pour être invariant en échelle et en translation. Local Binary Pattern : calculé dans une grille de 2×2 blocs et constitue un vecteur de 1 024 dimensions. Le descripteur LBP modifie la valeur d'un pixel selon les valeurs des pixels voisins (3×3) pour capter des motifs de texture. LBP est invariant par une variation monotone de la valeur des pixels, ce qui est intéressant pour résister aux variations d'illumination (Mäenpää Topi, 2000). La représentation d'images par sac-de-mots consiste à sélectionner un ensemble de régions dans une image (points d'intérêt) puis à décrire chacune d'elles à l'aide d'un descripteur visuel. Ces descripteurs sont alors quantifiés en affectant chaque descripteur à un élément d'un vocabulaire visuel pré-calculé. Cela permet d'obtenir un histogramme qui comptabilise les occurrences des mots visuels (éléments du vocabulaire visuel) dans une image. Combinée avec les descripteurs SIFT, invariants en échelle et en rotation, cette approche constitue l'une des approches les plus discriminantes pour la classification d'images (Lowe, 2004). Nous avons utilisé un dictionnaire de 1 000 mots visuels, fourni par le groupe INRIA-LEAR. Ce descripteur vise à modéliser les relations sémantiques entre les concepts, par une approche sac-de-mots. Ce descripteur nécessite une phase d'apprentissage sur les blocs d'image. Pour cela, nous considérons chaque bloc d'image comme positifs relativement à un concept lorsque l'image est annotée positivement. Cette hypothèse est certes très forte mais peut être raisonnable pour certains concepts. Nous entraînons des modèles par concept au niveau bloc sur une partie de l'ensemble d'apprentissage puis classons l'ensemble des blocs, ce qui aboutit à nb_blocs × nb_concepts scores de classification par image. Le descripteur sémantique est représenté par un histogramme de nb_concepts dimensions où chaque dimension contient la somme des scores d'un concept sur tous les blocs. À partir des descripteurs visuels décrits précédemment, nous avons entraîné des classifieurs SVM à noyaux RBF pour la classification par concepts. Le choix des paramètres gamma et C par concept est fixé par validation croisée. Les différents descripteurs sont fusionnés par combinaison des schémas de fusion « précoce » et « tardif ». Une fusion précoce opère dans l'espace des descripteurs, tandis que la fusion tardive combine les scores de classifications obtenus par chaque classifieurs. Une combinaison de ces schémas de fusion est possible lorsque plus de deux descripteurs sont disponibles et apporte plus de flexibilité pour combiner les descripteurs. Par exemple, il est possible de fusionner séparément des descritpeurs couleur et texture de façon précoce, puis de fusionner les scores de classifications obtenus de chacun de façon tardive. De telles combinaisons améliorent significativement les performances de classification pour certains concepts. Nous avons implémenté les opérateurs de fusions tels que l'opérateur de fusion précoce normalise les descripteurs et les aligne pour former un seul descripteur. L'opérateur de fusion tardive effectue une combinaison linéaire (moyenne) des scores de classification. Pour notre participation au Star Challenge, nous avons mis en œuvre plusieurs réseaux d'opérateurs (i.e. plusieurs combinaisons de schémas de fusion, faisant intervenir différents descripteurs). Afin d'optimiser le choix du réseau optimal par concept visé, nous avons choisi, pour chaque concept, le réseau qui maximise la performance de classification sur un corpus de développement. Les plans vidéo peuvent être évalués et triés en fonction de : la probabilité de présence d'un concept donné; la similarité visuelle à une image ou à un plan vidéo donné; la probabilité de présence d'une chaîne phonétique donnée. Une requête mono ou multimodale peut être définie comme une combinaison de tels critères. Par exemple, dans les tâches vidéo 1 et 2 (VT1 and VT2) du Star Challenge, une requête est définie comme une combinaison d'un concept visuel requis et d'une similarité visuelle à une image (VT1) ou à un plan vidéo (VT2) donné. Dans les tâches de recherche multimodales 1 et 2 (AV1 and AV2), une requête est définie comme une combinaison d'une similarité visuelle à une image et de la présence d'une chaîne phonétique donnée textuelle (AV1) ou parlée (AV2). Une approche similaire est utilisée dans tous les cas. Un score numérique est obtenu pour chaque critère en utilisant le sous-système approprié : recherche par chaîne phonétique, recherche par énoncé vocal, recherche par concepts pré-indexés ou recherche par similarité visuelle à un exemple donné. Ces scores sont normalisés indépendamment pour chaque critère par une simple correction de moyenne et d'écart type. Une somme pondérée est ensuite calculée et celle -ci est utilisée pour trier les plans vidéo. Les poids optimaux sont choisis comme ceux qui maximisent la performance du système sur l'ensemble de développement. La similarité visuelle est basée sur une distance Euclidienne sur les mêmes descripteurs de couleur, de texture et de mouvement que ceux qui sont utilisés pour la classification de concepts. La similarité visuelle est calculée séparément pour chaque caractéristique et les scores correspondants sont normalisés et combinés de la même façon que pour les composants-multimodaux. Là encore, les poids optimaux sont choisis comme ceux qui maximisent la performance du système sur l'ensemble de développement. L'objectif de la première série d'expériences était d'évaluer la performance relative des recherches basées sur une reconnaissance au niveau du mot et des recherches basées sur une reconnaissance au niveau du phonème ainsi que sur le bénéfice apporté par l'utilisation de pénalités variables dans le second cas. Trois méthodes basées sur la programmation dynamique (PD) sont comparées à quatre méthodes basiques de référence (baselines). Ces expériences ont été menées sur la collection de développement audio du Star Challenge. Cette collection comprend environ deux heures (233 segments) de données audio monolingues (en anglais) et 39 requêtes résolues à la fois pour les tâches AT1 (requêtes par chaîne en API) et AT2 (requêtes parlées). Les systèmes doivent retourner une liste de 50 réponses et la mesure d'évaluation est définie comme le MAP du Star Challenge pour la recherche par l'audio (équation 2; ceMAP est différent de la norme TREC paramètres MAP) : où L est le nombre total de requêtes, Ri est le nombre total de documents pertinents pour la i ème requête, et δ (i, j) est une fonction indicatrice qui vaut 1 pour les bonnes réponses (i.e. le j ème document pertinent est dans la liste de résultats pour la requête i) et 0 sinon. Les documents (segments audio) et les requêtes AT2 ont été transcrits en API de deux façons. La première est une transcription au niveau mot (utilisant donc un système de reconnaissance classique avec modèle de langage de mots) suivi par une conversion des mots en phonèmes. La seconde est une transcription directement au niveau phonétique (avec un système léger de décodage phonétique). Après cela et dans les deux cas, tous les documents et toutes les requêtes AT2 sont représentées par des chaînes en API. Plusieurs méthodes basiques de référence ont été utilisées pour la comparaison. Une réponse aléatoire est un choix naturel et ceci constitue la « baseline 2 ». Une autre possibilité est de trier les segments en fonction de leur longueur, les segments les plus longs ayant le plus de chances a priori de contenir la requête. La « baseline 1 » correspond au choix des segments les plus courts (pire cas) et « baseline 3 » correspond au choix des segments les plus longs (meilleur cas). Ces trois références ignorent le contenu des documents (segments) comme celui des requêtes et les résultats sont les mêmes sur les tâches AT1 et AT2. La « baseline 4 » consiste en la recherche d'une présence exacte de la chaîne requête dans la chaîne document. Elle est équivalente à la commande Unix « grep » et aussi à une programmation dynamique avec des pénalités d'insertion, de suppression et de substitution infinies. Comme les correspondances exactes sont assez rares, les listes de résultats sont complétées par les segments restants les plus longs. La programmation dynamique (PD) a été évaluée avec une reconnaissance au niveau du mot avec des pénalités fixes et variables et avec une reconnaissance au niveau phonétique avec des pénalités variables. Finalement, le modèle vectoriel (MV) communément utilisé en recherche d'information a été essayé. Les termes d'indexation sont des bigrammes de phonèmes et le schéma de pondération avec une normalisation à cosinus pivoté a été utilisé. Validation sur la collection de développement du Star Challenge Méthode AT1 AT2 Baseline 1 : segments courts 0.024 0.024 Baseline 2 : hasard 0.242 0.242 Baseline 3 : segments longs 0.497 0.497 Baseline 4 : « grep » + segments longs 0.557 0.560 PD, rec. mot, pénalités fixes 0.776 0.632 PD, rec. mot, pénalités variables 0.843 0.636 PD, rec. phon., pénalités fixes 0.643 0.633 PD, rec. phon., pénalités variables 0.706 0.650 MV, rec. mot., bigrammes 0.797 0.660 MV, rec. phon., bigrammes 0.552 0.543 Le tableau 2 montre les résultats obtenus pour les méthodes testées et les méthodes de référence. Les observations suivantes peuvent être faites : les performances des baselines sont ordonnées comme prévu : courts < hasard < longs < grep+longs; les pénalités variables améliorent les performances de manière significative; comme prévu également, la reconnaissance purement phonétique donne de moins bons résultats car elle ne bénéficie pas du modèle de langage au niveau mot; elle est cependant la seule disponible pour les documents contenant des langues inconnues et c'est celle qui sera utilisée pour la recherche multilingue; cette méthode est par ailleurs la plus performante sur la tâche AT2 (requêtes parlées); finalement, les systèmes basés sur le modèle vectoriel se comportent bien avec une reconnaissance au niveau du mot mais il fait légèrement moins bien que la baseline 4. Le système ayant eu la meilleure performance sur la collection de développement a été utilisé pour la soumission officielle pour le « round 1 » du Star Challenge. Ce système utilise la programmation dynamique avec des pénalités variables. Une amélioration supplémentaire a été apportée; elle consiste en l'utilisation de trois transcriptions différentes avec des poids différents affectés aux modèles de bigrammes de phonèmes, en faisant une moyenne des trois scores obtenus. Influence de l'utilisation de pénalités variables Collection Pénalités AT1 AT2 Moyenne Dével. fixes 0.760 0.679 0.719 Dével. variables 0.858 0.728 0.793 Round 1 fixes 0.643 0.319 0.481 Round 1 variables 0.634 0.324 0.479 Le tableau 3 montre les résultats obtenus par ce système sur la collection du « round 1 ». Cette collection est composée de 25 heures (4 300 segments) de documents audio monolingues (en anglais) et de 10 requêtes résolues pour les tâches AT1 et AT2. Les résultats correspondants sont aussi montrés pour le même système avec des pénalités fixes sur les données du round 1 et avec des pénalités fixes et variables sur les données de développement audio. Les observations suivantes peuvent être faites : les performances sur les données du round 1 sont très inférieures à celles obtenues sur les données de développement; le gain de performance significatif obtenu par l'utilisation de pénalités variables sur les données de développement ne se retrouve pas sur les données du round 1; la chute de performance entre AT1 et AT2 est beaucoup plus importante sur les données du round 1. Tous ces effets sont probablement liés au fait que les données du round 1 contiennent beaucoup plus de segments dont une proportion beaucoup plus faible est pertinente, ce qui rend la tâche plus difficile. Les segments sont également plus courts. En utilisant cette approche, l'équipe LIG a terminé première sur AT1 et troisième sur AT2 parmi 35 équipes participantes. Le but de cette série d'expériences est de valider la recherche multilingue en utilisant les données d'entraînement disponibles. Puisque les langues cibles ne sont pas connues, nous n'avons pu valider l'approche que sur les données monolingues (en anglais) disponibles. Nous avons toutefois construit des modèles en utilisant d'autres langues et nous les avons testés sur des données en anglais, en considérant que cela serait suffisamment représentatif. Nous avons d'abord essayé de construire des modèles à partir de langues uniques et de les utiliser pour l'indexation et la recherche : l'anglais (EN), le mandarin (CH) et le malais (MY). Nous avons aussi essayé un modèle acoustiquemultilingue qui est une combinaison des modèles de ces trois langues et du vietnamien (ML4). Les modèles de langage à base de unigrammes de phonèmes (1g) sont utilisés pour ces 4 premières expériences. Nous avons enfin essayé la même chose avec des modèles de langage à base de bigrammes phonétiques (2g) et une combinaison de trois transcriptions différentes avec des poids différents affectés aux modèles de bigrammes de phonèmes (combi3). Résultats obtenus avec différents modèles de langue Modèles acoustiques EN CH MY ML4 Modèles de langage 1g 1g 2g 2g (combi3) AT1 0.668 0.476 0.428 0.603 0.612 0.650 AT2 0.585 0.578 0.577 0.568 0.579 0.638 Le tableau 4 montre les résultats obtenus avec ces différents modèles. Les observations suivantes peuvent être faites : nous avons utilisé un nouveau modèle de l'anglais qui s'est révélé être meilleur que celui que nous avions utilisé pour notre soumission officielle sur le round 1, en particulier sur la tâche AT2; les résultats obtenus avec les modèles de langage différents de celui de la langue cible (en mandarin ou en malais au lieu de l'anglais) sont très bons bien que les contenus phonétiques soient très différents; les résultats sont meilleurs pour AT2 que pour AT1 dans ce cas, ce qui est probablement dû au fait que des confusions similaires sont faites au cours de la transcription des documents et des requêtes et qu'elles se compensent les unes les autres; le modèle multilingue ML4 est presque aussi bon que le modèle purement anglais avec les modèles unigrammes de phonèmes et les modèles bigrammes font encore mieux. Ces modèles devraient par ailleurs, de par la façon dont ils sont construits, être aussi bon pour les langues asiatiques. L'équipe LIG a utilisé le dernier système (ML4+2g avec une combinaison de 3 transcriptions) pour sa soumission officielle pour le round 3 et a obtenu avec celui -ci la cinquième place sur les tâches audio et la première place sur la tâche multimodale (recherche combinée audio et image de segments vidéo), se qualifiant ainsi pour la finale du Star Challenge à Singapour. La tâche de recherche par le contenu visuel VT1 était de trouver des images (en pratique des images clés extraites de vidéos) qui contenaient un concept donné (parmi les 20 pour lesquels le système a été entraîné) et qui étaient visuellement semblables à une image donnée. Nous avons constaté que les meilleurs résultats ont été obtenus en pondérant dans un rapport 2 à 1 la similarité visuelle normalisée et la probabilité de présence du concept normalisée. La tâche de recherche par le contenu visuel VT2 tâche était de trouver des plans vidéo qui contenaient un concept donné (parmi les 10 pour lesquels le système a été entraîné) et qui sont visuellement similaires à un plan vidéo donné. Nous avons encore constaté que les meilleurs résultats ont été obtenus en pondérant dans un rapport 2 à 1 la similarité visuelle normalisée et la probabilité de présence du concept normalisée. Cette approche nous a classés cinquièmes sur les tâches VT1 et VT2. La tâche de recherche multimodale AV1 (resp. AV2) consistait à trouver des plans vidéo qui étaient visuellement similaires à une image donnée et qui contenaient une requête audio définie comme une chaîne en API (resp. comme un énoncé vocal). Nous avons constaté que les meilleurs résultats ont été obtenus en pondérant dans un rapport 3 à 7 la similarité visuelle normalisée et le score de détection de chaînes API normalisé. Cette approche nous a classés premiers sur les tâches multimodales AV1 et AV2. Le tableau 5 montre les cinq premiers résultats trouvés pour la requête AV1 du « round 4 » fournie sous la forme de la chaîne phonétique « t e k n a : l i dZ i : » (probablement le mot technology en anglais imparfaitement transcrit). La chaîne trouvée apparaît dans une boîte avec un contexte d'une seconde avant et après. Parmi les cinq résultats, les quatre derniers sont bien des instances du mot technology et le premier est un faux positif (qui a peut-être été sélectionné pour l'aspect visuel du segment, les requêtes AV étant en fait multimodales). Les cinq premiers résultats trouvés pour la requête AV1 fournie sous la forme de la chaîne phonétique « t e k n a : l i dZ i : » wOutwinTHi:ti:m ikna:lidZd fe:THˆfajn@nSˆl eni:hau tekna:lˆdZi : THˆth@zˆpset iNhevˆli:inTHi:nju:tekna:lˆdZi : zhwˆngidigz@m @ndSerwiTHTHema:n tekna:lˆdZi : z nhi:SudgitTHˆleitˆst tekna:lˆdZi : hwitSi Nous avons présenté une approche fondée sur l'utilisation de l'alphabet phonétique international (API) pour la recherche selon le contenu de vidéos multilingues. Une telle approche peut fonctionner même si les langues parlées dans les documents sont inconnues. Notre technique a été validée dans le contexte du « Star Challenge », une compétition de recherche d'information organisée par l'agence singapourienne A-STAR. L'approche présentée inclut la construction d'un modèle acoustique multilingue à large couverture, contenant des unités API, et la proposition d'une méthode de recherche fondée sur la programmation dynamique. La programmation dynamique permet de repérer la chaîne de la requête dans la chaîne du document, même avec un taux d'erreur de transcription au niveau phonétique significatif. Les méthodes que nous avons développées nous ont classés premiers et troisièmes sur les tâches de recherche monolingues (anglais), cinquièmes sur la tâche de recherche multilingue et premiers sur la tâche de recherche multimodale (audio et image). Les résultats obtenus montrent le potentiel d'une telle approche fondée sur l'API pour indexer et retrouver des documents audiovisuels dans une langue inconnue. Des expériences complémentaires seraient nécessaires sur de plus grands corpus pour confirmer cette tendance. Des améliorations seraient par ailleurs possibles au niveau de la qualité des modèles multilingues et de la recherche fondée sur l'alignement dynamique qui pourrait être améliorée en exploitant des graphes d'hypothèses (treillis) en sortie du système de décodage phonétique. Enfin, la combinaison de l'audio (API), de l'indexation par concepts et de la similarité visuelle, s'est avérée efficace pour la tâche de recherche d'information selon le contenu de vidéos multimodales .
Nous présentons dans cet article une approche basée sur l'utilisation de l'alphabet phonétique international (API) pour l'indexation et la recherche par le contenu de documents audiovisuels multilingues. Elle a été validée lors de la compétition « Star Challenge » sur les moteurs de recherche organisée par l'Agence A*STAR de Singapour. Elle comprend la construction d'un modèle acoustique multilingue basé sur l'API et une méthode basée sur la programmation dynamique pour la recherche de segments de documents par « détection de chaînes API ». Les méthodes que nous avons développées ont obtenu de très bons résultats sur l'ensemble des tâches du challenge.
sciencesInfo_11-0471920_tei_DN_131_0229.tei.xml
termith-523-communication
Les études sur les pratiques informationnelles sont encore fortement marquées par une certaine formalité, au sein de laquelle les pratiques dites « informelles » sont considérées comme déviantes par rapport à une norme académique définie en amont [2 ]. Engagée dans une thèse de doctorat en sciences de l'information et de la communication qui s'inscrit dans la lignée des travaux de la recherche française sur la documentation scolaire 1, nous défendons la formalité de toutes les pratiques informationnelles. En ce sens, au terme « pratiques informelles », qui nous semble refléter un regard légitimant, institutionnel, porté sur les pratiques développées hors instances validantes d'enseignement-apprentissage, nous préférons l'expression « pratiques non formelles », soulignant ainsi que ces pratiques informationnelles ont pour leurs acteurs une forte légitimité, structurante et modélisante de surcroît, invitant à se départir d'un regard légitimant sur la question. Étudier ces pratiques qui s'élaborent au sein de sphères intimes, avec une faible visibilité sociale, est extrêmement problématique pour le chercheur. Il nous paraît toutefois indispensable de considérer ces pratiques non formelles lorsqu'on tente, dans des travaux liés à l'enseignement de la recherche d'information, de saisir Internet en tant qu'objet de recherche. Et ce, non seulement parce que ces pratiques façonnent les attentes et les comportements face à la technologie et à son apprentissage, mais aussi parce qu'elles peuvent constituer des « obstacles épistémologiques et/ou didactiques pour les enseignements [1] ». Nous ne souhaitons pas ici faire état de manière précise des pratiques non formelles de recherche sur Internet développées par les acteurs observés lors de notre étude, mais définir l'approche « écologique » qui s'est imposée à nous, comme un principe d'évidence à la fois conceptuelle et méthodologique pour mener à bien notre recherche. En effet, seule cette approche nous semble garantir la vision des pratiques informationnelles des acteurs en relation avec les logiques sociales qui les traversent. Dans cet article, nous présenterons les fondements de cette approche écologique, et expliquerons brièvement notre protocole de recherche la mettant en œuvre concrètement. Puis nous nous pencherons sur ce que cette approche nous a permis d'apprendre sur la considération d'Internet au sein de la sphère non formelle. Ensuite, nous ferons état d'observations menées au sein de la sphère scolaire, évaluant le déploiement des « arts de faire 2 » dans un lieu marqué par la formalité. Faire preuve d'intention écologique, c'est pour nous reconnaître le rôle fondamental de l'environnement dans lequel le sujet instaure sa relation à l'outil de recherche numérique. Cet environnement prédispose à des attitudes et des conceptions que nous ne pouvons négliger, sous peine de laisser des points aveugles importants lors d'une recherche sur les pratiques informationnelles 3. Les pratiques non formelles relèvent de l'action située : il n'est donc pas possible de les faire évoluer sans tenir compte de l'ensemble du contexte dans lequel elles s'inscrivent. Ainsi nous avons fait l'hypothèse que l'appréhension et l'appropriation de l'outil de recherche numérique sont liées de manière sensible au lieu et au contexte dans lesquels il est convoqué. L'approche écologique contribue à englober dans un vaste cadre socio-technique l'ensemble des éléments qui subissent des modifications de façon simultanée, et inclut ces éléments au sein d'un environnement informationnel situé. Nous soutenons que l'activité de recherche est une action située, dépendant fondamentalement des circonstances matérielles et sociales de son exercice [14 ]. C'est ainsi que la sémiologie va à la rencontre des sciences de l'information et de la communication, conçues comme l'étude de l'échange, de la production et de la circulation des signes en général au sein d'une culture [3 ]. Nos souscrivons à l'approche sémiotique de Charles Sanders Peirce, selon laquelle tout est signe : le caractère illimité de la sémiologie peircienne nous permet de considérer le signe comme émanant d'une personne, certes, mais également d'un système d'information, d'un outil de recherche. Nous avons pu constater, lors de notre investigation, que les usagers-récepteurs observés élaborent des rapports de sémiose divers dont l'émetteur est aussi l'outil numérique [7 ]. En outre, par notre travail, nous espérons modestement contribuer à l'enrichissement des approches psychologiques de la recherche d'information, qui ont pour vocation de décrire les processus cognitifs tels qu'ils se déroulent effectivement chez l'individu, ainsi que les facteurs individuels qui influencent l'organisation de ces processus et leur efficacité [8 ]. Notons que des études de référence existent déjà dans ce domaine, concernant notamment les pratiques informationnelles développées par les élèves du premier degré au sein d'un dispositif institutionnel [9 ]. La thèse de Nicole Boubée [2] constitue à nos yeux une avancée dans notre domaine d'investigation. Son étude apporte des éléments extrêmement fins pour accéder à la compréhension des pratiques documentaires des élèves. Elle ne fait cependant pas intervenir le questionnement des imaginaires et représentations qui sont liés à ces pratiques, ni les acteurs de formations documentaires. Or c'est pour nous dans ce jeu d'interactions entre les élèves et les enseignants, considérés selon une approche écologique au sein d'un lieu d'influences formelles, que résident les potentialités de régulation à terme de l'action de médiation documentaire. Notre recherche porte sur les imaginaires, représentations et pratiques informationnelles sur Internet des élèves de classe de 6e confrontés aux imaginaires, représentations et pratiques de formation développés par les enseignants documentalistes 4. Dans une perspective écologique, ces deux types d'acteurs sont aussi considérés comme des individus sociaux, et en ce sens Internet est vu comme un objet socialement partagé qui, dans le cadre de l'enseignement info-documentaire, subit une reconfiguration pour devenir un objet d'enseignement-apprentissage commun. Concrètement, nous avons combiné des techniques d'analyse qualitative, afin d'articuler les idées et les faits, les intentions et les pratiques, et de favoriser chez les acteurs la mise en récit de leurs pratiques. Pendant deux années scolaires, nous avons mené des investigations au sein de trois collèges aux profils différenciés (le collège A est situé en zone rurale, le collège B au cœur d'une grande ville, et le collège C appartient à un réseau d'éducation prioritaire). Nous y avons observé – en optant pour la méthode de l'observation distanciée – des situations de recherche sur Internet menées au CDI par des élèves, ainsi que les séances de formation à Internet dispensées par les professeurs documentalistes à destination du niveau 6e. Parallèlement nous avons mené des entretiens semi-directifs individuels avec les élèves (45 collégiens de 6e interrogés) et les enseignants documentalistes (Pr-Doc A, Pr-Doc B, Pr-Doc C). La recherche d'information est un processus par lequel l'individu tente de construire sa propre zone de sens à partir de ses expériences et socialisations vécues et en fonction d'objectifs. De là notre intérêt pour l'environnement et les conditions dans lesquels les acteurs de notre étude développent leurs pratiques numériques non formelles. Cela revient à considérer la place d'Internet dans les rapports sociaux et dans la vie quotidienne. En effet, avant d' être un objet d'enseignement-apprentissage, intégré par la sphère formelle, Internet est un objet social, que tout un chacun s'approprie en fonction de ses pratiques ordinaires. Par son inscription dans la sphère familiale, Internet est l'objet de négociations entre les membres, qui doivent aménager leur espace d'expression et de déploiement de leurs pratiques en fonction des autres. Si chacun des acteurs interrogés disposant d'une connexion à domicile décrit une intégration de l'outil dans sa vie quotidienne, il semble que ces pratiques soient véritablement spécifiques à l'usage privé. Ainsi nombreux sont les adolescents qui, comme Loïc (collège B), affirment : « Internet, c'est pour apprendre à l'école, c'est tout en fait ». Olivier (collège B) confirme : « Les recherches, c'est pour l'école de toutes façons », dessinant ainsi une frontière nette entre les pratiques numériques prescrites dans le cadre scolaire et celles développées dans la sphère non formelle. Dès lors, la recherche d'information sur Internet est vécue comme une obligation scolaire, là où l'usage communicationnel de l'outil numérique est circonscrit à la sphère non formelle, et donc lié à la notion de plaisir et de liberté : « C'est comme une loi […] Le chat, c'est du plaisir, à l'école on n'est pas là pour ça » (Loïc, collège B). Tous les élèves des collèges A et B opèrent une forte distinction entre leurs pratiques personnelles d'Internet et les pratiques scolaires. Marion (collège A) reconnaît d'ailleurs ne pas être adepte de la recherche sur Internet : « J'en fais quand il faut en faire, c'est pour l'école en fait ». Cette dichotomie a déjà été pointée en 2005 par Jacques Piette, qui oppose « l'Internet des jeunes » et « l'Internet de l'école » [13 ]. La recherche d'information sur Internet est vue par les élèves interrogés comme une activité contraignante, de par le cadre prescriptif qui a donné lieu à son exécution, autrement dit l'imposition scolaire. Les adolescents n'englobent pas dans ce terme de « recherche » les nombreuses navigations sur Internet liées à l'écoute d'une musique, l'exploration d'une thématique qui les intéresse ou encore la recherche d'une vidéo. Du côté des enseignants documentalistes de notre étude, la distinction entre l'usage professionnel d'Internet au sein de l'établissement et l'usage privé de l'outil est moins nette. Si Pr-Doc C a créé un univers Netvibes qui lui permet de consulter plusieurs dossiers en relation avec ses différents centres d'intérêt, effectuant une veille informationnelle très régulière sur chacun de ces dossiers lorsqu'elle est chez elle, et consacre beaucoup de temps également à la lecture de ses courriels à domicile, Pr-Doc B déclare pratiquer de manière intensive la recherche d'information sur Internet, quel que soit le cadre d'action envisagé. De même pour Pr-Doc A, qui avoue même n'avoir jamais « chatté », reconnaissant que cette fonctionnalité ne l' « attire » pas. Les réseaux familiers dans lesquels évoluent les acteurs interrogés jouent un rôle prépondérant dans leur processus d'appropriation d'Internet. Pour nous, considérer l'activité sociale qui donne lieu à des modalités d'appréhension de l'outil, c'est véritablement « refuser de limiter l'apprentissage à des moments construits pour cela, à la présence d'une intention d'apprendre, voire à la conscience d'apprendre » [4, p. 5 ]. La familiarisation avec Internet implique un processus d'incorporation durant lequel l'individu s'adonne pour apprendre à une pratique solitaire et prolongée. Cette familiarisation suppose ensuite une autonomisation graduelle vis-à-vis des appuis nécessaires à l'apprentissage, et notamment des proches ou personnes qui ont contribué à faciliter l'apprentissage [12 ]. Nous avons pu constater à travers les récits des interrogés que cette appropriation se déroule dans des conditions sécurisantes pour les adolescents, qui peu à peu s'affranchissent des modèles initiaux. Les interrogés expriment la certitude de pouvoir s'appuyer sur l'expertise et le conseil d'un membre de la famille en cas de difficulté. Liée à cette certitude est affirmée l'assurance de bénéficier d'un accompagnement bienfaisant, marqué par une absence d'agressivité et de jugement. « C'est important pour moi que ma grande sœur, elle m'aide, comme ça je ne m'inquiète pas trop, si j'y arrive pas, je sais qu'il y aura quelqu'un pour m'aider, sans s'énerver ni se moquer de moi », explique Valentine (collège B). De la même façon, William (collège A) souligne que ses parents, en particulier sa mère, l'aident volontiers dans ses recherches sur Internet, et cette présence est, selon ses propres mots, « rassurante » car : « Je sais que si ça va pas, elle est là, on va m'aider sans me punir. » Plus encore, Marie (collège C) insiste sur la patience dont a fait preuve sa grande sœur pour faciliter sa familiarisation avec l'outil de recherche. Les proches apparaissent ainsi bienfaisants envers les difficultés et les hésitations des jeunes utilisateurs, qui recourent à leurs services sans crainte d'un jugement normatif, ce qui concourt à une appropriation positive de l'outil. Notre approche écologique nous incite à prendre en compte le contexte dans lequel se déploient les pratiques des élèves et des enseignants documentalistes de notre étude : le centre de documentation et d'information (CDI), qui est incontestablement marqué par le sceau scolaire, et dont le fonctionnement est régi par le règlement général de l'établissement. Chacun des acteurs projette une représentation du centre de ressources qui structure ses pratiques documentaires en son sein. Le CDI apparaît comme un espace fort en significations, aux confins du formel et du non formel [6 ]. Lorsque nous avons envisagé la recherche sur Internet avec les enseignants documentalistes comme avec les élèves interrogés, c'est la définition de prescriptions traversant les pratiques situées au CDI qui a été le premier élément mis en avant. Non seulement l'accès à l'utilisation d'Internet est réglementé, mais la démarche de recherche elle -même fait l'objet d'une modélisation par l'enseignant documentaliste. Ces éléments donnent un éclairage à la fois sur la conception personnelle d'Internet qu'a le professionnel au sein du régime informationnel et sur sa représentation des pratiques non formelles des élèves. Si l'utilisation des documents sur support papier ne fait pas l'objet d'un règlement particulier (si ce n'est le plus souvent l'absence de prêt des livres documentaires), celle d'Internet au CDI est soumise à des prescriptions strictement établies, et respectées par les élèves. Pour faire une recherche sur Internet au CDI du collège A, l'élève doit faire part de sa volonté de recourir à l'outil numérique auprès de l'enseignant documentaliste. S'amorce alors entre l'enseignant et le collégien une phase de discussion-négociation, destinée à évaluer la pertinence du recours à Internet pour mener la recherche souhaitée. Par souci de réguler de manière rigoureuse l'accès à Internet pour les recherches, et craignant des débordements d'usages, Pr-Doc B a instauré un « planning d'inscriptions pour les recherches informatiques ». Les élèves doivent se présenter au CDI pour expliquer le contenu et la finalité de la recherche qu'ils souhaitent faire, et prendre rendez -vous par le biais de ce planning auprès de l'enseignante. Aucune recherche sur Internet n'est autorisée si elle n'a pas été planifiée (et donc motivée) en amont. Comme au collège B, l'accès à Internet au collège C est régi par une inscription préalable auprès de la professeure documentaliste sur un planning. Toutefois, le système apparaît sensiblement plus souple qu'au collège B : un élève peut effectuer une recherche sur Internet même s'il a négligé de s'inscrire préalablement, à la seule condition qu'un poste informatique soit disponible. Cherchant à savoir comment les élèves percevaient ces règles d'accès à Internet, nous avons identifié trois types de ressentis : l'acceptation de la règle, la soumission vécue avec un certain malaise, la rébellion exprimée face à cette règle. La majorité des élèves de 6e interrogés disent accepter la règle d'accès à Internet, et ne se permettent pas de la contester lors de l'entretien. C'est particulièrement vrai pour les élèves des collèges A et C, qui ont même tendance à appuyer cette prescription. Ainsi Romain (collège A) compare la règle en vigueur au sein du CDI et celle éprouvée à domicile. Le professeur documentaliste, en tant que détenteur de cette prescription, semble aux yeux de l'adolescent se substituer à la figure maternelle dans l'enceinte scolaire : « Faut pas aller sur l'ordi si on le demande pas, mais bon, c'est pareil qu' à la maison. À la maison, c'est ma mère qui me dit si je peux ou pas, au collège, enfin au CDI, c'est Monsieur [A ]. » Toutefois le fait de devoir s'adresser à l'enseignant pour formuler sa demande d'accès à un poste informatique influe incontestablement sur la quantité des demandes formulées. Certains élèves s'avouent mal à l'aise avec cette prescription. Océane, élève au collège C, reconnaît que cette règle la « bloque » car elle a « trop peur de demander à Madame [C] » et que celle -ci « dise non ». D'autres collégiens font plus clairement part de leur désaccord quant à cette règle d'accès à Internet au CDI. C'est le cas exclusivement d'élèves du collège B. Néanmoins aucun ne se risque à contredire de manière pratique la règle en vigueur : leur rébellion est purement discursive et leur contestation est souvent discrètement formulée. Ainsi, une élève, qui n'avait pas réservé au préalable un poste informatique, demande à Pr-Doc B l'autorisation d'utiliser un ordinateur afin de taper un article pour le journal du collège. L'enseignante donne immédiatement son aval. Dès que Pr-Doc B a le dos tourné, la collégienne s'exclame, moqueuse : « Attention, pas sur Internet, hein ? ! » Nous l'interrogeons sur les raisons d'une telle boutade : « Ici, attention, Internet, c'est sacrilège ! Pour y aller, faut vraiment le vouloir ! » Si, quel que soit l'établissement envisagé, l'accès à Internet fait l'objet d'une réglementation, la démarche documentaire adoptée au sein du centre de ressources s'avère également soumise à des règles fixées par le professionnel. Celle que les enseignants favorisent dans la sphère formelle est caractérisée par une forte hiérarchisation des supports, les élèves se voyant imposer un ordre de recours strict aux supports de recherche. Le dictionnaire et les livres documentaires sont envisagés en priorité, et le recours à Internet intervient lorsque ont été épuisées les autres possibilités de recherche. Pour expliquer cette prescription, les professeurs documentalistes avancent deux raisons majeures. La première est d'ordre professionnel : « Parce que sinon, c'est euh… ben, je vais sur l'ordinateur, et puis… et puis, je sers plus à rien ! » (Pr-Doc B). Intéressante remarque qui laisse transparaître le malaise identitaire vécu par la professionnelle face à l'apparition d'Internet dans les pratiques ordinaires : l'enseignante ne se reconnaît pas un rôle naturel de médiatrice entre l'information numérique et les élèves, là où sa fonction de médiation lui paraît évidente entre l'information sur support papier et l'apprenant. La deuxième raison avancée pour justifier l'ordre de recours aux supports est davantage culturelle : « Je tiens à ce que [les élèves] aient le réflexe livres, toujours, je défendrai toujours le support livre, au sens pertinence, pertinence du propos » (Pr-Doc C). Une « culture livresque » (Pr-Doc A) est mise en avant pour expliquer ce net encouragement à l'utilisation du support papier, qui semble de surcroît, aux yeux des professeurs documentalistes, plus facile à appréhender pour mener une recherche informationnelle. Au-delà de la hiérarchisation des supports, les enseignants documentalistes rencontrés lors de notre étude accordent une place très importante au logiciel documentaire BCDI. Cet outil professionnel est un objet de référence pour eux; tout en étant conscients de ses défauts, ils lui confèrent de hautes qualités en matière de recherche documentaire. Le recours à BCDI est d'emblée considéré comme « une vraie alternative à Internet » (Pr-Doc B) qui permet de « canaliser les élèves » (Pr-Doc A). Il participe à l'affirmation de leur expertise aux yeux des élèves, les enseignants insistant sur la légitimation de leurs pratiques informationnelles via la promotion du logiciel auprès des collégiens. Nous avons pu remarquer qu' à trois reprises, lors de l'entretien, Pr-Doc A parle de « notre outil » pour désigner BCDI, et l'oppose à Internet, caractérisé par « leur outil », c'est-à-dire celui des élèves. Il s'agit ainsi de configurer de manière nouvelle les pratiques informationnelles des usagers du centre de ressources, qui n'ont pas là l'opportunité de s'appuyer sur leurs pratiques non formelles. Un jeu de pouvoir est ici mis en lumière, si l'on en juge par les propos très significatifs des enseignants documentalistes : « Avec BCDI, c'est eux [les élèves] qui viennent sur notre terrain » (Pr-Doc A); « Avec BCDI, quelque part, on a les pleins pouvoirs ! » (Pr-Doc B). Les élèves sont tout à fait conscients de ce « terrain » qui leur est imposé. Conscients, mais pas pour autant amenés à modifier en profondeur leurs pratiques, résolument situées, et peut-être même encore davantage situées. Ainsi, lors d'une recherche au CDI, Anna et Orlane utilisent BCDI pour aller sur Internet, conformément à la prescription de Pr-Doc B. Les deux collégiennes adoptent la démarche prescrite par l'enseignante, mais non sans un regard critique : « Moi, je vous l'avoue : on apprend BCDI en cours, alors au CDI on y va, mais j'y vais jamais et je sais que j'irai jamais de moi -même. Je vois pas l'intérêt pour les recherches sur Internet, il y a beaucoup moins de sites que quand tu passes par Google », dit Anna. Orlane renchérit : « C'est vrai, je suis d'accord. Moi, BCDI, je m'y fais pas. Au CDI, je fais ce qu'on me dit, mais ailleurs Google is my friend ! [rires] » Lorsqu'elles peuvent se déployer au sein du CDI, les pratiques des élèves sur Internet apparaissent très encadrées par les enseignants documentalistes. La vigilance est de mise pour surveiller la navigation des élèves. Plus encore, nous avons pu assister à des phases de recadrage de la démarche de recherche, où les professionnels limitent l'expression des pratiques non formelles pour imposer une formalité agissant comme une norme. Dès que les élèves effectuent une recherche sur Internet, au sein du CDI, nous avons pu constater que les professeurs documentalistes ne sont jamais bien loin, contrairement au comportement qu'ils adoptent lorsque des élèves explorent des livres documentaires à la recherche d'informations sur une thématique. Pr-Doc B reconnaît d'ailleurs être « derrière le dos des élèves » confrontés à une recherche numérique. Cette surveillance de leur navigation ne passe pas inaperçue, et beaucoup reconnaissent qu'elle a un effet dissuasif sur leur comportement documentaire : « J'aime pas faire les recherches sur Internet au CDI, j'ai trop l'impression que c'est surveillé quand même, je préfère faire comme je veux chez moi », avoue William (collège A). L'impression de surveillance des pratiques d'Internet au CDI semble donc conduire à l'accentuation de la dichotomie entre pratiques non formelles et pratiques marquées du sceau de la formalité scolaire. Pour un exposé, Chloé (collège B) recopie les informations trouvées sous le lien hypertexte Wikipédia de la page de résultats de Google, mais elle clique sur le second lien pour afficher la page. Elle nous explique : « Il faut pas que Madame voie que j'ai pris les renseignements dans Wikipédia, elle va pas aimer ça du tout. » Cette crainte de la réaction enseignante traverse de nombreux discours d'élèves. William rechigne à faire ses recherches sur Internet, craignant que Pr-Doc A constate de sa part une démarche inadaptée (ce que l'adolescent appelle « faire une bêtise ») et fasse part de son mécontentement : « Il [Pr-Doc A] doit pas être content, et il doit le dire, et moi je veux pas, quoi… » Le rapport à l'activité et aux outils de recherche numérique est construit sous un angle affectif par les élèves, qui ont le souci de ne pas entrer en conflit avec leur enseignant documentaliste, conscients que ce dernier entretient lui aussi avec l'activité informationnelle sur Internet un rapport affectif. Ainsi, Arthur (collège B) fait le choix de ne pas cliquer sur le lien Wikipédia proposé par Google : « Ici, faut pas prendre Wikipédia », nous explique -t-il tout bas, prenant garde que Pr-Doc B ne puisse l'entendre. Et de justifier : « Madame [B ], elle aime pas. » Arthur ne modifie pas de manière effective sa pratique non formelle de recherche. Il se soumet simplement à la prescription de l'enseignante documentaliste, adoptant un comportement qu'il sait que celle -ci jugera positif. C'est juste parce qu'il sait que Pr-Doc B n'appréciera pas qu'il utilise l'encyclopédie collaborative en ligne qu'il ne le fait pas au CDI, mais l'emploi du déictique « ici » montre bien qu'il s'agit d'une pratique située, contrainte par le conditionnement du lieu. Surveillée, encadrée, l'activité de recherche sur Internet menée au CDI fait aussi souvent l'objet de la part du professeur documentaliste d'un recadrage qui s'opère toujours au bénéfice du support papier, alors érigé par le professionnel en outil incontournable, légitime, de la recherche efficace. Ce recadrage s'avère plutôt abrupt, laissant ainsi s'exprimer le jugement de l'enseignant sur les pratiques des collégiens. Prenons le cas de cette situation de recherche sur Internet mise en place par deux élèves cherchant des informations sur les filières professionnelles. À la vue de la requête posée par les deux jeunes filles (« fillière [sic] professionnelles après la classe de 3e du collège »), le professeur documentaliste intervient : « Allez voir dans les dossiers Orientation du CDI, vous faites n'importe quoi ! » L'on mesure ici l'absence d'échange concernant les processus cognitifs ayant conduit les élèves à formuler ainsi leur recherche. L'enseignant ne propose pas une aide pour rendre plus efficace la recherche sur Internet; il renvoie automatiquement les élèves vers des documents sur support papier, sans pour autant argumenter cette prescription. Est pointé de manière plutôt brutale le manque d'expertise des élèves, accusées de « faire n'importe quoi ». Si la pertinence de la prescription n'est pas argumentée par l'enseignant documentaliste, la pertinence du recadrage elle -même laisse parfois sceptique. Nous pensons à Pierre (collège A), souhaitant faire une recherche sur la seconde guerre mondiale. Confronté à la page d'accueil du serveur Kwartz de l'établissement, ne ressemblant pas à la page d'accueil de Google qu'il a coutume de voir chez lui, le collégien demande de l'aide : « Vous pouvez me montrer comment on va sur un site ? » Pr-Doc A s'empare alors de la souris, ferme la fenêtre, et ouvre BCDI : « Tu tapes ici, ça ira mieux. » Il quitte l'élève. L'enseignant n'a pas expliqué à Pierre sa démarche de recadrage, et ne lui a pas non plus dit qu'il n'utilisait plus Internet mais un autre outil de recherche. Pierre tape sa requête dans la barre de recherche du logiciel : « Tout sur la guerre ». Il justifie à notre encontre : « Comme ça, il me donnera tout, tout, tout… sinon, il va dire que des parties, alors que là j'aurai tout. » Évidemment, sa recherche n'aboutit pas, et le message « 0 notice » s'affiche. Apercevant de loin l'échec de la requête de Pierre, le professeur documentaliste lui lance : « Tape seconde guerre mondiale ! ». L'élève s'exécute, mais écrit phonétiquement : « segonde guerre mondiale ». Sa recherche se solde une nouvelle fois par un échec. Pierre abandonne. Cet exemple est intéressant à double titre : d'abord parce qu'il montre que l'enseignant substitue dès qu'il le peut à la recherche sur Internet un outil de référence à ses yeux, le logiciel documentaire; ensuite parce qu'il témoigne d'une différence d'attitude de la part du professionnel, qui ne fait plus preuve de vigilance ni du même souci d'accompagnement de l'utilisateur à partir du moment où il a en quelque sorte « confié » l'élève à cet outil de référence. L'approche écologique que nous avons adoptée pour mener notre recherche sur les pratiques informationnelles des collégiens sur Internet démontre ainsi avec force le caractère éminemment situé de ces pratiques traversées par des logiques sociales qui, selon les sphères de déploiement envisagées, ont des caractéristiques propres. Dans la sphère non formelle, l'appréhension de l'outil Internet et de l'activité de recherche numérique se fait dans un climat de confiance entre les membres du groupe, où chacun bénéficie de l'expertise de l'autre, donnée en partage de manière spontanée et non agressive. Dans la sphère formelle, le climat d'appréhension de l'outil numérique est tout autre : le poids des prescriptions d'usages et de pratiques est très fort, contraignant les démarches informationnelles qui, dès lors, ont peu de possibilité de s'exprimer pleinement. L'expertise considérée est celle du professionnel de l'information-documentation, qui l'impose davantage qu'il ne la partage avec les élèves, ses conseils s'apparentant à des prescriptions rigoureuses, et faisant peu l'objet d'une verbalisation explicitée. Dès lors l'écart semble se creuser entre les pratiques non formelles, développées dans une sphère d'apprentissage sécurisante et valorisante, et les pratiques formelles, vécues comme des impositions situées – et par conséquent circonscrites – au centre de ressources scolaires. Cette dichotomie nous paraît urgente à pointer car elle recèle un risque très important : que les usagers se détournent des centres de ressources marqués par la formalité pour pouvoir développer leurs pratiques informationnelles ordinaires, et que les professionnels de l'information ne puissent plus jouer leur rôle de médiateurs. Chacun risque de circonscrire ses pratiques informationnelles à un lieu, dotant celui -ci de caractéristiques modélisantes et, partant, associant à ce contexte les outils de recherche exploités. Nous pensons à ces nombreux élèves de notre étude qui emploient volontiers les adjectifs possessifs pour signifier qu'ils évoquent des outils de référence appartenant à l'enseignant documentaliste. Olivia et Manon le disent : « Ce sont ses livres » (collège A). Raphaël quant à lui remarque l'insistance de Pr-Doc B pour qu'il utilise « son site à elle », autrement dit : le logiciel documentaire. L'adolescent ne cache pas sa désapprobation : « J'aime pas ce site, je le connais pas, je comprends pas bien pourquoi il faut aller sur ce truc -là qui donne pas beaucoup de réponses, alors qu'il y a plein de choix sur Google. » Un rejet réciproque des « outils de référence » des uns et des autres voit le jour : les enseignants documentalistes rejettent Internet, aux yeux des élèves, pour leur imposer un outil qu'ils ne connaissent pas et ne fréquentent pas dans la sphère non formelle; les élèves rejettent donc aussi BCDI, le cantonnant à la prescription scolaire. Il ne s'agit pas de faire œuvre démagogique en prônant l'utilisation exclusive par le professionnel des outils de recherche connus des utilisateurs. Il nous semble en effet que le professionnel de l'information-documentation a une fonction d'émancipation envers son public, lui permettant d'accéder à la connaissance et à la compréhension d'un environnement informationnel peu familier. Toutefois, le professionnel ne peut favoriser une réelle émancipation de l'usager sans s'appuyer ni sur ses pratiques non formelles ni sur ses connaissances médiatiques déjà élaborées. Loin de constituer des concurrences à ses pratiques plus formelles, loin de remettre en cause son expertise professionnelle, ces démarches ordinaires, connues du professionnel grâce à une approche écologique des pratiques informationnelles, constituent un levier pour qu'il puisse faire œuvre avec efficacité de médiation documentaire. • Janvier 2011
[ étude ] Considérant que l'acculturation à Internet est intimement liée au contexte dans lequel est utilisé ce médium de recherche d'information, Anne Cordier adopte une approche « écologique » pour mettre en lumière une opposition entre les recherches menées dans un cadre formel et prescriptif et celles effectuées dans un cadre non formel et familier. Elle insiste sur les dangers qu'il y aurait à creuser l'écart constaté entre la recherche d'information opérée à l'école et chez soi. Appuyé sur une minutieuse étude de terrain, cet article sur les pratiques informationnelles des élèves de collège aborde plus largement la question de l'appropriation de la culture numérique et celle de la fonction des professionnels de l'information en milieu scolaire. Au-delà de cet environnement particulier, il intéressera l'ensemble des médiateurs confrontés à l'évolution des outils, des références et des pratiques.
sciencesInfo_11-0296234_tei_DOCSI_481_0062.tei.xml
termith-524-communication
L'utilisation massive de la Toile 1 depuis le milieu des années 1990 nous a familiarisé avec les documents hypertextes. Tout un chacun connaît par ailleurs le besoin d'outils de recherche d'information performant sur ce médium, au vu justement de son succès qui a entrainé l'accessibilité potentielle à une quantité d'informations sans précédent concernant tous les domaines de la connaissance humaine. Pour améliorer leur efficacité 2, les outils de recherche d'information doivent prendre en compte les particularités de ce médium. Une caractéristique des systèmes hypertextes des plus importantes est le découpage de l'information en nœuds 3. Lorsqu'un lecteur lit ou consulte un document hypertexte, il ne lit normalement pas un seul nœud, mais suit un parcours en partant d'une page particulière (la page d'accueil). De ce fait, il ne lit pas les nœuds indépendamment les uns des autres mais chacun des nœuds qu'il voit construit un contexte pour les autres. C'est la présence des liens hypertexte, autrement dit la structure qui permet au lecteur de passer d'un nœud à un autre. Différentes approches ont récemment été proposées pour prendre en compte la structure de la Toile dans la modélisation de deux principaux types d'outils de recherche d'information : les moteurs de recherche et les annuaires thématiques. Ces approches portent sur des problématiques spécifiques dont l'application la plus évidente est celle d'améliorer les outils de recherche. Nous pouvons citer comme exemple la découverte de communautés d'intérêt, le calcul de la réputation d'un site 4 ou encore la recherche d'unités logiques d'information. La méthode que nous proposons dans cette étude s'attaque à cette dernière problématique. Les méthodes de classification automatique ont une longue histoire dans le domaine de la recherche d'information. Leur principe fondateur énoncé par Rijsbergen (1979) fait l'hypothèse que des documents qui se ressemblent (donc qui seront in fine dans la même classe) seront pertinents aux mêmes requêtes. D'abord invoqué pour des questions d'efficience, ce principe peut l' être aussi pour des raisons d'efficacité. C'est dans cet esprit que nous l'utilisons dans notre modèle présenté en section 3. Nous présenterons ensuite dans les sections suivantes sa mise en œuvre et les résultats obtenus. Dans la section 5, nous décrivons les expériences que nous avons menées sur 523 sites de la collection WT10g de la conférence TREC 5. Nous terminerons dans la section 7 par les conclusions que l'on peut tirer des expériences menées. Le premier et le plus connu des moteurs de recherche de grande diffusion à avoir utilisé les liens de la Toile pour classer les résultats de ses recherches est Google 6 (Brin and Page, 1998). Le classement qu'il fait avec l'algorithme Page Rank est en grande partie fait selon la popularité des pages, c'est-à-dire selon la quantité d'autres pages qui les référencent. L'algorithme HITS de Kleinberg (1999) s'apparente à l'algorithme sous-jacent à Google, il a été utilisé dans le cadre de la Toile par Chakrabarti et al >. (1998) dans le projet Clever. Dans HITS la structure du graphe de la Toile est utilisée pour noter les nœuds selon deux critères, leur qualité de « page pivot » (hub, en anglais) et leur qualité de « page référence » (authority, en anglais). Une différence notable toutefois entre ces deux méthodes est que celle de Google note les pages indépendamment de la requête, et que celle de Clever prend en compte la requête dans son évaluation des scores des documents. Ces deux algorithmes ont été utilisés pour différents buts, nous pouvons citer la collecte sélective de pages par les robots, la découverte de pages similaires à une (ou plusieurs) pages données, la découverte de la réputation 7 de ressources de la Toile, la découverte de communautés. Marchiori (1998) a proposé de propager des informations d'indexation (des méta-informations) le long des liens, ces informations étant elles -mêmes issues d'une indexation manuelle réalisée par l'auteur d'une page et matérialisées grâce aux balises <META> du langage HTML. Cette proposition vient du fait que ces méta-informations sont disponibles sur peu de pages. L'algorithme de cette méthode est basé sur un parcours en largeur. D'autres utilisations des voisinages concernent la catégorisation de pages et la découverte de la portée géographique de ressources de la Toile. Enfin, plusieurs moteurs prennent en compte le texte des ancres 8 qui pointent sur une page pour l'indexer. L'idée dans ce cas est que ces ancres décrivent d'une façon précise et concise le contenu de la page pointée. Dans les travaux de Marchiori et dans l'utilisation du texte des ancres par les moteurs, l'idée implicite est que les pages ne sont pas auto-suffisantes, et que leur indexation nécessite des données issues de pages voisines. Ce problème est plus explicitement abordé par d'autres travaux que nous allons passer en revue. Les trois méthodes suivantes s'appliquent dans un cadre d'augmentation du rappel, dans l'idée que tous les concepts d'une requête conjonctive ne se trouvent pas nécessairement dans une page, mais certains sont dans des pages voisines. Une requête dans le système Jumping Spider de Dyreson (1998) est une conjonction Q = K 1 → K 2 → · · · → K n où les termes sont ordonnés par ordre décroissant de généralité. La fonction de correspondance consiste à trouver les pages contenant le dernier terme K n (le plus spécifique) puis à remonter aux pages voisines contenant K n-1, puis K n-2, etc. selon un graphe construit à partir du graphe des liens hypertextes. Ce graphe ne doit contenir que des liens de généralisation/spécialisation. Pour cela, à partir des chemins codées dans les URL, les liens sont classés en liens i) vers le bas, ii) vers le haut, iii) de côté. Les liens vers le haut sont supprimés. De nouveaux liens sont créés entre le premier et le dernier nœud de tous les chemins composés uniquement de liens vers le bas et se terminant par zéro ou un lien de côté. Tajima et al. (1999) traitent avec une méthode dans le même esprit les requêtes conjonctives Q = K 1 ∩: K 2 ∩ · · · ∩ K n. Connaissant les ensembles R i de nœuds pertinents 9 au sujet K i, des graphes sont construits par dilatations autour des pages de ⋃ Ri jusqu' à ce qu'ils contiennent tous les termes de la requête. Une méthode analogue proposée par Li et al. (2001) exécute un post-traitement toujours pour des requêtes conjonctives. Après la récupération des Ri, le problème consiste à trouver des arbres de longueur minimale avec au moins un nœud dans chaque Ri – ce problème est connu sous le nom de problème de Steiner. Ces trois méthodes ont l'inconvénient de se placer dans un cadre booléen dont on connaît les limites. De plus, la sémantique du modèle de requête de la première de ces méthodes nous semble difficilement appréhendable par l'utilisateur final. Enfin, ces trois méthodes interviennent en post-traitement des réponses d'un moteur classique, et sont donc susceptibles d'obérer l'efficience. Les quatre propositions que nous citons maintenant découvrent les unités logiques d'information avant la requête. La première, proposée par Doan et Beigbeder (1999), suggère que les pages de la Toile ne sont pas nécessairement autonomes, et que les ressources doivent être regroupées récursivement. Le résultat obtenu par ces regroupements se rapproche de la structure logique bien connue dans les documents structurés. Par contre, le handicap de la proposition est que ces ULI 10 doivent être construites manuellement, ce qui dans l'état actuel de la Toile est rédhibitoire. Géry (2002) propose un modèle des sites de la Toile avec deux structurations : une structure logique et une structure de chemins de lecture. Ces deux structures sont complétées par les contextes qui sont les pages externes pointées et les pages externes pointant-sur. C'est l'indexation de tous les chemins de lecture qui est proposée; la complexité algorithmique est donc très élevée. Tajima et al. (1998) proposent de découvrir des unités logiques d'informations en appliquant une classification automatique selon le lien moyen 11. Pour prendre en compte la structure, la similarité entre deux classes est nulle s'il n'y a pas de lien hypertexte entre au moins une page de l'une et une page de l'autre, autrement elle est calculée selon un cosinus avec un modèle vectoriel de Salton. Dans une autre étude, Mizuuchi et Tajima (1999) proposent cette fois d'utiliser la structure de répertoires codée dans les URLs, pour découvrir pour chaque page P une page d'entrée, c'est-à-dire la page par laquelle un lecteur est supposé être passé pour arriver sur P, ainsi un arbre de pages est obtenu. Pour cela, de nombreuses hypothèses traduites en règles sont faites. L'indexation proposée, mais non testée, prend en compte le contenu de certaines balises des ancêtres de P sur le chemin vers la racine. Li et al. (2000) proposent de découvrir des domaines logiques – par rapport à des domaines physiques liés à l'adresse des machines hôtes. Toutefois, ces domaines d'une granularité plus grande que celle qui nous intéresse n'ont pas pour but d'améliorer l'indexation, mais de regrouper les résultats d'une recherche. Pour constituer ces domaines, la première étape consiste à trouver k (paramètre de l'algorithme) points d'entrée selon des critères prenant en compte le contenu de la balise title, le contenu textuel de l'URL 12, les degrés entrant et sortant dans le graphe de la Toile, etc. Dans la seconde étape une page restante est rattachée au point d'entrée le plus proche qui est au dessus selon son chemin d'URL (de ce fait, certaines pages peuvent rester orphelines). De plus d'autres conditions – taille minimale d'un domaine, rayon – peuvent conditionner la constitution des domaines. De ces trois dernières propositions, les deux dernières reposent sur de nombreuses hypothèses difficiles à vérifier, en particulier sur l'organisation des pages dans les systèmes de fichiers. Notre proposition se rapproche donc de la première, mais nous évaluons la nôtre par une implémentation et une mise en œuvre dans un moteur de recherche. Notre proposition de système de recherche d'information rend comme réponse à une requête des nœuds triés selon leur pertinence calculée par le système. Nous restons donc dans le cadre classique des moteurs de recherche. Nous avons choisi cette option plutôt que de rendre des ULI, ce qui pourrait se justifier parce que les ULI sont auto-suffisantes, alors que nous supposons que les nœuds ne le sont pas toujours. Toutefois, ce choix permet une présentation des résultats habituelle pour l'utilisateur, alors qu'il faudrait développer de nouveaux modes de présentation de résultats pour montrer les ensembles de pages. De plus, avec ce choix, nous pouvons utiliser les méthodes traditionnelles et les collections de tests existantes pour l'évaluation des systèmes de recherche d'information. Notre but principal est donc de mieux indexer les nœuds d'un hypertexte et pour cela nous suggérons donc que soient pris en compte pour l'indexation d'un nœud non seulement le contenu de ce nœud, mais aussi les contenus des nœuds qui le contextualisent. Ceci impose donc une première étape dans laquelle nous découvrons ces contextes, qui sont des ensembles de nœuds. Dans la découverte des contextes des pages, nous ne considérons que les pages appartenant au même « site ». La notion de « site » ne se définit pas très précisemment, l'idée est que c'est un ensemble de pages formant un ensemble cohérent d'information, géré et maintenu par une seule personne ou un seul groupe de personnes. Cependant, selon cette définition les frontières des sites sur la Toile ne sont pas aisées à découvrir. Nous nous basons donc comme d'autres sur la notion approchée qui définit un site comme l'ensemble des pages disponibles sur la Toile qui partagent le même préfixe nom de machine >:< numéro de port >/. C'est bien évidemment une approximation de la définition floue précédente, il suffit en effet de considérer les domaines gérés par des fournisseurs d'accès à internet : ceux -ci contiennent de nombreux sites, ces derniers étant gérés par leurs abonnés. L'hypothèse sous-jacente à cette approximation est que ces cas sont marginaux sur la Toile. Après cette étape, nous avons le choix entre deux possibilités, soit indexer chaque page avec son contenu et celui de son contexte, ou garder dans la base d'index i) l'index de chaque nœud, ii) l'index de chaque contexte, iii) le lien entre un nœud et son contexte. Nous avons choisi la deuxième option qui nous permet d'introduire des requêtes à deux niveaux : un niveau sujet et un niveau contexte. Ainsi, une requête q est un couple (qs, qc), où qs est la partie sujet, et qc est la partie contexte. Dans les différentes étapes, des choix d'algorithmes et/ou de paramètres de ces algorithmes sont possibles. Nous ne détaillons pas dans cet article tous ces choix, mais seulement ceux que nous avons finalement retenus après une phase de test non décrite ici. Notre méthode se base sur une similarité S (N,N ') entre deux nœuds N et N ' qui combine : une similarité de contenu, Sc (N,N '), calculée selon le modèle vectoriel de Salton; une proximité structurelle, Ps (N,N '). Dans nos expériences, nous avons choisi : avec : où i) spl(, y) est la longueur d'un plus court chemin de x vers y s'il en existe, et l'infini sinon; ii) splz(, y )est la longueur d'un plus court chemin de x vers y sans passer par z; iii) Anc (x, y) est l'ensemble des ascendants communs aux deux nœuds x et y et Desc (x, y) est l'ensemble des descendants communs à x et y. L'utilisation de ces mesures à base de plus courts chemins a été proposée par Weiss et al. (1996) pour leur système HyPursuit. Ces deux mesures sont combinées selon un coefficient : αS (N, N ') = (1 — α) • Sc (N, N ') + α • PS (N, N '). Nous obtenons ainsi une matrice symétrique. Différentes méthodes de classification automatique peuvent alors être mises en œuvre. Nous avons retenu l'algorithme du lien complet après avoir essayé aussi les méthodes du simple-lien, du lien moyen, l'algorithme de Ward et l'algorithme de l'étoile (Anderberg, 1973). Comme dans tous les algorithmes de classification hiérarchique, il faut choisir un niveau de la hiérarchie pour en obtenir une partition en classes. Nous avons choisi pour cela le niveau qui donne moitié moins de classes que de pages. Les classes résultats de cette classification sont les contextes. L'indexation des nœuds est faite selon le modèle vectoriel de Salton. Pour les contextes nous ne conservons que les composantes de poids les plus forts dans l'idée que seule l'information répétée dans les différentes pages est du contexte. Plus précisemment, l'indexation des contextes est obtenue à partir de la moyenne des vecteurs représentant ses éléments dans lesquels ne sont conservées que les composantes de poids supérieur à la moyenne des composantes non nulles. Enfin, pour modéliser le fait que certaines pages sont plus centrales dans un contexte, nous introduisons la notion d'attachement entre un nœud et le contexte auquel il appartient. Cet attachement est la moyenne des similarités entre la page considérée et les autres pages du contexte : Remarque. — La fonction de classification que nous avons choisie fait que les classes engendrées sont disjointes. De ce fait, une page p appartient à un et un seul contexte, que nous noterons C (p). Avec d'autres méthodes de classification où les classes ne sont pas nécessairement disjointes, nous aurions à considérer tous les contextes d'une page. Dans la fonction de correspondance, nous devons combiner ce qui concerne la page et son contexte du côté des documents, et les deux parties de la requête de son côté. Vu du côté de la requête nous devons faire un appariement qui satisfait la partie sujet qs ET la partie contexte qc. Nous avons envisagé et testé plusieurs hypothèses pour la fonction de correspondance. D'abord, nous avons deux façons de faire intervenir la partie contexte de la requête, soit trois fois dans la formule (choix A), soit deux fois (choix B). Indépendamment de ce premier choix, nous avons d'abord fait intervenir la valeur d'attachement entre une page et son contexte (choix a) ou de remplacer cette valeur par 1 (choix b). Ainsi dans le choix Aa, nous définissons la fonction de correspondance comme suit : Ici nous avons un produit entre deux facteurs. Le premier prend en compte la pertinence, Sim (p, qs + qc) de la page p contre la requête dans sa totalité. A noter que toutes les similarités sont calculées selon le modèle vectoriel comme le cosinus entre les vecteurs représentant la page et la requête. Pour prendre en compte le contexte de la page, nous faisons intervenir deux termes pour prendre en compte i) le cas où c'est effectivement le contexte que nous avons calculé qui apparie la partie contexte de la requête (Sim (C (p), qc )• Att (p,C (p) )) ii) le cas où la page est auto-suffisante et apparie elle -même la partie contexte de la requête (Sim (p, qc)). Dans le choix Ab par rapport au choix Aa, nous remplaçons le facteur Att (p,C (p)) par la valeur 1, supprimant ainsi un effet d'atténuation du contexte : Dans le choix Ba, nous n'utilisons que la partie sujet de la requête pour le premier facteur. En effet, revenant à notre hypothèse sur la requête qui doit être appariée dans sa partie qc ET dans sa partie qs, nous faisons le choix de représenter explicitement cette conjonction comme dans le modèle des ensemble flous avec un produit entre ce qui concerne qs d'une part et ce qui concerne qc d'autre part. Ainsi, dans le choix Ba, nous n'utilisons que la partie sujet de la requête pour le premier facteur. En effet, nous avions introduit qc dans ce facteur pour prendre en compte les pages autosuffisantes, cependant qc est aussi pris en compte dans le deuxième facteur. D'autre part, le premier choix risque de favoriser les pages n'appariant que la partie contexte de la requête. Ainsi, la formule pour le choix Ba est la suivante : Enfin, nous dérivons le choix Bb du choix Ba en remplaçant encore la valeur d'attachement par 1 : Le modèle et la méthode décrits précédemment sont à la base d'un moteur de recherche d'information complet que nous avons implémenté. Avec une collection de test, nous pouvons donc évaluer notre modèle selon les critères classiques du domaine de la recherche d'informations, en particulier le rappel et la précision. Notre choix s'est porté sur la collection WT10g utilisée dans la Web Track de TREC en 2000 (Hawking, 2000) et les topiques 451–500 13. Dans nos expériences nous avons considéré les sites indépendamment les uns des autres, ce qui correspondrait à une configuration où chaque site aurait son propre moteur de recherche restreint aux documents qu'il fournit. Parmi les sites de WT10g, nous n'avons considéré que ceux contenant au moins un document pertinent à l'un des 50 topiques. 871 sites parmi les 11 673 de la collection répondent à ce premier critère. Parmi ces sites, les questions de complexité du modèle qui prend en compte les descendants communs et les ascendants communs (cf. 4.1) et donc de temps de calcul sur l'évaluation des indices structurels nous ont menés à n'utiliser ce moteur que sur des hypertextes avec au plus 700 nœuds. L'application de cette seconde contrainte réduit le nombre de sites à 641. Enfin, nous n'avons pas pris en compte les topiques 456, 481 et 495 qui ne pouvaient pas avoir de réponse avec notre système parce qu'un élément essentiel de leur besoin d'information est composé de chiffres et que notre analyse lexicale les élimine. Ceci nous a conduit à encore écarter 118 sites. Nous avons donc travaillé sur 523 sites pour cette expérience. Comparaison des résultat obtenus avec nos quatre fonctions de correspondance par rapport à une méthode vectorielle classique meilleure équivalente moins bonne SimAa q =(<title>, <title>) 75 s. 84 c . 331 s. 392 c . 117 s. 144 c . q =(<title>, <narr>) 72 s. 84 c . 261 s. 313 c . 190 s. 223 c . SimAb q =(<title>, <title> ) 85 s. 102 c . 362 s. 425 c . 76 s. 93 c . q =(<title>, <narr> ) 79 s. 97 c . . 284 s. 338 c . 160 s. 185 c . SimBa q =(<title>, <title> ) 75 s. 84 c . 331 s. 392 c . 117 s. 144 c . q =(<title>, <narr> ) 128 s. 144 c . 296 s. 356 c . 99 s. 129 c . SimBb q =(<title>, <title> ) 85 s. 102 c . 362 s. 425 c . 76 s. 93 c . q =(<title>, <narr> ) 136 s. 163 c . 313 s. 371 c . 74 s. 86 c. Les topiques fournis par TREC pour la tâche d'évaluation d'un système de recherche d'information sont composés de trois formes. La première (et la plus courte) <title> est la requête telle qu'elle a été soumise par un internaute au moteur eXcite 14, la deuxième, plus longue, est <desc> (description) 15, et la troisième, un petit paragraphe, est dans le champ <narr> (forme narrative). Ces deux formes plus longues ont été construites manuellement par le personnel du NIST 16 à partir de la première. Pour construire les requêtes q = (qs, qc) à partir des topiques tels qu'ils sont fournis, nous avons utilisé deux méthodes. Dans la première, nous associons le champ <title> à la fois à qs et à qc. Dans la deuxième, nous associons le champ <title> à qs et le champ <narr> à qc. Pour chaque site sélectionné, nous comparons la précision moyenne de notre méthode et de la méthode vectorielle classique où n'est pris en compte que le contenu du nœud. Notre évaluation consiste à compter le nombre de sites pour lesquels i) la précision moyenne de notre méthode est supérieure d'au moins 5 % à celle de la méthode vectorielle classique, ii) elle est la même à 5 % près, iii) ou elle est inférieure d'au moins 5 %. Nous avons fait de nombreuses expérimentations en faisant varier i) le paramètre α de pondération entre la similarité de contenu et la proximité structurelle, ii) les coefficients β, γ, et λ qui règlent les importances données aux mesures intervenant dans la proximité structurelle, iii) la méthode de classification. Nous ne présentons ici qu'une partie de ces résultats où nous avons retenu α = 0.75, β = 0, γ = 0, λ = 1, et la méthode du lien complet. Nous indiquons dans le tableau 1 le nombre de sites (s.) et le nombre de couples site-topique (c.) pour lesquels notre méthode est successivement i) meilleure, ii) équivalente, iii) moins bonne, pour les deux constructions de requêtes à partir des topiques que nous avons citées et les quatre fonctions de correspondance. Dans le cas q =(< title >, < title >) la variation entre SimA et SimB n'introduit pas de variations comme on pouvait s'y attendre, puisque la différence de formule ne peut exister que si qs et qc sont différents. De plus dans ce cas, ne pas prendre en compte la valeur d'attachement améliore les résultats. Cependant notre système est conçu pour des requêtes à deux niveaux, il est donc plus pertinent d'étudier les résultats du cas q =(< title >, < narr >). Ce passage de q =(< title >, < title >) à q =(< title >, < narr >) a des effets contraires selon les formules SimA ou SimB. Dans le premier cas, ce passage apporte une légère détérioration des résultats et dans le deuxième cas une nette amélioration; et les résultats obtenues avec les formules SimB sont nettement meilleurs que ceux obtenus avec les formules SimA. Ces résultats sont un indice appuyant l'hypothèse conjonctive sur les requêtes à deux niveaux. Enfin, il y a là aussi amélioration en ne prenant pas en compte la valeur d'attachement; ce qui nous questionne sur la pertinence de cet indicateur. Les résultats de cette première expérience montrent une amélioration sensible lorsqu'une requête où les deux niveaux sujet et contexte de la requête sont vraiment utilisés, puisque pour les requêtes (< title >, < title >) il n'y a pas vraiment indication d'un contexte. Par ailleurs, le nombre de sites (resp. de couples) pour lesquels il y a une amélioration est lui aussi statistiquement significatif. Ces résultats sont donc un indice pour valider notre hypothèse et le modèle de recherche d'information que nous proposons. Une analyse plus fine (requête par requête) des résultats des expériences resterait nécessaire pour essayer de comprendre quelles caractéristiques des hypertextes et/ou des requêtes font que nous obtenons dans certains cas une amélioration et dans d'autres une détérioration. Nous envisageons une nouvelle série d'expériences dans lesquelles nous ferons un unique moteur de recherche pour l'ensemble de la collection. En effet, ce sont des problèmes de complexité algorithmique, en particulier pour trouver les ascendants et descendants communs qui nous avaient fait faire le choix d'étudier notre moteur site par site. L'influence de ces critères liés à l'ascendance et à la descendance est minime 17, nous pensons donc revenir sur la définition de la formule de similarité et de ne pas utiliser ces critères. Par ailleurs, nous avons utilisé des requêtes à deux niveaux en utilisant simplement deux champs différents des topiques de TREC. Nous pensons définir manuellement les deux niveaux de la requête. en effet le champ <narr> contient des mots qui peuvent contextualiser le sujet, mais aussi de nombreux mots vides. Il serait enfin intéressant de comparer les différentes méthodes de découverte des unités logiques d'information décrites dans la section 2.2 dans l'environnement de test que nous avons décrit, c'est-à-dire y remplacer uniquement la fabrication des contextes par classification automatique par ces différentes méthodes et y utiliser les mêmes conditions expérimentales (collection WT10g, même implémentation du modèle vectoriel de base, même modèle de requête et mêmes requêtes, etc.) .
Nous faisons l'hypothèse que la mise sous forme hypertexte d'un document atomise l'information dans le sens où les noeuds de l'hypertexte qui sont créés ne sont pas auto-suffisants pour pouvoir être appréhendés. Sous cette hypothèse, le contenu seul du noeud n'est pas suffisant pour l'indexer dans un but de l'insérer dans un système de recherche d'information. Nous avons implémenté et testé une méthode de construction de contextes autour des noeuds d'un hypertexte en utilisant une méthode de classification automatique. Cette dernière est basée sur une mesure de similarité entre les noeuds prenant en compte à la fois les aspects structurels de l'hypertexte, à savoir les liens entre les noeuds, et le contenu textuel des nœuds. Notre système de recherche d'information indexe à la fois les noeuds et leurs contextes. Le modèle de requête que nous utilisons est à deux niveaux: niveau sujet et niveau contexte.
sciencesInfo_05-0094350_tei_DN_083_0071.tei.xml
termith-525-communication
La représentation de partitions musicales à travers un navigateur web standard restait jusqu' à présent insatisfaisante : la portabilité, l'indexation, la lisibilité et l'interactivité sont quatre exigences dont l'une au moins était sacrifiée. Dans cet article, nous allons montrer que l'effort de normalisation des formats de documents numériques entrepris par le Word WildWeb Consortium (W3C) et son audience auprès des acteurs de l'informatique sont à présent suffisamment importants pour bien répondre au problème posé. Depuis plusieurs années déjà XML s'est imposé comme outil de base de la portablité de documents de tout type. Des formalismes XML de description de partitions musicales sont apparus rapidement et ont atteint aujourd'hui une qualité satisfaisante pour l'indexation. À la même époque, a été défini le format graphique SVG, et son couplage avec les CSS. Mais sa puissance expressive et son souci du détail dans la lisiblité du rendu graphique ont eu comme contre-partie une difficulté d'implémentation qui a retardé sa disponibilité dans les navigateurs usuels jusqu' à très récemment. Enfin, l'interaction entre l'utilisateur et un document XML restait très lente avant l'arrivée de la technologie AJAX, aujourd'hui embarquée dans tous les interprètes Javascript des navigateurs usuels. Cette étude est organisée en quatre sections reprenant les quatre problématiques évoquées. Il s'agit de recenser les technologies existantes et de montrer en quoi elles peuvent ou non répondre au but ici visé. L'eXtended Meta Language a été conçu pour arrêter la prolifération de formats de documents numériques exigeant chacun un analyseur syntaxique spécifique. Si la libre déclaration sur le site de l'IETF de n'importe quel format à rajouter à la liste officielle MIME a été utile à la diffusion de l'information concernant les formats préexistants à l'internet, elle a eu pour contrepartie de multiplier le nombre de formats à connaître de la part d'un navigateur. Ne pouvant suivre ces nouveautés, celui -ci n'a souvent pas d'autre choix que de déléguer l'analyse du document reçu à un programme externe, au détriment de l'interaction avec l'utilisateur au travers du navigateur, réduit à un rôle de messager sans expertise. A fortiori, il ne peut mettre en relation plusieurs documents de types différents, en particulier voir qu'un document sonore (par exemple de type MIME mp3) est l'interprétation d'une partition fournie sous forme d'image de type MIME gif. En demandant que les nouveaux formats de documents partagent le même métalangage, XML permet aux navigateurs de n'embarquer qu'un seul analyseur syntaxique, paramétré à volonté par la grammaire spécifique à chaque document à affi-cher. Internet restant rempli de vieux documents, les navigateurs continuent d'utiliser leur propre analyseur HTML, mais cet analyseur universel est depuis longtemps une réalité, car XML est en fait la version internet du formalisme SGML beaucoup plus ancien et pour lequel existait déjà un analyseur syntaxique. De fait, les systèmes d'exploitation fournissent souvent en standard l'utilitaire nsgmls, nouvelle version adaptée à XML de l'antique sgmls destiné à SGML. On trouve aussi souvent la bibliothèque C libxml, développée plus récemment au sein du projet GNOME. En termes de langages formels,XML permet la définition de langages algébriques, autrement dit de structures parenthétiques, avec un ensemble illimité de paires de parenthèses. Une parenthèse ouvrante, dite balise ouvrante dans le jargon XML, se dénote par des chevrons entourant le nom de la parenthèse, et une parenthèse fermante pareillement mais avec une barre oblique avant le nom. Ainsi, <a><b></b></a> est une expression XML bien formée, tandis que <a><b></a></b> ne l'est pas car la correspondance entre ouvrant et fermant est entre-croisée et non strictement emboîtée, comme l'exigent par définition les langages algébriques. Pour spécifier des correspondances moins contraintes, dites parfois contextuelles, XML permet d'associer aux balises ouvrantes des attributs sous la forme d'une suite nom= ' valeur ' placée après le nom de la balise. Les noms des attributs doivent être indiqués par la grammaire mais les valeurs sont libres. Ainsi pour décrire la structure entre-croisée évoquée auparavant, on peut utiliser le subterfuge : Cette technique est indispensabe pour certaines notations musicales comme le coulé (parfois appelé liaison) entre plusieurs notes. En effet, on spécifie en général la structure d'une partition comme une suite de balises nommées portée emboîtant des balises nommées mesure. Mais si l'on veut indiquer la mélodie en plaçant un signe de coulé entre plusieurs notes, le simple emboîtement est impuissant à décrire le cas d'une certaine mesure d'une certaine portée contenant la n-ième note de la mélodie, la note suivante figurant sur une autre portée. Il faut utiliser des attributs pour référencer la deuxième portée à partir de la première, et donc décrire l'entre-croisement entre portées exigé par la mélodie (entre-croisement d'ailleurs visible graphiquement sur le rendu de la partition). Bien que les attributs ne soient vraiment nécessaires que dans de tels cas, ils sont aussi utilisés pour diminuer le nombre de balises, autrement trop élevé. Il est en effet superflu de baliser un texte sans structure ni répétition, il suffit de préciser ce texte comme valeur d'un attribut. En musique, le cas se présente avec la métrique (qui se réduit à deux nombres entiers) et aussi avec l'armure (qui se réduit à un nombre et l'indication dièse ou bémol). Comme le début d'une portée comporte toujours une métrique et une armure, on pourrait écrire : mais on écrira plus succinctement : Le nom des balises et des attributs est limité à l'alphabet ASCII, mais le contenu des balises et des valeurs d'attributs peut être écrit avec n'importe quel alphabet Unicode, à spécifier au début du document. Pour permettre de spécifier tous les signes possibles, même si l'on ne dispose pas d'un clavier adapté à un alphabet Unicode donné, on dispose des entités XML qui se notent par un esperluette (&) initial et un point-virgule terminal, encadrant une suite de caractères ASCII. Cette suite est formée soit de nombres (il s'agit alors d'un code numérique dans l'encodage considéré) soit d'un nom (dont l'équivalent numérique doit être indiqué par la DTD). Signalons que la présence de ces entités dans les valeurs des attributs n'est malheureusement pas toujours gérée de manière cohérente par les analyseurs. On voit donc que XML permet d'exprimer tout document et sa structure, mais parfois au prix de quelques contorsions, ce qui n'est pas sans dommage sur le volume du résultat. Certes, leur spécification est telle que leur compression atteint un taux important sans perte d'informations. Mais cet argument ne vaut que pour le stockage et le transfert : affficher le document et interagir avec lui ne se font que sur la donnée décompressée, ce qui explique les réticences initiales à l'utilisation de XML dans des contextes à forte interaction. De fait, les premiers outils offerts autour de XML s'inscrivaient dans la perspective de SGML, conçu surtout pour exploiter de grosses bases de données. Il s'agit fondamentalement d'analyseurs syntaxiques, conceptuellement voire effectivement construits au-dessus de nsgmls ou libxml, et ils ne se distinguent entre eux que par leur paradigme de programmation sous-jacent. Le Simple Analyser for XML a été implémenté d'abord comme une application C nommée Expat, interfacée ou adaptée ensuite à la plupart des langages de programmation courants. Il repose sur le concept de programmation événementielle. A chaque rencontre d'un élément grammatical, SAX donne la main à un preneur d'événement spécifique, autrement dit à une fonction que le programmeur aura définie préalablement. Au minimum, c'est-à-dire si aucun preneur n'est défini, SAX retourne un résultat booléen signalant si le document est bien formé (aucun entre-croisement, autant de fermant que d'ouvrant etc). Dans le cadre d'une fouille de données, le rôle d'un preneur va être de trouver les informations demandées sur la base des éléments grammaticaux rencontrés. Si l'on reprend l'exemple d'un attribut indiquant à quel endroit se trouve la mélodie dans une partition, on voit qu'il est assez facile de programmer un preneur de balise ouvrante ne mémorisant que celles de nom mesure et d'attribut melodie. Une application destinée à reconstituer proprement la ligne mélodique à partir de ces éléments épars se réduit ainsi à définir ce preneur, SAX s'occupant des corvées d'analyse syntaxique sans intérêt en elles -mêmes. Un autre outil d'analyse est le eXtensible Stylesheet Language Transformation. Il repose sur le paradigme de programmation par règles de réécriture. L'idée est de considérer que tout travail sur un document XML n'est rien d'autre que le présenter avec un certain style de mise en pages, pouvant aller jusqu' à masquer certaines informations. Cette vue de l'esprit, comme toujours avec la programmation par règles de réécriture, est bien adaptée pour des buts simples. Nous avions tenté l'expérience dans un travail préliminaire il y a quelques années (Barkati et al., 2003). Mais sa difficulté croît exponentiellement avec le nombre de règles nécessaires, et le fait que ces règles soient elles -mêmes écrites en XML est loin d'allèger le procédé. Cette voie ne nous parait donc pas viable pour des documents musicaux volumineux. Chaque document XML doit indiquer sa grammaire, afin que l'analyseur syntaxique puisse opérer. Le formalisme le plus utilisé pour la décrire, malgré des tentatives légitimes pour le remplacer, est la Document Type Definition. Les documents XML qui l'utilisent commencent par une ligne < !DOCTYPE … uri … > où uri est l'adresse de la grammaire, en général disponible sur le web. Cette grammaire indique d'abord l'ensemble des noms de balises acceptés. Pour chaque balise, elle indique l'ensemble des attributs autorisés et ceux obligatoires, et enfin la suite ordonée des sous-balises ou zones de texte qui composent le contenu de la balise. Typiquement, la DTD d'une partition indiquera que la balise initiale partition est composée exclusivement d'une suite de balises portee, chacune d'elles étant composées exclusivement d'une suite de balises mesure, et possédant l'attribut obligatoire armure, fut-il vide. De plus, une DTD bien conçue évitera certaines ambiguités et au contraire identifiera ce qui doit l' être : par exemple, si une balise stipule un changement d'armure en milieu de portée, il sera judicieux qu'elle possède elle aussi l'attribut obligatoire armure même si cela peut paraître redondant avec l'intention de cette balise, et inversement des attributs portant ce nom ne devraient être trouvés dans aucune autre situation. On appelle validateur XML un programme qui vérifie qu'un document utilise des balises conformémemt à l'usage indiqué par la grammaire dont il relève. Le premier avantage d'une DTD est donc d'aider à obtenir des documents qui contiennent toutes les informations attendues, reliées de manière cohérente. Sans cette validation, on ne peut garantir qu'un travail d'indexation quel qu'il soit soit fiable : par exemple, si l'on veut chercher toutes les partitions indiquant une certaine tonalité, ne tester que l'attribut armure est fiable seulement si les documents sont conformes à la DTD esquissée au paragraphe précédent. Les validateurs offrent donc un service supérieur à un simple analyseur comme SAX, sur lequel ils sont d'ailleurs souvent construits. Le W3C fournit un validateur disponible à la fois comme service à travers son site web, et comme bibliothèque téléchargeable. Celle -ci est un peu difficile à installer car il ne s'agit en fait que d'un habillage web de nsgmls, qu'il faut retrouver dans le système d'exploitation pour s'y interfacer. Ce validateur fonctionne correctement, mais le nombre de messages d'erreurs est souvent insupportablement élevé, une erreur en amont en provoquant une multitude d'autres sans être perçues comme des conséquences de la première. En pratique, on corrige la première erreur détectée et on retente la validation immédiatement. Un problème plus important est posé par la confiance que l'on peut avoir dans la grammaire elle-même.Un examen attentif des DTD duW3Cmontre qu'elles sont souvent plus laxistes que la documentation informelle ne le laisse supposer : par exemple la DTD de XHTML dit strict (sic) permet syntaxiquement certains emboîtements de formulaires, ce qui sémantiquement n'a aucun sens. Au-delà de cette erreur humaine, le formalisme de la DTD est-il suffisant pour exprimer tout ce que l'on souhaite ? La réponse est négative pour les grammaires des langues naturelles, car les accords en genre et en nombre reposent sur des règles pas toujours algébriques. Elle est également négative pour la grammaire des partitions musicales. Par exemple, il n'est pas possible de spécifier grammaticalement que la somme des valeurs rythmiques d'une mesure est bien égale à la métrique annoncée pour cette mesure. Dans les deux cas, il s'agit de considérations sémantiques inaccessibles à ce qui est destiné à régir la syntaxe. Cette faiblesse est donc structurelle, mais elle est aggravée par le formalisme des DTD. Par exemple, celui -ci ne permet de définir les valeurs possibles d'un attribut qu'en extension : on peut donc énumérer celles de l'attribut armure même si c'est fastidieux (car la combinatoire est finie), mais en toute rigueur pas celui d'un attribut métrique formé d'un nombre entier quelconque suivi d'une puissance de 2. Il est regrettable que le formalise de XML ne tolère qu'un sous-ensemble extrêmement réduit du mécanisme des RegExp aujourd'hui largement répandu. D'autres faiblesses des DTD concernent leurs rédacteurs. Répartir le travail entre plusieurs personnes demande des précautions car le formalisme n'offre pas de mécanisme d'espace de noms permettant de spécifier une DTD comme union de plusieurs autres DTD : leur simple concaténation a toutes les chances de fournir une DTD incorrecte car remplie de multiples déclarations d'éléments grammaticaux de même nom. C'est d'autant plus dommage que les outils de contrôle des DTD elles -mêmes sont pauvres (il s'agit encore de nsgmls). On peut noter ici un paradoxe : alors que le but de XML est d'éviter la prolifération des formats de documents, le formalisme des DTD n'utilise pas lui -même XML. Toutes ces raisons ont conduit le W3C à définir un nouveau formalisme de description de grammaire, nommé XMLSchema, permettant une meilleure spécification des attributs, gérant des espaces de noms, et utilisant la syntaxe de XML afin que le validateur habituel puisse contrôler que la grammaire est bien écrite. Ce dernier point a pour contrepartie une certaine pesanteur d'écriture qui nuit à son adoption. Une syntaxe alternative a été proposée par la suite, sous le nom de Relax NG. On dispose donc aujourd'hui de trois formalismes pour définir des grammaires XML, et il est facile de passer de l'un à l'autre lorsqu'on reste dans leur intersection commune. Pour cette raison, les DTD demeurent le formalisme le plus utilisé. Avant que ne s'impose XML, plusieurs formats de description de partitions musicales ont été proposés. Citons NIFF (Notation Interchange File Format); CMN (Common Music Notation); Enigma (le format du logiciel Finale); MusiTeX (une format pour LATEX) abc (un format en ASCII); HumDrum (un format ASCII pour des outils de recherche d'informations); MuseData (le format d'un projet de base de données musicales). Ensuite, plusieurs formats musicaux (ou utilisables pour la musique mais plus généraux) reposant sur XML ont vu le jour, certains étant des réécritures des précédents : SMDL (StandardMusic Description Language); MNML (Musical Notation Markup Language) ;MHTML (Music HyperText Markup Langage); MML (Music Markup Language); XScore (eXtensible Score Language); NIFFML; ChordML; SMIL (Synchronized Multimedia Integration Language); MusicXML et MusiXML. MusicXML (Castan, 2007) s'est rapidement imposé comme le mieux conçu, et en est à la version 2.0 depuis 2007. Il est compatible avec le format de l'éditeur de partition le plus répandu, Finale, et repose sur l'expérience de MuseData et HumDrum. C'est donc un format pouvant servir à la fois pour des applications de notation, d'analyse, de fouille, et de performance. Bien qu'il soit développé par une entreprise commerciale, l'utilisation de cette spécification est libre de droits. Originellement spécifié à l'aide d'une DTD (plus précisément 14 fichiers à assembler de différentes manières), il est aujourd'hui également spécifié par un XMLSchema défini par le W3C. L'extrait suivant (expurgé de ses commentaires) provient de la DTD attributes.dtd indiquant la structure de la balise attributes figurant au début de la description d'une partition. Sans rentrer dans les détails de la syntaxe des DTD, on voit que cette balise peut avoir comme balise fille celle nommée clef qui elle -même doit contenir une balise fille nommée sign (qui indiquera s'il s'agit d'une clé de Fa, de Sol ou d'Ut mais aussi d'une ligne de percussion) et peut avoir un attribut number indiquant la portée concernée. On peut spécifier une ligne d'accroche ainsi qu'une octaviation de la clef grâce aux balises line et clef-octave-change. La DTD permettant de décrire toute une partition se nomme opus.dtd. La technologie XLink est utilisée pour que la partition puisse être découpée en plusieurs fichiers, typiquement les différents mouvements d'une sonate ou d'une symphonie. Elle peut également être utilisée pour référencer des données musicologiques concernant la partition. Il existe aussi une DTD midixml.dtd pour la représentation des fichiers MIDI en XML. Une page de musique imprimée pour chant et piano occupe environ 100 Ko en MusicXML. Voici un exemple minimaliste d'une partition ne contenant qu'une voix (part) et qu'une mesure (measure), avec une clef de Sol : On comprend aisément qu'un balisage aussi systématique des informations musicales permette facilement l'extraction de données sur des critères les plus divers. En revanche, l'édition de tels documents ne peut se faire directement à partir de cette représentation textuelle beaucoup trop volumineuse pour être lisible et modifiable sans risque d'erreurs fréquentes. Les éditeurs de partitions musicales aujourd'hui disponibles ont été conçus avant l'arrivée de XML. Ils ont été étendus par la suite pour lire des documents fondés sur des DTD comme celles de MusicXML, mais ils continuent à écrire dans des formats graphiques anciens. En ce qui concerne l'écran, ils fonctionnent par appel aux fonctions de la bibliothèque graphique standard du système d'exploitation. En ce qui concerne l'impression sur papier, on peut évidemment capturer l'image à l'écran et la sauver dans un format d'image usuel comme JPEG, GIFF, TIFF ou PNG. Ces formats dits à grille de points (bitmap) ont le gros défaut de ne pas supporter l'agrandissement sans une détérioration de la qualité. De plus, les dimensions du point sur l'écran et celles sur l'imprimante sont rarement identiques, aussi le rendu sur papier peut se révéler très différent de ce qui était attendu. Pour obtenir un rendu graphique de qualité professionnelle, il faut utiliser un format dit vectoriel. L'idée est de représenter un document graphique comme une suite de signes décrits par des fonctions mathématiques ayant comme représentation géométrique le dessin du signe. Les premiers essais remontent au début des années 1980 avec le système Ikarus d'URW, qui utilisait des fonctions définies par des vecteurs. La méthodologie a été étendue par PostScript (Adobe, 1992) aux courbes de Bézier et leurs variantes (les splines et les nurbs). Notons au passage que le terme vectoriel est désormais impropre, il faudrait plutôt parler de graphique par tracé ou par contour, mais il est illusoire d'espérer revenir sur un usage linguistique passé dans les habitudes, aussi impropre soit-il. Toutes les polices de caractères utilisées par les imprimantes dites à laser reposent sur ce principe sinon sur ce format (PostScript est une marque déposée). Destiné au départ seulement à l'impression sur papier, d'ailleurs assez lente, ce modèle de rendu graphique est progressivement devenu disponible sur les écrans, PostScript version 2 introduisant en particulier la couleur. Il en existe plusieurs interprètes, y compris en logiciel libre. Mais n'étant pas conçu pour l'écran au départ, son absence d'interactivité le rendait insatisfaisant. Les concepteurs de Post-Script ont alors défini le Portable Document Format pour le remplacer. La situation actuelle concernant ces deux formats est toutefois assez confuse. Beaucoup de polices de caractères sont disponibles en PostScript, et la nature profonde de ce type de données souffre peu de l'absence d'interactivité (les animations calligraphiques, bien qu'intéressantes, sont une application très marginale). D'ailleurs les outils de création de polices de caractères continuent à utiliser ce format qu'ils n'ont pas de raison d'abandonner. Il aurait donc été opportun de la part des concepteurs de PDF de définir celui -ci comme un sur-ensemble de PostScript, ou au moins un sur-ensemble du sousensemble de PostScript nécessaire à la définition d'une police de caractères. Un autre choix a été opéré, en toute conscience puisqu'un lecteur PDF inclut un convertisseur à la volée du format PostScript, mais ceci a instauré une scission entre le monde des polices de caractères et le monde des documents interactifs. De surcroît, PDF est un format binaire peu adapté à l'indexation. C'est dans ce contexte que le W3C a lancé un groupe de travail destiné à offrir un format de dessin dit vectoriel, mais utilisant XML et les possibilités d'interaction offerte par les navigateurs. Ainsi est né le Scalable Vector Graphics (W3C, 2003). Spécifié au début du nouveau siècle, ce format a eu l'intelligence de prendre en considération les usages des typographes. Ainsi, parmi toutes les balises spécifiant les différents dessins et effets que s'attendent à trouver les graphistes, figurent la balise path permettant de définir un caractère typographique, à l'aide d'attributs dont les valeurs sont écrites dans le sous-ensemble de PostScript utilisé par les outils de création de polices, à quelques abréviations triviales près. Le passage de PostScript à SVG est d'autant plus aisé que les méthodes d'anti-crénelage (anti-aliasing en anglais) que PostScript avait inaugurées sont à présent intégrées aux systèmes d'exploitation et sont donc légitimement absentes de SVG. Dès lors, il est très facile de convertir une police de caractères PostScript en suite de balises SVG et de garder ainsi une unité dans le document l'utilisant. C'est ainsi que nous avons pu transposer un ancien travail d'édition de musique baroque (Bouzaiene et al., 1998) reposant sur une police de caractères originale conçue en PostScript, directement en un document SVG semblant avoir été écrit nativement ainsi. Les autres balises graphiques de SVG reprennent beaucoup d'idées issues des outils de traitement d'images : bien qu'il s'agisse d'un format dit 2D, certains effets sont à la limite du 3D. La puissance de ce formalisme est donc élevée, mais possède des revers. D'une part le temps d'implémentation a été très long, et les visualiseurs SVG à peu près complets et stables ne sont apparus que bien après la sortie de ses spéci-fications officielles. D'autre part, le temps d'affichage reste assez lent, et non exempt de temps de latence produisant des saccades désagréables. On peut néanmoins estimer qu'il s'agit de problèmes de jeunesse qui disparaissent petit à petit. Aujourd'hui, SVG est reconnu en natif par les navigateurs à moteur de rendu Gecko (Firefox, Mozilla, Netscape/SeaMonkey) disponible librement sur toutes les plates-formes, également en natif par ceux du moteur KHTML/WebKit (Konqueror, Safari), toujours en natif par le nouveau moteur Presto d'Opera, et enfin reconnu grâce à un greffon (plugin) gratuit par Internet Explorer. Ces outils de visualisation reposent en fait sur des bibliothèques C (notamment libsvg figurant dans la distribution de GNOME) qui peuvent être directement utilisées pour construire des visualiseurs intégrés à n'importe quelle application. Dans la spécification de SVG, le souci de s'appuyer sur l'existant ne s'est pas limité aux polices PostScript, puisque la stylisation et l'interaction ont été également déléguées à des formalismes préexistants ayant fait leur preuve. La stylisation dans le monde du web est assurée par les Cascading Style Sheets (W3C, 1998 (révisé en 2008)) dont la version 2 est stable depuis 1998 (le travail sur la version 3, d'intérêt discutable, n'ayant pas abouti). Alors que XML s'occupe exclusivement de baliser le fond d'un document, les CSS s'occupent de mise en forme. L'avantage de cette séparation est de permettre des présentations différentes sans modifier le document lui -même, seulement en indiquant la feuille de style à utiliser. En ce qui concerne l'édition musicale, on peut ainsi préciser dans la feuille de style les différentes polices de caractères à utiliser pour le texte présent dans la partition (paroles chantées, tempo, indication des instruments etc.), mais aussi des indications microtypographiques (distance entre une tête de note et son altération, espacement entre portées etc.). Dans un but pédagogique on peut aussi sortir du cadre du noir et blanc pour colorer certains passages de la partition etc. Ces directives de mise en page reposent sur la notion de sélecteur, qui stipulent quelles parties du document doivent être typographiées avec telle spécification. Les sélecteurs les plus simples sont simplement un nom de balise (par exemple pour spécifier que la couleur de tracé de toutes les portées est le noir) ou une suite de noms de balises (ce qui permet par exemple de typographier différemment la première mesure). Ils peuvent aussi se fonder sur la valeur de deux attributs importants normalement autorisés pour toutes les balises : class et id. On voit une fois encore que la définition initiale de la grammaire va jouer un rôle considérable dans ce qu'il sera possible de faire. L'interaction en SVG, quant à elle, a été dévolue aux langages de scripts usuellement disponibles dans les navigateurs. Cette délégation a été particulièrement heureuse, car ceux -ci ont connu une évolution majeure depuis la définiton de SVG, comme on va le voir dans la section suivante. Auparavant, signalons qu'il existe aussi en SVG des balises d'animation, qui ne sont pas toujours disponibles dans les implémentations actuelles, mais il en existe des simulations justement à l'aide de bibliothèques de fonctions des langages de scripts. Bien entendu une implémentation native devrait améliorer leur rapidité, mais elles permettent déjà de disposer de l'ensemble de la spécification SVG. Comme il a été dit dans la première section, les navigateurs continuent à appliquer leur propre analyseur syntaxique aux documents XML qu'ils reçoivent. La raison est historique, mais il faut voir aussi que le but de ces analyseurs intégrés est différent de SAX. Celui -ci est surtout utile au créateur d'un document, qui a besoin de vérifier sa conformité intégrale avant de le publier. L'analyseur dans un navigateur est destiné à la présentation de ce document à un utilisateur, qui peut n' être intéressé que par une petite partie du document. Aussi, cet analyseur va accepter un document, même incorrect (il en va ainsi de la majorité des documens sur le web), et va en fabriquer une représentation interne au navigateur afin de l'afficher au mieux. Cette représentation interne a aussi été standardisée par le W3C, sous le nom de Document Object Model (W3C, 2004), actuellement à la version 3. Ce DOM se présente sous la forme d'un graphe, ce qui peut sembler curieux à première vue puisqu'un analyseur syntaxique est censé plutôt construire un arbre de syntaxe abstraite, structure plus simple qu'un graphe (on chemine librement dans un graphe, tandis qu'un arbre n'est prévu que pour un seul parcours). Mais cette vision plus large offre des outils de manipulation du document à la fois puissants et sécurisés, ce qui n'était pas évident dans le cadre de programmes téléchargés sur n'importe quel site. Ainsi, il est possible d'associer à tout point du document, donc à tout point de l'écran, un comportement lorsqu'un événement survient, notamment le passage de la souris à proximité de ce point. En général, ce comportement va provoquer un changement graphique pour signaler la prise en compte de l'événement. Ce changement peut se réaliser très simplement en changeant la valeur de l'attribut class référençant un sélecteur de la feuille de style. On voit donc que le trio XML-DOM-CSS est tout à fait légitime comme architecture permettant de concilier les exigences du fond et celle de la forme, le DOM servant de pivot pour passer d'une problématique à l'autre. La spécification du DOM est suffisamment bien conçue pour permettre tous les styles de programmation. Parmi les langages de scripts disponibles dans les navigateurs usuels, figure en particulier JavaScript. Après des débuts difficiles pour cause de modèle de sécurité long à mettre au point, il connait une nouvelle jeunesse. D'une part sa normalisation sous le nom d'EcmaScript l'a définitivement rangé dans la famille des successeurs de Lisp, en offrant la trop rare fonctionnalité de continuation ainsi que des possibilités de synthèse dynamique de programmes à travers la fonction réflexive Eval. D'autre part, la technologie dite Asyncrhonous Javascript And XML a ouvert JavaScript à la programmation distribuée. En fait, cette possibilité existait implicitement dans certaines possibilités du DOM sans que ses concepteurs en ait eu suffisamment conscience pour formaliser la sémantique du cas très particulier qui le permettait : l'accès en écriture aux attributs spécifiant une URL. L'absence de portabilité résultante a été finalement éradiquée par l'introduction de l'objet XMLHttpRequest en cours de formalisation (W3C, 2007). Il est désormais possible d'envoyer aux navigateurs un programme JavaScript qui tout à la fois fournit une forte interaction avec l'utilisateur du navigateur, et dialogue avec le serveur par des processus en tâche de fond, signalant leur activité grâce aux continuations permises par le langage. Ce dialogue permet d'une part d'utiliser son navigateur comme éditeur de documents résidant sur le serveur, et d'autre part de dialoguer, sans jamais perdre la main, avec les autres clients du serveur, comme le proposent des applications moins générales type chat ou jeux en réseau. Concrètement, avec cette technologie l'architecture client-serveur traditionnelle du protocole HTTP s'ouvre à des manipulations interactives qui semblaient hors de sa portée. Effectuer un coupé-collé ou un glissé-déposé dans la représentation d'une partition par un navigateur se réalise par la prise en compte du passage de la souris lors d'un événement reçu par JavaScript, repérage du point du DOM où la modification de la structure de données est demandée, et envoi d'une requête HTTP asynchrone au serveur abritant l'original du document pour qu'il enregistre la modification. De son côté, le serveur peut notifier à ses clients qu'une modification a eu lieu, afin d'organiser une édition collaborative d'un unique document sans que les modifications de l'un soient anéanties par les modifications d'un autre. Lors de la direction d'une thèse bientôt vieille de dix ans (Bouzaiene, 2000), nous avions tenté l'édition collaborative de partitions musicales en se fondant sur les technologies du moment. Le prototype reposait sur une appliquette Java embarquant un interprète PostScript qu'il avait fallu développer. Opérationnel sur un petit exemple, il n'aurait pas supporté de s'appliquer sur une partition complète. Avec la somme des outils qu'embarque aujourd'hui un navigateur et que nous avons analysés ici en détail, plus rien ne s'oppose à ce qu'un simple navigateur serve aujourd'hui d'éditeur et d'annotateur interactif et collaboratif de l'ensemble des partitions musicales disponibles en XML .
Cet article montre que certaines technologies web (SVG, DOM, AJAX et CSS) sont arrivées à un point de maturation tel qu'il est enfin possible d'éditer des partitions musicales via un navigateur, en offrant le maximum de qualité sur les plans graphiques et ergonomiques, en conservant l'usage de XML et ses facilités d'indexation.
sciencesInfo_09-0255891_tei_DN_113_0045.tei.xml
termith-526-communication
Gsharp est un projet dont le but est la création d'un éditeur de partitions de musique. Il s'agit d'un logiciel interactif dans le sens qu'après chaque action de la part de l'utilisateur, le résultat final de la mise en page est visible. L'un des buts principaux de Gsharp est de permettre une personnalisation très poussée par l'utilisateur. Ainsi, un utilisateur avec suffisamment de connaissances peut rajouter sa propre notation, sans intervenir dans le code source de l'application. Un objectif important de ce projet est de créer une application dont l'utilisation par un compositeur, par un musicien ou par un graveur doit être efficace. Ainsi, les méthodes d'interaction de Gsharp ne sont pas forcement adaptées à un utilisateur occasionnel, mais optimisées pour un usage fréquent. Étant donné le public visé, un autre objectif important de Gsharp est la possibilité de créer des partitons conformes aux règles de la gravure musicale. Ainsi, le logiciel contient des règles pour déterminer la mise en page, l'espacement des différents caractères, la pente des barres de croches, etc. Ultérieurement, l'utilisateur sera capable de modifier ces règles, voire d'en fournir son propre jeu. Compte tenu de l'usage par des professionnels de ce logiciel, il est important de pouvoir traiter des partitions de très grande taille. Nous avons conçu des algorithmes de mise en page dont l'efficacité est essentiellement indépendante de la taille de la partition, ce qui permet à Gsharp de traiter des partitions de plusieurs centaines de pages sans dégradation de la performance interactive. Gsharp est un logiciel libre, sans les moyens d'une entreprise commerciale pour son développement. Entre autre pour cette raison, le langage de programmation Common Lisp a été choisi pour l'implémentation. Ce langage simplifie également la personnalisation du logiciel en permettant le chargement dynamique de code arbitraire à l'exécution pour modifier son comportement. La section 2 donne l'historique du développement du logiciel Gsharp, ainsi que la justification d'un certain nombre de décisions de conception. La section 3 traite de la méthode principale d'interaction avec le logiciel. Dans la section 4, nous traitons les principaux algorithmes et structures de données. La section 5 traite des difficultés de la présentation graphique d'une partition, en particulier afin d'obtenir une qualité acceptable sur un écran de faible définition. Dans la section 6, nous justifions nos choix du langage de programmation et de la bibliothèque d'interaction pour implémenter Gsharp – des choix qui nous permettent de fournir plusieurs axes de personnalisation, que nous discutons dans la section 7. Finalement, nous concluons dans la section 8 avec les travaux qui restent à faire pour que Gsharp soit directement utilisable pour un public large. La mécanisation de la notation musicale est bien ancienne; en plus du type mobile adapté à la musique, en 1886 on vendait déjà une machine à écrire musicale (la « Columbia Music Typewriter » de Charles Spiro). Les premiers systèmes permettant la production de partitions ont été créés dans les années 1960; par exemple, le logiciel MUPLOT opérait en temps différé pour produire à partir de texte simple une partition à une voix par portée, avec bien entendu certaines limites strictes. Des logiciels du même style, avec action à temps differé et production de partitions, ont été developpés de façon continue depuis : par exemple, MusicTeX (une bibliothèque pour le langage de composition de documents TeX), et Lilypond (Nienhuys et al., 2003). Ce dernier à aussi une interface graphique, denommée « denemo », mais le système agit surtout en temps differé. Il existe cepandant des systèmes qui montrent immediatement une representation graphique de la partition; les logiciels experimentaux et commerciaux, tels que Mockingbird (Maxwell et al., 1984), Finale et Sibelius ont souvent cette capacité. Nous soulignons dans cette catégorie surtout Igor Engraver (Terenius et al., 2002), car celuici est écrit entièrement en Common Lisp (voir section 6). Il ne faut pas mélanger les logiciels adaptés à l'origine à la production de partitions et ceux qui servent surtout à la production de musique, comme par exemple les séquenceurs MIDI. Les logiciels Cubase et Rosegarden (Cannam et al., 2008) sont plutôt de cette catégorie; bien qu'ils puissent produire les partitions, celles -ci sont en général de qualité moindre que celles produites par les logiciels de gravure. Il y a aussi de nombreux logiciels adaptés à l'analyse de musique ou à la composition algorithmique. Une liste complète serait trop importante, mais nous voulons souligner l'existence de plusieurs environnements de ce genre écrit en Lisp, par exemple les langages de programmation visuels Patchwork (Laurson, 1996) et OpenMusic (Agon et al., 1999) de l'IRCAM, et le langage de traitement de signaux musicaux Common Music (Taube, 2004) de Stanford. La première version du logiciel était écrite en Tcl/Tk en 1994 par un groupe d'étudiants à l'université Bordeaux 1. Cette version nous a permis une évaluation des méthodes d'interaction, et suite à cette évaluation, une deuxième version, également en Tcl/Tk a été réalisée dans le cadre d'un stage de fin d'études. Le problème principal de l'utilisation d'un langage de « script » comme Tcl/Tk est que la performance risque de ne pas être satisfaisante. La solution proposée par des défenseurs de ce type de langages est d'écrire les modules importants en utilisant un langage permettant la génération de code natif et efficace comme le C, et de réserver le langage de « script » pour « coller » ces modules et pour personnaliser l'application. C'est une belle théorie, mais qui marche beaucoup moins bien en pratique, surtout pour des applications comme Gsharp ou la performance est assez importante. L'un des problèmes est la mise au point du programme. Le mélange de plusieurs langages donne un logiciel assez difficile à maîtriser. Un autre problème est la nécessité d'écrire de grandes quantités de code en utilisant un langage d'un niveau relativement bas (comme le C) qui n'est pas très économique en ce qui concerne le temps de développement. Nous avons donc cherché un autre langage. Ainsi, plusieurs versions de Gsharp ont été développées en Scheme. À l'époque, il y avait très peu de systèmes Scheme libres permettant la génération efficace de code natif, ce qui nous a donné essentiellement les mêmes problèmes que Tcl/Tk avec un mélange entre du code Scheme et du code C. De plus, Scheme nous a posé d'autres problèmes, comme le manque de système de programmation par objets normalisés. Chaque implémentation du langage proposait différents systèmes, nécessitant une dépendance non souhaitée d'une implémentation particulière. Cette dépendance est particulièrement gênante lorsque la survie de l'implémentation du langage n'est pas garantie, ce qui est souvent le cas d'implémentations libres. Un autre problème était l'absence de bibliothèques normalisées pour la programmation d'interfaces graphiques pour le langage Scheme. À cause de ces nombreux problèmes de choix du langage, nous avons cherché une autre solution. Ainsi, en 1998, nous avons écrit la première version en Common Lisp. À l'époque, alors que les implémentations commerciales de Common Lisp avaient des bibliothèques très complètes pour la réalisation d'interfaces graphiques, ce n'était pas le cas des implémentations libres. La seule bibliothèque normalisée pour ces implémentations était CLX, une bibliothèque que l'on peut décrire comme la version Lisp de la bibliothèque Xlib écrite en C pour le système de fenêtrage X11. C'est une bibliothèque de très bas niveau permettant la présentation de texte et d'objets graphiques simples, mais ne contenant pas les éléments d'une interface graphique moderne comme des boutons, des menus, etc. Pourtant, une norme, appelée Common Lisp Interface Manager (CLIM) (McKay et al., 1994) existait pour une bibliothèque très sophistiquée permettant la création d'interfaces graphiques pour une grande diversité d'applications. Cette norme avait même plusieurs implémentations, mais toutes commerciales. C'est pourquoi en 2000, nous avons suspendu le développement de Gsharp afin de réaliser une version libre de la norme CLIM. Le résultat est le logiciel McCLIM (Strandh et al., 2002) contenant actuellement environ 100 000 lignes de code Lisp. Le développement de Gsharp redémarrait graduellement en 2002 avec la conversion de son interface graphique vers CLIM et plus sérieusement en août 2003 avec l'implémentation de plusieurs composants-clés du logiciel actuel. Depuis 2003, nous avons rajouté un système de rendu des polices de caractères musicaux permettant la publication de partitions sur le web sous la forme de pages HTML. Un projet Google « Summer of Code » nous a permis le rajout d'importation et d'exportation de fichiers MusicXML, et un grand nombre d'autres améliorations ont également été effectuées. Actuellement, Gsharp est très utilisable, mais un grand nombre de notations doit être rajouté afin que le logiciel puisse être utilisé par un public très large. Nous n'envisageons pas de modifications radicales de la structure interne du logiciel, et le rajout de ces notations devrait être possible par des personnes sans connaissances profondes de l'architecture interne du logiciel. Plusieurs décisions fondamentales concernant la méthode principale d'interaction ont été prises très tôt dans le projet. Une classification utile des méthodes de saisie (Byrd, 1984, chapitre n° 3) divise les systèmes entre ceux considérés comme « temps réel », où l'on joue une voix d'une partition, souvent sur un clavier MIDI et des systèmes « temps non réel », similaires à un logiciel de traitement de texte. Cette même classification divise également les systèmes entre ceux qui traitent la hauteur réel des notes et ceux qui traitent la hauteur de notes comme étant symbolique. Pour Gsharp, nous n'avons pas encore envisagé une méthode d'interaction en temps réel, car cela augmente considérablement la complexité de l'interprétation des rythmes (quantisation, calcul des mesures). Sans interaction en temps réel, un clavier MIDI n'améliore pas considérablement la productivité. Par conséquent, nous avons décidé de réaliser un système qui traite la hauteur des notes comme étant symbolique. Finalement, nous avons décidé, pour des raisons de productivité de l'utilisateur, que l'intéraction se ferait principalement par le biais d'un clavier d'ordinateur ordinaire, plutôt qu'en employant une souris. On peut croire que l'utilisation d'une souris soit plus judicieuse, car elle permet très facilement à l'utilisateur d'indiquer une position dans la partition. Mais la position indiquée est une position physique par rapport à la mise en page de la partition, alors que ce qui est souhaité est une position dans la structure de donnée abstraite qui représente la partition de manière logique plutôt que physique. Le problème ici est qu'une position physique peut correspondre à plusieurs positions logiques ce qui complique l'utilisation d'une souris. Par exemple, si une portée contient deux voix, une position physique (position verticale et horizontale du pointeur) quelque part dans cette portée est ambiguë, car il est impossible de déterminer la voix souhaitée. Une position logique, par contre, contient la voix souhaitée ainsi que la position actuelle dans cette voix. Afin que l'utilisation d'un clavier soit pratique, il faut que la position logique soit déterminée autrement que par une indication explicite à chaque interaction, comme c'est le cas d'une souris. La solution traditionnelle de ce problème, et également adoptée par Gsharp, est d'introduire la notion de curseur. Un curseur est une position logique dans la structure abstraite représentant la partition. Toute opération est effectuée par rapport à cette position logique, et chaque opération doit indiquer non seulement l'effet sur les objets de la partition, mais également la modification éventuelle de la position du curseur. De plus, il est nécessaire de fournir des opérations dont le seul but est de modifier la position du curseur, sans modifier le contenu de la partition. Dans la version actuelle de Gsharp, les interactions ressemblent à celles de l'éditeur de texte Emacs (Stallman, 1985). Le déplacement du curseur à l'intérieur d'une voix se fait donc avec les raccourcies C-f et C-b. Afin de générer une suite d'accord chacun contenant une seule note, il suffit de taper une lettre pour chaque note correspondant à son nom anglo-saxon : c, d, e, f, g, a, b. Afin de rajouter une note à l'accord derrière le curseur, la même note est tapée en majuscule. D'autres opérations, mois fréquentes, nécessitent que l'utilisateur tape le nom complet de la commande (précédé de M-x comme pour Emacs). C'est notamment le cas pour les commandes dont le but est la modification globale de la partition, comme le rajout d'une portée ou d'une voix. Ces commandes et raccourcis sont entièrement personnalisables : voir la section 7 pour plus de précision. Un avantage considérable de l'utilisation d'un clavier plutôt qu'une souris, et c'est en effet l'une des raisons principales de cette décision initiale, est la possibilité d'avoir des macros clavier (Stallman, 1985; Strandh et al., 2007). Une macro clavier est une suite de touches enregistrée dont l'exécution peut être répétée autant de fois que nécessaire; ceci permet à l'utilisateur d'automatiser des tâches répétitives sans programmation nécessaire. Un exemple d'une tâche considérablement simplifiée grâce aux macros clavier est la saisie d'une mélodie avec un rythme complexe mais régulier, comme l'Humoresque d'Antonín Dvořák. La manière la plus directe de saisir une telle mélodie nécessite une modification de la durée de chaque note, soit une opération supplémentaire pour chaque note saisie. Grâce aux macros clavier, l'utilisateur peut commencer par saisir les notes sans tenir compte de la durée (figure 2, partie 1), puis remettre le curseur au début de la partition et créer un macro clavier qui change les durées des deux notes suivantes avec la suite de touches « C-x (C-f ]. C-f [[ C-x) » (figure 2, partie 2). Cela accompli, pour changer les durées des vingt-deux notes suivantes il suffit de répéter le macro clavier onze fois, avec « C-u 1 1 C-x e » (figure 2, partie 3). Un aspect de Gsharp qui surprend souvent les nouveaux utilisateurs du logiciel est qu'il permet à une mesure de contenir n'importe quelle suite d'événements musicaux, sans tenir compte de la durée totale de ces événements. Il peut paraître normal pour un logiciel de ce type de vérifier la correspondance entre la durée des mesures de la partition et le mètre du morceau en question. En fait, ce n'est pas une bonne idée. D'abord, une telle vérification serait inutilisable pendant la création de la partition, où l'utilisateur aura besoin de créer de nouvelles mesures et de modifier le contenu de mesures existantes, ce qui crée souvent des situations temporaires où la durée d'une mesure peut ne pas être correcte. On pourrait alors envisager deux modes différents; un mode édition où aucune vérification n'est faite, et un mode finalisation où les mesures sont vérifiées. Mais il existe de nombreux exemples de partitions réalisées par des professionnels qui ne respectent pas le mètre du morceau. Il faut donc que le logiciel (comme Nightingale 1) permette la création de partitions de ce type sans les rejeter. La structure logique d'une partition de musique est très compliquée, puisqu'il y a beaucoup de niveaux d'opérations, et ce n'est que rarement qu'un objet graphique représentant un objet musical soit logiquement placé dans une simple hiérarchie. Par exemple, les notes sont souvent (mais pas toujours !) associées à une voix, créant ainsi une structure « horizontale » ou temporelle. En même temps, les notes sont réunies dans des éléments « verticaux » ou simultanés. Un autre exemple est que les notes de plusieurs voix peuvent figurer sur une seule portée simple, mais les notes d'une seule voix peuvent également figurer sur plusieurs portées, à la fois simultanément et séquentiellement. (voir figure 3). Il n'y a donc pas de hiérarchie unique capable de décrire les relations que l'on souhaite pouvoir représenter dans une partition de musique, ce qui veut dire que la structure de données naturelle ne serait pas un arbre, mais plutôt un graphe. C'est surtout pour cette raison que les systèmes de sérialisation tels que **kern (Huron, 1997) et MusicXML (Good, 2001) ont des difficultés à exprimer même des exemples relativement simples avec des voix non continues, à savoir qui apparaissent et disparaissent dans le temps. MusicXML, par exemple, introduit des marqueurs <forward> et <backward> pour pouvoir faire référence aux événements hors séquence, tandis que **kern est incapable de représenter des partitions contenant des voix de ce type. C'est pour cela que nous avons choisi une structure de données, visualisée dans la figure 4 avec la possibilité explicite de représenter plusieurs hiérarchies simultanées. Une partition entière est représentée par un objet de type « buffer », qui contient plusieurs objets de type « segment », censés représenter une section logique. Chaque segment a trois objets de type « slice », dont un pour la majorité du contenu (les deux autres pour des cas speciaux de début et fin de section). Chaque objet de type « slice » contient en ensemble objets de type « layer » ou voix. Ces objets contiennent chacun une séquence d'objets de type « bar ». Ici un objet de type « bar » représente un point de synchronisation, plutôt qu'une mesure physique avec une durée fixe (voir section 3.3). Finalement, chaque objet de type « bar » contient une séquence d'objets de type « element » avec une durée temporelle (qui peut être zéro, par exemple pour les changement d'armature). Les hierarchies multiples se voient dans la figure 4 quand on considère les objets « staff » (portées) et leur association aux « elements » et « notes » : comme précisé au-dessus, les notes d'un accord peuvent être sur plusieurs portées, donc les éléments qui representent les notes ne sont pas sur une portée du tout. Les éléments comme les changements d'armature, par contre, sont par définition associés à une portée unique, et donc mantiennent un lien pour démontrer cette association. Pour sauvegarder les partitions répresentées en memoire par cette structure de données, nous utilisons une facilité presente dans le langage Common Lisp (voir section 6) qui permet d'ecrire en format textuel une représentation des structures de données arbitraire, y compris les structures cycliques, et puis de reconstruire une strucure isomorphe en lisant le même texte. On ne perd donc aucune information en passant par le texte; par contre, il nous faut faire un peu d'effort pour assurer la compatibilité des nouvelles versions du logiciel avec les anciens formats; avant l'émission de la structure de données même, Gsharp écrit un identifiant de version, qui permet eventuellement de construire un objet compatible avec la version courante du logiciel. Afin qu'un logiciel comme Gsharp soit perçu comme rapide par l'utilisateur, il est essentiel que des interactions simples et fréquentes aient un effet immédiat sur le résultat visible. Voici une liste partielle d'opérations que nous considérons comme « simples » : l'insertion ou la suppression d'une note ou d'un accord; la modification de la hauteur d'une note dans un accord existant; la modification d'une altération d'une note existante; la modification de la durée d'une note existante ou d'un accord existant; l'insertion ou la suppression d'une barre de mesure; l'attachement ou le détachement d'une suite d'accord par une barre de croche. Par contre, certaines opérations sont déjà perçues par l'utilisateur comme étant « complexes », et ce dernier s'attend à un certain délai pour que l'effet d'une telle opération soit visible. Voici une liste partielle d'opérations que nous considérons comme « complexes : la modification de la tonalité d'un morceau; la transposition; l'exécution d'une macro clavier agissant sur une grande partie de la partition. Ces opérations sont complexes, car elles peuvent potentiellement influencer la présentation de la totalité de la partition. Conceptuellement, Gsharp doit, après chaque interaction, exécuter les étapes suivantes afin d'obtenir une présentation finale de la partition : les mesures de chaque voix doivent être alignées afin d'obtenir la suite de l'ensemble des mesures de la partition entière; les événements musicaux dans chaque mesure doivent être alignés selon leur durées; la place occupée par chaque mesure doit être calculée; en fonction de la place de chaque mesure, la partition doit être découpée en pages et souvent en systèmes à l'intérieur de la page; la mise en page des pages visibles doit être effectuée; les pages visibles doivent être affichées. Étant donnée que Gsharp a été conçu pour traiter des partitions de très grande taille (des centaines de pages), il faut clairement éviter la vaste majorité de ces calculs pour des interactions simples, afin d'obtenir une performance raisonnable. Afin d'éviter les trois premières étapes dans la plupart des cas, nous avons introduit un découpage de la partition en sections. Les mesures de chaque section sont alignées séparément. Ainsi, l'insertion ou la suppression d'une barre de mesure n'influence que la section actuelle. Ceci correspond clairement à la façon dont l'utilisateur conçoit une partition, dans le sens qu'une modification locale de ce type ne doit pas influencer une partie de la partition éloignée de plusieurs dizaines de pages. Par contre, nous cherchons toujours une méthode d'interaction permettant l'utilisation commode de ces sections. Pour le découpage en pages et en systèmes, nous avons inventé un algorithme basé sur la programmation dynamique (Cormen et al., 1990, chapitre n° 16). Essentiellement, chaque découpage possible de la partition en page est stocké. En modifiant l'algorithme traditionnel de la programmation dynamique pour le rendre bi-directionnel, à chaque itération il suffit de recalculer une petite zone (de la taille d'une page environ) autour du lieu d'édition. De plus, par la nature d'une partition, il est possible d'éviter la zone à considérer pour le calcul optimal du découpage, ce qui nous donne un calcul souvent en temps constant pour des interactions simples. Après le découpage en pages de la partition, on ne doit traiter que les pages visibles. Ce traitement consiste à calculer la position exacte de chaque caractère musical sur la page. Nous utilisons pour cela un algorithme similaire à celui utilisé par l'éditeur de partitions Lime (Blostein et al., 1991; Blostein et al., 1994). Étant donné que peu de pages sont visibles simultanément, ce calcul est assez rapide bien qu'il puisse paraître complexe. Finalement, l'affichage d'une page visible est une simple question de parcours des caractères de celle -ci et, pour chacun, d'afficher un caractère à la position calculée pendant l'étape précédente. Dès le début, nous avons voulu une qualité de la présentation la plus haute possible, à la fois lorsque la présentation est faite sur un écran de relativement faible définition et lorsque la partition est imprimée. La difficulté principale est d'obtenir une présentation acceptable à l'écran. Pour cela, nous avons d'abord décidé que des symboles ayant essentiellement des lignes droites verticales ou horizontales doivent être présentées avec un nombre entier de pixels. Ceci afin d'éviter des lignes trop floues générées par un système d'anticrénelage. Puis nous avons voulu maintenir les proportions de chaque symbole musical le plus possible, afin de permettre à l'utilisateur de zoomer la partition en maintenant sa forme générale. Finalement, nous avons voulu aligner les côtés de certains symboles habituellement attachés comme la tête et la queue d'une note et la queue de note et le drapeau. Toutes ces contraintes nécessitent des restrictions assez complexes sur le nombre de pixels et le type de police de caractères à employer. En particulier : la largeur d'une tête de note doit être 1,5 fois la distance entre deux lignes de portée. Pour des raisons d'alignement de la tête de note avec la queue de note, cette valeur doit être entière. Cela implique une distance entre deux lignes de portée paire. Étant donnée la taille de certains symboles comme le point, la plus petite distance entre deux lignes de portée est 6 pixels; l'épaisseur d'une ligne de portée doit être un nombre entier de pixels, mais elle peut être paire ou impaire. Cette parité influence les points de contrôle de l'ensemble des caractères musicaux employés; une ligne de portée et une ligne supplémentaire n'ont pas forcement la même épaisseur (la ligne auxiliaire est un peu plus épaisse que la ligne de portée), mais la parité de cette épaisseur doit être la même afin que le même symbole de tête de note puisse être utilisé dans les deux cas. En pratique, cela veut dire que pour des définitions qui sont d'actualité pour un écran, les deux ont la même épaisseur, alors que pour une imprimante de haute définition, il peut y avoir une différence de quelques pixels; il existe d'autres considérations similaires, mais souvent plus simples à gérer. Par exemple, l'épaisseur d'une queue de note est légèrement plus faible que celle d'une ligne de portée, mais cette fois -ci, la parité n'a pas d'importance. Par contre, son épaisseur influence la position horizontale relative entre une tête de note et un drapeau attaché à l'autre bout de la queue. Afin de répondre à toutes ces contraintes, nous avons dû abandonner les systèmes de rendu et les polices de caractères existants en faveur d'un système propre à Gsharp similaire à Metafont (Knuth, 1986), sauf que les glyphes sont calculés à la volée avec comme paramètre la distance entre deux lignes de portée. Ce système, qui sera élaboré dans la section 5, nous permet de positionner chaque ligne de contrôle très précisément, au prix de la nécessité de créer nos propres polices de caractères musicaux. L'algorithme de mise en page doit tenir compte de ces contraintes : la position horizontale d'un accord doit toujours être un nombre entier de pixels. Cela influence un nombre d'autres algorithmes comme le calcul de la pente des barres de croches et la longueur des queues de notes. Ces calculs doivent donc être faits dans le bon ordre afin d'éviter des défauts d'alignement des symboles. Un avantage considérable de notre système de polices de caractères est la possibilité de convertir une partition à plusieurs formats différents assez facilement et sans perte de qualité. Ceci est dû au fait que le système de polices de caractères génère des courbes de Bézier de degré 3. Le rendu de ces courbes peut être fait soit par Gsharp pour les convertir en pixels à l'écran, par une imprimante PostScript pour l'impression de la partition, par un navigateur web avec un plug-in Javascript, où par n'importe quel autre logiciel d'affichage capable de traiter ce type de courbes. Dans cette section, nous expliquons plus en détail notre système de création de caractères musicaux. Tous les systèmes modernes de création de polices de caractères permettent la modification dynamique de la taille des caractères selon la définition de la cible, que ce soit l'écran d'un ordinateur ou une imprimante. En ce qui concerne le système TrueType (Apple, 1996) par exemple, chaque glyphe contient deux parties. La première partie est un ensemble de chemins où chaque chemin est une suite de points de contrôle avec une courbe d'interpolation entre les points consécutifs. Pour cette partie, la définition de la cible est considérée comme très élevée. La deuxième partie est un programme dont le but est de déplacer les points de contrôle légèrement afin d'adapter leurs positions à une cible d'une définition particulière. Afin de permettre à une police TrueType d' être chargée dans n'importe quelle application, le programme est écrit grâce à un langage particulier dont le code est interprété par du code dans l'application. Cette technique est appelée « hinting » et elle est brevetée. Comme cela à été indiqué précédemment, afin d'obtenir une qualité optimale de la présentation d'une partition, nous avons besoin de calculer la forme de chaque caractère musical de manière très exacte. Un logiciel permettant ce type de calcul est Metafont, écrit par Donald Knuth pour la création de polices pour son logiciel TEX. Malheureusement, Metafont a été conçu avant la nécessité de modifier dynamiquement la taille des caractères dans un logiciel interactif. Ainsi, Metafont génère des fichiers bitmaps à partir de paramètres arbitraires comme la définition de la cible. L'utilisation de fichiers bitmaps de cette façon n'est compatible ni avec les besoins d'un logiciel interactif de mise en échelle des caractères, ni avec la performance requise. Pour des raisons différentes, TrueType et Metafont utilisent chacun un langage spécialisé pour la création de chemins. Dans le cas de Metafont, c'est un véritable langage de programmation avec la notion de structures de contrôle, de variables, d'abstractions sous forme de fonctions, procédures, macros, etc. L'utilisation d'un langage dynamique comme Common Lisp nous permet une autre possibilité, à savoir l'utilisation d'un langage enchâssé (Graham, 1993). Essentiellement, il est possible de réutiliser les fonctionnalités de base du langage hôte (ici Common Lisp) et de ne rajouter que la partie manquante sous la forme de syntaxe spécialisée pour la création de chemins. Ainsi, nous avons réimplémenté en Common Lisp la partie (relativement modeste) de Metafont permettant la description haut niveau des chemins et dont le résultat est un ensemble de courbes de Bézier. Ces courbes sont alors soit rendues directement par Gsharp à l'écran, soit utilisées pour générer du PostScript destiné à une imprimante, voire pour la création d'un programme HTML permettant ainsi la génération de pages web contenant des partitions avec la même qualité de présentation. Nous avons brièvement mentionné (voir sections 1 et 2) que Gsharp a été implémenté en Common Lisp et que nous utilisons la bibliothèque CLIM pour la partie interaction avec l'utilisateur. Dans cette section, nous traitons plus en profondeur les raisons de ce choix. Face à une tâche assez impressionnante comme l'implémentation d'un éditeur de partitions de musique, on aurait tendance à choisir un langage dont le code généré par un compilateur typique est le plus rapide possible afin d'éviter des problèmes de performance plus tard. Le choix est souvent un langage comme C++ ou éventuellement C. Afin de permettre la personnalisation du logiciel, il est alors souvent nécessaire de compléter le logiciel en introduisant ce que l'on appelle souvent un langage de script, typiquement un langage dynamique comme Python implémenté sous forme d'interpréteur. Pour le créateur du logiciel, un tel mélange de langages est souvent assez compliqué à mettre au point. Pour une société commerciale avec assez de moyens, cela ne pose pas trop de problème, mais pour une petite équipe de réalisation d'un logiciel libre, ce n'est pas forcement le choix optimal. Pour l'utilisateur sophistiqué souhaitant personnaliser l'application, avec une telle combinaison de langages, un choix difficile s'impose souvent : soit utiliser le langage script avec un risque de problèmes de performance, soit utiliser le langage de base, avec la nécessité de recompiler l'application pour chaque modification. Le choix d'un langage comme Common Lisp (Pitman et al., 1994) évite ces problèmes, car le même langage peut être utilisé comme langage de base pour implémenter l'application, et comme langage de script pour la personnaliser. De plus, il existe des implémentations de ce langage, par exemple SBCL (Newman et al., 2000), permettant la génération de code pratiquement aussi rapide que celui généré par un langage comme C ou C++ (Fateman et al., 1995; Verna, 2006). Comme nous l'avons déjà évoqué brièvement dans la section 2, nous avons choisi la bibliothèque CLIM (Common Lisp interface Manager) pour la partie de Gsharp concernée par l'interaction avec l'utilisateur, et plus particulièrement l'implémentation McCLIM de la norme CLIM. Ce choix nous donne un grand nombre d'avantages par rapport à d'autres bibliothèques similaires. D'abord, CLIM étant une norme indépendante avec plusieurs implémentations, Gsharp est plus facilement portable à d'autres systèmes Lisp avec une implémentation de CLIM. C'est le cas notamment des deux principales implémentations commerciales de Common Lisp, à savoir Allegro Common Lisp et LispWorks. Mais l'avantage principal est dans la conception de la bibliothèque CLIM et les services offerts au concepteur de l'application. En fait, CLIM est une bibliothèque très différente des bibliothèques plus traditionnelles du domaine, comme Qt, Tk, GTK, etc. Par la suite, nous allons expliquer brièvement ces différences. Habituellement, les bibliothèques d'interaction nécessitent que l'application soit structurée autour d'une boucle d'événements. Le style de programmation qui en résulte s'appelle programmation événementielle, ce qui signifie que l'application consiste en un certain nombre de traitants d'événements déclenchés par une action de la part de l'utilisateur comme l'appui sur une touche du clavier, ou l'utilisation d'un bouton de la souris pour activer un élément de l'interface graphique. L'inconvénient principal de ce style d'interaction est que les traitants sont exécutés dans l'environnement global du logiciel. Toute mémoire d'un contexte quelconque (comme l'événement précédent, ou un contexte censé modifier le résultat de l'action) doit être géré explicitement par l'application. CLIM contient bien évidemment également une boucle d'événements au plus bas niveau, mais une application typique ne s'en sert pas ou peu directement. Au-delà de cette boucle d'événements, CLIM propose une boucle de commandes. Cette boucle infinie exécute les étapes suivantes : acquisition d'une commande; acquisition des arguments de la commande; exécution de la commande avec les arguments. Ces commandes sont des fonctions Common Lisp augmentées avec l'étiquetage des paramètres par des types de présentation. CLIM propose une arborescence de types parallèle à celle de Common Lisp dont le but est d'associer à des éléments graphiques, comme les notes, accords, portés, clés etc. de Gsharp, l'un de ces types et un objet sous-jacent Common Lisp. Le code responsable de l'affichage d'un élément graphique n'indique pas directement les modalités d'interaction avec cet élément, mais uniquement son type de présentation. L'élément devient actif (cliquable) lorsqu'une commande doit acquérir un argument d'un type compatible. Ceci permet une modularité très poussée du code de l'application ce qui augmente également sa maintenabilité et la possibilité de la personnaliser. En outre, l'existense independente des commandes de CLIM, ainsi que le fait que la bibliothèque McCLIM ait une façon d'agir comme si il y avait des graphismes bien que sans les afficher, nous permet de faire opérer Gsharp en mode « serveur » : cela nous permet de visualiser rapidement les partitions en format MusicXML, ou bien produire une visualisation des accords 2 d'une representation conforme à l'ontologie musicale OMRAS2 3 (Raimond et al., 2007). Comme nous l'avons brièvement évoqué dans l'introduction, un objectif principal de Gsharp est la capacité d'adapter son fonctionnement selon les souhaits et les besoins d'un utilisateur sophistiqué. Dans cette section, nous élaborons plusieurs types de personnalisation déjà présents ou planifiés de Gsharp. L'algorithme de mise en page de Gsharp ignore la signification exacte des éléments musicaux à mettre en page. À la place, il se sert d'un protocole dans le sens de (Keene, 1988), dont le but est de : déterminer la durée de l'élément afin que des éléments simultanés puissent être alignés verticalement; déterminer les dimensions physiques de l'élément, afin de calculer la place requise sur la page; dessiner l'élément à sa place finale. Étant donné ce protocole, un utilisateur qui souhaite rajouter à Gsharp un nouveau type d'objet, peut facilement décrire ce dernier grâce à des classes et des méthodes pour implémenter le protocole. Par exemple, il est entièrement possible d'envisager la possibilité de rajouter des « sons » à Gsharp, où un son serait représenté par sa durée, par les dimensions d'un rectangle, et par un dessin classique sous la forme de signal temporel. Grâce au langage Common Lisp, ce type d'addition ne nécessite aucune modification au code existant, et peut être entièrement contenu dans un ou plusieurs fichiers propres à l'utilisateur. Le langage permet à la fois la génération efficace de code natif à partir de ces fichiers, et le chargement dynamique du code natif dans Gsharp. L'organisation interne de Gsharp se sert déjà de ce protocole, dans le sens que les objets de base comme les accords de notes, les paroles, etc., ne sont pas traités de manière particulière. Ils sont simplement écrits pour respecter ce protocole, ce qui donne une structure très modulaire au logiciel. Grâce à la bibliothèque CLIM, la structure d'une commande et éventuellement un raccourci associé sont contenus dans un objet appelé table de commandes. Un utilisateur souhaitant modifier l'association entre raccourci et commande est libre de le faire de manière modulaire dans un fichier privé, sans qu'il soit nécessaire de modifier le code propre de Gsharp. De manière similaire, un utilisateur peut créer ses propres commandes dans une telle table, permettant ainsi de nouvelles opérations non prévues par les développeurs. De plus, il est possible pour l'utilisateur de créer ses propres tables de commandes, et de personnaliser le contexte où une table est active. Cela permet notamment un ensemble de commandes différent pour différents types d'objets musicaux. Nous utilisons ce mécanisme en interne pour obtenir un jeu de commandes différent sur les paroles et sur les accords de notes. Encore une fois, grâce au langage Lisp, ces modifications ou rajouts peuvent être effectués sans aucune modification au code source du logiciel, et sans l'aide d'un langage scripte séparé du langage de base utilisé pour implémenter le logiciel. Il existe plusieurs écoles de gravure musicale. Les différences entre différentes écoles sont souvent mineures, mais les règles appliquées représentent un ensemble cohérent et il est vivement conseillé de ne pas mélanger différentes règles de différentes écoles. Un exemple représentatif est la pente des barres de croches. Dans l'école « européenne » la pente permise est beaucoup plus importante que la celle de l'école « américaine ». Alors que cette idée n'est pas encore implémentée dans Gsharp, nous avons l'intention de paramétrer un grand nombre de calculs de la mise en page par un objet style, permettant ainsi à un utilisateur de créer son propre style, ou de modifier certains aspects de l'un des styles fournis. Il manque actuellement à Gsharp plusieurs sortes d'éléments musicaux; la voie de développement la plus simple est d'ajouter ce dont on a besoin. Pour certains éléments, toute l'infrastructure codage est en place, mais il manque les glyphes (exemples : chiffrage de la mesure, ornements). Certains autres seront plus compliqués à introduire à Gsharp; les liaisons d'expression ou les nuances pour des ensembles de notes, mais leur inclusion est bien sûr nécessaire. Nous voulons ajouter à Gsharp les autres formes de notation musicale; en plus des portées pour les paroles et la percussion, nous avons déjà créé un logiciel pour la tablature de luth (Rhodes et al., 2005a) à partir d'un éditeur de texte (Rhodes et al., 2005b); incorporer la tablature, et aussi d'autres notations, les neumes par exemple, serait un objectif à relativement court terme. Les ornements, notes détachées et autres indications sur les notes suggèrent un mécanisme général pour ajouter les annotations, comme suggéré dans la méthodologie CHARM (Wiggins et al., 1993). Ceci va nous permettre de montrer toutes sortes d'informations, potentiellement extraites des analyses automatiques des enregistrements, sur une partition Gsharp. La bibliothèque McCLIM permet déjà l'exportation des partitions en format Postscript pour imprimer et HTML/Canvas pour publier sur le web; le développement de la bibliothèque permettera bientôt l'intéraction sur le web, utilisant les techniques AJAX pour la communication. Finalement, nous espérons ajouter les fonctions auxquelles on est habitué par les éditeurs de texte : par exemple, les commandes pour la recherche et remplacement (Byrd, 2001), éventuellement basées sur un système d'expressions régulières ou sur une autre notation .
Dans cet article, nous présentons Gsharp, un projet dont le but est la création d'un éditeur de partitions de musique traditionnelles. Le logiciel Gsharp est écrit en Common Lisp et utilise CLIM (Common Lisp Interface Manager) comme bibliothèque pour l'interaction avec l'utilisateur. De nombreux algorithmes et structures de données ont été inventés afin d'assurer une performance acceptable pour de simples interactions comme l'insertion ou la suppression d'une note ou d'un accord.
sciencesInfo_09-0255895_tei_DN_113_0009.tei.xml
termith-527-communication
UNE LECTURE RAPIDE ET PARTIELLE DES RÉSULTATS DE RÉCENTES ENQUÊTES a alarmé les professionnels et conforté l'idée largement répandue que le projet démocratique de bibliothèques publiques utilisées par tous est encore loin d' être atteint. En effet, la réalité constatée depuis soixante ans est que le public populaire n'est pas vraiment au rendez -vous. Le thème du congrès 2007 de l'Association des bibliothécaires de France a donné l'occasion de revenir sur certaines données, de les compléter par d'autres enquêtes et, surtout, de réfléchir à ce que l'on peut mettre en œuvre pour progresser en observant des expériences réussies. En restituant les résultats complets de l'enquête nationale du Centre de recherche pour l'étude et l'observation des conditions de vie (CREDOC), réalisée fin 2005 à la demande de la Direction du livre et de la lecture, Bruno Maresca a insisté sur l'information optimiste qu'elle nous livre : depuis vingt-cinq ans, la fréquentation des bibliothèques est indubitablement en hausse. Si tous les publics sont concernés, les jeunes le sont davantage encore que ne l'étaient les générations précédentes. Ce que, d'une autre façon, confirment les résultats de l'enquête menée par la bibliothèque universitaire de l'Université Paris-8 : les jeunes étudiants fréquentent le lieu. Et l'affirmation de François de Singly : « Ils lisent encore » semble rester vraie puisque ces mêmes étudiants seraient 95 % à lire les livres recommandés par leurs enseignants. Ce qui a changé concerne les usages et a fortiori les nouvelles attentes des utilisateurs des bibliothèques. Si le goût pour la lecture ne se dément pas et reste la raison principale de leurs visites, d'autres facteurs motivent fortement ces dernières, à commencer par l'attrait du lieu physique. À l'Université Paris-8 comme dans d'autres bibliothèques, on s'installe autant sinon plus que l'on ne consulte les documents mis à disposition, en moyenne pour trois ou quatre heures, et on consulte plus que l'on n'emprunte. Les services proposés sur place, tels que la recherche sur Internet, représentent un facteur supplémentaire d'attraction. Si certaines attentes sont exprimées, d'autres le sont moins. Les résultats de l'enquête menée par la Bibliothèque nationale de France (BnF) en 2006 sont à ce titre révélateurs. La consultation des ressources à distance suscite toujours beaucoup d'intérêt, de même que le « guidage » vers des œuvres sélectionnées et préconisées. Alors que, a contrario, si elle est majoritairement approuvée dans son principe, la mise à disposition d'une grande masse documentaire désoriente le lecteur qui avoue ne pas savoir quel usage en faire personnellement. Les raisons invoquées par les non-inscrits sont principalement les contraintes horaires, le manque d'intérêt des collections et l'austérité des lieux. De plus, les enquêtes révèlent que les bibliothèques souffrent d'un déficit de communication – des utilisateurs ignorent encore que les bibliothèques sont aujourd'hui en accès libre et ne connaissent pas l'étendue de l'offre qui y est proposée –, et par conséquent pâtissent aussi d'un déficit d'image. Les sessions Voici les sujets des interventions proposées lors des principales sessions de ce congrès. La teneur de plusieurs d'entre elles est restituée dans ce compte rendu. Les textes de toutes les communications proposées en sessions plénières et les synthèses des ateliers peuvent être consultés sur le site de l'ABF :. Les enquêtes de publics Les enquêtes de public en bibliothèques : l'exemple du SCD Paris-8. Julien Logre Étude sur les publics et les usages de bibliothèques du département de la Seine-Saint-Denis. Catherine Pollet, Bureau du livre au Conseil général Restitution des résultats complets de l'enquête CREDOC. Bruno Maresca Questions de méthodologie : petites et grandes enquêtes. Christophe Evans, BPI Enquêtes de notoriété et image des établissements L'image et la notoriété de la BnF : résultats de l'enquête menée en juin 2006. Romuald Ripon Quelles raisons pour brûler des livres ? Une étude exploratoire sur les violences faites aux bibliothèques de quartier. Denis Merklen, Université Paris-7 et EHESS La British Library : son image, ses publics et le Web. John Tuck Publics présents, publics absents Publics présents : quand les pratiques déroutent les professionnels. .. Elsa Zotian, EHESS Accueillir les absents. Anne-Marie Bertrand, ENSSIB Conquérir des publics. Jean-Christophe Michel, Agence Aymara Le Passe-Livre à la Médiathèque d'Albi. Matthieu Desachy Les nouveaux partenariats Les partenariats mis en œuvre par la Cité de la santé à la Médiathèque de la Cité des sciences et de l‘industrie. Tù-Tâm Nguyên Quels partenariats pour développer les services aux entreprises ? Pascal Sanz, BnF Bibliothèque municipale de Lille, Musée d'art moderne Lille Métropole : travailler autour d'un projet culturel commun. Didier Queneutte, BM de Lille Les usages à distance Les usages des bibliothèques numériques : de Gallica à Europeana. Catherine Lupovici, BnF Les usages à distance par les personnes handicapées. Alain Patez, BM de Boulogne-Billancourt Les outils et pratiques d'indexation sociale et les sites communautaires à vocation bibliothéconomique. Olivier Ertzscheid, Université de Nantes Les sites web des bibliothèques publiques nord-américaines. Réjean Savard, EBSI, Montréal Autour de l'offre Publics et politique documentaire : entre offre, demande et besoins. Lucie Daudin, Réseau Lecture publique de Plaine Commune Organisation intellectuelle et architecture des bibliothèques. Fabrice Papy, Université Paris-8 Le bibliothécaire, compagnon de route des enseignants. Annick Lorant-Jolly, CRDP de Créteil Mise en scène du livre et offre culturelle. Marc Guillon, association « Librairies complices », Nantes Rendez -vous international Maija Berndtson, Bibliothèque d'Helsinki Paolo Messina, Bibliothèque de Turin Gerard Reussink, BibliotheeK Gemeente de Rotterdam Et si l'on s'intéressait aux attentes de ce public, et particulièrement du public « perdu » – les 37 % de lecteurs inscrits qui ont un jour fréquenté une bibliothèque puis, faute d'y trouver les services qui leur convenaient, l'ont désertée ? C'est ce que propose Anne-Marie Bertrand, directrice de l' École nationale supérieure des sciences de l'information et des bibliothèques (ENSSIB), qui plaide pour la rédaction d'un nouveau cadre référentiel posant les bases d'une politique d'accueil et de fidélisation pour un public qui ne vient plus. Les bibliothèques ont l'avenir devant elles à condition qu'elles s'adaptent aux besoins des populations et à leurs situations. Selon Dominique Peignet, journaliste à Livres Hebdo, cité par Anne-Marie Bertrand, quatre critères décident le public à utiliser une bibliothèque : la gratuité, la proximité, l'accessibilité et la modernité. Pari réussi pour la Bibliothèque municipale de Lille qui s'est lancée dans l'ambitieux projet de collaborer, avec le Musée d'art moderne implanté à Villeneuve-d'Ascq, au montage d'une exposition mobilisant douze musées autour de leurs collections d'estampes. La bibliothèque a ainsi attiré un nouveau public parmi les 5.500 visiteurs venus voir « La Grèce des modernes » entre janvier et avril 2007. Et, si son investissement dans cette initiative reste modeste en soi puisqu'il consistait principalement à rédiger un catalogue et à accueillir l'exposition dans ses murs, il a porté en germe la décision de pérenniser le partenariat en organisant des actions communes telles qu'un cycle de conférences. Autre partenariat en cours : celui proposé par le département Droit, économie, politique de la BnF aux professionnels de l'entreprise. Ce service, dont l'ouverture est annoncée pour fin 2007 ou début 2008, s'adresse aux demandeurs d'emploi et aux créateurs d'entreprise. Il proposera une offre intégrée et diversifiée allant de la formation en atelier pour découvrir les ressources et outils documentaires du pôle PRISME (Pôle de ressources et d'information sur le monde de l'entreprise), qui leur est dédié, à l'accompagnement grâce à un référent dans le département concerné et à une identification dans le service questions-réponses SINDBAD. Comme de nombreux autres grands établissements, la BnF et la British Library ont fait évoluer leur offre pour permettre à leurs utilisateurs tous les modes de recherche, de découverte et de collaboration que l'on trouve dans le Web d'aujourd'hui. Les bibliothèques numériques doivent obligatoirement s'intéresser aux modes d'écriture et de structuration des sites massivement utilisés tels que Google, Amazon ou Wikipédia. La British Library a devancé sa consœur française. On accède désormais à son site Internet par un seul point d'entrée de type Google qui cherche dans dix mille pages web, treize millions de notices bibliographiques du catalogue, quatre-vingt-dix mille images et neuf millions d'articles de périodiques. Des blogs sont utilisés pour renforcer les liens avec les lecteurs dont une partie, les experts, est appelée à collaborer à des projets particuliers. Le programme « Turning the pages » permet de consulter virtuellement des manuscrits ou des livres imprimés. Le prototype de bibliothèque numérique européenne Europeana, développé par la BnF avec des outils open source et mis en ligne depuis mars 2007, présente un modèle centré sur les fonctions d'accès et d'utilisation des documents ainsi que sur l'utilisateur, et non plus sur les collections. Une seule interface de recherche dans les nombreuses collections intégrées des différentes bibliothèques nationales européennes permet trois modes de recherche : une recherche par mots dès qui devrait être efficace grâce à la richesse des données traitées; une recherche par thèmes et sous-thèmes, sur le mode découverte, qui s'appuie sur la classification Dewey revisitée par les facettes; et enfin une recherche plein texte. On permet aussi à l'utilisateur d'étiqueter des portions de documents à l'intention d'autres habitués qui préféreraient ce mode d'accès. L'évolution de la bibliothèque d'Helsinki, d'un modèle conventionnel vers une offre élargie à de multiples services culturels, est particulièrement intéressante. En 2002, cet établissement est dans la même situation que n'importe quelle autre bibliothèque : le nombre d'usagers est en diminution sensible, pendant que les emprunts arrivent tant bien que mal à se stabiliser et qu'explose l'utilisation du Web. Qu'offre -t-elle aujourd'hui ? Un service quasi continu, une ouverture 78 heures par semaine, des interfaces utilisateurs multilingues, des points d'accès pour les ordinateurs portables, une assistance informatique, des salles de musique, des salles d'édition audio et vidéo, du matériel informatique et des instruments à emprunter, des services d'édition tous supports, des cours d'édition. .. Bref, la bibliothèque Kirjasto10 d'Helsinki, dont le slogan adopté en 2005 est « Une bibliothèque sans limite, source l'information et de sensations tout au long de la vie », est un lieu où on peut utiliser, créer, présenter et publier la culture. La bibliothèque de Rotterdam est devenue le centre culturel et public de son quartier. Ouverte vingt-quatre heures sur vingt-quatre, c'est un centre tourné vers le livre mais aussi un lieu d'étude et un lieu de loisir qui possède son propre théâtre ouvert à tous et gratuit. Cette structure comprend six e-centres dans les annexes de quartier et dispose d'un centre d'études de plus de 180 places permettant de travailler sur des ordinateurs portables, connectés gratuitement à Internet. L'intérêt du public allant grandissant pour le renseignement et l'étude, on a déplacé les collections en réduisant la part des fictions et on a renforcé les liens avec les bibliothèques scolaires et universitaires. Dans les deux modèles exposés, les tâches du personnel ont changé. De nouvelles fonctions sont apparues. Le bibliothécaire s'est transformé en « instructeur du Web 2.0 », « organisateur d'événements », « assistant médi a », « animateur de réseau », et la liste n'est pas exhaustive. .. Aux États-Unis, les bibliothèques hybrides ont explosé. Un rapide coup d' œil sur les portails de quelques-unes d'entre elles donne un aperçu de la diversité des services virtuels qu'elles offrent aux côtés des services traditionnels maintenus et élargis à une gamme de nouveaux multiservices. Les bibliothèques publiques de New York, Cleveland, Chicago, Brooklyn, Queens, Denver, Los Angeles, Houston, Toronto sont représentatives de cette tendance désormais confirmée. Nul doute qu'elles ont pris en compte trois des sept thèmes clés identifiés par Lynne Brindley, directrice de la British Library, pour définir la bibliothèque du XXIe siècle : aller à la rencontre des publics, y compris des non-usagers, investir dans les innovations technologiques et numériques ainsi que dans les compétences du personnel. C'est assurément une gageure. Est -ce la bonne voie pour atteindre l'objectif que nous nous sommes fixé de voir en 2010 la moitié de la population fréquenter les bibliothèques ? La question reste entière. .. Plusieurs scénarios sont possibles : la hausse de la fréquentation après son reflux, selon le sociologue Bruno Maresca, ou l'accentuation de la fracture numérique, selon Réjean Savard. Trouver l'équilibre dans la transversalité par les nouvelles démarches adoptées par les bibliothèques est tout à la fois une nécessité et un pari sur l'avenir .
Le cinquante-troisième congrès annuel de l'Association des bibliothécaires de France (ABF) s'est déroulé à Nantes du 8 au 10 juin 2007. Centré sur le thème des publics, il a notamment permis de méditer les résultats de diverses enquêtes auprès des usagers, d'examiner de nouvelles formes de partenariats et d'innovations technologiques permettant aux bibliothèques de conquérir de nouveaux publics, et montré des exemples convaincants d'ouverture et d'"hybridation", conditions du développement et de la fidélisation de ces publics.
sciencesInfo_08-0149317_tei_DOCSI_idPAS_D_ISBN_pu2007-06s_sa04_art04.tei.xml
termith-528-communication
Les moteurs de recherche commerciaux sont à présent bien insérés dans l'environnementdes internautes dont ils constituent un pivot essentiel pour accéder àl'information. Ici, ce ne sont pas ces usages habituels des moteurs qui retiennentnotre attention mais les cas particuliers où les moteurs sont exploités à des finsludiques ou parodiques. Aborder l'analyse d'un moteur de recherche à partir desapplications ludiques qu'il suscite peut sembler anecdotique. Pour tant, le jeu estune activité essentielle pour analyser l'évolution des cultures et des civilisationshumaines. Johan Huizinga (1951 : 31) définissait le jeu comme « une action libre ,sentie comme “fictive” et située en dehors de la vie courante, capable néanmoinsd'absorber totalement le joueur; une action dénuée de tout intérêt matériel et detoute utilité; qui s'accomplit en un temps et dans un espace expressémentcirconscrits, se déroule avec ordre selon des règles données et suscite dans la viedes relations de groupe s'entourant volontiers de mystère ou accentuant par ledéguisement leur étrangeté vis-à-vis du monde habituel ». Depuis, certains auteursont remis en cause l'inutilité des jeux (Cotta, 1993) et le développement actuel desserious games en témoigne. Le fait que les moteursdeviennent le support ou le matériau premier de jeux montre à quel point cesservices sont désormais intégrés dans l'environnement de l'internaute. Leur objetpremier – permettre de (re)trouver une information en ligne – n'est désormais plusle seul. Notre propos n'est pas d'étudier les pratiques de ces jeux mais d'analyser cesapplications et, notamment, ce qu'elles donnent à voir de l'imaginaire créé autourdes moteurs. Pour réaliser cette étude, nous avons effectué des recherches en ligneà partir de moteurs différents et nous sommes appuyés sur une veille des blogs etsites dont les moteurs de recherche constituent un sujet sinon principal, du moinsrécurrent. Nous ne prétendons pas à l'exhaustivité quant au corpus d'applicationsrecensées, la méthode de collecte des données ne permettant pas d'atteindre cetobjectif. Nous avons sélectionné quelques applications ludiques qui font l'objet desites propres ou sont intégrées à d'autres sites et qui nous ont sembléintéressantes à étudier, notamment du fait de leur pérennité. Il se trouve queGoogle est le support et la cible privilégiée de ces usages ludiques. La notoriétédu moteur commercial y est sans doute pour quelque chose, mais est -ce la seuleraison ? Dès sa création, Google a su faire la différence avec les autres moteursgrâce aux algorithmes originaux sur lesquels repose son fonctionnement : plutôt quede se contenter d'analyser les occurrences de mots présents dans les pages, ilsprennent en compte les citations dont elles font l'objet, ce critère supplémentairepermettant de discriminer les contenus collectés dans le classement des résultats .Pour des raisons de concurrence commerciale, le secret est soigneusement entretenusur les détails de ces algorithmes, ce qui fournit un terrain favorable poursusciter commentaires, rumeurs et expérimentations. La seule notoriété d'uneentreprise ou d'une marque est susceptible d'en faire une cible privilégiée aussibien de la part de fans que de détracteurs. Dans le cas de Google, nous avançons quecette popularité n'est pas l'unique raison qui suscite la création de jeux autour dumoteur. Un certain « esprit du jeu » est en effet perceptible dans l'interface del'outil et dans la stratégie de communication de la firme. Les imitations del'interface de Google sont aussi nombreuses, qu'il s'agisse d'emprunter l'apparencede sa célèbre page d'accueil ou de la parodier. Ce principe d'imitationincite, dans un premier temps, à étudier l'interface de Google dont nous verronsqu'elle fait de subtiles références au jeu et y appelle de multiples manières. Dansun second, nous étudions quelques jeux créés par et autour du moteur pour tenter d'ydéceler les préférences qu'ils affichent, la façon dont ils prolongent ou détournentles usages, ou encore les croyances ou tribunes qu'ils reflètent et qui constituentautant d'indices d'une certaine culture (Caillois, 1958 : 162-163). Cette analyse porte essentiellement sur deux pôles : un pôle symbolique –la représentation que le jeu donne à voir et l'engagement demandé au joueur àtravers les règles prescrites – et un pôle utilitariste– les stratégies possiblespour atteindre les objectifs. Contrairement à ses concurrents qui affichaient sur leurs pages d'accueilbeaucoup d'informations et des bannières publicitaires clinquantes, GoogleInc. a choisi pour son moteur une page d'accueil dépouillée, souvent citée comme un exempleréussi d'ergonomie. La partie centrale de l'écran – celle qui permet delancer une recherche d'information – forme une pyramide dont chaque étageest constitué d'éléments d'interaction différents : une fenêtre pour saisirle texte recherché, deux boutons pour lancer la recherche (« rechercheGoogle » et « j'ai de la chance »), trois boutons radio pour le choix ducorpus (web, pages francophones, pages France). Le logo de la sociétésurplombe cette pyramide. L'agencement de ces éléments pose la recherched'information comme service phare de la société, les services de publicitéou d'applications pour les entreprises étant relégués en bas de page sousforme de liens discrets. Selon John Batelle (2005 : 109), les fondateurs deGoogle Inc. ont été longtemps réticents vis-à-vis de la publicité etattachés à préserver la « pureté originale » du moteur. C'est exactement cequ'annonce la page d'accueil du moteur de recherche : une interface pure etsimple, sans fioriture, dont la transparence invite l'internaute à entrer .Mais cette simplicité n'est qu'apparente, tout comme le modèle économiquesous-jacent rend, par définition, impossible la transparence de sonfonctionnement intrinsèque. Le logo officiel de Google a peu changédepuis la création du moteur commercial en 1998. Il occupe une placeimportante dans la page d'accueil, à la fois par sa position et sa surface .Il reprend le nom du moteur en lettres arrondies, légèrement soulignées parune ombre grisée, où se succèdent les couleurs primaires, interprétées demanière vive et saturée. Ces couleurs donnent au logo un air familier : cesont celles des briques de base du jeu de Lego, celles -là même qui étaientutilisées pour assembler les disques destinés au stockage des données de Back Rub, l'ancêtre du moteur. Le rappeldiscret du jeu de construction fait écho à l'architecture modulaire dumoteur, tant du point de vue logiciel que matériel, mais plus encore à celledu dispositif sous-jacent qui est intimement lié aux conventions de lapublication en ligne. Ce logo possède une particularité : Google Inc. le met périodiquement enscène avec ses « logos de fêtes » (les doodles) ,des logos événementiels qui viennent remplacer le logo officiel sur la paged'accueil en diverses occasions. Le logo est un élément important del'identité d'une marque. Normalement, c'est un élément visuel mis en scèneavec précaution pour ne pas brouiller l'image de la marque ou del'entreprise. Dans le cas de Google, force est de constater que le logo estau centre d'un jeu. Quelle est la nature de ce jeu et quel est son rôle dansla stratégie de communication de la firme ? Les premiers doodles étaient rares, mais dès 1998, année de création de lacompagnie commerciale, deux événements ont eu l'honneur de ces changementsde logos : Thanksgiving (le moteur n'existait alorsqu'en version américaine) et le festival Burning Man .Selon le blog du dessinateur des doodles, les deux concepteurs deGoogle avaient ainsi trouvé le moyen de signaler aux personnes averties leurabsence de leurs bureaux. Rencontre musicale et artistique, ce festivalannuel promeut l'improvisation et affiche dix principes7 : l' « inclusionradicale », le don, l'exclusion de toute activité ou promotion commerciale ,la responsabilité personnelle et civique, l'entraide communautaire, lerespect de l'environnement, la participation et l'expression immédiate. Enmêlant l'image de l'entreprise aux valeurs affichées par cettemanifestation, Sergey Brin et Laurent Page inauguraient une forme decommunication atypique. Par la suite, les changements de logos se sontproduits pour des événements plus convenus : fêtes de fin d'année, fête desmères et des pères, Saint-Valentin. On pourrait penser qu'il s'agissait làpour l'entreprise de manifester une forme d'empathie avec l'internauteautour de fêtes populaires. L'esprit civique est mis en exergue le mardinovembre2000 avec une incitation au vote pour les élections présidentielles auxÉtats-Unis. À partir de 2001, Google s'internationalise et les fêtesnationales de différents pays commencent à être honorées. En novembre, lepremier hommage à un peintre est rendu à l'occasion de l'anniversaire deClaude Monet. En 2002, c'est celui de la création de la firme qui estcélébré pour la première fois, une façon supplémentaire de doter la marqueGoogle d'une personnalité. Désormais, le logo allait se transformer plusfréquemment à l'occasion de grandes compétitions sportives, decommémorations d'événements ou d'anniversaires de personnalités culturelles ,scientifiques ou artistiques. Quelques causes politiques sont aussiinvesties : la journée internationale de la femme, le jour de la terre ou lajournée mondiale de l'eau. Le spécialiste de marketingpeut voir là un exemple original de valorisation utopique de l'image de lamarque par laquelle la firme de Mountain View affiche ses valeursexistentielles (Floch, 1990) : un certain civisme, la famille, le progrèsscientifique et technologique, la création artistique et l'innovation, lapréservation de l'environnement. Grâce à ces logos « culturels », le moteurse pose en protecteur des arts et des sciences, des valeurs civiques etenvironnementales. Le plus souvent cliquables, les doodle s permettent de lancer une recherche sur l'événementcommémoré. Une forme de communication événementielle originale qui, captantl'attention de l'internaute, opère une sorte de clôture de son mondeinformationnel, puisqu'il est redirigé vers des contenus sélectionnés parles algorithmes du moteur. En travestissant le logo de manière épisodique ,les doodles apportent un peu d'étrangeté à uneinterface devenue familière à des millions d'internautes. Par son caractèreépisodique et aléatoire, chaque modification de la stabilité de l'interfacecrée un micro-événement qui sera signalé et discuté sur les blogs et dansles forums, ainsi que dans la presse en ligne. Les doodlesévitent l'ennui que pourrait provoquer, à la longue, l'interfacestandard tout en préservant la continuité. Éviter l'ennui, n'est -ce pas l'undes rôles essentiels du jeu ? Le logo officiel et les doodles ne sont pas les seulesréférences au jeu que l'on peut trouver dans l'interface de Google. Autrespécificité, le bouton « J'ai de la chance » qui conduit directementl'internaute à la page classée en tête– celle qui, selon le discours del'entreprise, « correspond à 110 % à votre requête » – sans passer par la page de résultats dumoteur. Affichage de la confiance suprême des concepteurs en leurapplication, défi aux difficultés de classer les pages web ou clin d' œil àun jeu de poker, ce bouton réserve effectivement quelques surprises .Certaines sont conçues par Google Inc. même, d'autres par des internautesbricoleurs. Par exemple, le bouton permet d'atteindre des interfacesalternatives du moteur dans des langages improbables, grâce à des requêtesqui commencent par « xx+ ». Cette syntaxe rappelle celle des codes de trichedes jeux vidéo qui permettent d'accéder directement à certains niveaux dejeu ou d'obtenir des avantages particuliers. Ainsi la requête « xx+bork »lancée avec le bouton « J'ai de la chance » mène -t-elle à une reproductionde la page d'accueil du moteur en langage « bork » ,sorte de retranscription écrite de l'anglais parlé avec un accent suédois. Celangage transforme toute page sérieuse en divertissement. La requête« xx+l33t » amène à une interface en langage leetspeak, langage hacker où les caractèresalphanumériques sont remplacés par leur valeur en ascii. Un certainnombre de pages satellites sont aussi « traduites » en ces langages. Parmiles autres langues étranges, on peut citer l ' Elmer Fudd( du chasseur qui pourchasse Bugs Bunny ou Daffy Duck dans les Looney Tunes de Warner Bros.), le klingon (langue des extraterrestres de la série Star Trek) ou le « latin de cuisine » qui concurrence l'interfaceen latin académique. Àses débuts, Google Inc. avait lancé un appel à la collaboration desinternautes pour traduire l'interface du moteur en d'autres langues quel'anglais (projet Google in your language). Cet appela été entendu et la diversité des langues et dialectes désormais proposésdans les préférences du moteur est impressionnante. De nombreux internautespeuvent désormais utiliser le moteur tout en y retrouvant une marque deleurs références culturelles, qu'elles soient traditionnelles ouéclectiques. Autre type de surprise réservée par le bouton « J'ai de la chance », desrésultats inattendus sur certaines requêtes. La possibilité d'atteindredirectement grâce à ce bouton une page cible a suscité des imitations despages de résultats. Ainsi la requête « Find ChuckNorris » (« trouver Chuck Norris ») retourne -t-elle une imitationd'une page sans résultat affichant : » Google ne cherche pas Chuck Norrisparce qu'il sait que vous ne trouvez pas Chuck Norris, il vous trouve. […] .Suggestions : courez avant qu'il ne vous trouve, cherchez quelqu'und'autre ». C'est aussi ceprincipe qu'ont exploité certaines bombes Google humoristiques (Bar - Ilan ,2007), comme celle créée en 2003 sur l'expression « french military victories » (victoires militaires françaises). Lebouton « J'ai de la chance » n'existe donc pas seulement pour « équilibrer »l'apparence visuelle de l'interface ou afficher une prétention. C'est uninstrument de création de connivence avec les férus du web et lesconcepteurs de pages, une marque d'espièglerie qui permet aussi de pratiquerla dérision. Chaque farce ou plaisanterie est en même temps l'occasion decommentaires (buzz) dans diverses communautés enligne. Les fans de Google ou ses critiques jouent avec cette fonctionnalité pourconcevoir des parodies qui renvoient à la catégorie des jeux d'imitation (mimicry) proposée par Roger Caillois (1957) : lesauteurs de ces pages jouent à imiter Google, parfois pour tromperl'internaute, parfois comme tribune d'expression. Par exemple, la requête« gogol » mène à une parodie de l'interface du moteur conçue par unconsultant en logiciels libres, où le logo est surplombé d'un entonnoir ;« gogole » à une autre permettant d'interroger la version belge du moteur ,Google.be. Le mot « goolag » dirige quant à lui vers une parodiede la page d'accueil sur fond rouge où une faucille et un marteau remplacentle « g » final du logo. Ce pastiche dit viser « un moteur de recherchepopulaire qui est de connivence avec des régimes répressifs qui censurentl'Internet ». En tapant « elgoog » (« google » à l'envers )sur le moteur, on arrive à une reproduction en miroir de la page d'accueildu moteur. Il existe au moins trois parodies de cette sorte de la page dumoteur, l'une correspondant à un vrai moteur miroir où les lettres du motsont inversées avant que la recherche ne soit lancée. Même si sa paged'accueil est déposée, Google Inc. montre une certaine tolérance envers cespratiques. À l'instar des principaux moteurs de recherche commerciaux actuels, Googlepropose les résultats d'une recherche sous la forme de ce qui apparaîtd'abord comme une liste de liens informés. Si l'on a pu très tôt trouver surle site des moteurs des conseils pour formuler sa requête, force est deconstater que peu concernaient la manière de lire les résultats. Les conventions de lecture des résultatsont longtemps été considérées comme implicites. Pour tant, elles n'ont riend'évident pour qui n'aurait jamais utilisé de moteur. La liste ordonnée deliens qui présente les résultats « naturels » est au moins à troisdimensions : un lien en retrait indique qu'une recherche en profondeur estpossible sur le site indiqué et les liens commerciaux ne se distinguent quetrès sobrement des autres, si bien que nombre d'internautes se disentincapables de les distinguer (Fallows, 2005). Il arrive aussi à Google d'introduire des surprises dans ses pages derésultats. Par exemple, la requête « answer to life, theuniverse and everything » (« solution à la vie, l'univers et tout[ le reste] ») affiche en haut de page, en gras, une publicité pour sacalculatrice avec l'équation : « answer to life, theuniverse and everything=42 », une plaisanterie familière desinformaticiens anglo-saxons. Ces blagues publicitaires, réservées aux initiés ,s'inscrivent dans une certaine tradition des développeurs de logiciels quiconsiste à implanter des fonctionnalités cachées dans leurs programmes. D'un côté, elles participent à créer laconnivence avec certaines communautés d'utilisateurs. De l'autre, dans lecontexte du moteur de recherche, elles semblent entrer en contradiction avecle discours des concepteurs de Google, qui réaffirment régulièrementl'objectivité des résultats du moteur et occulte la présence deliens publicitaires dans ses pages. L'interface de Google, ouverte etadaptative, n'est simple qu'en apparence. L'absence de consignes et sesimplicites sont une invitation pour l'internaute à tenter de deviner sonfonctionnement et à inventer ses propres règles d'action. La plupart des grands moteurs commerciaux fournissent des interfaces deprogrammation d'application (API) qui permettent aux utilisateurs de construireleurs propres logiciels au-dessus des fonctions de recherche. Celle mise àdisposition par Google Inc. dès 2002 a initié la création de jeux variésimaginés par les internautes. Nous ne traiterons pas des jeux créés autour desautres applications de Google, comme Google Earth ou Google Map, pour nouslimiter à ceux qui exploitent les fonctionnalités de recherche du moteur .D'ailleurs, il faut noter qu'il n'est nul besoin de maîtriser la programmationpour transformer le moteur en jeu. Les premiers jeux créés autour des moteurs de recherche ont été des jeux devocabulaire. Par exemple, Google Whack consiste àinterroger le moteur avec deux mots clés, le but étant d'aboutir à un seulrésultat dans Google. On peut trouver de nombreuses variantes de ce jeu ,selon le nombre de mots qu'il faut choisir ou de résultats auxquels doitaboutir la requête. Cette famille de jeux peut se jouer via l'interface standard du moteur. La règle du jeu précise queles mots choisis doivent apparaître dans le dictionnaire de Google : il nes'agit pas d'un corpus de vocabulaire établi par quelque autorité, auquelseraient associées des définitions, mais simplement de l'accumulation duvocabulaire relevé dans les pages visitées par le robot de collecte dumoteur. Google Whack est un jeu de compétition danslequel l'internaute doit faire preuve d'imagination et de créativité pourtrouver deux mots très rarement associés au sein d'une même page et proposerune explication pour l'expression composée. La récompense consiste à voir satrouvaille répertoriée et son nom (ou pseudonyme) mentionné parmi lescontributeurs du jeu. Lorsqu'une association rare de mots (un GoogleWhack) est dévoilée, elle n'en est plus une :si le concepteur du jeu a pris soin d'exclure de la collecte des moteursles pages dans lesquelles il répertorie lesGoogleWhack, d'autres les publient dans leurspages pour le seul plaisir de les « tuer » ou les incluent pour retrouverfacilement leurs pages en interrogeant le moteur. D'autres encorechoisissent un GoogleWhack comme pseudonyme, pourêtre sûr d'échapper à la redondance importante des identifiants surl'internet. Ces jeux de vocabulaire mettent en lumière la réactivité des internautes etleurs façons de contourner les contraintes du web. Ils servent aussioccasionnellement de support à toutes sortes de tests et d'expérimentationset permettent parfois de déceler des particularités qui peuvent apparaîtrecomme des dysfonctionnements sur la façon dont le moteur calcule le nombreglobal de résultats : lorsque celui -ci est faible, il est plus facile deconstater que parfois le nombre de liens affiché ne correspond pas à celuiannoncé en haut de page. Parmi les applications de recherche, celles consacrées aux images restent undéfi difficile pour les moteurs : les indices sur lesquels ils s'appuientpour indexer les images sont sémantiquement faibles, et les résultats encoretrès approximatifs. Certains internautes créatifs ont conçu des applicationsexploitant spécifiquement la fonctionnalité de recherche Google Image. C'estle cas de Montage-a-google :l'internaute choisit un mot clé et obtient une mosaïque d'images construiteà partir des résultats du moteur; il peut même en faire un poster. Eninversant le principe de cette application, l'auteur a créé l'année suivanteun jeu, Guess the Google qui interroge Google Imagesur un mot mystère et présente à l'internaute une sous-partie de l'ensembled'images qui en résulte. Le but du jeu consiste à deviner quel mot clé est àl'origine des résultats. Lejeu n'est pas si facile qu'il en a l'air, du fait de la pauvreté des donnéesactuelles sur lesquelles s'appuient les algorithmes d'indexation d'images( principalement le nom de l'image et le texte associé). Son principe faitécho aux questionnements de l'internaute qui s'interroge parfois sur lesraisons pour lesquelles le moteur sélectionne certains contenus pour sarequête. Serait -ce ce jeu qui a inspiré la création d ' Image Labeler ? On sait que les googlers sontattentifs à l'usage qui est fait des API, l'enregistrement obligatoire pourles utiliser permettant à l'entreprise de conserver une trace desapplications qui les exploitent. En septembre 2006, Google Inc. lançait une nouvelle application, Image Labeler. L'internautequi arrive sur ce jeu est associé à un partenaire aléatoire. Le principeconsiste à trouver les mêmes mots clés pour décrire une suite d'images quisont proposées aux internautes. Chacun fait, de son côté, despropositions que l'autre ne voit pas. Lorsque les deux partenaires proposentle même mot, ils gagnent un certain nombre de points qui est fonction de laspécificité du descripteur proposé (la spécificité d'un terme semblecalculée de manière inversement proportionnelle au nombre de résultats qu'ilrapporte dans Google). L'objectif affiché est de faire participerl'internaute à l'amélioration de l'indexation des images. Ce qui pourraitêtre une tâche fastidieuse – décrire des images à l'aide de mots-clés –devient une activité ludique du fait d' être associé en direct avec uninternaute anonyme. Cela introduit une forme de compétition où l'objectifn'est pas de battre le partenaire mais de converger vers unemême » solution ». Ainsi l'entreprise peut-elle disposer de la contribution àtitre gratuit de millions d'internautes. Il est probable que ces internautesvont suggérer des mots courants, les plus susceptibles d' être tapés lors derequêtes sur le moteur de recherche d'images et qu'ils vont éviter les motstrop subjectifs pour que leur proposition concorde avec celle du partenaireinvisible. Image labeler serait alors une façon deconstruire des indices de pertinence « moyens » à peu de frais. On retrouvedans cette application un écho du modèle général dont se sont revendiquésdès leurs débuts les créateurs de Google Inc. : une certaine interprétationde la démocratie participative à l'échelle des grands nombres, arbitrée par desalgorithmes, qui n'est pas sans rappeler la philosophie positiviste de laseconde moitié du vingtième siècle et les discours utopiques sur lestechnologies. Enfin, si la participation au jeu peut être anonyme ,l'internaute est invité à s'identifier pour que les points gagnés soientcumulés d'une session à l'autre et pour avoir une chance d'apparaître dansla liste des meilleurs compétiteurs-collaborateurs dont les scores sontquotidiennement mis à jour. Nous l'avons vu, les moteurs de recherche – et Google en particulier – appellentau jeu. Traditionnellement, l'activité de recherche d'information n'est pasconsidérée comme typiquement ludique. Certains chercheurs ont même mis enévidence son aspect complexe et anxiogène dans certaines situations (Kuhlthau ,1993). Dans le cas des publications en ligne, dont le foisonnement peut donnerle vertige, leur désordre rend l'accès à l'information très aléatoire. Il s'agitbien d'une activité circonscrite dans l'espace et le temps et dont le résultatest incertain. Le moteur de recherche est ainsi conçu que l'internaute joue àchaque requête une « partie » différente, distincte de la précédente : pardéfaut, l'application ne gère pas la notion de « session de recherche » ,c'est-à-dire une continuité entre les requêtes successives sur le même objet. Lecorpus exploré par ce biais est contraint de manière intrinsèque par lesalgorithmes de collecte mis en œuvre par les moteurs et l'espace de l'activitéde recherche est, quant à lui, restreint par celui disponible à l'écran( Souchier, 1998). La première page masque l'espace global des résultats, lapossibilité d'explorer les pages suivantes étant reléguée sous forme de lienscourts et numérotés en bas d'écran, soulignés par un rappel de la fenêtre derecherche. Le découpage de cet espace repose sur un paramètre de réglage del'interface et non sur un critère qualitatif lié à la classification desrésultats : chaque changement de page ne correspond pas à un palier depertinence supposée des documents signalés. La manière dont les résultats sontproposés – le titre de la page et des fragments montrant les mots clésrecherchés dans leur contexte– incite l'internaute à reformuler sa requêteplutôt qu' à explorer en profondeur une liste qui peut sembler parfoisinterminable lorsque les premiers résultats ne sont pas satisfaisants. Avec les moteurs commerciaux actuels, même s'ils semblent prodigieux d'ergonomie ,l'internaute ne fait pas ce qu'il a à faire : il doit faire cequ'il y a à faire pour utiliser le moteur. En l'absence d'informationsexplicites et complètes sur le fonctionnement intrinsèque du dispositif, il estcontraint d'essayer de deviner comment obtenir le résultat cherché. Lesalgorithmes des moteurs sont ainsi faits qu'ils lui proposeront toujours despages intéressantes – celles qui ont retenu l'attention d'autres internautes – ,ainsi que des pages commerciales censées être adaptées à son besoin ,susceptibles de le satisfaire. Au milieu de nombreux résultats « moyens » ,l'internaute pourra toujours découvrir quelque pépite, ces trouvailles rendantla recherche palpitante. L'activité de recherche d'information est ainsitransformée par les moteurs de recherche, qui la focalisent sur la formulationde requête plutôt que sur la capacité de l'individu à évaluer les résultats, surla trouvaille heureuse plutôt que sur une démarche et une méthodologieréfléchie. En cela, ils participent à un « programme de l'intuitif » voire à une« fabrique de l'évidence » (Jeanneret, 2001). Et comme la recherche nelui » coûte » rien en termes financiers, l'internaute ne peut pas se plaindres'il n'aboutit pas aux résultats escomptés. Le modèle économique depseudo-gratuité, prôné comme révolutionnaire lorsqu'il a émergé, trouve là seslimites : si l'internaute accepte implicitement d' être exposé à la publicitépour s'informer, la gratuité d'usage l'empêche de revendiquer une meilleurequalité du service. La seule solution pour lui est alors de collaborer oud'entrer en compétition, pour peu qu'il en ait les moyens. Dans le domaine de la conception de site, les moteurs de recherche ont créé unnouveau métier, celui de spécialiste du référencement. L'activité deréférencement consiste à » optimiser » un site web pour le faire apparaître enbonne place dans les résultats des moteurs. Les pratiques d'optimisation de sitepour le référencement « naturel » sont nées avec les moteurs de recherche, ellessont définies par l'existence même des moteurs et par leur mode defonctionnement. En effet, si les annuaires web se contentaient de lister lessites par catégories, les moteurs proposent des classements dont seuls lespremiers liens sont consultés par la plupart des internautes (Jansen, Spink ,2006). Les concepteurs de site sont donc placés en situation de rivalité les unsavec les autres sur des mots-clés ou des expressions qu'ils jugent stratégiques .Bien sûr, il est possible pour les entreprises de recourir au référencementpayant pour apparaître dans les liens commerciaux. Mais l'optimum est le« référencement naturel », c'est-à-dire faire en sorte que le site apparaissedans les résultats de la recherche, et non à côté d'eux dans les lienspublicitaires. Il ne s'agit pas de suivre une procédure déterminée pour être sûrd'atteindre son but : aucun moteur commercial ne livre au grand jour ses secretsde fabrication, qu'il s'agisse de la façon dont ses robots collectent les pagesou des critères de classement sur un mot clé ou une expression donnée. Lesconseils mis en ligne à destination des concepteurs de sites n'assurent pas unrésultat à coup sûr. De plus, la position obtenue dans le classement peut êtreremise en cause à tout moment : une nouvelle partie se joue à chaque mise à jourde l'index du moteur (les Google dances) qui modifieparfois de manière importante le classement précédent, même si ces mises à joursont désormais plus fluides, moins brutales. C'est dans ce contexte qu'est apparu Google Fight qui seprésente comme un jeu. Il s'agit de saisir deux mots clés, celui qui rapporte leplus grand nombre de résultats dans une recherche avec le moteur Google étantdésigné gagnant. Dans l'attente des résultats, une animation fait patienterl'internaute en mettant en scène un combat entre deux bonshommes, façon boxefrançaise. L'application propose aussi de rejouer des combats inventés pard'autres, classés en quatre catégories : les grands classiques (qui opposent parexemple les mots clés « dieu » et « satan » en anglais ou les mots « ouvriers »et « patrons » dans la version française), les combats amusants (par exemple ,« argent » contre « bonheur »), les combats du mois qui portent sur des thèmesliés à l'actualité, qu'elle soit politique, sportive, économique oucinématographique, et enfin les vingt derniers combats joués en temps réel parles internautes. L'internaute peut ainsi voir son combat répertorié, neserait -ce que fugitivement : il est intronisé de manière anonyme dans le cercledes joueurs. L'usage du moteur est ici réduit à l'absurde puisqu'il ne s'agit plus de fournirdes pages d'informations liées aux mots clés choisis mais d'afficher seulementle nombre total de résultats obtenu pour chacun d'eux. La qualité est occultéeau profit de la quantité. Il faut noter que Google Fighta été créé alors que les moteurs commerciaux se livraient une guerre féroceen surenchérissant sur la taille de leurs index respectifs. Les espritscritiques peuvent également y voir une forme de dérision de l'algorithmePageRank dans sa version initiale (Brin, Page, 1998), qui privilégiait le nombrede liens posés vers une page pour en déterminer la popularité sans vraimenttenir compte de la qualité de ces pages. Cette réduction saugrenue de l'activitéde recherche à des sommes de résultats n'empêche pas certains de s'en tenir àune lecture au premier degré du jeu, comme Romain par exemple, qui écrit sur sonblog » Personnellement, je m'en sers pour m'aider à choisir entre deux produits .Cela donne un bon aperçu je pense de la popularité du produit et de lacommunauté qui le soutient, ce qui est loin d' être négligeable dans le choix ». On est loin de l'utilisateursupposé » rationnel » dans ses choix et ses critères de décision : le moteur estici réduit à une sorte de Pythie qui livre ses oracles en ligne, incitant à unedémarche heuristique pour faire l'économie d'une analyse approfondie du problèmeà résoudre. À côté des pronostics et des paris qu'il peut susciter, GoogleFight peut être vu comme une mise en scène du monde du référencement .Cette autre face des usages des moteurs de recherche présente, quant à elle ,toutes les caractéristiques d'un jeu institué par les moteurs de recherche, oùla subjectivité des concepteurs de sites s'oppose à l' « objectivité » desalgorithmes du moteur. En effet, les firmes qui implantent un moteur commercialont besoin de ces deux types d'utilisateurs : d'un côté, des concepteurs desites qui acceptent, ou mieux désirent être référencés par eux en bonne place ,mais qui ignorent quelles sont les règles qui leur permettront d'atteindre leurobjectif à coup sûr et doivent se soumettre à l'arbitrage des algorithmes; del'autre, des internautes qui assurent une audience suffisante à ces applicationspour qu'elles puissent servir de support à la publicité. Certains concepteurs desite mettent en œuvre des ruses pour améliorer le classement de leur site parles moteurs et en faire des instruments de détournement de trafic : ce sont lespratiques d'indexation faussée (spamdexing), dedissimulation de contenu (cloaking) ou encore decréation de pages satellites pointant vers une page cible pour en faireaugmenter artificiellement la popularité. Les moteurs prétendent détecterdésormais assez bien ces pratiques et bannir les pages en question de leursindex, exclues comme « tricheries ». Cependant, les algorithmes doivent êtreconstamment modifiés pour tenir compte de ces pratiques, qui s'adaptentrapidement à chaque évolution. Les analyses d'usages des TIC font souvent référence aux détournements dont lesoutils font l'objet par leurs utilisateurs. Les internautes s'adaptent auxmoteurs, mais quelques uns les adaptent pour les ajuster à leur usage sans enchanger la fonction d'origine. C'est le cas de Give me back myGoogle, une reproduction del'interface qui permet d'interroger Google en éliminant d'emblée des résultatsun certain nombre de sites commerciaux. D'autres, comme les concepteurs deméta-moteurs, les étendent pour enrichir leurs fonctions. Quant aux jeux et auxparodies, peuvent-ils être considérés comme des détournements ? On parle dedétournement lorsque » l'utilisateur se sert du dispositif pour un propos qui n'arien à voir avec les usages prévus » (Proulx, 2005 : 15).Tout dépend donc de lafaçon dont on considère ces applications. Si l'on considère que les moteurs sontd'abord des applications dédiées à la recherche d'information, les jeux etparodies liés au moteur peuvent apparaître comme des détournements. Si on lesconsidère comme des applications au service de régies publicitaires, la plupartd'entre eux ne sont pas des détournements mais des actions qui prolongent oucontestent la vocation de ces outils, voire leurs méthodes et leurphilosophie. Ces phénomènes attestent-ils d'une appropriation des outils par les usagers ? Sices dispositifs techniques sont intégrés de manière significative dans lespratiques quotidiennes des internautes, il est difficile de parler de maîtrisecognitive de ces applications par le grand public bien que la plupart desinternautes puissent les utiliser sans consulter de mode d'emploi. Certes ,quelques développeurs maîtrisent techniquement les API mises à leur disposition ,mais ils les exploitent sous forme de boîtes noires dont ils ne connaissent desfonctions que les entrées et les sorties. Pour le grand public, l'usage basiquedu moteur ne requiert pas de compétences techniques avancées, l'applicationprenant en charge des aspects qui posaient problème dans les systèmesdocumentaires traditionnels, par exemple la formulation booléenne de requêtes .Certes, les moteurs génèrent de la nouveauté dans les pratiques sociales, commepar exemple le googling. À travers les phénomènesétudiés, nous avons montré qu'ils ouvrent aussi des possibilités de création .Encore n'avons -nous retenu qu'une partie des usages créatifs rendus possiblespar ces outils. Nous aurions pu citer les méta-moteurs qui, en interrogeant lesmoteurs, proposent une présentation originale des résultats. Ou encore, dans ledomaine artistique, les œuvres inspirées ou créées à partir du moteur (Candel ,2006). Enfin, si les usagers ne sont pas à proprement parler représentés dansl'établissement des politiques des moteurs, leur activité est scrutée par lesconcepteurs de moteurs qui révisent en permanence leurs stratégies en fonctiondes tendances les plus significatives. On voit donc là en marche la plupart desquatre conditions évoquées par Serge Proulx (2005 : 10) pour définirl'appropriation d'une technique mais il manque probablement la principale : laconnaissance approfondie et sûre du fonctionnement intrinsèque dudispositif. La stratégie de développement de Google est typique d'une certaine méthoded'innovation : celle du monde des logiciels libres. Les innovations sontproposées en version expérimentale (beta), parfois sur de longues périodes, etce sont les internautes qui les testent, permettant de détecter les bogues desapplications et d'inventer de nouveaux usages. Le développement de l'entreprise ,ses innovations incessantes et sa stratégie de communication évoquent un peu lapaidia de Roger Caillois (1958 : 83) : une manière de jouer tumultueuse et exubérante qui échappe aux conventions ,qui est volontiers excessive et « dont le caractère impromptu et déréglé demeurel'essentielle, sinon l'unique raison d' être » (ibid. :77). La manière dont la firme a contourné les droits d'auteur pour démarrer sonprojet de numérisation des livres en grand nombre en est une bonne illustration .L'esprit du jeu semble faire partie de manière intrinsèque de la culture del'entreprise. Il est vrai que le nombre de documents disponibles en ligne donnele vertige et que leur hétérogénéité oblige à repousser sans cesse les limitesdes algorithmes. Cependant, il serait naïf de réduire l'analyse à ces seulesmanifestations. Concevoir un moteur de recherche exige adresse et habileté ,stratégie et dépassement des limites, activité dont la nature est plus proche duludus que la paidia. Enfaisant référence au jeu de multiples manières, Google Inc. ne séduit passeulement l'internaute, elle l'intéresse au fonctionnement de son moteur, commeaux autres applications qu'elle propose. Néanmoins, le modèle économique du moteur limite de manière intrinsèque lesmodalités d'appropriation du dispositif, du fait de la concurrence commercialeen jeu. C'est probablement la raison pour laquelle l'entreprise est en rechercheperpétuelle de légitimité. Cette dernière s'est d'abord appuyée sur lesperformances techniques des outils, mais aussi sur un travail de relationspubliques. La stratégie de communication de la firme de Mountain View estsavamment organisée pour accroître la notoriété de la marque auprès desdifférentes catégories de public. Les médias se prêtent facilement au jeu, lesblogs et les forums relayent chaque nouveau buzz. Lesplus jeunes ne sont pas oubliés : des ressources sont mises à la disposition desétablissements scolaires américains, proposant des posters à accrocher dans lesclasses et des séquences pédagogiques clés en main dans des domaines aussivariés que les sciences, l'histoire, la géographie ou la littérature. Des concours de doodles leur sont proposés chaque année depuis quatreans, leur donnant l'occasion de créer leurs propres dessins autour du célèbrelogo. L'utilisation du moteur peut ainsi trouver sa place dans les programmesscolaires, au milieu des apprentissages fondamentaux. Nombreux sont les internautes qui portent une confiance presque aveugle auxmoteurs de recherche commerciaux (Fallows, 2005) : pour eux, ce sont desservices pratiques qui leur permettent de trouver sans effort un site ou unepage correspondant à leurs critères de recherche. Mais, nous avons tenté de lemontrer, ces moteurs de recherche ne sont pas des dispositifs classiques derecherche d'information. Nombreux aussi sont les internautes qui les utilisentnon pas pour trouver des informations précises sur un sujet mais « pour voir » ,pour explorer le web et ses mécanismes, ou pour se distraire. Et c'est en celasurtout que les moteurs se prêtent au jeu. Ils proposent dans leur mode defonctionnement une structure d'action entièrement artificielle etinstitutionnelle au sens des règles qu'ils instaurent (Chauvier, 2007 : 49) .S'ils fournissent le moyen d'une activité informationnelle à moindre coût, ilsen modifient aussi les standards : il s'agit, selon un scénario préétabli, detrouver le plus rapidement possible et d'accéder directement à l'extrait dudocument qui touche à la requête, ou encore d'explorer le web selon des cheminsparallèles à partir d'une expression ou de quelques mots-clés. Google Inc. amodifié les règles de la recherche d'information en ligne et a réussi, pourl'instant, à imposer ses propres règles dans un domaine en émergence. En tantque dispositif, le moteur est caractéristique de la double tendance relevée parSerge Proulx (2005 : 13) pour les artefacts technologiques : « Une pousséeparadoxale de la visibilité en même temps que d'une invisibilité desdispositifs ». Les jeux et les parodies analysés ici attestent de la manièredont certains internautes en explorent les limites et les possibilités, enquestionnent la rationalité, et en tentent une réappropriation incertaine .
Certains internautes utilisent les moteurs de recherche non pas pour chercher de l'information mais pour d'autres buts. Dans cette contribution, nous nous intéressons aux applications ludiques créées par le moteur commercial Google et autour de lui. À partir d'une analyse de l'interface, nous identifions d'abord dans le moteur de recherche les traces de l'appel au jeu. Dans un second temps, nous analysons certains jeux créés par ou autour du moteur, les caractéristiques qu'ils mettent en exergue et les représentations sous-jacentes. Loin d'être anecdotiques, ces exploitations ludiques permettent d'analyser plusieurs aspects des dispositifs sous-jacents ainsi que la manière dont le moteur transforme l'activité de recherche d'information.
sciencesInfo_09-0474880_tei_1129.xml
termith-529-communication
Brigitte Le Grignou et É rik Neveu (2011) opposent une sévèrecritique au « Jeu de la mort ». Pour l'essentiel, leur propos consiste à dévoiler lecaractère militant de ce documentaire et à déconstruire sa prétention de « fonder lediscours critique sur une démonstration scientifique ». C'est dire que, dans leurperspective, le « jeu de la mort » se caractérise avant tout comme un discours quise décline en un « texte » – le documentaire télévisé – et un « paratexte » – « sonlivre d'accompagnement » et les entretiens que ses auteurs ont accordés à différentsmédias. Brigitte Le Grignou et É rik Neveu (ibid. : p. 220) rapportent ce discours à un argument qui« [impute] à la télévision […] un pouvoir alarmant ». Leur entreprise ne consistedonc pas en une « analyse de l'émission » – quoi qu'ils en disent en conclusion deleur texte. Ils proposent plutôt une critique argumentée de son discours. Plusprécisément, ils s'emploient à réfuter l'argument du documentaire et sa prétendueassise scientifique. Symptomatiquement, les rares passages descriptifs de leurarticle ne présentent le documentaire que de manière très elliptique. Au terme decet article, le lecteur qui n'a pas vu l'émission serait bien en mal de dire en quoiconsiste son déroulement, son dispositif scénique, son montage ou même quelques unesde ses séquences. Il faut dire que dans la perspective de Brigitte Le Grignou et É rik Neveu (ibid. : p. 223), ledispositif télévisuel n'est qu'une « mise en scène » qui assure la mise envisibilité du discours par « des procédés qui flirtent avec le Grand Guignol […] :cris amplifiés de la victime, gros plans et plan de coupes sur les mains quipoussent les boutons commandant les décharges électriques, musiques appuyées ». Dansces conditions, il n'est nul besoin de s'appesantir sur ces artifices. L'enjeu del'analyse est plutôt de dévoiler les structures du discours de l'émission, afin dedémontrer que sa thèse n'est pas fondée scientifiquement. Ce qui conduit les auteursà dénoncer la « régression politique » engendrée par une émission pourtant « néed'un dessein politique au sens noble » : celui « de susciter la réflexion sur lepouvoir de la télévision » (ibid. : p. 235). En un certain sens, notre propos sera plus simple que celui de Brigitte Le Grignou etÉ rik Neveu. En effet, nous chercherons dans un premiertemps à approcher le documentaire non pas comme l'enrobage télévisuel d'un discours ,mais comme un phénomène à part entière, possédant son intelligibilité propre. Nousefforcerons donc de rendre compte de la façon dont le documentaire procède pourremplir son objectif de « mesurer le pouvoir de la télé ». Ceci nous conduira àsouligner qu'il s'agit moins pour le documentaire de présenter ou de vulgariser desrésultats scientifiques, que de réaliser une expérimentation scientifique pourétayer une dénonciation du pouvoir de la télévision. Nous concentrerons notreanalyse sur la place que le documentaire propose au téléspectateur devenir occuper. En effet, le geste central du documentaire consiste à inviter letéléspectateur à constater le pouvoir exercé par la télévision sur les sujets d'undispositif expérimental, et à prendre conscience de sa propre disposition à agir demanière similaire. C'est dire qu'une analyse du dispositif énonciatif de cedocumentaire, en particulier de la relation qu'il établit avec ceux auxquels ils'adresse, est indispensable pour élucider son organisation. Pour ce faire, il seranécessaire de retracer en détail comment le documentaire procède. Nous analyseronsla présentation de l'expérimentation et quelques séquences cruciales pourl'argumentation qui en est tirée. Nous signalerons qu'un certain nombre de procédésmobilisés par le documentaire manifestent des traits similaires à ceux que nousavons observés dans une recherche sur la télé-réalité. Il s'agit notamment d'uneforme d'instrumentalisation des participants qui écarte systématiquement la prise encompte des conséquences du fait d'organiser certaines scènes, ainsi que de lesfilmer et de les diffuser. Cette analyse nous conduira, dans un second temps, àrevenir sur des convergences entre le documentaire et la critique de Brigitte LeGrignou et É rik Neveu. Nous relèverons que le documentaires'appuie sur une science (la psychologie sociale) pour révéler et dénoncer lanaïveté des téléspectateurs ordinaires, alors qu'ils s'appuient sur une autrescience (la sociologie) pour dénoncer la naïveté de la psychologie sociale. Enconclusion, nous opposerons à la critique telle qu'elle est exercée par ledocumentaire aussi bien qu' à celle de Brigitte Le Grignou et É rik Neveu une démarche pragmatiste, attentive au travail herméneutiquedes acteurs en situation, en particulier s'agissant de la prise en compte desconséquences des actions qu'ils mènent et de leurs circonstances. Nous suggéreronsqu'une telle démarche ne revient pas à abandonner la critique mais, au contraire, àla fonder sur une phénoménologie des conditions pratiques de son exercice. Le documentaire s'ouvre sur une mise en garde : « Ce que nous allons regarderest extrêmement dur. Il ne s'agit pourtant que de télévision et dedivertissement ». Cet avertissement lance une première séquence composée descènes choquantes tirées d'émissions diffusées dans plusieurs pays. C'est auterme de cette séquence qu'est formulée la visée centrale du documentaire :il s'agira d'établir scientifiquement si la télévision peut « abuser de sonpouvoir au point de pousser n'importe qui à tuer ». Le commentaire indiquealors que les réalisateurs ont recruté une équipe scientifique et convenuavec elle de transposer dans un contexte de jeu télévisé l'expérience deMilgram, qui est présentée de manière détaillée. Voici la transcriptionverbale de cette séquence, accompagnée d'images d'archives en noir et blanctournées par l'équipe de Milgram : « Le protocole consiste à transposer une célèbre expériencedes années 60, l'expérience dite de Milgram, qui permet de mesurer le niveaude pouvoir qu'une autorité détient sur des individus. Conduite àl'université de Yale aux États-Unis, cette expérience a permis de tester desindividus ordinaires tous d'accord pour aider la science à mettre au pointun programme sur la mémoire. Deux sujets étaient convoqués. L'un devaitretrouver une bonne réponse sur une liste de mots qu'il devait retenir enune minute. Installé dans une petite pièce, il était installé à une chaise .À sa gauche un bracelet électrique lui enverrait des punitions à chaqueerreur. Plus il se tromperait, plus violent serait le choc électrique. Ledeuxième homme était installé dans une autre pièce. C'était à lui de lireles questions et d'infliger les punitions, le choc électrique. Il n'y avaitaucun choc. Les cris étaient enregistrés. L'homme attaché était un acteur .Le sujet de l'expérience était le questionneur. Jusqu'où allait-il obéir ?à la stupéfaction des chercheurs, 62 % des gensse soumettaient aux ordres et administraient des chocs ultimes malgré leshurlements de douleur de l'acteur. Stanley Milgram démontra ainsi que toutindividu peut commettre les pires atrocités quand l'autorité qui lui ordonnede le faire est, à ses yeux, légitime ». Le cadre scientifique et théorique ainsi établi, le documentaire décrit lamise sur pied de son propre dispositif expérimental en présentant leprocessus de recrutement des candidats. Il en ressort que des personnesordinaires croient participer à un test de jeu télévisé, au cours duquelelles seront conduites à punir les mauvaises réponses d'un autre candidat enlui infligeant des chocs électriques d'intensité croissante. Letéléspectateur est d'emblée informé de la supercherie, et en particulier dufait que les chocs électriques sont des simulacres et qu'ils sont infligés àun acteur chargé d'incarner le candidat fictif prénommé « Jean-Paul ». Ilest dès lors invité non pas à assister à des scènes de torture mais àobserver voire à évaluer la résistance morale des candidats naïfs face à l'injonction de torturer :« Combien iront jusqu'au bout ? […] Combien vont se soumettre ? Qui va serévolter ? ». Pour répondre à ces questions, le documentaire présente unmontage de scènes extraites du faux jeu télévisé. L'esprit bon enfant despremières scènes cède rapidement le pas à la tension générée par les cris dedouleur du candidat fictif. Privilégiant les gros plans, le documentairedonne à voir le malaise croissant des candidats naïfs face à l'animatricequi leur enjoint, de manière répétée, de lui administrer des chocsélectriques. Il est important de souligner que, dans cette séquence, ledocumentaire ne procède pas à la manière d'un jeu télévisé, qui suivraitsuccessivement chaque candidat du début à la fin de son parcours dans lejeu. Le documentaire adopte plutôt la structure de progression du jeu, demanière à comparer les réactions de différents candidats naïfs à mesurequ'augmente l'intensité des chocs qu'ils doivent infliger. Cette perspectiveen surplomb correspond au point de vue de scientifiques observant unecohorte. Cette séquence culmine avec la victoire des candidats, obtenue parle fait d' être parvenu à poser l'ensemble des 27 questions en dépit des crispuis du silence du candidat supposément victime des chocs électriques. Cettevictoire est bruyamment saluée par les applaudissements du public présentdans le studio qui accompagnent la sortie de candidats qui, le plus souvent ,sont visiblement ébranlés par l'épreuve qu'ils viennent de subir. La voixoff intervient alors pour qualifier et quantifierce qui vient d' être montré : « Personne ne s'attendait à un tel résultat .L'équipe de Jean-Léon Beauvois doutait que nous puissions atteindre unetelle obéissance. Après dix jours d'expérimentation, il fallait bienadmettre la réalité. 81 % des candidats étaient allés jusqu'au bout alorsque chez Stanley Milgram ils n'étaient que 62 % ». L'ampleur de l'emprise de la télévision est ainsi établie. La suite dudocumentaire va s'employer à l'analyser et à l'expliquer. La voix off fournit une explication synthétique qui estensuite développée par les scientifiques filmés au travail, pendant leursréunions de recherche, ou lors de leurs entretiens avec la présentatrice dujeu. En substance, l'explication se focalise sur la solitude de candidatsengagés contractuellement à agir à l'encontre de leurs propres valeurs. Lanotion d' « état agentique » est empruntée à Milgram pour expliquer que lescandidats naïfs passent outre leurs résistances morales. Le documentairemontre ensuite comment ces résistances morales sont exprimées par lescandidats naïfs en dépit de leur obéissance aux injonctions de torturer. Ilest d'abord question de leurs rires face aux premières expressions dedouleur par le candidat fictif. La voix off présenteces réactions comme des « manifestations psychosomatiques […] incontrôlables[ qui] permettent au corps d'évacuer la tension accumulée ». Il apparaîtensuite que, lorsque le candidat supposément torturé demande d'arrêter lejeu, certains candidats naïfs tentent de tricher pour l'aider à trouver lesbonnes réponses. La voix off apprend auxtéléspectateurs que ce stratagème « permet de déculpabiliser » et ainsi« renforce l'obéissance puisque le tricheur se sent mieux ». Lors de laphase suivante, une première forme de « négation du réel » apparaît lorsqueles candidats naïfs couvrent les cris de leur victime, puis une secondelorsque, suite à la révélation de la supercherie, certains candidats naïfsaffirment n'en avoir jamais été dupes. Prenant appui sur l'analysescientifique de leurs comportements, le documentaire démontre qu'ilsmentent. Après avoir rendu compte de l'obéissance des candidats naïfs, ledocumentaire présente les rares cas de candidats naïfs qui ont refusé cinqfois de suite de se plier aux injonctions de l'animatrice. Ces candidatssont alors « décrétés désobéissants », ce qui met immédiatement un terme àl'expérience. Le documentaire s'arrête sur le cas de Nerline, une candidatenaïve qui refuse de continuer. Cette séquence se distingue du reste dudocumentaire par le fait qu'elle est très peu montée et offre ainsi un accèsprivilégié à l'expérience vécue par la candidate naïve au cours del'expérience, puis en coulisse, suite à son refus de continuer. Après avoirprésenté les cas des obéissants et des désobéissants, le documentairecherche à expliquer pourquoi tant de candidats naïfs ont obéi. C'estl'occasion de faire intervenir de nombreux témoignages d'obéissants récoltésaprès la révélation de la supercherie. Ces candidats désormais déniaisésmanifestent de la surprise et de l'incompréhension face au comportementqu'ils ont adopté. Le documentaire avance une interprétation décisives'agissant de dénoncer l'emprise de la télévision : « La plupart des questionneurs sont comme eux. Ils n'avaientjamais fait de mal à personne. Ils ne voulaient pas faire souffrirJean-Paul. Et pourtant ils s'y sont résolus. Ces hommes et ces femmes nesont ni sadiques ni lâches ni amoraux. Aucun n'a pris plaisir à participer àl'expérience. Ils sont comme nous tous. S'ils avaient pu ils auraientfui ». Cette opération est fondamentale à plusieurs titres. D'abord, elle désamorceune stigmatisation des obéissants. Ils ne présentent pas de traits depersonnalité susceptibles d'expliquer leur comportement. Le documentaire leprouve par une variante du jeu dans laquelle l'animatrice quitte le plateauet laisse le candidat naïf décider seul s'il souhaite continuer ou non. Dansce cas de figure, 75 % des candidats désobéissent et interrompentl'expérience. Preuve est ainsi faite que c'est le seul dispositif télévisuel– incarné par l'animatrice et ses injonctions – qui provoque le comportementdes candidats. Dès lors, nul n'est besoin de chercher d'autres explications .L'établissement d'une cause nécessaire et suffisante est fondamental pourl'opération de montée en généralité qui est accomplie : « Ils sont commenous tous. » En d'autres termes, n'importe qui, placé dans un teldispositif, aurait agi de même; ce qui revient à affirmer que le même ratiod'obéissants et de désobéissants aurait été observé, quel qu'ait étél'échantillon des candidats. Cette opération marque un tournant pour ledispositif énonciatif de l'émission. La supercherie avait établi uneasymétrie entre les candidats naïfs et les téléspectateurs. Suite à ce coupde théâtre, ces derniers sont invités non plus à constater les déficiencesmorales des candidats naïfs, mais à s'identifier à eux, et à reconnaîtreque, s'ils avaient été à leur place, ils auraient agi de même. Celan'atténue en rien la gravité des actes commis par les candidats naïfs, maiscela en renvoie la responsabilité à la télévision et à l'emprise qu'elleexerce sans discrimination sur tous ceux qui s'aventurent dans sesdispositifs, et donc en particulier sur le téléspectateur. La conclusion dudocumentaire est laissée à Jean-Léon Beauvois (2010) au sujet de la « massed'individus télévisualisés » sur laquelle s'exerce le pouvoir de latélévision : « Cette masse est une masse gérée au niveau des pensées, auniveau des attitudes, au niveau des comportements. Ben j'appelle ça untotalitarisme. Il est tranquille parce qu'on ne nous tape pas sur la gueuleet on ne nous met pas en prison. Voilà ». Le téléspectateur a donc bien eu affaire à un geste indissociablementscientifique et militant. Plutôt qu'une énième dénonciation du pouvoir de latélévision, le documentaire a démontré et mesuré le pouvoir totalitaire dela télévision par le biais d'une expérience contrôlée et garantie pard'éminents scientifiques. Cette longue présentation était nécessaire pourdécrire l'organisation d'ensemble du documentaire. Nous allons maintenantprocéder à l'analyse détaillée de quelques séquences, qui nous paraissentessentielles pour comprendre son organisation, mais que Brigitte Le Grignouet É rik Neveu n'ont pas n'ont pas jugé utiled'examiner dans leur article. La démonstration visée par le documentaire exige que les candidats soientnormaux mais qu'ils se montrent disposés à torturer à mort. Nous analyseronsdans cette section la séquence présentant le recrutement des candidats afinde montrer comment cette tâche est accomplie. Voici la transcription del'introduction à cette séquence : « Il fallait maintenant recruter les candidats. Nouscherchions des volontaires n'ayant jamais participé à des jeux et n'ayantjamais cherché à le faire [image d'un scientifique au travail ]. Une sociétéde marketing contacta 13 000 personnes correspondant au profil recruté parMilgram. 2500 ont accepté. Ils ont rempli un questionnaire et par trisuccessif 80 sujets ont été sélectionnés [animation qui suggère laconstitution d'un échantillon représentatif de la population par le biaisd'une carte de France mouchetée de points figurant les candidats ]. Un moisplus tard ils sont convoqués un à un et à heure fixe. Chacun est réceptionnépuis conduit dans un bureau de production. À ce stade, ils ne savent quedeux choses. Ils vont participer à la conception d'un jeu télé. Ils negagneront aucune somme d'argent ». Dans cet extrait, le documentaire insiste sur le caractère scientifiquementcontrôlé du recrutement des candidats. Les différentes phases sontqualifiées par le biais de paramètres spécifiques et quantifiées par desindications chiffrées. Si les candidats recrutés n'ont « jamais participé àdes jeux [ni] cherché à le faire », ils sont toutefois conscients de« participer à la conception d'un jeu télévisé ». L'argent ne constituant pas une motivation ,les candidats recrutés sont des personnes intéressées à collaborer avecl'institution télévisuelle ou au moins disposées à le faire. C'est doncaprès cette première sélection qu'est constituée, par tris successifs, lacohorte de 80 sujets. La suite de la séquence fait apparaître que, dans laperspective du documentaire, cette opération de sélection, pourtantdécisive, n'a aucune incidence sur le déroulement de l'expérience. « À ce stade, ils ne savent quedeux choses. Ils vont participer à la conception d'un jeu télé. Ils negagneront aucune somme d'argent [images de l'arrivée d'un candidat, déposépar une voiture à l'entrée d'un grand hangar puis réceptionné par deuxpersonnes ]. Dans le bureau, l'acteur qui joue le faux candidat les attenddéjà. Le producteur vient à leur rencontre. Comme le scientifique deMilgram, c'est lui qui énonce les règles. L'expérience commence maintenant [split screen Milgram/ Jeu de lamort : L'acteur assis attend. Arrive le sujet/candidat naïf ,accompagné du chercheur/producteur] ». « L'expérience commence maintenant » suggère que ce qui a amené les candidatsdans cette situation, et notamment leur sélection, est une opérationtechnique neutre au regard des résultats de l'expérience. Cette omissionnarrative permet au documentaire de normaliser les candidats retenus, notamment enneutralisant leur rapport spécifique à la télévision. Si les candidats sontnormalisés, la scène de leur arrivée montre qu'ils ne sont pas anonymisés .En effet, le documentaire présente d'emblée au téléspectateur des candidatsà visage découvert. Il s'agit d'une ressource crucialede dramatisation pour la suite du documentaire, dont les scènes les plussaisissantes consistent en des gros plans qui donnent à voir notamment leconflit intérieur des candidats naïfs enjoints à torturer le candidatfictif. Sur ce plan, l'expérience du chercheur américain ne fournit pasqu'un protocole expérimental. Le recours au split-screen montre que le documentaire s'appuie fortement sur ladisponibilité de plans issus de l'expérience de Milgram, qui sontlittéralement mis en regard de scènes de l'expérience du jeu de la mort. Ilnous semble important de noter que, si ces scènes de split-screen assurent le téléspectateur de l'équivalence des deuxexpériences, elles ont également pour effet de le placer d'emblée dans uneposition de complice de la supercherie. Sachant qu'il aaffaire à un « candidat fictif », le téléspectateur n'est pas invité àsuivre le jeu, mais à observer comment les candidats, désormais naïfs, vontse comporter au cours d'une expérience à laquelle ils vont être soumis àleur insu. Cette instruction de lecture trouve une application immédiate àla suite de l'extrait reproduit ci-dessus, lorsque le documentaire présentel'explication du jeu aux candidats naïfs par le producteur, ainsi que letirage au sort truqué. À la manière d'un patchwork ,le documentaire suit la progression de cette opération, mais en alternantles candidats naïfs, suggérant ainsi non seulement que chacun d'entre eux ena fait la même expérience, mais également, dans une perspectivescientifique, que les scènes exhibées ne présentent que des itemscomportementaux, tout au plus exemplaires, d'une cohorte de sujetsexpérimentés. Le documentaire présente notamment une série de réactions descandidats naïfs après que le producteur leur a révélé que les punitionsqu'ils devront infliger à leur partenaire consisteront en une sériegraduelle de chocs électriques. Les neuf premières réactions montrées sontdes rires, suivies de manifestations d'incrédulité ainsi que d'ironie sur lefait qu'ils ne subiront pas eux -mêmes les décharges. Lorsque le producteurleur demande s'ils acceptent de participer, toutes les réponses présentéessont positives. Ainsi le documentaire se montre -t-il en mesure de dégagerdes tendances, voire des patterns, dans le comportement des candidats. Enl'occurrence, il s'agit de montrer que la tâche de torturer ne va de soipour aucun candidat naïf, mais qu'aucun d'entre eux ne s'y refuse pourautant. L'engagement des candidats naïfs, en dépit de leur réticence àassumer la tâche qui leur est assignée, est accentué par une scène montrantquelques uns d'entre eux alors qu'ils signent un contrat. Cette séquence estaccompagnée du commentaire suivant : « Ils signent leur cession de droit àl'image et reçoivent 40 euros de dédommagement équivalents aux quatredollars attribués par Milgram ». Cette signature est porteuse de lourdesconséquences pour les candidats naïfs, dans la mesure où ils s'apprêtent nonseulement à administrer des décharges électriques mais également à perdretout contrôle sur les images qui en seront issues. Le commentaire ne précisepas si par leur signature, les candidats cèdent leur droit à l'image nonseulement pour le jeu fictif mais aussi pour le vrai documentaire. Que cepoint essentiel pour les candidats ne soit pas clarifié montre que faire apparaître à l'écrandes personnes qui croient qu'elles sont en train de torturer un innocent neconstitue pas un problème pour le documentaire. Il s'agit au contraire d'unrouage narratif essentiel. Cette séquence de recrutement des candidats nous paraîtcruciale car elle pose non seulement les bases de ce qui se passe dans lasuite du documentaire, mais également le rapport que le téléspectateur estinvité à entretenir avec ce spectacle. Précisons une fois de plus qu'il nes'agit pas d'un spectacle de torture, mais d'une confrontation de personnesnormales et ordinaires à un dispositif inhumain. Pour pouvoir jouir d'un telspectacle, il est nécessaire à la fois d'ignorer ce qui a précédé l'arrivéedes candidats naïfs sur le tournage, et notamment les opérations desélection mises en œuvre, et de ne pas prendre en compte ce qui leurarrivera suite à la diffusion publique d'un documentaire les présentant entrain d'administrer des décharges électriques potentiellement fatales à uninnocent. C'est dire qu'il est crucial, pour le documentaire, que le momentexpérimental soit strictement séparé de son amont aussi bien que de sonaval. C'est à ce prix, qui est susceptible de s'avérer particulièrementélevé pour les candidats naïfs, que le documentaire peut proposer un regardclinique sur le comportement que des personnes normales adoptentlorsqu'elles sont saisies par le dispositif télévisuel. La démonstration effectuée par le documentaire tire sa force du fait que lescandidats naïfs répugnent à exécuter la tâche qui leur est assignée. Uneséquence importante à ce titre est consacrée aux stratégies déployées parles candidats pour surmonter la répugnance que leur inspire le faitd'infliger des décharges électriques à leur partenaire. Il s'agit d'abord durire qui est présenté comme permettant aux candidats « d'évacuer latension accumulée ». Il s'agit ensuite de tentatives de tricherie, enparticulier lorsque les candidats naïfs mettent l'emphase sur la bonneréponse. Le documentaire met en évidence deux cas de « négation du réel » .Le premier consiste à couvrir les cris de la victime, tandis que le secondconsiste à affirmer après coup n'avoir pas été dupe de la supercherie. Lecommentaire distingue alors deux cas de figure : Off « Une deuxième forme de négationdu réel est à noter. 15 % des obéissants ont affirmé a posteriori ne pasavoir cru à la situation. Parmi eux, certains avaient pourtant triché .D'autres avaient eu ces manifestations de stress qui prouvaient qu'ilsressentaient intensément la souffrance de Jean-Paul [à l'écran, nous voyonsplusieurs plans d'une candidate naïve manifestement perturbée pendantl'expérience] ». Le cas des tricheurs a en quelque sorte été réglé par une séquenceantérieure, au cours de laquelle Jean-Léon Beauvois affirmait : « Ceux quitrichent ne peuvent pas dire : " Je n'y croyais pas " ». D'autres ont exprimésomatiquement la tension dans laquelle ils se trouvaient. C'est donc enconjuguant des implications logiques établies par les scientifiques, et desmanifestations corporelles enregistrées par les caméras que le documentaireest en mesure de confondre les candidats naïfs qui affirment n'y avoir pascru. Leur mensonge apparaît dès lors comme une pathétique tentative desauver la face après la révélation. Cette dénonciation de la duplicité descandidats est encore accentuée dans la suite de la séquence avec la mêmecandidate naïve. Après avoir montré ses « manifestations de stress » lors dujeu, le documentaire fait ensuite entendre ses dénégations a posteriori comme des mensonges avérés. S'il était encore besoinde démontrer sa duplicité, un split-screen met enregard des images de la naïve durant le jeu et lors de l'entretien et duretour de l'acteur. Ensuite, le documentaire présente le cas plus complexed'un candidat dont le même usage du split-screen suggère, par l'absence de « manifestations de stress », que ses affirmationsa posteriori étaient sincères. Néanmoins, unpremier verdict est posé par le commentaire suivant : Off « Chez Milgram ils étaient 6 % .Milgram ne les a pas retirés de ses calculs, estimant que cette négation del'évidence était une excellente technique d'obéissance. Elle élimine touteraison de stresser ». Dans la perspective du documentaire, le candidat en question peut ne pasavoir menti. Il demeure que son cas relève de la négation de l'évidence. Ledocumentaire présente ensuite le même candidat à la fin du jeu dans unesituation bien moins sereine. Il répond alors aux injonctions del'animatrice par un enthousiasme ironique. La sérénité qu'il affiche dans laséquence du split-screen semble donc n'avoir pas tenujusqu'au bout. Mentionnons encore un troisième cas abordé par ledocumentaire. Celui du candidat dont le discours aposteriori est le plus articulé : Naïf 3 « La télévision ne peut pas moralement amener desgens à mourir sur scène. Ce n'est pas possible. Donc euh… J'avais aucunrisque à faire ça aucun. […] Moi je me suis soumis à ce jeu parce quejustement par définition je ne suis pas stupide et j'ai compris la nature dece qui se passait devant moi. Si ce monsieur souffrait vraiment, moi je meserais permis d'arrêter l'émission juste pour ça. Je me serais permisd'aller au-devant de cette expérimentation. Euh et j'aurais été tout à faitcapable de le faire ». Face à ce positionnement vis-à-vis de l'expérience, la voix off apporte une réponse immédiate et cinglante : Off « Ils ne se sont pas levés pourcrier à la supercherie. Tous se sont pliés à la règle du divertissement. Lespectacle continue ». L'ensemble de cette séquence mobilise une variété de moyens scientifiques ettélévisuels pour établir la duplicité des candidats naïfs, lesquels noncontents d'avoir adopté un comportement fautif ont de plus cherché à le nierpar la suite. En d'autres termes, le documentaire ne se satisfait pas deplacer et de filmer des personnes dans des situations honteuses, mais ilexplicite également les moyens par lesquels ils cherchent à s'en dépêtrer .Les candidats naïfs apparaissent donc comme moralement déficients à undouble titre. Dans cette séquence, le « Jeu de la mort » présente descandidats qui manifestent des capacités d'objectivation et de description deleur expérience. Il donne à comprendre que ces capacités sont partiesprenantes du phénomène, dans la mesure où les candidats en questionentretiennent ainsi l'illusion de ne pas être en faute, ce qui ne faitqu'aggraver leur cas. Même si le documentaire ne le dit pas pas, ces casexemplaires peuvent être vus comme des propositions d'identifications pourles téléspectateurs les plus critiques, qui entretiendraient l'illusion dene pas s'identifier aux candidats naïfs et fautifs. Cette séquence constituedonc une illustration spectaculaire et emblématique du regard à la foisclinique et édifiant que le documentaire propose au téléspectateurd'adopter. Dans la mesure où le jeu télévisé dévoile un mal, logé au sein dechacun, c'est à une douloureuse révélation de soi que chaque téléspectateurest invité. Dès lors, chacun est instamment invité à se défier et se méfierde soi, et en particulier de son illusion de comprendre ce qui se passe ,aussi bien en soi que dans le monde, et de disposer de capacités de résisterau mal. Nous avons parlé du regard clinique, caractérisé notamment par le fait detraiter les candidats naïfs comme les membres d'une cohorte. Nous souhaitonsà présent aborder une séquence qui rompt avec ce regard clinique en prenantla forme d'une étude de cas. Il s'agit d'une séquence de plusieurs minutes ,entièrement consacrée à Nerline, une candidate faisant partie des 19 % quiont refusé d'aller jusqu'au terme du jeu. Après avoir brièvement décrit laséquence, nous préciserons comment cette étude de cas s'insère dansl'économie du documentaire. La séquence présente la manière dont unecandidate naïve sort du jeu. La première partie de la séquence consiste enune scène ininterrompue menant la candidate du jeu télévisé à la sortie duplateau. La suite de la séquence est un montage d'images tirées de la séancede « debriefing » qui a eu lieu immédiatement aprèssa sortie du jeu. La séquence est introduite par une phase du jeu marquéepar la souffrance croissante manifestée par la candidate. La tension culmineavec la sortie du plateau, dont voici une description sommaire : Nerline grimace, puis elle arrête, puis continue, envoieencore une décharge. Nouvelle question, pas de réponse. Elle envoie encoreune décharge. « Si je continue, je vais me mettre à pleurer ». « Vousarrêtez ? Bravo ». Nerline sort du plateau en pleurs sous lesapplaudissements. L'animatrice l'accompagne et tente de la réconforter :« Ça va aller, on va tout vous explique ». Elle la confie à un psychologuequi passe une main sur son épaule et la conduit à l'espace de « debriefing ». La scène est filmée par plusieurscaméras. Nouveau plan dans l'espace de « debriefing ». Nerline est toujours en pleurs. Les personnes quil'entourent lui disent qu'elle a été exemplaire. Elle les remercie. Lecomédien arrive. Nerline redouble de sanglots. Un psychologue lui dit :« Vous n'avez rien fait, il y a pas de Jean-Paul ». Le comédien lui dit :« Je ne vous en veux pas, je suis comédien, je m'appelle Laurent ». Avant cette séquence, le documentaire a montré quelques brèves images desautres candidats naïfs « désobéissants ». Contrairement à Nerline, cescandidats désobéissants ont manifesté de la distance, voire de la sérénité ,lorsqu'ils ont décidé de désobéir. La séquence de Nerline commence aucontraire par de longues scènes, éprouvantes à regarder, tant elles rendentindubitable et incontournable la souffrance de Nerline. Cette scèneininterrompue, consacrée à une seule candidate, contraste fortement avecl'alternance rapide de scènes des différents membres de la cohorte dontprocède le reste du documentaire. Cette focalisation ne vise pas à produireune héroïne, ni à faire admirer son abnégation dans l'adversité. Il s'agitde faire voir l'emprise que le dispositif exerce, même sur les candidatsdésobéissants. Pendant plusieurs minutes, Nerline apparaît en train decontinuer à administrer des décharges électriques à un innocent qui n'estmême plus en mesure de crier sa douleur. Si ce moment du jeu donne à voir lasouffrance que le dispositif inflige à Nerline, la phase qui suit son refusde continuer fait apparaître combien elle a été ébranlée par l'épreuvequ'elle a subie. Les personnes qui l'entourent, l'animatrice puis lesmembres de l'équipe scientifique, se rendent d'ailleurs à l'évidence de cetraumatisme, en réconfortant et en consolant Nerline. La gestion de son étatde choc trouve une expression frappante dans la bouche d'un despsychologues : « Vous n'avez rien fait ». Cette formulation visemanifestement à atténuer le traumatisme en rappelant à Nerline lasupercherie dont elle vient de sortir. Ainsi déniaisée, Nerline devrait nonseulement surmonter son trouble mais également ressentir de la fierté pouravoir triomphé du dispositif, désormais seul responsable de son comportementfautif. Pourtant, la séquence montre bien que Nerline n'est pas encore prêteà se considérer comme une héroïne sûre d'elle -même et des valeurs quiguident ses actions. Le documentaire ne présente pas cette séquence commerévélatrice, à l'insu des producteurs, de la violence de l'expérience qu'ilsont mise en place. Il s'agit d'une séquence sélectionnée pour démontrer à lafois la puissance du dispositif télévisuel, et l'énergie requise pour s'yopposer, en faisant voir qu'une femme aussi admirable que Nerline en estlittéralement dévastée. Le peu de cas que les membres de l'équipescientifique font de l'expérience de l'épreuve traversée par les candidatsnaïfs apparaît avec la dénégation immédiate et à bien des égards aberrante àlaquelle ils invitent Nerline. C'est l'occasion de rappeler que, dans laperspective des chercheurs et des producteurs, les candidats ne sontconsidérés que comme les membres interchangeables d'une cohorte, et commeles instruments d'une leçon visant à instruire les téléspectateurs dupouvoir abusif de la télévision. Cet horizon civique semble dispenser lesauteurs du documentaire de s'embarrasser de préoccupations humanistes. Lepositionnement du documentaire à l'égard de ce qu'il advient de sesparticipants a d'autant plus suscité notre étonnement qu'il s'agit d'un desprincipaux reproches qu'il adresse, à bon droit, à la télé-réalité. Ledocumentaire ne semble donc pas se distinguer de la télé-réalité par uneprise en compte des conséquences de l'épreuve traversée pour lesparticipants. La différence réside dans le fait de se donner un horizonpédagogique et civique, plutôt qu'un objectif commercial, pour s'endispenser. La discussion qui s'est nouée autour du « Jeu de la mort » et de son analyse estl'occasion d'interroger ce qui constitue une « critique ». En effet, le « Jeu dela mort » se présente comme une critique de la télé-réalité et de sesconséquences pour les sociétés démocratiques. De même, l'article de Brigitte LeGrignou et É rik Neveu discute le documentaire deChristophe Nick pour en proposer une analyse qui relève de ce qui esthabituellement reconnu comme de la sociologie critique. Or, nous avons constatéque ces critiques procèdent chacune en empruntant des opérations qui sontpourtant caractéristiques des objets de leur critique, respectivement latélé-réalité et le documentaire de Christophe Nick. Ce constat nous a étonnés etincités à tenter de saisir ce qui fonde cette conception de la critique. Notre étonnement face au documentaire de Christophe Nick tient avant tout aufait que le traitement qu'il réserve aux sujets de l'expérimentation du« Jeu de la mort » ressemble à celui que subissent les participants auxémissions de télé-réalité, lesquelles sont pourtant l'objet même de sacritique. Dans le cadre d'une enquête, nous avons observé que les émissions detélé-réalité ont pour trait commun de placer régulièrement leursparticipants dans des situations difficiles, qui provoquent de fortesréactions émotionnelles et qui les conduisent à adopter des comportementspotentiellement dégradants, ridicules ou humiliants. Les producteurs et lesdiffuseurs en tirent des images divertissantes et ils proposent autéléspectateur de jouir du spectacle. L'ensemble est présenté de telle sorteque ce qui se passe à l'écran apparaît comme la manifestation decaractéristiques propres aux participants, tandis que la responsabilité dela production dans l'organisation, la réalisation et la diffusion de cesscènes est systématiquement occultée. Tel est également le cas desconséquences que les participants subissent du fait de leur confrontation àde telles situations et de la diffusion de ces images. C'est dire que letéléspectateur ne peut jouir de ces séquences à la manière d'undivertissement, qu' à condition de ne se préoccuper ni de la manière dont lesparticipants surmontent les épreuves qu'ils ont traversées ni de ce qu'iladvient d'eux après la diffusion de l'émission. Nous avons été interloquésde retrouver cette manière d'organiser les situations dans un documentairepourtant explicitement présenté comme une critique de la télé-réalité. Eneffet, le « Jeu de la mort » recrute des candidats naïfs et les place dansune situation où ils sont incités à infliger des sévices potentiellementmortels à un innocent. Les producteurs en ont tiré des images instructives ,très largement diffusées, qui proposent au téléspectateur de découvrir, dansle comportement des candidats, une manifestation de la nature humaine .L'expérience révèle que tout être humain est disposé à commettre le pire ,pour peu qu'une autorité l'encourage à le faire. Elle montre surtout que latélévision est désormais investie d'une autorité telle que ses représentantspeuvent conduire quiconque à torturer un innocent jusqu' à la mort. Enproduisant et en diffusant ces images, les télévisions publiquesfrancophones ont prétendu faire œuvre de pédagogie populaire. Elles ont faitde l'expérience scientifique l'occasion d'un apprentissage salutaire, quiinvite les téléspectateurs à se méfier de la télévision et surtout de leurpropre vulnérabilité face à l'autorité prescriptive dont elle est dotée. Or ,cet apprentissage n'est réalisable qu' à condition que les candidats naïfsacceptent, au terme de l'épreuve, d'incarner, à la télévision, la figure deces êtres humains capables de torturer à mort un innocent. Pour sa part, le téléspectateur ne peutpleinement bénéficier de cet apprentissage qu' à condition de focaliser sonattention sur les mécanismes du dispositif télévisuel, et donc de peu sepréoccuper du devenir des candidats naïfs exposés à cette épreuve. C'est àcette condition qu'il prendra conscience que, si tous les candidats naïfséprouvent de grandes difficultés à réaliser les tâches qui leur sontassignées par le jeu dans lequel ils sont enrôlés, le dispositif télévisuela raison de leurs résistances dans l'immense majorité (81 %) des cas. Dansla mesure où les candidats naïfs constituent un échantillon représentatif dela population française, chaque téléspectateur est invité à se méfier et sedéfier de lui -même. Le documentaire ne lui permet donc pas seulement defrémir face au spectacle de l'autorité télévisuelle en action, il l'invite àdécouvrir sa propre vulnérabilité aux mécanismes implacables du dispositiftélévisuel. Le traitement de choc (Stavo-Debauge, 2012) que le documentaireinflige aux candidats naïfs et adresse aux téléspectateurs est proportionnéà l'ampleur et à la nature du mal à combattre, logé au sein de chacun denous. La nécessité impérieuse de l'extirper rend secondaire toute questionrelative à ce qu'il advient des candidats naïfs avant, pendant et après letournage et la diffusion du documentaire. L'instrumentalisation descandidats présente donc d'étonnantes similitudes avec celle dont procèdentles émissions de télé-réalité, même si elle répond ici à des finalitésdavantage pédagogiques que commerciales. De même, nous avons été étonnés de retrouver, dans l'article de Brigitte LeGrignou et É rik Neveu, une manière de concevoir etd'exercer la critique, qui comporte d'étonnantes similitudes avec celle mise enœuvre par le documentaire. L'un comme l'autre structurent une relationpédagogique. Le documentaire prétendait dessiller les yeux de téléspectateursqui ignorent à la fois les ressorts de l'autorité télévisuelle et leurpropension à y succomber. De manière similaire, Brigitte Le Grignou et É rik Neveu s'adressent à un lecteur naïf, invité à sedéfier de son « sens commun » et en particulier de tout ce qui lui paraît allerde soi. Ils prennent appuisur les acquis de la sociologie – et plus précisément sa tradition durkheimiennequi « explique le social par le social » – afin de lui dévoiler que laprétention scientifique du documentaire à révéler la nature de la télévisionrepose en fait sur les lieux communs les moins fondés au sujet de cettedernière. Leur texte prend ainsi le tour de la recension critique d'une oeuvrescientifique, dont ils s'emploient à distinguer les arguments fondés de ceux quine le sont pas. Significativement, les auteurs parviennent à réaliser cettetâche sans décrire le documentaire qu'ils critiquent, ce qui n'empêche pas leurarticle d' être parfaitement compréhensible pour un lecteur qui n'aurait pas vul'émission. C'est là une des qualités les plus remarquables de nombreux textesrelevant de la sociologie critique : ils parviennent à dégager des structuresstables et régulières sous la surface insignifiante, labile et occasionnée, desactions et des situations ordinaires. Au bilan, l'issue de l'évaluation estsévère. Le documentaire ne mérite de retenir leur attention que sur deuxterrains : « L'analyse de la construction d'un dispositif capable d'inhiber lesdispositions critiques et l'autonomie des invités, [et] la fine attention à lamanière dont ceux -ci gèrent le malaise qu'ils ressentent dans cette singulièreinterdépendance ». En dépit de la sévérité de la charge, le désaccord est moinsprofond qu'il n'en a l'air. Dans son travail scientifique, Jean-Léon Beauvois (ibid.) dénonce la liberté comme une illusionentretenue par le libéralisme. Cette dénonciation est largement reprise par ledocumentaire : « Nous croyons être des individus autonomes, libres etindépendants. En fait, nous sommes des êtres seuls reliés aux autres par desrègles et des lois qui nous confrontent en permanence à des pouvoirs et à desautorités auxquels nous nous soumettons sans y réfléchir ». À vrai dire, Brigitte Le Grignou et É rik Neveu ne sont pas fondamentalement en désaccordavec cette affirmation. À leurs yeux, la difficulté majeure réside dans « lestatut mono-explicatif de la " situation " dans le mode d'analyse privilégié parles travaux de Jean-Léon Beauvois ». Avec les réalisateurs du documentaire, il acertes conçu un dispositif efficace s'agissant d'enclencher « une escaladed'engagement et de soumission à l'autorité ». Cependant, cette indéniableréussite ne devrait pas les dispenser de prendre en considération, dans leursexplications, « les singularités psychiques et l'économie émotionnelle descandidats, voire – horresco referens – des déterminantssociaux ». C'est dire qu'aux yeux de Brigitte Le Grignou et É rik Neveu, il suffirait que les chercheurs ajoutent quelquesvariables sociologiques à leur explication pour que l'ensemble de leurentreprise de révélation du caractère fallacieux de la liberté humaine devienneà la fois scientifiquement valide et moralement acceptable. Au bout du compte, ils ne trouvent pas grand-chose à redire ni à l'encontre de ladémarche mise en œuvre par Jean-Léon Beauvois et son équipe, ni à l'égard desépreuves qu'ils font subir aux participants. Pour comprendre cette convergence ,il faut revenir à la pédagogie militante qui anime les deux démarches .Téléspectateur ou lecteur, le destinataire est envisagé comme entretenant desillusions sur la nature et la portée de l'autorité de la télévision. Ladissipation de ces illusions définit la tâche impérieuse de la critique. Pour yparvenir, il ne faut se préoccuper ni des moyens mis en œuvre pour réaliser unedémonstration scientifique, ni de leurs conséquences pour ceux qui lessubissent. Il ne faut pas plus s'embarrasser de considérations épistémologiquessur la compréhension de la situation par ceux qui y prennent part. Pour cetteconception de la critique, la compréhension en action dresse un obstacle ausavoir que les chercheurs doivent surmonter à tout prix. Au fil des paragraphesqui précèdent nous avons tenté de mettre en œuvre une forme d'analyse qui permetd'envisager une alternative à cette conception de la critique dont le prixs'avère, tout compte fait, exorbitant. Les sciences sociales connaissent destraditions phénoménologiques, herméneutiques et pragmatistes qui font de lacompréhension une question empirique et heuristique, plutôt qu'un obstacleépistémologique voire un adversaire politique. C'est de ces traditions que nousnous sommes inspirés lorsque, cherchant à combler une lacune de la critique deBrigitte Le Grignou et É rik Neveu, nous avons restituéla logique mise en œuvre par le documentaire, mais aussi reconstitué lacompréhension que les candidats naïfs avaient de ce qui leur arrivait. L'enjeude la démarche réside dans le fait de refuser de choisir entre la compréhensionet la critique. Dans notre cas, nous avons tenté de montrer qu'une démarchecompréhensive ouvrait la voie à une critique de procédés télévisuelsanti-humanistes d'une part, et de la cécité des sciences sociales à de telsprocédés d'autre part .
Cette réponse à l'article que Brigitte Le Grignou et Érik Neveu (2011) ont consacré au « Jeu de la mort » relève que ceux-ci concentrent leur critique sur l'incapacité de la psychologie sociale à fonder scientifiquement un discours critique sur le pouvoir de la télévision. Ce faisant, ils renoncent à analyser le documentaire en tant que tel. Pour y remédier, nous montrons comment le documentaire procède pour remplir son objectif à la fois pédagogique et critique. Nous signalerons d'abord que les procédés mis en œuvre par le documentaire sont similaires à ceux observés dans des émissions de télé-réalité. Ils consistent à filmer des personnes ordinaires alors qu'elles effectuent des actions humiliantes ou qu'elles commettent des actes moralement condamnables, et à diffuser ces images sans interroger les conséquences que cela peut avoir pour elles. Ensuite, nous mettrons en évidence des convergences entre les manières dont sont articulées les critiques portées par le documentaire et par l'article de Brigitte Le Grignou et Érik Neveu. Le documentaire s'appuie sur une science, la psychologie sociale, pour révéler le pouvoir de la télévision et instruire des téléspectateurs ordinaires naïfs. À ce sujet, Brigitte Le Grignou et Érik Neveu s'appuient sur une autre science, la sociologie, pour dénoncer la naïveté de la psychologie sociale qui ignore les mécanismes sociaux propres à expliquer les rapports de domination. Nous proposons comme alternative à ces deux formes de critique une démarche pragmatiste, attentive au travail herméneutique des acteurs en situation. Une telle démarche ne revient pas à abandonner la critique mais, au contraire, à la fonder sur une phénoménologie des conditions pratiques de son exercice.
sciencesInfo_13-0090576_tei_1016.xml
termith-530-communication
Le terme Recherche d'Information (RI) est une adaptation hélas un peu approximative du terme anglo-saxon Information Retrieval 1. Comme beaucoup de termes techniques ou scientifiques d'origine étrangère, leur traduction « mot à mot » n'est pas fidèle; pour être précis, il faudrait, au travers du mot « retrieval », exprimer en un mot français la notion de « quête d'information » et de « processus de recherche » associé. À part de lourdes périphrases, aucun terme moins insatisfaisant que « recherche » n'a été proposé pour l'instant. Mais l'essentiel est sans doute de s'entendre sur ce qu'on entend par Recherche d'Information en tant que domaine scientifique. Dans sa définition la plus large, la RI a pour thème central l'étude de modèles et systèmes d'interaction entre des utilisateurs humains et des corpus de documents numériques, en vue de la satisfaction de leurs besoins d'information. Il est intéressant de noter que ce domaine a figuré parmi les premières applications importantes de l'informatique; la vérité des années 50, qui plaçait déjà la maîtrise de l'information scientifique et technique au centre de la stratégie de développement des Etats-Unis, n'a fait bien sûr que prendre encore plus de valeur aujourd'hui, en se doublant d'une dimension socio-culturelle forte, engendrée par la révolution d'Internet, liée à l'ouverture de l'information numérique au grand public. Une autre caractéristique importante du domaine au cours de cette longue période, est son développement constant, sinon régulier, selon trois axes principaux et fortement complémentaires : la théorie et les modèles sous-jacents, la réalisation et l'expérimentation de systèmes de recherche d'information (SRI), l'étude des comportements usagers au travers des différentes applications et expérimentations. Les interactions entre ces trois dimensions de la RI ont certainement contribué à faire progresser efficacement le domaine, et aussi à lui épargner les désillusions qu'ont connues d'autres applications précoces de l'informatique, qui ont sous-estimé un peu trop vite, dans l'enthousiasme de ces périodes pionnières, la grande complexité des données et des connaissances humaines. Un autre aspect particulier du domaine est la longue évolution de sa recherche, jusque vers les années 80, en marge des grands courants des recherches en informatique (mais non de ses évolutions technologiques). Cela tient principalement au fait que la RI fut d'abord (et est encore souvent au niveau international) le domaine des spécialistes des Sciences de l'Information, et que de son côté, l'informatique est restée longtemps une science de l'information structurée, alors que la RI affrontait dès le départ l'information textuelle, c'est-à-dire au mieux semi-structurée, et de plus entachée d'ambiguïté et d'incertitude. En bref, la RI traitait, et traite toujours, surtout de l'information « naturelle », avec toute la complexité que cela implique. Enfin, une dernière caractéristique importante du domaine réside dans la forte prise en compte de l'utilisateur qui est à la fois l'acteur et le bénéficiaire du processus d'interaction avec les documents. On verra que cette préoccupation de type « sciences humaines » est intervenue très tôt dans le domaine, ce qui a pu donner l'impression à des informaticiens centrés sur la conception de systèmes, de langages ou de machines (donc de purs artefacts), que la RI était un domaine un peu flou, car ne maîtrisant pas tous ses aspects au plan formel. Cependant, la banalisation de l'informatique grand public, l'accès quasi universel à Internet ont induit une énorme demande des utilisateurs vers une meilleure accessibilité aux seules données qui les intéressent (et qu'ils peuvent appréhender !), c'est-à-dire celles qui sont compatibles avec les mécanismes de création, de perception et de compréhension humains : langue naturelle parlée ou écrite, images, musique, animations, etc. Autant de domaines, précisément, qui échappent toujours, et pour longtemps encore sans doute, à une encapsulation complète dans des modèles formels ! Il s'agit donc de problèmes difficiles, dont on a pu par ailleurs apprécier parfois les retombées en informatique 2. Un mérite de la RI a été d' être un des tout premiers domaines de l'informatique à comprendre et à admettre cette complexité, à l'intégrer dans sa démarche scientifique combinant modélisation formelle, et rigueur expérimentale pour valider ces modèles, et de s'ouvrir aux domaines connexes des sciences de l'information et des sciences humaines. Débutante, bridée par une technologie informatique primitive, limitée au média textuel, la RI a été tout d'abord vécue par les usagers au travers de la « documentation automatique 3 » où l'utilisateur final de l'information (le chercheur, l'ingénieur, le journaliste etc.) ne pouvait lui -même interagir avec les données, mais devait passer par les services de documentalistes ou de bibliothécaires, seuls habilités et formés au fonctionnement des systèmes de recherche d'information des années 60 et 70. Les évolutions récentes de l'informatique et des moyens de communication mentionnées plus haut ont complètement inversé cette organisation, multipliant les medias accessibles dans des corpus extrêmement volumineux et complexes, diversifiant les utilisateurs et surtout les replaçant de plus en plus au centre des préoccupations. C'est la « recherche d'information en contexte » dont on parle depuis quelques années, et qui est assez symbolique de l'aboutissement actuel de plus de 50 ans d'activité de recherche et de développements industriels dans le domaine. C'est cette évolution que nous nous proposons de restituer dans cet article. Dans la section 2 nous retraçons l'historique de la RI jusqu'aux années 90, pour ensuite faire en section 3 un tour d'horizon des principaux thèmes de recherche actuels, depuis cette date à nos jours, et conclure enfin dans la section 4 sur notre point de vue quant aux perspectives d'évolution futures du domaine. La nécessaire brièveté d'un article nous conduira hélas à centrer ces exposés autour des aspects qui nous paraissent les plus importants; nous espérons que les nombreuses références bibliographiques données compenseront au moins partiellement cet inévitable manque d'exhaustivité ! Retracer en quelques pages 50 ans d'une histoire scientifique riche en innovations et progrès technologiques, riche également de nombre de personnalités scientifiques de premier plan, est certainement un exercice périlleux…et qui ne manquera sans doute pas de susciter des commentaires ! Nous espérons cependant que cette présentation en donnera une idée assez fidèle, sachant que le lecteur pourra, s'il en est besoin, compléter les éléments donnés ici par la lecture des documents cités dans la bibliographie (Spärk Jones et al., 1997, Lesk, 1995), et qui sont tous relatifs à l'histoire de la RI. La RI est née aux Etats-Unis, très peu de temps après l'avènement dans ce pays des premiers ordinateurs. Les événements se sont enchaînés à partir de l'idée précoce que les machines de traitement numérique apparues dans la fin des années 1940 pourraient, en sus de leur rôle initial de calculateurs 4, aider puissamment à appréhender l'univers en rapide croissance des connaissances humaines. Cette motivation, de nature académique, était par ailleurs cohérente avec une culture anglo-saxonne qui a toujours donné une très grande importance à la documentation et, de manière plus générale, à la maîtrise de l'information. Michael Lesk 5, un des pionniers de la RI qui travaillait alors dans les laboratoires de Bellcore, cite comme tout premier pionnier de la RI Vannevar Bush, qui, dans son article de 1945 (Bush, 1945), introduisait l'idée de grands dépôts de documents et d'outils de recherche automatisés. La technologie de l'époque ne pouvait évidemment pas encore fournir une concrétisation satisfaisante à ces idées, mais elles étaient bien là, de même d'ailleurs que des visions assez futuristes de ce que pourraient apporter des « machines » dans ce domaine 6. C'est également à cette époque que Calvin Mooers (Garfield et al., 1997) dans son mémoire de Master du MIT invente, en 1948, le terme d' « Information Retrieval », et crée ce qui fut sans doute une des toutes premières entreprises 7 dans le domaine. Plus important encore, il est le premier à utiliser la logique booléenne comme base de Zator, son SRI. Ces premières idées devaient trouver au début des années 1950 un très fort relai dans le contexte de la guerre froide avec l'URSS. Michael Lesk raconte comment les Etats-Unis, saisis d'une grande peur lorsque les Russes lancèrent au-dessus de leur tête le tout premier satellite artificiel « Spoutnik », décidèrent de renforcer leurs moyens d'accès à l'information, de façon à permettre à l'industrie aérospatiale US encore naissante, d'apporter une riposte rapide à ce qui était alors vécu comme une inquiétante épée de Damoclès soviétique. Les industriels se rendirent alors compte, dans l'urgence, du coût exorbitant que pouvait avoir le « non accès » à l'information pertinente en matière d'avancées technologiques ou scientifiques de leur domaine, voire même en ce qui concerne leur propre documentation technique interne ! Ils s'ouvrirent donc assez tôt à des tentatives d'industrialisation des premiers systèmes prototypes. Dans le courant de la décennie 50, l'avènement des ordinateurs de seconde génération, et celui des premiers supports magnétiques 8 allaient amener la première grande expansion de la RI. La plus notable réalisation (connue !) de cette époque fut probablement, en 1955, le WRU 9 Searching Selector, de James W. Perry et al., une machine qui pouvait déjà résoudre jusqu' à 10 requêtes booléennes en un seul passage sur une bande magnétique. Pour la première fois aussi, un grand constructeur (General Electric) s'intéresse à un système de RI et envisage sa commercialisation, notamment dans le domaine des données bibliographiques. Cette expérience importante aboutit en 1958 au Mark I Information Retrieval Service, qui reste certainement une référence historique en matière d'évolution des SRI. Autre innovation de cette période, les travaux de (Luhn et al., 1961) sur l'extraction d'index « en contexte » : pour limiter les false drops liés à la polysémie des mots clés, Luhn a proposé un processus permettant d'inverser les textes en fonction des occurrences les plus fréquentes des mots clés, chacune de ces occurrences étant présentée à l'utilisateur dans son contexte d'apparition effectif dans les textes 10. Mais nous voici à présent aux années 60; l'avènement des ordinateurs de troisième génération, avec leurs langages de programmation sophistiqués, leurs capacités de stockage décuplées sur mémoire magnétique externe, leurs unités de traitement beaucoup plus rapides permettent à présent de traiter des volumes d'information conséquents, même s'ils font sourire de nos jours. Indexer automatiquement plusieurs dizaines de milliers de documents, interroger ces premières bases de données bibliographiques 11 commençait à poser des problèmes d'une autre nature : si l'automatisation permettait le passage à des indexations plus fines (i.e. contenant plus de termes pour un document donné, et sur un vocabulaire plus large), comment contrôler sa qualité ? Une bonne indexation étant celle qui permet de retrouver les documents pertinents, se posa alors le double problème de la définition de ce qu'est la pertinence, puis de l'évaluation qualitative des SRI au regard de cette notion. Les travaux sur la pertinence devinrent à partir de cette époque un sujet de réflexion constant dans le domaine, avec au départ les travaux de (Cooper, 1971) puis, par exemple, ceux de (Maron et al., 1960) dans le contexte des approches probabilistes de la RI. Ce tournant vers l'expérimentation fut tout à fait déterminant dans l'évolution du domaine, et le marque encore très fortement. Le pionnier en la matière fut Cyril Cleverdon 12, qui introduisit les mesures bien connues de rappel et de précision 13, et créa les toutes premières collections test 14 destinées à évaluer les performances qualitatives d'un SRI (voir en particulier (Cleverdon et al., 1966; 1970). On parle ici d'évaluation qualitative, car l'idée de base est de comparer, pour un sujet de recherche donné, les documents retrouvés par le système dans la collection test, aux réponses idéales établies pour cette question dans la collection, réponses qui ont été identifiées manuellement par des experts du domaine. Il s'agit donc bien de comparer une notion de pertinence système à une notion de pertinence utilisateur. Cette confrontation entre réalité (le point de vue utilisateur) et modélisation (le point de vue du SRI) devient une dimension clé du domaine : elle place d'une part l'utilisateur au centre du processus (un système n'est pas acceptable si son modèle de pertinence n'est pas proche de celui des usagers), en même temps qu'elle impose à toute approche l'épreuve du feu, c'est-à-dire la confrontation à des situations réalistes (en nature, en taille des données, en exigence des utilisateurs). Cet aspect évaluation et collection test donna lieu également aux travaux de Karen Spärck Jones 15 dont on trouvera une bonne synthèse dans [9 ]. Cette performance qualitative s'ajoute aux exigences quantitatives auxquelles les systèmes informatiques sont communément soumis : on escompte bien sûr d'un SRI des temps de réponse les plus courts possibles, malgré des volumes de données en ligne de plus en plus conséquents et des problèmes de concurrence d'accès très sévères dans le contexte multi-utilisateurs d'Internet. De notre point de vue, cette double exigence, mais surtout l'exigence qualitative, est probablement ce qui a permis un développement régulier de la RI, en lui évitant, de fait, les écueils des « overclaims » qu'ont pu connaître d'autres domaines de l'informatique à des époques où un optimisme excessif voyait dans l' « ordinateur » une réponse rapide à des problèmes qui se sont révélés en fait beaucoup plus difficiles qu'on ne le prévoyait. Les années 1960 virent aussi la fondation de la RI comme domaine scientifique, avec les premières approches formelles du domaine. On doit bien sûr ici principalement citer les travaux de Gérard (« Gerry ») Salton, professeur à Cornell University. Ses contributions sont extrêmement importantes en ce sens qu'il a été parmi les premiers à proposer une approche « modèle » du domaine, qu'il a amplement popularisée grâce à son modèle vectoriel (vector space model) et le système SMART qui l'implémente. Les ouvrages qu'il a produits suite à ces travaux (Salton, 1968; 1971; Salton et al., 1983; Salton, 1989) principalement), outre leur aspect fondateur, demeurent très intéressants par la vision large et parfois prospective qu'y donne G. Salton sur le domaine. Outre que ce modèle fut le premier à s'affranchir des approches booléennes, l'approche vectorielle, qui a introduit la notion de mesure de similarité 16 requête-document comme base d'évaluation de la pertinence système, a rapidement conduit à des développements extrêmement novateurs, dont beaucoup sont encore d'actualité. La première d'entre elles est bien sûr l'introduction de la notion de pondération des termes d'indexation (term weighting), mais aussi des termes des requêtes dans les représentations vectorielles : description du contenu des documents ou des besoins utilisateurs cessaient d' être de simples énumérations de termes (des paquets de termes), sans relief ni nuances. La seconde, conséquence directe de la première, fut la notion de classement des documents retrouvés (document ranking), rendue possible du fait de l'évaluation numérique de la similarité requête-document. La prise de conscience, dès cette époque, de l'importance de ces classements dans la visualisation des réponses pour une meilleure satisfaction des usagers fut prophétique 17. Cet aspect de la qualité des réponses des SRI fut directement et immédiatement intégré dans le processus d'évaluation des critères de rappel et de précision 18. Plus loin encore, l'extension de la notion de similarité entre vecteurs aux similarités entre documents a rapidement conduit à la notion de classification de documents (document clustering) qui donna lieu à beaucoup de développements à partir des années 70, avec les travaux par exemple de (Croft, 1977). La classification était principalement vue sous l'angle de l'optimisation des processus de résolution des requêtes, et fondée sur la célèbre cluster hypothesis, qui postule que si un document est très pertinent en réponse à une requête donnée, alors tout document fortement similaire à ce document est susceptible d' être également une bonne réponse à cette requête. D'où l'idée de décomposer les grands corpus en classes de documents similaires (au sens par exemple du modèle vectoriel), et d'utiliser ces classes comme éléments de réponse, plutôt que les documents eux -mêmes. Ce domaine a amené de riches études algorithmiques 19, qui ont été réutilisées dans d'autres secteurs d'application. On ne peut bien sûr omettre ici l'impact du modèle vectoriel sur la notion de relevance feedback, ou de reformulation automatique de requête basée sur un apprentissage des documents satisfaisant les besoins de l'utilisateur. La formule de (Rocchio, 1966) fournit une élégante et simple utilisation de l'algèbre vectorielle pour la modification interactive d'un vecteur requête en fonction des jugements de pertinence émis par l'utilisateur, en même temps bien sûr qu'elle renforce l'efficacité de l'interaction utilisateur-documents en introduisant un véritable processus de communication homme-machine qui s'apparentait déjà à un processus d'apprentissage. Une autre contribution fondatrice très importante de cette époque fut celle de (Maron et al., 1960) à propos d'une approche probabiliste de la RI. Cette première tentative fut ensuite considérablement développée par (Spärck Jones, 1981, Robertson et al., 1976), et surtout par C. J. « Keith » (van Rijsbergen, 1979) qui établit véritablement le modèle probabiliste (probabilistic retrieval). Ici, la notion de pertinence système est fondée sur une estimation directe de la probabilité qu'un document retrouvé soit pertinent; de ce fait, ce modèle demeure sans doute l'un des plus « purs » du domaine (en ce sens qu'il ne se fonde pas a priori sur des aspects pragmatiques), et l'un des plus novateurs, ouvrant la voie notamment aux approches bayésiennes de la RI, qui apparaîtront plus tard. Son inconvénient, à l'époque, résidait dans les difficultés de mise en œuvre, qui provenaient de la nécessité de disposer d'importantes données d'apprentissage. C'est au cours de cette décennie particulièrement fertile, enfin, que les spécialistes des Sciences de l'Information vont commencer à s'emparer des premiers outils de RI disponibles, et se lancer, soit dans le contexte d'institutions publiques, soit dans celui d'institutions privées, dans la constitution de grands services d'information. L' « informatique documentaire » était véritablement née, elle allait connaître un extraordinaire développement au cours des années 70-80. Cette décennie fut en effet marquée par l'apparition des premiers grands logiciels documentaires à usage public, dont la diffusion coïncida avec celle des ordinateurs dits de troisième génération. Devant l'intérêt croissant des grands services nationaux et des entreprises (bibliothèques, archives et centres de documentation publics ou d'entreprises) pour la « documentation automatique », comme on l'appelait aussi alors en France, la plupart des grands constructeurs d'ordinateurs mirent sur leur catalogue des logiciels d' « informatique documentaire 20 ». Ainsi, à la fin des années 1970, la société française CII, ancêtre de BULL, commercialisa avec grand succès le logiciel MISTRAL, fonctionnant sous le système SIRIS8. Ce logiciel fut commercialisé à plusieurs centaines d'exemplaires notamment dans les grands services publics comme la Bibliothèque Nationale, le Musée Georges Pompidou ainsi que divers ministères. De même, SIEMENS commercialisa le système documentaire GOLEM-PASSAT, destiné non seulement aux bibliothèques ou aux services d'archives, mais également à l'industrie ou aux organismes financiers. IBM ne fut bien sûr pas en reste, avec le logiciel STAIRS qui connut une large diffusion internationale. Fondés principalement sur le modèle booléen, ces logiciels d'accès multicritères à de grandes bases de données 21 bibliographiques ont suivi depuis les diverses évolutions de l'informatique 22, et ont poussé le modèle booléen hors de ses limites traditionnelles par un grand nombre d'extensions 23. Il est remarquable de constater que la plupart de ces logiciels sont encore aujourd'hui en service dans plusieurs grands organismes ! Cette longévité inusuelle dans un domaine de rapide évolution technologique s'explique par l'importance des données d'une part, et des services d'autre part, qui se sont développés au fil des années autour de ces outils 24. Au plan de la recherche française, la RI était alors surtout l'affaire des spécialistes des sciences de l'information, dont beaucoup ont rapidement perçu l'intérêt des outils informatiques dans leur domaine. On peut citer ici notamment les nombreuses études de Jean-Claude Gardin (à titre d'exemple, (Gardin, 1962; 1967; 1974)), à propos desquels on voit bien le lien qui s'est établi tôt en France entre RI et traitement des langues naturelles (TALN), qui était alors le domaine de l'informatique le plus proche, et qui comptait une forte communauté en France. Deux autres évolutions informatiques majeures de cette période ont marqué l'évolution des SRI. La première fut dans les années 70 l'apparition et la généralisation rapide des systèmes dits « conversationnels » qui ouvraient aux utilisateurs finaux l'accès direct, temps-réel, aux machines et donc, via les SRI, aux documents, qui étaient désormais « en ligne ». L'autre fut le déclin, fortement amorcé dans le milieu des années 80, des grandes architectures centralisées à base de « mainframes », au profit d'une nouvelle génération de machines plus petites mais aussi plus accessibles, et qui allaient populariser rapidement la diffusion de l'informatique auprès d'un plus large public d'utilisateurs. Ces « mini-ordinateurs », prédécesseurs immédiats des « micros » ont également servi l'informatique documentaire, dans un contexte déjà fortement interactif (bien que basé sur des architectures et des outils très différents de ceux d'aujourd'hui). Une conséquence assez nette de ces évolutions technologiques a été la volonté croissante des usagers de s'affranchir de tous les intermédiaires, et d'accéder eux -mêmes directement aux sources d'information. Cette évolution fut certainement l'un des grands tournants de la RI. Ce fut vrai pour les usagers, beaucoup moins contraints, et aussi pour les documentalistes qui pouvaient alors se concentrer sur les aspects les plus centraux et stratégiques d'un métier qui commençait à être très profondément bouleversé par les nouveaux outils et les nouveaux usages (les utilisateurs commençaient à chercher eux -mêmes l'information dans les grandes bases de données). La conséquence principale de cette évolution fut l'apparition des premiers serveurs d'information ouverts directement au public, via des interfaces de plus en plus conviviales; l'archétype de ces systèmes reste sans doute DIALOG 25, créé en 1971 par Roger Summit chez Lockheed… et toujours en activité lui aussi ! Le nom même du logiciel est suffisamment évocateur de la révolution alors en cours. L'exemple de DIALOG allait être suivi de plusieurs autres, alliant conception de SRI et service d'information « en ligne ». On ne peut bien sûr quitter la décennie 70 sans mentionner la première édition de la conférence ACM-SIGIR 26 qui, dès 1971, affirmait l'existence scientifique de la RI comme domaine commun à l'informatique et aux sciences de l'information. Les années 80 furent sans doute celles de l'émergence du domaine en France, avec l'apparition des tout premiers groupes et projets de recherche dans le domaine. Il convient ici de rappeler tout d'abord le travail pionnier de (Fluhr, 1977; 1981) qui développa SPIRIT 27, qui reste certainement le premier SRI fondé sur une approche linguistique sophistiquée. On a vu pourtant que la RI avait déjà été abordé depuis longtemps en France au niveau industriel par la CII, relayée ensuite par BULL; on retrouve ici le fait que la RI n'était pas perçue en France comme un véritable domaine de recherche en informatique. En ce qui concerne le site de Grenoble, la visite de G. Salton en 1978 au cours d'un mémorable séjour sabbatique à l'IMAG 28, fit véritablement découvrir la dimension scientifique de ce domaine, et y communiquer le « virus » de la RI. Au plan de la recherche, les années 80 virent la progression et la diffusion de l'approche probabiliste avec la création des premiers logiciels tels OKAPI (Mitev et al., 1985) qui allait connaître un bel avenir (Jones et al., 1997, Beaulieu et al., 1998), ainsi que l'émergence d'une toute nouvelle génération de modèles de RI : les approches fondées sur la logique (logic based IR). Ce nouveau courant fut ouvert par C. J. van Rijsbergen à la suite de publications fondatrices (van Rijsbergen, 1986; 1986 bis; 1989), qui proposaient de modéliser la notion de pertinence par celle d'implication logique incertaine. Cette ouverture de la RI vers le domaine formel de la logique était principalement motivé par le besoin d'encapsuler, dans un formalisme unique, plus expressif, des aspects fondamentaux de la RI aussi divers que la notion de contenu sémantique dans le contexte de documents multimédia et hypermedia, de correspondance requête-document ou d'incertitude. Cette idée souleva un engouement certain, notamment en Europe, avec plusieurs travaux, dont ceux de Jian-Yun Nie 29 (Nie, 1988, Chiaramella et al., 1990) qui fut l'un des tout premiers à explorer cette nouvelle voie, et qui introduisit les notions d'exhaustivité et de spécificité d'un document par rapport à une requête. Les approches de ce type devaient connaître un fort développement dans les années 90, comme on le verra plus loin. D'un autre côté, les recherches en RI multimédia prirent aussi leur essor dans cette période : images surtout, mais aussi graphiques, vidéo et son, commençaient à se répandre largement, avec l'avènement des grands standards de représentation. Les années 1980 ont également connu le premier engouement pour les « hyper-documents » avec tout d'abord la notion d'hypertexte, puis rapidement celle de document hypermedia. La RI commença alors à s'intéresser à ces informations fortement structurées et à remettre en cause le paradigme jusque là implicite du document en tant qu'entité atomique. Le monde des bases de données s'investit également beaucoup dans ce domaine, et l'on vit alors divers grands projets 30 que l'on peut voir comme les précurseurs des actuelles études autour des documents XML. Dans le domaine de la RI, on peut citer parmi les tout premiers travaux du genre, ceux de (Kerkouba, 1984; 1985, Chiaramella et al., 1986). Dans le domaine des bases de données, ceux de Fausto Rabitti et al., dans le cadre du projet MULTOS (Rabitti, 1985; 1990) par exemple, sont très représentatifs de cette époque qui vit également l'émergence des standards de représentation des documents structurés (ODA, SGML, ancêtres directs de HTML et XML). Comme indiqué dans l'introduction, la décennie 80 fut particulièrement déterminante pour la recherche dans le domaine en France, avec le projet SPIRIT et la création en 1983 à Grenoble d'un groupe de recherche sur le thème de la RI, et qui devait évoluer vers ce qui constitue actuellement le groupe MRIM 31. Ce groupe prit en charge la première édition de la conférence RIAO à Grenoble en 1985, puis l'organisation de la conférence internationale ACM-SIGIR 32 également à Grenoble, en 1988. Le premier projet d'envergure de ce groupe fut le projet IOTA (Chiaramella et al., 1986), un projet relatif à l'indexation et à la recherche d'information dans le contexte de documents structurés hiérarchiquement (Kerkouba, 1984; Kerkouba et al., 1985); la notion d'unité d'indexation et de réponse en tant que sous-arbre était déjà introduite et expérimentée dans ce projet, alors que des standards tels qu'ODA étaient encore en pleine émergence. D'autres équipes en France ont par ailleurs participé à ces conférences, permettant ainsi la création d'une communauté nationale en RI (David et al., 1985, Grau et al., 1985, Bosc et al., 1985, 1986 et 1988). Ces deux manifestations avaient également pour vocation de mieux faire connaître le domaine scientifique 33 en France, et de permettre à la communauté qui y débutait alors, d'établir des contacts avec les meilleurs chercheurs du moment. Le soutien constant de personnalités comme G. Salton, C. J. van Rijsbergen, S. Robertson, K. Spärk Jones ou W. B. Croft, pour ne citer qu'eux, fut déterminant pour le succès de toutes ces initiatives. Si la période des années 1980 fut très fertile, la période actuelle, que nous situons du début des années 1990 à nos jours, est marquée par une véritable explosion du domaine de la RI. Cette évolution s'inscrit bien sûr tout d'abord dans la continuité du mouvement des années 1980, avec les premiers SRI probabilistes et notamment le système INQUERY (Turtle et al., 1991; Broglio et al., 1994) de W. B. Croft et son groupe à Amherst. Ce projet mit en œuvre la notion d'inférence probabiliste, en s'appuyant sur une approche à base de réseaux bayésiens. INQUERY reste sans doute la première et la plus importante tentative de mise en œuvre des réseaux bayésiens en RI; mais si ses résultats d'expérimentation furent remarquables, l'approche reste encore problématique dans le contexte de très grands corpus tels que le Web. Nous avons déjà mentionné la progression d'OKAPI (Robertson et al., 1995, Jones et al., 1997), qui demeure également une très bonne référence dans le domaine, mais il faut également citer la plate-forme TERRIER 34 mise au point à l'Université de Glasgow (Ounis et al., 2007), qui demeure un centre européen actuellement très en pointe pour les recherches autour des approches probabilistes, comme le montrent encore d'autres contributions de (Amati et al., 2002; Plachouras et al., 2004). Dans cette même continuité, les approches fondées sur la logique connurent alors leur plein essor avec l'élaboration de nombreux modèles dédiés à la RI multimédia. Citons les travaux de Fabrizio Sebastiani et Carlo Meghini, qui explorèrent les possibilités des logiques terminologiques en RI (Sebastiani, 1994), ceux de Mounia Lalmas sur la théorie des situations ou la théorie de l'évidence, de Dempster-Schafer (Lalmas et al., 1993), ceux de Norbert Fuhr sur l'utilisation d'un Datalog probabiliste (Fuhr, 1995), ou ceux de (Crestani, 1996) sur les techniques d'imaging. Les travaux du groupe MRIM autour de l'utilisation des graphes conceptuels (Chevallet, 1992) s'inscrivent également dans ce courant. On pourra trouver un bon survol de certaines de ces recherches dans (Crestani et al., 1998) ou dans l'historique du projet européen FERMI (Chiaramella et al., 1996). Mais le grand tournant des années 90 fut évidemment la popularisation des communications via Internet, et la véritable révolution que cela entraîna dans le domaine des communications en général, et de la documentation en particulier. La première conséquence fut l'avènement des moteurs de recherche sur le Web avec, dès 1991, l'apparition de WAIS 35 de Thinking Machines et GOPHER 36 dans l'environnement des réseaux publics, et qui eurent un impact immédiat et énorme du fait de leur diffusion en logiciel libre. Si le réseau et ses premiers services grand public étaient prêts, il en était de même depuis quelques années du côté des utilisateurs avec l'expansion rapide de l'informatique grand public qui avait démarré dans le milieu des années 80, avec les produits de Microsoft et Apple, principalement. Une dizaine d'années plus tard, c'étaient donc des millions d'utilisateurs tous publics qui étaient concernés, et non plus quelques milliers ou dizaines de milliers d'utilisateurs professionnels. Au plan de la recherche, cette évolution attire l'attention de nombreux domaines scientifiques relevant des STIC 37 sur la RI. Citons les bases de données avec les travaux de (Le Maitre et al., 1997), l'intelligence artificielle et en particulier l'apprentissage avec (Gallinari et al., 2002), la communication homme-machine avec Nick Belkin (Koenemann et al., 1996; Ingwersen et al., 1999) et l'introduction de la dimension cognitive en RI (Ingwersen et al. 2005), les services web, le traitement des langues naturelles avec (Gaussier et al., 2003), le traitement du signal avec (Gros et al., 2001; Smeaton et al., 2004). Mentionnons enfin la structuration de la communauté de RI française au sein de l'association ARIA 38, qui est à l'origine de la création de deux manifestations scientifiques : la conférence francophone CORIA 39 et l'école d'automne EARIA 40 dont la première édition à eu lieu en 2006. A un niveau expérimental cette structuration est également en marche, avec la plate forme RFIEC 41 qui permet de fédérer en France des ressources pour l'expérimentation et les évaluations des SRI. Ce foisonnement est cependant tel dans chacune de ces dimensions actuelles de la RI que nous ne pouvons, dans le cadre de ces quelques pages, que présenter un point de vue très synthétique des travaux en cours. Pour plus de détails, le lecteur pourra se référer à l'ouvrage de (Baeza-Yates et al., 1999) pour des aspects interaction, langue naturelle pour la RI et l'axe multimédia de la RI, qui a pris un essor très considérable notamment autour de l'image, puis de la vidéo. Ces problématiques ont nécessairement conduit de nombreux rapprochements entre les communautés de la RI et du traitement du signal, tant les deux compétences sont ici à la fois complémentaires et indispensables. Le grand problème réside dans la résolution du « fossé sémantique 42 » existant entre les traits de bas niveau, extraits des documents par les processus de traitement du signal, et leur interprétation symbolique, dans une terminologie accessible aux utilisateurs (Smeulders et al., 2000). De très nombreux travaux abordent cette question clé à partir de processus d'apprentissage d'une part, et de mise en œuvre d'ontologies d'autre part. Bien que souvent un peu oublié de nos jours, il convient de placer le texte dans cet axe : qui pourra soutenir en effet que le texte n'est pas un média ? Si l'on avait des doutes, il n'est qu' à voir l'usage de plus en plus intensif qui est fait des données textuelles dans le contexte de l'indexation d'images (Kherfi et al., 2004); nous sommes bien là dans un contexte « multimédia » ! Naturellement, l'axe multimédia s'étend également au domaine du son : parole, musique, voire bruits sont de plus en plus abordés, bien que de manière moins étendue que pour les précédents médias. L'axe multilingue de la RI est également en plein essor. Il est directement complémentaire de l'axe multimédia, et prend une très grande importance dans le contexte d'Internet : cross language IR, multilingual IR visent à permettre à des utilisateurs d'exprimer dans leur langue maternelle (celle dans laquelle ils peuvent le plus précisément s'exprimer) des requêtes leur permettant de trouver des documents rédigés dans une langue (ou plusieurs) qui leur est (sont) étrangère(s). La communauté du TALN est évidemment fortement concernée par cet axe, notamment sur l'aspect traduction. Caractéristique de ce courant est le système SPIDER développé à l'ETH Zürich (Sheridan, 1996) qui avait été initialement été développé dans le contexte de la parole par (Schaüble, 1997), le pionnier dans le domaine (voir aussi Klavans et al., 1998) L'axe document structuré de la RI est également en pleine expansion, qu'il s'agisse de la continuité des travaux engagés dans le contexte des documents hypermédia, ou de l'émergence de la norme XML comme standard de représentation des documents électroniques. La problématique de base est ici, du point de vue de la RI, de fournir aux usagers des réponses aussi focalisées que possible, en leur restituant les composants des documents les plus spécifiques à leur besoin. Cette évolution est rendue indispensable dans le contexte du Web en raison d'une part de la nature hypermédia de l'information qui y est accessible (la notion classique de document y devient très vague en terme de structure et donc de contenu), et du fait de la taille énorme du corpus d'autre part (il convient de limiter en taille le volume d'informations retournées aux utilisateurs, pour des raisons ergonomiques, et pour éviter de dépasser leur capacité à exploiter effectivement cette information) (Luk et al., 2002). De nombreux groupes de recherche sont ainsi impliqués dans la RI XML 43. On peut également situer dans cet axe les travaux relatifs au passage retrieval, qui vise au même objectif de focalisation des réponses, mais avec une approche de structuration des documents qui est essentiellement linéaire, et éventuellement indépendante de leur structure logique. Les éléments de réponse des SRI fondés sur ce type d'approche sont alors des passages, ou fragments de documents, sensés contenir l'information recherchée. Les systèmes questions-réponses 44, peuvent être vus comme la limite ultime de l'approche passage retrieval, dans la mesure où l'on vise à trouver les plus petits fragments possibles de texte comportant la réponse souhaitée. Ce courant est également extrêmement actif. Avec les moteurs de recherche sur le Web on aborde un axe majeur du domaine, de par son impact technologique (on peut dire aussi : sociologique) et applicatif, et les problèmes scientifiques que ce type d'environnement pose. Il s'agit également d'un domaine fédérateur, dans lequel on peut retrouver plusieurs des axes mentionnés ci-dessus. En ce qui concerne l'aspect modèle, les approches vont de l'adaptation directe des modèles de recherche les plus classiques à cet environnement particulier, à l'exploitation de nouveaux paradigmes de pertinence, comme la notion d'autorité exploitée avec grand succès par Google, et qui est à la base de son algorithme PageRank (Page et al., 1998). De plus, l'utilisation de traces (logs) sur des SRI sur le web pour adapter les systèmes aux utilisateurs est sujet à de nombreux travaux (Cui et al., 2003). La validation expérimentale des SRI relativement à ces différents axes est également en plein développement, avec des initiatives très importantes comme celle conjointe du NIST et du DOD 45 américains avec le programme TREC 46, lancée au début des années 90 (première conférence TREC en 1992). TREC comporte actuellement 7 programmes d'expérimentation (tracks) correspondant à divers axes de développement de la RI. La conférence TREC s'est depuis enrichie. Cette initiative fut suivie CLEF 47, une initiative européenne en 2000 dans le domaine du multilingue, et plus récemment d'INEX 48 dans le domaine des documents XML. Par rapport aux classiques collections tests, ces programmes présentent plusieurs évolutions importantes. La première réside dans la taille des collections, qui se veut la plus réaliste possible par rapport aux contextes réels de la RI; on vise ainsi des collections de plusieurs centaines de milliers à plusieurs millions de documents, construites de manière collaborative par les participants aux campagnes d'expérimentation. La seconde est l'organisation de programmes d'expérimentation : les collections sont établies en vue d'expérimentations particulières (par exemple la RI multilingue). La dernière réside dans l'aspect compétitif des expérimentations : les participants testent leur système au cours des mêmes campagnes, et les résultats comparatifs sont présentés dans des conférences spécifiques. Ainsi se perpétue, et même se renforce, la tradition d'expérimentation de la RI, née comme on l'a vu dans les années 1960 ! Au-delà de la validation d'approches issues de la recherche, un objectif très important de ces environnements d'expérimentation « en taille réelle », est également de favoriser le transfert technologique des meilleures approches, par une démonstration convaincante de leur efficacité. La plupart des perspectives présentées ici reflètent bien entendu le point de vue des auteurs; elles tentent de cerner certaines directions principales qui nous semblent à la fois prometteuses en termes d'application et d'acceptation, et importantes en ce qu'elles constituent souvent des verrous scientifiques majeurs. Ces propositions sont présentées de manière structurée pour en faciliter la lecture, mais il est clair que la plupart des thèmes évoqués sont souvent interdépendants. Il est clair par ailleurs que le domaine de la RI, ou la plupart de ses thèmes, figurent en très bonne place depuis plusieurs années dans les programmes ou orientations stratégiques des grands organismes de recherche, et ceci tant au plan national qu'européen. Ainsi, dans l'appel ICT du 7e PCRD (EC, 2007), le thème de l'extraction de sens de documents à partir duquel l'utilisateur peut effectuer des recherches, apparaît. La frontière entre RI et fouille de données est donc susceptible de se réduire, car d'une certaine manière le SRI propose une manière d'explorer les réponses. Par ailleurs, dans le contrat d'action pluriannuel du CNRS signé en 2002 (CNRS, 2002), il est souligné dans la partie dédiée aux sciences de l'information et de la communication, que des travaux portant sur un espace d'information et de communication ouvert, navigable et sûr doivent être réalisés, et que l'interaction avec l'utilisateur est aussi un élément très important. Enfin, l'INRIA, dans son plan stratégique 2003-2007 (INRIA, 2003) définit l'indexation et la recherche de documents multimédia comme l'un de ses sept défis prioritaires. Pour en revenir aux thèmes du domaine, il paraît évident que la dimension utilisateurs, qu'on a vu depuis longtemps au centre des préoccupations du domaine, prendra demain encore plus d'importance avec cet élargissement colossal du public des usagers. Accroissement en nombre, certes, mais aussi en variétés de typologies, de situations de recherche, c'est-à-dire des paramètres qui peuvent caractériser les conditions dans lesquelles une recherche d'information est effectuée, et qui peuvent influer sur les stratégies de recherche mises en œuvre, les types de données sélectionnées, voire les interfaces ou l'environnement de communication homme-machine utilisées, pour que cette recherche soit la plus satisfaisante possible. Cette orientation reprend finalement les hypothèses depuis longtemps formulées par les pionniers de la RI, quant à la complexité et au caractère multiforme de la notion de pertinence. Elle vise donc une conception beaucoup plus réaliste, moderne aussi, de cette notion essentielle, mais cette évolution est à peine amorcée de nos jours. Cette nouvelle perspective de la RI, actuellement dénommée « recherche d'information en contexte » (contextual IR), constitue donc un enjeu majeur du domaine, et devrait connaître un fort développement au travers de plusieurs thèmes très complémentaires que nous évoquons ci-dessous. Un élément important en terme d'acceptation des SRI est la qualité de l'interaction entre système et utilisateur. Si on se limite ici strictement aux modalités d'interaction, et au-delà de la boucle habituelle requête/réponse d'un système, ou même de l'inclusion de bouclage de pertinence (relevance feedback), on doit constater que les modes d'interaction utilisés ont relativement peu progressé. En particulier, les approches relatives aux modes d'interrogation ou de navigation, ainsi que les modalités de présentation des résultats, ont peu progressé en comparaison des avancées sur les techniques d'indexation et de recherche. L'aide à la formulation de requêtes pourrait intégrer les développements actuels autour des ontologies pour désambiguïser la communication utilisateur-SRI. Les approches de requêtes par l'exemple utilisées pour les recherches d'images ou de vidéo, pourraient servir d'inspiration pour permettre de poser des recherches par requête et en fournissant des exemples non nécessairement dans le corpus initial. Les problèmes posés sont nombreux, tant du point de vue analyse des documents-requêtes que des aspect purement interactifs, mais une telle souplesse serait certainement une avancée pour la RI. Une telle souplesse se retrouve dans des systèmes proposant des documents à un utilisateur en se basant sur son profil, ces documents pouvant servir de base à des recherches ultérieures. Un autre paramètre lié au profil d'un utilisateur peut intégrer des aspects sociaux comme la prise en compte de communautés auxquelles il appartient, pour filtrer des documents ou proposer des recommandations (ceci rejoint l'aspect « adaptation » développé ci-après). En ce qui concerne la présentation des réponses, le problème consiste à organiser les résultats d'une requête pour en faciliter l'exploration par l'utilisateur. Si certaines approches existent sur le web il est nécessaire d'aller plus loin pour gagner en facilité d'interaction. On peut pour cela dépasser la notion de pertinence d'un document pour une réponse, et évaluer également la pertinence d'une organisation des réponses pour une requête. Ce type de préoccupation apparaît déjà sur le moteur Kartoo, mais sans évaluer la pertinence de l'organisation proposée. Des systèmes proposés sur le web, comme Clusty ou Exalead, proposent des visions organisationnelles placées à un autre niveau que les documents (regroupements de documents), mais n'offrent pas une réelle intégration dans le SRI. La prise en compte du relevance feedback, qui constitue pourtant un élément essentiel de l'interaction utilisateur-SRI, est encore faible dans les moteurs de recherche sur le Web. Une prise en compte de ce processus en tant qu' « apprentissage » pourrait être développé, en y intégrant non seulement des critères de contenu pertinent, mais aussi des éléments liés à la situation de recherche (typologie d'utilisateur etc.). Par le passé, les SRI n'ont pas vraiment été pensés comme s'adaptant à l'application. Même s'il est clair que, l'extraction des termes d'indexation, le vocabulaire, les schémas de pondération sont des adaptations, elles sont relativement brutes, ayant comme objectif unique d'améliorer les évaluations quantitatives des systèmes sous forme de précision moyenne par exemple. La notion d'adaptation pour un SRI comprend de nombreux aspects qui présentent la problématique de RI sous un jour nouveau : l'adaptation à l'utilisateur : par défaut, un SRI est peu sensible aux spécificités d'un utilisateur. Cette adaptation à l'utilisateur vise à personnaliser le système en fonction de paramètres spécifiques à un (ou un groupe) d'utilisateur(s). De manière immédiate, on pense qu'une telle adaptation doit impacter l'étape d'analyse de la requête, de manière à par exemple transformer une requête utilisant des termes d'un utilisateur en des termes présents dans le corpus, cette transformation n'étant pas générique (par l'usage d'un thesaurus par exemple), mais bien spécifique à l'utilisateur. Prenons un exemple : si un utilisateur pose une requête « je veux des documents techniques sur mon ordinateur personnel », le système doit être en mesure de traduire cette requête en une requête sur un modèle particulier d'ordinateur. Les problèmes ici sont liés à la compréhension fine d'une requête, et à l'organisation et à l'accès à des informations modélisant l'utilisateur. Cette adaptation à un utilisateur peut également avoir un impact sur le choix de la pertinence des documents renvoyés par le système : un terme ambigu peut être désambiguïsé en tenant compte d'informations sur l'utilisateur (requêtes passées, centres d'intérêts, etc.). On rejoint ici l'aspect « apprentissage » évoqué plus haut; l'adaptation à la tâche de recherche : suivant les circonstances, un utilisateur peut vouloir utiliser différentes fonctionnalités de RI. Par exemple, une tâche de veille sur un sujet donné ne fait pas appel aux mêmes approches qu'une recherche sur un sujet dont l'utilisateur est experte. Au-delà de ce qui a été évoqué pour l'adaptation à l'utilisateur, il serait intéressant de prendre en compte l'existence de différentes tâches de recherche, possiblement récurrentes, que peut réaliser un utilisateur, et donc de pouvoir adapter le système à différentes tâches d'un même utilisateur. Ceci peut se traduire par une adaptation dynamique de la fonction de correspondance utilisée, pour favoriser par exemple des documents plus généraux ou plus spécifiques à un sujet donné, en fonction d'une typologie des tâches en cours. En fait, le choix même du processus de recherche doit dépendre de ce contexte : si une requête est plutôt estimée comme nécessitant une réponse (comme dans un système question/réponse) alors le système doit s'adapter, il en va de même pour traiter des requêtes courantes en RI. Cette notion de contexte de tâche de recherche englobe également des aspects liés à l'environnement dans lequel se produit la tâche de recherche : par exemple contexte de réunion dans lequel on veut un document précis, ou bien contexte de loisir pour lequel on peut perdre en qualité de réponse tout en proposant des documents connexes au sujet principal. La manière dont ces éléments se comportent n'est pas claire pour le moment, mais ce sujet est important pour rendre utilisable les systèmes, l'adaptation au contexte informatique : on considère ici les SRI répartis, le nomadisme. Le problème ici n'est pas, trivialement, de changer la présentation de la réponse suivant le contexte, mais de modéliser ces éléments pour ensuite créer des systèmes qui tiennent compte de ces paramètres de façon la plus générique possible. Dans le cadre de la RI répartie, on peut signaler particulièrement les problèmes liés au contexte pair à pair qui devraient permettre de tirer parti d'un environnement de machines connectées pour répondre à des besoins d'information. Dans ce cadre, la contrainte de l'efficacité en terme de temps de réponse se pose avec encore davantage d'acuité qu'habituellement en RI, l'adaptation à l'intégration de nouvelles sources de connaissances, et plus particulièrement de sources de connaissances socialisées. On voit l'émergence d'informations fournies par les utilisateurs mêmes du web (wikis) ou bases de connaissances (common knowledge). La manière dont ces nouvelles sources peuvent être utilisées est ouverte, car ces connaissances ne sont pas forcément attestées, exhaustives, etc. L'intégration de connaissances particulières à un (ou un groupe) d'utilisateurs de manière transparente peut favoriser l'émergence de nouveaux modèles de RI capables de gérer cette connaissance et de l'utiliser à bon escient. Chacune de ces modalités d'adaptation peut être généralisée en suivant une trajectoire d'explicitation des données ou des informations. Le fait de rendre explicites certaines données sur l'utilisateur, sur le contexte de recherche, ou bien certaines données sur les documents eux -mêmes, devrait donner lieu à de nouvelles avancées sur l'utilisation transparente, interactive, des SRI, et tout particulièrement en ce qui concerne les modèles de RI, sachant que seule une intégration de ces évolutions à ce niveau « modèle » pourra permettre de garantir une cohérence du système global. Dans notre esprit, l'espace documents pour la RI comprend les documents et leur contenu, et également la façon dont ces documents sont organisés dans le corpus. Historiquement en RI, les documents sont atomiques, textuels, et indépendants les uns des autres. On a vu cependant sur le web avec le succès des moteurs comme Google grâce au principe du Pagerank (Page et al., 1998), que l'interrelation entre documents peut être un élément très utile à prendre en compte. Nous distinguons plusieurs axes de recherche sur « l'espace documents » en RI : Les types de données des documents : des recherches ont déjà porté spécifiquement sur de « nouveaux » types de documents, comme les données vidéos, sonores ou images fixes. Les résultats actuels sont loin d'atteindre la qualité atteinte par les travaux sur les documents uniquement textuels. Si nous considérons chaque média (visuel, textuel, sonore) pris indépendamment comme des documents, les problèmes sont déjà nombreux pour réussir à extraire des caractéristiques clairement utilisables pour représenter leur contenu. Les efforts sur ces aspects n'ont pas encore vraiment atteint un niveau utilisable par le grand public, en grande partie à cause de la taille des vocabulaires utilisés, et cet axe de recherche devrait être amplifié à l'avenir. Dans cet axe, on trouve également un problème qui est loin d' être résolu et qui est la recherche multilingue de documents, domaine dans lequel on peut exprimer une requête dans une langue et retrouver des documents dans d'autres langues. La granularité des documents. Si un objectif futur des SRI est de fournir les parties de documents les plus adaptées au besoin de l'utilisateur (focalisation des réponses), il faut alors être en mesure d'extraire les différents grains d'information et de les manipuler de manière efficace et satisfaisante pour les utilisateurs. De nombreux travaux sur les documents structurés au format XML ont été réalisés, mais on est encore loin d'atteindre des consensus sur ce sujet, et il serait urgent de développer des modèles intégrant une relation formelle entre structure du document et contenu sémantique. Les relations entre documents. Les documents d'un espace ne sont pas autonomes, le cas du web est un bon exemple. En fait, le problème est de déterminer pour les documents, ou les parties de documents, les relations qu'ils entretiennent pour les utiliser lors de l'indexation et de la recherche. Déterminer à quel moment prendre en compte des informations est primordial, mais actuellement on se place toujours dans des contextes ad hoc : les liens sortants pour le web, les co-occurrences temporelles pour les documents vidéos par exemple, etc. Il manque des efforts de fond pour déterminer comment des documents peuvent être liés (de manière explicite à la construction ou non), comment prendre en compte ces éléments lors de l'indexation, et comment les prendre en compte au niveau du traitement des requêtes. Des collections de test. Plus nous complexifions la représentation des documents, plus il est difficile de proposer des collections de test sur ces documents. Ce problème n'est pas vraiment résolu par les campagnes actuelles comme TRECVid ou INEX, au moins pour la prise en compte du contexte de recherche, ou celle des spécificités de l'utilisateur. De même, les métriques utilisées pour comparer les systèmes ne sont peut-être pas adaptées à tous les cas (cf. les évolutions des mesures d'INEX par exemple (Kazai et al., 2005)), mais pour évaluer réellement les progrès accomplis, comparer des approches, il est nécessaire de proposer des classes de mesures adaptées à chaque type de collection ou d'usage. De ce point de vus, les travaux autour de nouvelles métriques. La situation est analogue quand on considère la dimension interactive de la RI : comment prendre en compte ce contexte éminemment dynamique avec des mesures aussi « statiques » que les classiques mesures de précision et de rappel ? Pour résoudre le défi de ces nouveaux contextes, mais aussi ceux liés à l'extraordinaire complexité de la conception de collections tests aussi grandes et variées que les contextes actuels l'exigent, il est indispensable de mettre au point de nouvelles métriques. Tout un nouvel axe s'est ainsi développé depuis quelques années, proposant de nouvelles mesures telles que RR (Relevance Ranking) ou DCG (Discounted Culumative Gain), etc.; on peut voir un intéressant état de l'art de ces approches dans (Kagolovsky, 2003; 2004). Même si l'on peut comprendre que cet aspect est souvent délaissé par la recherche académique du fait de l'investissement d'expérimentation nécessaire, ce domaine de l'évaluation en vraie grandeur demeurera très important pour la RI, demain comme aujourd'hui et hier. Les différents thèmes évoqués ci-dessus sont, pour la plupart, fortement liés; les solutions qui leur seront apportées ne pourront donc être efficacement mises en œuvre que si l'effort entrepris depuis les années 1980 pour le développement de nouvelles générations de modèles de RI est poursuivi. Les orientations possibles sur ce sujet sont nombreuses, toutes intéressantes et, pour la plupart, incontournables. Nous avons déjà mentionné le problème crucial du « fossé sémantique », véritable obstacle majeur pour le développement de la RI non textuelle; les approches fondées sur les techniques d'apprentissage d'une part, l'usage d'ontologies adaptées d'autre part, sont une piste intéressante pour passer un jour d'une indexation signal des données non textuelles à une indexation symbolique réellement utilisable et utile. Nous avons également évoqué le problème important de la relation entre structure des informations et contenu sémantique; la mise en évidence des propriétés correspondantes, leur mise en œuvre pour améliorer les performances de la RI ne peuvent qu' être entreprises via un travail préalable de modélisation formelle. Pour ne nous en tenir qu' à des problèmes fondamentaux, il faut enfin mentionner ici la convergence toujours recherchée entre les modèles de pertinence fondés sur la logique, et ceux fondés sur les probabilités. Il y a là certainement un champ de collaboration fort entre la RI et les mathématiques appliquées, qui devrait être développé. Illustrant cette nouvelle voie, on peut citer récent ouvrage de (van Rijsbergen, 2004) proposant des outils mathématiques inspirés de la mécanique quantique. Naturellement, figurent aussi dans cette rubrique tout le courant spécifiquement dédié aux modèles de RI en contexte, comme par exemple (Budzik 2001, Bradley 2004). Juste retour des choses, de telles évolutions fortement « centrées utilisateurs », répondent sans doute enfin à l'attente depuis longtemps formulée par les spécialistes des Sciences de l'Information, et qui est de mettre l'usager « chercheur d'informations » au centre de la conception des SRI. Des pionniers tels que Tefko Saracevic, après avoir puissamment contribué aux recherches sur la notion même de pertinence dès les années 1970 (Saracevic, 1970), s'intéressent depuis longtemps aux modèles cognitifs de la RI interactive (voir par exemple (Spink et Saracevic, 1970; Ingwersen 1992 et 1999). Les résultats de ces recherches très proches des Sciences Humaines autour des usagers en situation de recherche interactive, de leurs comportements et des connaissances mises en œuvre doivent absolument être pris en compte dans l'élaboration des futurs modèles de RI. Les possibilités offertes actuellement par la technologie sont très vastes; et le risque est d'autant plus grand, face à un problème aussi complexe et multiforme que la RI en contexte, de s'égarer dans de « fausses bonnes idées » ! Nous avons souvent entendu ces pionniers répéter ce message… le temps est certainement venu de leur apporter une réponse !
La recherche d'information (RI) fut fondée peu de temps après l'avènement des premiers ordinateurs, et constitue certainement la plus ancienne application de l'informatique à l'accès aux documents électroniques. Près de soixante ans plus tard, et une vingtaine d'années après la révolution d'Internet et ses milliards de pages accessibles sur la Toile, la RI est plus que jamais d'actualité. Le domaine fut longtemps réduit à des applications non interactives où l'utilisateur devait soumettre ses besoins d'information à des intermédiaires experts en « documentation automatique », et qui avaient seuls accès au système de recherche d'information. Le domaine est bien sûr à présent entièrement tourné vers la RI interactive, associant de manière étroite utilisateur et moteur de recherche, dans des environnements tenant de plus en plus compte de la situation de recherche en cours, de façon à rendre cette quête plus efficace (la « recherche d'information en contexte»). Cet article présente un large tour d'horizon sur cette évolution, les étapes principales de son histoire les grands domaines de recherche actuels, pour conclure sur les perspectives d'évolution qui nous semblent les plus probables.
sciencesInfo_08-0133291_tei_DN_101_0011.tei.xml
termith-531-communication
Dans les milieux de soins psychiatriques, les pratiques artistiques utilisées à desfins thérapeutiques, regroupées généralement sous le nom d' « art-thérapie » ,suscitent un intérêt croissant. En témoignent l'émergence d'ateliers de ce typedans un grand nombre d'institutions spécialisées, ainsi que la quantité deformations diverses (y compris universitaires) mises en place pour répondre à lademande de professionnels soucieux d'acquérir des outils spécifiques. Parallèlement ,ces pratiques « art-thérapeutiques » ont fait l'objet de plusieurs publicationsd'envergure, mais aussi de nombreuses expositions. Des revues et des musées leursont aujourd'hui entièrement dédiés. Cependant, « l'art - thérapie » reste un objetaux contours assez flous. Avant tout, c'est une appellation qui suscite de nombreuses controverses : certainsrécusent le terme « art » en revendiquant des aspirations bien plus modestes (onparle, par exemple, d' « ateliers d'expression »), d'autres se refusent à employer lemot « thérapie » en contestant l'objectif de guérison qu'il induit. Définirl' « art-thérapie » est aussi une tâche complexe en raison de la grande hétérogénéitédes pratiques liées à la combinaison possible de plusieurs paramètres : la catégoriede public visé (psychiatrie adulte ou pédopsychiatrie, gériatrie, soins palliatifs ,assuétudes, etc.), la technique artistique privilégiée (arts plastiques, arts de lascène, etc.) ou encore le caractère individuel ou collectif de la prise en charge .Les pratiques varient également en fonction de la formation de l'art - thérapeute( artiste professionnel ou psychologue par exemple) et des obédiences dont il seréclame (psychanalyse, systémique, psychothérapie institutionnelle, etc.). Au-delàde cette diversité, il faut investiguer ce qui rassemble ces multiples approchesdans leurs fondements et qui s'exprime, selon nous, dans une conception commune del'art comme outil de médiation, comme moyen d'entrer en relation. Dès lors, explorerces convergences sera notre premier objectif. Après avoir construit un « modèle »articulant les divers processus de médiation repérés chez les théoriciens del'art-thérapie, il s'agira, à l'instar de la sociologie pragmatique, d'éprouvercette médiation en « contexte »; c'est-à-dire dans ses conditions concrètesd'exécution mais aussi en référence au « champ » dans lequel s'inscrivent lespraticiens. Le processus art-thérapeutique engage différentes situations de communicationqu'il convient, selon notre perspective, de répertorier. C'est en analysant uncorpus d'ouvrages généralistes sur l'art-thérapie et en dépassant les divergences depoints de vues à travers lesquelles se distinguent les spécialistes, que nousproposons de décrire les éléments composant l'acte de communication dans cedispositif. Parce que l'accent doit être mis davantage sur la relation – le lienqui unit le destinateur au destinataire – que sur la transmission d'uneinformation, nous parlerons désormais de « médiation » plutôt que de« communication » (Servais, 2000 : 40). À travers la description de ce processusà trois termes, il s'agit de se déplacer parmi les divers cas de figure repéréschez les théoriciens. Ils sont rassemblés schématiquement ci-dessous : d'abord ,le destinateur; ensuite le « tiers médiateur » et, dans les deux colonnes dedroite, les différents destinataires qui orientent la médiation tantôt du côtédu singulier, tantôt du collectif. Que le patient soit identifié en la figure du destinateur semble une idéecommunément admise. Dans les descriptions des séances d'art - thérapie, tout sedéroule comme si l'intention de communiquer lui était entièrement attribuée. Lerôle du médecin prescripteur en tant que « préémetteur » est donc passé soussilence, même si certains semblent regretter la perte de spontanéité dansl'institutionnalisation de ce qui, disent-ils, « par essence, devait êtretransgression, rébellion » (Sudres, 2003-2004 : 13). Les destinataires, quant à eux, sont multiples et souvent au sein d'une identiquevision. C'est d'abord à lui -même que le patient s'adresse en art - thérapie (cequi renvoie au mythe, répandu dans ce milieu par l'art brut, du créateur commeseul destinaire de son œuvre). C'est alors tantôt la création qui, ens'introduisant comme tiers, permet au patient de mettre sa souffrance àdistance – l' œuvre est une projection de lui, mais elle n'est pas lui (Klein ,2001 : 41) –, tantôt l'art-thérapeute qui fait office de médiateur entre réalitéinterne et externe du patient telle qu'il la projette dans ses réalisations .Mais, par la médiation de sa création, le destinateur s'adresse aussi aux« autres » en général : il faut distinguer ceux qui sont internes àl'institution et ceux qui lui sont externes (en référence aux deux coupuresopérées par l'institution psychiatrique telles qu'elles ont été décrites parRobert Castel, in : Goffman, 1961). En interne, ledestinataire privilégié du patient semble être le thérapeute : tous deuxpeuvent, grâce à la spécificité du médium artistique, entrer dans une relation« d'inconscient à inconscient » (Klein, 2001 : 51), ce qui facilite, pourcertains, la relation transférentielle (Boyer-Labrouche, 2000 : 34). Les autrespatients sont un destinataire plus rarement évoqué par les théoriciens, car leur prise en compte dansl'acte de communication suppose une vision systémique de l'art-thérapie, peurépandue en regard de la perspective psychanalytique, du moins dans le mondefrancophone. Néanmoins, la réalisation d'une œuvre en commun semble constituerune expérience privilégiée dans les relations de groupe et permet d'introduireun travail sur les « patterns interactionnels »( Barberis-Bianchi, Delage, 2003-2004). Pour quelques art-thérapeutes, lacréation de groupe est aussi l'occasion de rendre solidaires soignants etsoignés autour d'un même projet, voire de les réunir au-delà de leur statut( Forestier, 1999; Bareil Guerin, 2003-2004). Au niveau de la coupure avec le monde extérieur opérée par l'institutionpsychiatrique, un des liens importants à renouer pour le patient est celui quil'unit à sa famille. Par exemple, lors de l'exposition de ses peintures, laprésence de cette dernière au vernissage peut être d'un secours certain sur lechemin de la valorisation narcissique (Bareil Guerin, 2003-2004). Notons aussila mention faite, par l'un des auteurs systémiques, de l'utilisation del'art-thérapie en thérapie familiale. Les diverses manifestations de typeexpositions ou représentations théâtrales ont aussi pour but l'ouverture vers unpublic extérieur plus large. Même si ces pratiques ont leur lot d'opposants (unouvrage s'ouvre sur le récit du suicide d'un patient après l'exposition de sesœuvres par un jeune psychiatre), certains art-thérapeutes les défendent enévoquant les bénéfices résultant de ces marques de reconnaissance. Terminons la description de ce schéma par l'analyse de la médiation opérée parl'art-thérapeute lui -même, et non plus par la création telle que nous venons del'observer. Outre le lien qu'il constitue (déjà évoqué ci-dessus) entre lepatient et son œuvre considérée comme reflet de lui - même, l'art-thérapeute, eninterne, peut faire office de médiateur entre le patient et l'ensemble del'équipe médicale, car « sa position spécifique à cheval sur les statuts […] luiassure une position intermédiaire dans les équipes où il travaille » (Rodriguez ,Troll, 1999 : 133). En externe, l'art - thérapeute, tel un « passeur de l'art »( Granier, 2003-2004 : 224), voudrait engager les patients créateurs dans lechamp artistique : « L'artiste qui s'est affirmé comme marginal supérieur montreen quelque sorte la voie à ceux qui croient que la marginalité est unecondamnation » (Klein, 2001 : 92). À ces différents processus de médiation correspondent des vertusthérapeutiques qu'il convient d'examiner rapidement. C'est sur ce point surtout que se marquent les différences entre les théoriciens. Sans entrer dansles débats et nuances relatifs aux multiples obédiences, nous proposons deregrouper ces bienfaits en deux catégories : ceux qui sont de l'ordre de« l'expression » et qui agissent en interne; ceux relevant du « liensocial » et de la mise en contact avec le monde extérieur. On se situe alorstantôt dans le registre de « la communication intersubjective [qui] est lelieu dans lequel se posent des questions d'identité et dans lequels'instaurent des relations de filiation; [tantôt dans] la communication“ médiatée” [qui] est le lieu dans lequel se posent des questions de cultureet dans lequel s'instaurent des relations d'appartenance » (Lamizet, 1995 :137). Jusqu'au récent développement des ateliers d'art-thérapie dans lesinstitutions de soins psychiatriques, les œuvres des patients étaient plutôtconsidérées par les médecins comme des expressions, des symptômes de leurmaladie. Aujourd'hui, on perçoit dans la création quelque chose de différentque cette « réalité déjà connue » (Florence, 1997 : 108) : on considère que« l' œuvre ouvre à du sens, non encore constitué, qui pourra se développer àl'infini » (ibid.). L'expression artistique est doncdevenue facteur de nouveauté, vecteur privilégié d'un possible développementpersonnel. Mais comment procède -t-elle et quelle est sa spécificité ?Incontestablement, c'est le caractère non verbal de l'art qui fascine lesthérapeutes : tous vantent les mérites de cet autre langage qui permetd'exprimer des choses plus « profondes », plus « vraies », plus« authentiques », disent-ils, que le langage parlé, inhérent aux autrespsychothérapies – c'est la magie de la métaphore qui révèle l'indicible ,l'avantage du « détour » (Klein, 2001) qui contourne les résistances dusujet. Que l'art soit un travestissement, un masque, qui me « révèle ce queje ne savais pas que j'étais » (ibid. : 96) ou, plussimplement, un « mode d'expression unique d'un individu unique » (BoyerLabrouche, 2000 : 2), la quête est semblable pour tous : celle de laconstruction d'une identité, de la révélation du moi. Mais, pour certainsart-thérapeutes, l'expression n'est qu'une étape – certes capitale – vers laverbalisation de ce qui a émergé (ils soulignent, dans un objectifthérapeutique, l'importance d'accorder un temps de parole à la suite del'atelier); pour d'autres, moins nombreux, c'est l'art en soi qui guérit :« La succession des productions dans cette thérapie créatrice de formespermet au sujet de s'édifier sa propre mythologie intime, sa proprecosmogonie lui permettant peu à peu de naîtreà lui -même, comme hérosmythique de sa propre destinée » (Klein, 2001 : 166). La question de la guérison est aussi liée à la « reprise du lien social »( Broustra, 2007 : 14), à l'intégration des malades dans la société. Lapratique d'une activité artistique peut faire naître chez des patients unamour de l'art qui les conduira à fréquenter les musées, les salles decinéma. .. Mais le véritable enjeu des ateliers pour certains art-thérapeutesest bien plus spécifique et trouve son origine dans l'adresse versl'extérieur, car la création est aussi ouverture à l'autre, expression d'unbesoin de communiquer. C'est pour mettre en contact les malades avec lemonde « extérieur » que les œuvres sont offertes au spectateur – « momentcrucial de relation à un corps social et de reconnaissance » (Florence ,1997 : 18) –, dans le but de permettre, entre autres objectifs, « unemeilleure compréhension de la maladie mentale de la part du public » (BoyerLabrouche, 2000 : 15). Souvent alors, l'expression est commune, le travail aété réalisé en groupe solidaire autour d'un thème choisi. Mais ces pratiquesont leurs lots d'opposants s'insurgeant contre la publicité de ces donnéesqu'ils jugent trop intimes, et refusant d'évaluer les productions despatients en fonction de critères esthétiques qu'ils considèrent comme« risque de censurer l'expression vive » (Broustra, 2007 : 40), « encontradiction avec la thérapie et avec la création véritable » (ibid. : 63). Ce qui renvoie à une conception de la communicationdans laquelle le patient est à la fois destinateur et destinataire. À travers cette présentation de l'art-thérapie en termes de communication ,nous avons tenté une approche « grammaticale » (Boltanski, 2004 : 16) de cedispositif en cherchant à établir un « modèle » qui organise les différentespositions les unes par rapport aux autres. Cependant, « une telle approche ,qui prend par rapport à l'objet une position d'extériorité ou, si l'on veut ,qui a un caractère objectiviste, ne suppose pas de s'interroger sur lesphénomènes, c'est-à-dire sur la façon dont les personnes font l'épreuve dumonde lorsqu'elles entrent en relation avec les faits dont le modèle offreune représentation organisée » (ibid.). C'est cequ'il s'agit d'aborder à présent. « La deuxième approche que nous avons cherché à développer consiste précisément àrepartir de l ' expérience qui est celle des personnes, defaçon à décrire la manière dont elles éprouvent […] la rencontre avec lescomposantes et les déterminations de l'action qui ont été intégrées au modèle »( ibid. : 17). Pour évaluer cela, il s'est agi decroiser, d'une part, une enquête réalisée auprès des art-thérapeutes sur based'un guide d'entretien établi à partir des caractéristiques du modèle; d'autrepart, un terrain d'observation participante afin d'étudier la communication encontexte. Dès les débuts de l'enquête, la réflexivité des acteurs sur leur pratique aimmédiatement retenu notre attention. La perspective de la sociologiepragmatique s'est dès lors imposée dans l'objectif de rendre compte de cesdonnées. Entre novembre 2007 et août 2008, nous avons réalisé en Belgiquefrancophone vingt-neuf entretiens avec des art-thérapeutes. L'expérience de ces professionnels a révélé demultiples caractéristiques spécifiques mais ce sont uniquement celles quis'inscrivent en tension avec les composantes du modèle qui seront présentéesici. C'est d'abord le décalage des praticiens par rapport à la théorie sur l'art -thérapie qu'il faut souligner : les références aux discours desspécialistes, voire la connaissance d'auteurs de référence, sont rares; surles vingt-neuf praticiens interrogés à ce sujet, à peine huit ont mentionnéleur connaissance d'un seul ouvrage théorique et une personne – unpsychiatre – nous a entretenue de ses lectures. Les références quiressortent de l'enquête sont en réalité essentiellement des référencesartistiques (Vincent Van Gogh et Antonin Artaud sont cités à profusion) ,même si des concepts psychanalytiques sont invoqués çà et là par certains .Le fait que peu de praticiens osent se déclarer « art-thérapeute » sembleégalement symptomatique de ce décalage : ne saisissant pas toujours ce quecette expression recouvre précisément, certains l'estiment inadéquate ouillégitime (à notre demande d'entretien, on nous répond par exemple « jesuis simplement professeur de dessin »). À l'origine de ce décalage, sesitue la tension qui inscrit l'art-thérapie entre deux champs : celui del'art et celui de la science qui, comme Pierre Bourdieu (1992, 2001) l'amontré, sont radicalement opposés. En ce qui concerne les droits d'entréepar exemple : le monde de l'art est caractérisé par une ouverture, un droitd'entrée « flou » (c'est ce qui le rend « si attrayant et si accueillantpour tous ceux qui possèdent toutes les propriétés des dominants moins une » (Bourdieu, 1992 : 372), alors que lechamp scientifique se définit par sa fermeture puisque « chaque chercheurtend à n'avoir d'autres récepteurs que les chercheurs les plus aptes à lecomprendre mais aussi à le critiquer, voire à le réfuter et à le démentir »( Bourdieu, 2001 : 136). Ensuite – et c'est là que se mesure toute l'importance de l'enquête – laquestion de la guérison, voire la question des vertus de l'art-thérapie engénéral est remise en cause dans l'action. Alors que les discours desthéoriciens sont centrés autour des divers bienfaits thérapeutiques del'art-thérapie et qu'ils s'opposent farouchement les uns aux autres sur cespoints, les acteurs, comme le souligne Luc Boltanski dans son introduction àl'ouvrage de Mohamed Nachi (2006 : 12-13), « préfèrent souvent fermer lesyeux [sur ces contradictions] parce qu'ils sont engagés dans l'action aveccomme impératif de ne pas briser le cours de l'action ou encore, pourrait-ondire (en paraphrasant Marx), de ne pas poser des questions auxquelles ilsn'ont pas de réponse ». En effet, à la question, qui nous semblait convenue ,des liens entre l'art et le processus thérapeutique, la perplexité estpalpable : maintes fois les mots manquent et des psychiatres même éludent laquestion (« il faudrait écrire un livre là-dessus », médecin, directeur d'uncentre de jour, le 04/07/08). Mais ce qui singularise la pratique c'est surtout l'apparition, avec uncertain type d'acteurs, d'une autre figure de l'art-thérapie : celle qui serevendique d'objectifs purement esthétiques. Une minorité de praticiensmettent l'accent sur l'art en considérant le patient comme un « véritable »artiste (perspective qu'une art-thérapeute nous a résumée en citant leplasticien Joseph Beuys : « Aujourd'hui, tout le monde est artiste » ,animatrice d'atelier en centre d'expression et de créativité, le 28/08/08) .Plus question de parler de « guérison ». C'est sur la valeur esthétique dela production qu'il faut mettre l'accent : « Le but est de faire quelquechose qui soit beau, dont on est content » et, peu importe qu'il y ait ounon exposition. Que fait-on alors en atelier ? « On dialogue, on communiqueet on se cherche : c'est tout ce que font les artistes », ajoute une autreart-thérapeute (professeur de dessin en école pour enfants hospitalisés, le27/02/08). Plutôt que d'un atelier thérapeutique, il est donc question icid'un « cours », semblable à ceux dispensés en académie, centré autour del'acquisition d'une technique et dont l'enseignant attend, avec exigence, unrésultat. Mais qui sont les praticiens à l'initiative de cette autre figure del'art-thérapie ? Même si la formation est un critère pertinent – dans notreéchantillon, elle est représentée selon les proportions suivantes : lamajorité des sondés (soit 63 %) ont reçu une formation de type médical oupara-médical (psychiatre, psychologue, logopède, kinésithérapeute ,infirmier, etc.), alors que seuls 37 % des art-thérapeutes interrogés onteffectué un cursus artistique – il ne doit pas être retenu comme le seuldéterminant car, par exemple, plus de la moitié des artistes professionnelspossèdent un diplôme de formation complémentaire en psychologie voire en« art-thérapie ». Parce que nombreuses sont ces personnes à « doublecasquette » (il y a aussi, dans le milieu médical, des professionnels ayantsuivi un enseignement artistique), il faut interroger d'autres critères afinde déterminer leur appartenance à un champ plutôt qu'un autre. Ce sont lesdéclarations des praticiens qui indiquent souvent le mieux les données qu'ilfaut retenir comme signifiantes : telle l'intégration ou non del'art-thérapeute à l'équipe médicale (ils sont très nombreux à participeraux réunions d'équipe à propos des patients), ou en ce qui concerne le champartistique, la reconnaissance de leur pratique par leurs pairs. De cetteenquête sur l'appartenance, il ne ressort donc qu'un très mince pourcentaged'art-thérapeutes exclusivement « artistes » : 17 %. C'est avec eux que sedéveloppe cette autre figure, marginale, de l'art-thérapie. Avant d'enexplorer les particularités via l'analyse de notreterrain ethnographique, décryptons les enjeux de la médiation parl'art-thérapie dans le champ médical. Nous proposons donc de distinguer deux façons radicalement différentes depratiquer l'art-thérapie : une, largement dominante, qui l'inscrit dans lechamp médical; l'autre, plus marginale, prend source dans le champartistique. Le problème que pose l'inscription de la médiation par l'art -thérapie dans le champ médical est que, malgré la qualité de son travail ,l'art-thérapeute place le patient dans une situation paradoxale et ce, depar le contexte dans lequel il exerce. On doit à Jean Florence (1997 : 68 )d'avoir souligné cette contradiction qui consiste à encourager le patient às'exprimer librement (ce qui, en soi, est déjà une injonction paradoxale ;« soi spontané » est un exemple typique de « double contrainte »), alorsqu'il sera jugé sur ses productions voire sur son consentement ou non àparticiper – si ce n'est pas par l'art-thérapeute lui -même, ce sera parl'équipe médicale à laquelle ce dernier est souvent tenu de faire rapport .Ainsi de nombreux dessins sont-ils susceptibles d' être intégrés au dossierdu malade. Le poids de l'institution psychiatrique sur l'interprétation desmoindres faits et gestes des patients par le langage « englobant » du corpsmédical dont la guérison est référence ultime, origine et fin, a été montrépar Erving Goffman (1961 : 17) : « Toutes les pratiques, même les plusinsignifiantes en apparence, peuvent être réinterprétées en fonction de cescritères : la manière de fumer une cigarette ou de disposer son couvert peutavoir autant de valeur diagnostique qu'une tentative de meurtre ou desuicide ». C'est pourquoi il nous semble que l'art-thérapie « médicale » ,qui se veut médiation, risque d'aboutir en définitive à la création d'unevéritable pathologie de la communication : celle qui place le patient dansce que, à la suite de Gregory Bateson, Paul Watzlawick, Janet Helmick Beavinet Don D. Jackson (1967 : 195-196) ont appelé une « double contrainte » .Dans le cadre d'une relation soignant-soigné où le patient estirréversiblement en position de subordonné – « d'un seul côté se trouvemonopolisé le savoir, le pouvoir et la liberté, de l'autre, l'ignorance, ladépossession de soi, la dépendance » (Goffman, 1961 : 14) –, « uneinjonction est faite à laquelle on doit obéir, mais à laquelle il fautdésobéir pour obéir [… ]. L'individu qui, dans cette relation, occupe uneposition « basse » ne peut sortir du cadre, et résoudre ainsi le paradoxe enle critiquant c'est-à-dire en métacommuniquant à son sujet (cela reviendraità une « insubordination »). Un individu pris dans une telle situation setrouve dans une position intenable » (Watzlawick, Helmick Beavin, Jackson ,1967 : 195-196). Ce qu'il faut interroger aussi dans la médiation médicale, c'estl'utilisation de l'art comme un « médiateur », un « tiers ». Entendue ausens de « quelque chose d'objectif qui n'est pas eux -mêmes » (Quéré, 1982 :32) et qui permet aux sujets de préserver intimité et altérité dans leursrelations, la dimension tierce de l'art nous semble, dans ce contextemédical, entièrement évacuée du dispositif art-thérapeutique : la créationest, au contraire, facteur de pression supplémentaire pour des patients sanscesse contraints de « s'exprimer » et de « s'intégrer ». En interne, lesproductions sont reçues comme des « expressions » directes du moi : on rêved'une communication transparente, sans distance, où le patient livrerait defaçon involontaire sa vérité intérieure, sonêtre « authentique » dépourvu de masque social. En externe, le « liensocial » est loin d' être renoué puisque l'hypothétique reconnaissance dupublic ne peut qu' être porteuse des stigmates de cette médiation manquée :les créateurs « art - thérapie » ne sont pas considérés par ceux -là mêmes quiles produisent en tant qu' « artistes comme les autres » : circuitd'exposition à part, prix dérisoires, etc. Ils restent à jamais reclus, outsiders (y compris) de l'art. Venons -en à la spécificité de la médiation artistique, figure marginale del'art-thérapie, qui nous est apparue lors de nos entretiens avec lespraticiens. Dans l'objectif d'étudier cette médiation artistique encontexte, nous avons mené une enquête de terrain en observation participantelors de cours de dessins dispensés à des adolescents hospitalisés dans leservice psychiatrique d'un hôpital général bruxellois. Nous y avons entrevuune médiation alternative due non à l'utilisation du médium artistique, maisau statut particulier de l'art-thérapeute qui, loin du champ médical, met enavant ses compétences d'artiste. Cette autre utilisation de l'art enpsychiatrie implique la mise en œuvre d'un contexte bien particulier donttémoignent les multiples paramètres observés lors de notre enquête : desateliers qui se déroulent dans des locaux distincts de ceux des soins, unart-thérapeute indépendant de l'équipe médicale tant sur le plan de larémunération financière que de l'éthique, des participants appelés« élèves » plutôt que « patients » et l'exigence d'un résultatesthétique. Le véritable pouvoir de l'artiste en milieu psychiatrique est qu'il introduitun autre langage dans l'institution, une autre référence que celle–médicale– de la guérison : « Je ne veux pas qu'ils viennent à mon courscomme on vient en thérapie occupationnelle. Je veux une dynamique, je veuxqu'ils se disent « on attend quelque chose de moi, quelque chose d'autrequ'un bête petit dessin ». Je suis moi -même un artiste et dans mon travailpersonnel, je cherche à obtenir un résultat qui me plaît; j'attends d'euxla même implication dans leur travail, je souhaite qu'ils réfléchissent ,qu'ils prennent ça au sérieux » (professeur de dessin en école pour enfantshospitalisés, le 27/02/08). C'est dans ce contexte purement « artistique »que s'opère un véritable saut, décrit par Félix Guattari (2003 : 11) : celuiqui « remplac[e] les rapports administratifs rationnels de sujet à objet pardes rapports existentiels de personne à personne ». Alors, le « fou »retrouve son apparence humaine, il n'est plus perçu uniquement en tant quemalade, objet accompagné de sa « fiche-témoin »; il a en face de lui unautre homme, un artiste, et non un médecin ou un membre du personnel qui luiest délégué expressément par la société pour lui signifier « qu'il n'y estplus » (ibid. : 36). Parce que l'artiste ne semblepas se considérer comme étant si différent du malade, des rapports plus égalitaires que ceuxunissant soignant et soigné naissent de leur rencontre. L'écart qui séparele monde médical du champ artistique se mesure donc sur tout ici : les gensde la science évoluant en effet dans une distinction salutaire entre lenormal et le pathologique, alors que l'un et l'autre semblent s'éclairermutuellement pour les artistes – la déviance étant, selon Howard Becker( 1963 : 110), « plus qu'une attitude, une valeur essentielle à laprofession ». Quand l'art-thérapeute médical ne fait que reconduire, si ce n'est redoubler ,le rôle de malade attribué par les médecins aux participants des ateliers ,l'art-thérapeute artiste propose un autre rôle à jouer. De cette façon, ilrévèle le processus de construction de l'identité du malade comme« déviant » par rapport aux normes définies par les psychiatres. Ainsiutiliser l'art « pour l'art » en psychiatrie revient-il à se situer dans lacritique « interactionniste » de la maladie mentale; perspective selonlaquelle « l'attaque contre une hiérarchie commence par une attaque portantsur les définitions, les étiquettes et les représentations conventionnellesde l'identité des personnes et des choses » (Becker, 1963 : 229) : « Ladéviance n'est pas une qualité de l'acte commis par une personne mais plutôtune conséquence de l'application, par les autres, de normes et de sanctionsà un “transgresseur” » (ibid. : 33). Aborder l'art-thérapie en tant que processus de communication conduit à uneremise en cause de ses fondements. Tel était notre point de départ. En effet, laperspective communicationnelle nous a conduite à prendre en compte le« contexte » dans lequel s'effectue la médiation : plus que du cadre où lesateliers se déroulent, il a d'abord été question du « champ » dans lequels'inscrivent les pratiques. Prise en tension entre l'art et la science ,l'art-thérapie se divise en deux directions antagoniques : l'une, médicale, quiplace le patient dans une situation paradoxale et évacue la dimension tierce del'art au profit d'objectifs thérapeutiques; l'autre qui, avec des viséespurement esthétiques, se porte au-delà en instituant, dans l'hôpitalpsychiatrique, la possibilité d'instaurer d'autres rapports qui interrogent lerôle de « patient ». Observer la communication en « contexte », c'est-à-diredans ses conditions concrètes d'exécution, a sur tout mis en évidencel'importance de détacher ateliers – comme art - thérapeutes – du champ médical ,car c'est dans ces conditions seulement que prend sens la médiation .
L'utilisation de l'art en psychiatrie recouvre actuellement une multitude de pratiques dont les visions entrent souvent en conflit. Ces pratiques impliquent néanmoins une conception commune de l'art comme outil de communication. Une perspective selon laquelle la création se voit investie du rôle de « médiateur », capable de rétablir le contact entre, par exemple, le malade et le personnel soignant, ou entre l'aliéné mental, l'aliéné social qu'a fait de lui l'internement, et « l'extérieur ». Approcher l'art-thérapie à travers le prisme de la communication ne revient pas seulement à ouvrir un angle de recherche nouveau, mais conduit surtout à interroger ce dispositif dans ses fondements et donc à le mettre en question.
sciencesInfo_10-0286330_tei_1084.xml
termith-532-communication
Février 1962, Igor Barrère et Étienne Lalou consacrent un numéro de leur magazined'actualité, Faire face (09/02/62), à la « Santé publique » .Dès les premières images, les (encore rares) téléspectateurs sont plongés au cœur dela problématique de l'émission. Alors qu'ils suivent d'abord la caméra dans lescouloirs d'un établissement récemment inauguré, au moment où la voix off du reportage prend un ton plus grave pour rappelercertains des dysfonctionnements de l'hôpital, leur est dévoilée la vétusté debâtiments qualifiés de « moyenâgeux » : « Depuis 5 ans nous présentons chaque mois aux spectateurs de latélévision les raisons d'avoir confiance dans la médecine française [il est ici faitréférence à une autre émission qu'ils animent, “Les Médicales” ]. Nous leur montronsdes immeubles magnifiques et les opérations les plus délicates pratiquées par lesmaîtres les plus habiles dans les salles les mieux équipées. Nous disons, ce qui estvrai, que dans nos hôpitaux un personnel compétent et dévoué veille sur les maladesdans les conditions proches de la perfection. Est -ce que cela signifie que tout vapour le mieux dans le meilleur des mondes ? Non. Trop souvent encore, le maladeanonyme se trouve ballotté aux quatre coins d'un hôpital dont l'architecture nerépond plus à la fonction. Trop souvent, brancards et civières s'entassent dans uncouloir qui sert de salle d'attente à un local d'examen dont la porte restemystérieusement close comme dans les romans de Kafka. Et comme dans les romans deKafka, les individus se sentent peu à peu métamorphosés en gros hannetonsimpuissants et inutiles. Quand enfin ils ont accompli le rite et qu'ils repartentdans leur litière moyenâgeuse vers le lieu où ils pourront se reposer de leurfatigue, c'est trop souvent aussi pour aboutir dans une salle commune au plafondbas, où ils seront entassés à quarante ou cinquante dans une promiscuité moinsragoûtante encore que celle de la chambrée militaire. [. ..] Ce soir, c'est de toutecette misère, de toutes ces imperfections, petites et grandes, que nous allonsparler. Nous ne vous montrerons pas les derniers miracles de la science, mais ledécor quotidien où il s'opère. Et les grands patrons qui viennent d'ordinaire vousprésenter des services, du personnel et du matériel dont ils sont fiers, ils vontvous entretenir maintenant de ce dont ils sont moins fiers : des nombreusesinsuffisances de l'hôpital ». Suit alors l'interview de l'un de ces « grands patrons », le Professeur deGennes : « Il y a beaucoup d'insuffisances. La grande insuffisance pour le biendes malades, ce ne sont ni les soins qui sont parfaits, ni le personnel qui estremarquable, ni les médicaments qui leurs sont distribués avec une générositéextrême, ni la nourriture qui est bonne. C'est l'habitat, c'est le coté hôtelier del'hôpital, qui lui, en est encore à la période St Vincent de Paul. [. ..] La vie àl'hôpital est pénible pour le malade, non pas parce qu'on ne l'entoure pas de soinset de tendresse. Elle est pénible par le fait matériel. [. ..] Le personnel est ennombre extrêmement insuffisant. S'il est parfait par la qualité, il est insuffisantpar le nombre ». Octobre 1997, trois journalistes de Sciences et avenir (1997 :82) publient une « liste noire des hôpitaux ». Dans l'éditorial, ils précisent leursintentions : « Personne ne nie la compétence du corps médical, chacun apprécie ledévouement des personnels soignants. Mais l'essentiel nous est caché : l'hôpitaln'est pas toujours, ni partout, synonyme de sécurité, de performance, de qualité .[. ..] Deux questions s'imposent à l'issue de cette enquête destinée à servir lesseuls intérêts du public. Comment supporter plus longtemps l'opacité d'un telsystème ? [. ..] Qu'en est-il de la sacro-sainte égalité d'accès aux soins quand, àl'évidence, des inégalités profondes existent entre établissement ? ». La mise en correspondance de ces deux exemples, qu'il aurait été aisé de multiplier ,permet de souligner certaines des évolutions survenues dans les représentationspubliques de l'hôpital. Sans aucun doute, celles -ci sont intimement liées auxtransformations intervenues dans le fonctionnement des établissements hospitaliers àla suite de la réforme Debré de 1958 – et avant cela de la création de la sécuritésociale —, qui a favorisé l'investissement de certains médecins, notamment des« grands patrons », dans l'amélioration du fonctionnement de l'hôpital. En créantles Centres hospitaliers universitaires (CHU) qui deviendront les fleurons desétablissements de santé français, et en instaurant entre autres modalités le « tempsplein hospitalier », tout en permettant aux chefs de service de consacrer deuxdemi-journées par semaine à leur clientèle privée, cette réforme a favorisél'engagement de « mandarins » qui, jusqu'alors, réservaient la majeure partie deleur temps à une clinique (Jamous, 1969). Dorénavant attachés à un service, ils vontmultiplier les actions en direction des pouvoirs publics pour améliorer leursconditions de travail. C'est ce que souligne le premier exemple. Or, en devenantprogressivement un des lieux centraux du système de soins français, l'hôpital va susciter de nouvellesattentes et devenir plus fréquemment l'objet de réprobations. Ce n'est donc que parun paradoxe apparent que celui -ci devient de plus en plus « critiqué » publiquement ,alors que les soins dispensés ont, d'un point de vue historique, progressé. C'estd'ailleurs pour cette raison que la nature des dysfonctionnements soulevés dans cesdeux exemples diffère considérablement. Alors que, dans le premier cas, ils portentexclusivement sur des critères « hôteliers »; dans le second, les journalistesaffirment vouloir mesurer la « qualité des soins » et la « performance médicale »des établissements, questions qui ne se posaient pas auparavant, et à proprementparler, étaient même impensables. Ensuite, la mise en parallèle de cesdeux exemples permet de mettre en exergue l'évolution des rapports entrejournalistes et médecins. Les réactions auxquelles a donné lieu la publication de la« liste noire des hôpitaux » en octobre 1997 – d'enthousiasme du côté de la profession journalistique ,admirative du travail réalisé et des compétences mises en œuvre par leurs collèguespour évaluer la « performance des hôpitaux »; de colère du côté desmédecins, soucieux de rappeler la complexité de l'évaluation de la qualité des soins– ne peuvent être comprises si l'on n'a pas présent à l'esprit la structuration desrapports entre journalistes et médecins qui prévalaient jusqu'au milieu des années80. Car, si « l'affaire du sang contaminé » marque un point de rupture dans letraitement médiatique de la médecine (Champagne, Marchetti, 1994), celle -ci étantdevenue, depuis ces années, l'objet d'une « information comme une autre »( Champagne, 1999 : 52), la publication de ces classements a été perçue à l'époque ,aussi bien par les journalistes que par les médecins, comme « inédite ». Ainsi unenouvelle étape dans les rapports entre journalistes et médecins aurait-elle étéfranchie, puisque jusqu'alors seuls les médecins pouvaient juger de la qualité d'unacte médical, et consacrer les meilleurs d'entre eux. Ici, l'intention est donc d'analyser les logiques de cette « consécrationjournalistique » (Neveu, 2001 : 87-91) du « meilleur hôpital »; car depuis octobre1997, les trois journalistes qui ont réalisé cette « liste noire » continuent depublier tous les ans, et parfois plusieurs fois par an, des « palmarès deshôpitaux » (voir encadré 1). L'étude de ces classements, et plus particulièrementdes conditions de production de leurs critères de classification, permet de prendrela mesure des transformations intervenues dans la « publicisation de la médecine ». Bien évidemment cette question, et plus précisémentcelle de l'évolution des rapports qu'entretiennent journalistes et médecins, a déjàdonné lieu à différents travaux. Ainsi Dominique Marchetti (1997 : 256-378) a -t-ilanalysé les transformations spécifiques au champ journalistique (poids grandissantdes contraintes économiques et de la télévision entre autres) et les modificationsdes propriétés sociales des journalistes (hausse de leur nombre, rajeunissement dela population, augmentation du niveau de formation, etc.) qui permettent decomprendre comment on est passé d'une information très dépendante du corps médical ,à une information « démédicalisée », c'est-à-dire une information qui renvoie à deslogiques proprement journalistiques et qui n'est plus simplement la publication depoints de vue de médecins. Par la suite, d'autres travaux se sont penchés sur lestransformations plus générales qui ont contribué à la « publicisation des politiquesde santé » (Gaïti, 1999), certains sesont efforcés de saisir « les formes, anciennes ou nouvelles, de visibilité dansl'espace public des questions de santé et de recherche médicale » (Cardon, Heurtin ,1999), ou encore d'analyser les logiques plurielles de la médiatisation de certainsproblèmes sociaux comme l'amiante (Henry, 2000). Or, dans une certaine mesure, cequi caractérise l'ensemble de ces travaux, ce sont leurs efforts pour encastrerl'activité journalistique dans un vaste réseau d'interdépendances. Comme le noteÉrik Neveu (2001 : 91), « l'équivoque qui menace toute réflexion sur le pouvoir desjournalistes est celle de la confusion entre la partie et le tout, par l'attributionaux seuls journalistes de capacités d'influence qui naissent en réalité d'un réseaud'interdépendances où aucun protagoniste – et surtout pas les journalistes – nedispose seul de la maîtrise du résultat final ». À la suite de ces travaux, nous nous efforcerons d'analyser le « pouvoir deconsécration » des journalistes en réencastrant leur travail dans les multipleschaînes d'interdépendances qui les lient à d'autres espaces sociaux. L'hypothèse estque le processus continu de division sociale du travail a des effets sur lesrapports de domination entre groupes sociaux en rendant chacun d'eux plus dépendantdes autres. Limiter l'analyse des palmarès des hôpitaux à des luttes entrejournalistes et médecins, c'est en effet oublier que les enjeux de santé renvoient àdes logiques plurielles (économique, politique, administrative, juridique ,associative. ..) et que seule l'analyse des « configurations » dans lesquelles s'entrecroisent ceslogiques peut permettre de saisir ce que l'on a parfois tendance à réifier sous lanotion problématique d' « espace public ». Nous voudrions ainsi montrer que la« force » des palmarès, et plus précisément le pouvoir de consécration desjournalistes, réside sans aucun doute dans la capacité de ces derniers à coordonnerces différentes logiques en jeu. C'est en tout cas ce que nous essaierons de faireen rappelant dans un premier temps comment ces journalistes ont réussi à produiredes critères de classification, puis en prenant l'exemple d'un hôpitalprédisposé à la consécration journalistique dans un second temps. S'il est possible de trouver dès la fin des années 70 des « tests demédecins » dans des revues marginales, voire confidentielles, la première « liste des urgences à éviter » est publiée en décembre 1992 par lemensuel 50 Millions de consommateurs. Donnant lieu à de trèsvives réactions du corps médical – 72 procès seront intentés contre le titre – iln'y aura pas d'autres classements des hôpitaux avant mars 1995, date à laquelle L'Express va proposer à ses lecteurs un « palmarès desmeilleurs services hospitaliers d' Île de France dans 13 spécialités ». Pourdifférentes raisons, ce classement ne connaîtra pas l'écho de la « liste noire desurgences », et les réactions resteront relativement confidentielles. C'est en fin decompte à partir de 1997 que les palmarès des hôpitaux vont donner lieu à unepublication annuelle (parfois plusieurs la même année, avec des classements pour lescliniques et pour les maternités publiés séparément), lorsque trois journalistes etmédecins journalistes (l'un est entré dans le journalisme sur le tas et s'est faitconnaître par son enquête sur « l'affaire de l'amiante », les deux autres sont deuxanciens médecins généralistes très rapidement convertis au journalisme : le premierau départ dans la presse médicale professionnelle, le second est l'un desco-fondateur de Top Santé) vont se « spécialiser » dans cetype de productions, et connaître grâce à ces dernières des succès tant commerciauxque professionnels : ils multiplient les ventes en kiosques par sept dans certainscas, et vont passer de Sciences et avenir au Figaro Magazine, puis au Point (etaussi du cdd au cdi), où ilscontinuent encore à publier tous les ans un classement (le dernier datant de juin2006). Cependant, si ce trio occupe uneplace centrale, voire quasi monopolistique, dans l'élaboration de palmarès deshôpitaux, leurs anciens employeurs, Sciences et avenir et leFigaro magazine, ont également essayé de refaire des classements par lasuite (en 2000 et 2001), en modifiant la méthodologie. Au final, et en incluant dansle décompte les éditions régionales de certains palmarès, c'est un peu plus d'unequarantaine de classements des hôpitaux de France qui a été publiée depuis 1992L'objectif affiché des classements des hôpitaux est clair : permettre aux usagersdu système de soins de choisir en toute transparence le meilleur hôpital En fait, les« palmarès des hôpitaux » classent moins des établissements hospitaliers qu'ilsne comparent, selon différents critères, des services (ou plutôt des« spécialités ») pour un type d'interventions donné. Par exemple, le palmarès duPoint de mai 2004 propose le « classement des 50meilleurs hôpitaux en chirurgie gynécologique », et compare dans différentsservices les « taux d'activité, de notoriété, de technicité, ainsi que la duréede séjour et l'indice de gravité des cas » pour deux types d'opération( l'ablation de l'utérus et la chirurgie des trompes et des ovaires). Lesrésultats sont présentés sous la forme d'un tableau où figurent, par ordre declassement, outre les scores pour chacun des critères, le nom des hôpitaux, leurlocalisation et une note synthétique sur 20. Les trois journalistes à l'originede ces classements paraissent donc capables de mobiliser des critèresrelativement techniques pour juger de l'activité médicale des services. Bienplus, au fil du temps, ceux -ci sont non seulement parvenus à multiplier lescritères de classification, mais encore à les complexifier, au point qu'ils sontdésormais présentés comme des « experts » et sont, à ce titre, parfois invitéspar des sociétés savantes de médecins pour présenter leurs analyses. Pour leurpremière publication, les critères étaient en effet des plus limités. Leclassement de 1997 ne mobilise que trois indicateurs – le taux de mortalité, letaux d'occupation des lits et la conformité des services en termes de matérielet de personnel au regard des obligations légales – alors que celui de juin 2006en croise plusieurs – l'activité, la notoriété, la durée de séjour, l'indice degravité des cas traités, la « technicité » (c'est-à-dire le « pourcentaged'interventions réalisées sous coelioscopie »), la « spécialisation » (ce qu'ilsexplicitent comme étant le pourcentage d'interventions pour une pathologieparticulière par rapport au nombre total d'interventions réalisées dans unespécialité; par exemple, le nombre d'interventions sur le genou dans un servicede chirurgie orthopédique), « l'ambulatoire » (le pourcentage d'opérationsréalisées en ambulatoire par rapport à l'ensemble des interventions), la « luttecontre les infections », la présence d'un appareil d'IRM dans l'hôpital, etc .Or, puisque ces critères sont à la base de la consécration ou non d'un hôpital ,il faut comprendre comment ces journalistes sont parvenus à les affiner et à lestechniciser à propos d'enjeux aussi spécifiques que peuvent l' être les enjeuxmédicaux. On peut le faire en montrant qu'ils se sont trouvés au point dejonction d'une triple logique : médicale, économique et juridique. C'estd'ailleurs de cette position particulière (à la jonction de) qu'ils tirent leur« pouvoir de consécration ». Que ce soit dans les articles ou dans les entretiens que nous avons menés, cesjournalistes aiment à rappeler combien ils ont dû lutter contre un « systèmehospitalier opaque » pour obtenir les informations nécessaires à leur enquête .D'ailleurs, ils jouent de cet argument pour accentuer la mise en scènesensationnaliste de leur travail en rappelant aux lecteurs qu'ils ont dû saisirla cnil (Commission nationale de l'informatique et deslibertés) puis la cada (Commission d'accès auxdocuments administratifs) pour que « l'administration » daigne enfin leurremettre des informations pourtant publiques. Ainsi ressort-il de cetteprésentation l'idée que les palmarès opposeraient, d'un côté, des journalistesluttant pour plus de transparence et, de l'autre, des médecins unis dans labataille pour préserver l'autonomie de leur activité. Pourtant, il suffit detourner les pages de ces classements pour comptabiliser de nombreuses interviewsde médecins qui, sous différents aspects, souscrivent aux objectifs de cesenquêtes. Les rapports que ces trois journalistes entretiennent avec le corpsmédical ne sont donc pas aussi conflictuels que ne le laisse paraître leurprésentation. En fait, l'analyse détaillée de certains des indicateurs mobilisésmontre que ces derniers renvoient à une conception très particulière del'activité médicale, et valorisent certaines techniques cliniques, présentéescomme « modernes et innovantes » car elles sont censées réduire les durées deséjour (et donc par la même occasion améliorer le confort du patient) et, d'unemanière générale, le coût des hospitalisations. Par exemple, en mobilisant unindicateur comme la « technicité » – c'est-à-dire « le pourcentaged'interventions réalisées sous coelioscopie » – ces journalistes souscrivent à uneconception relativement récente et encore discutée de la pratique médicale ,c'est-à-dire de la médecine comme une activité avant tout technique, encadréepar des protocoles précis, qui doit se nourrir des progrès de l'informatique etde la robotique et non plus comme le travail d'un « médecin-artisan », voired'un « artiste ». En effet, ce qui est présenté par les journalistes comme uncritère indiscutable de qualité, reste très largement discuté au sein du corpsmédical : des médecins rappellent que la coelioscopie n'est pas à prescrire danstous les cas, et surtout, qu'elle peut donner lieu si elle n'est pas maîtrisée àde graves complications (allongeant alors considérablement les durées deséjour). Dès lors, ces classements peuvent être relus comme un révélateurexplicite des luttes internes au milieu médical : ils renvoientmoins à une « qualité » des soins qu' à la retraduction, dans les logiquesmédiatiques, de certains conflits qui structurent le milieu médical. Si lesjournalistes sont si prompts à souligner les avantages de ces techniquesmédicales, c'est que les médecins qui les ont soutenus adhèrent aux nouvellesinjonctions de rationalisation des soins et d'amélioration de la qualité, parl'importation des techniques de management. Outre leur capacité à retraduire, dans leur logique spécifique, certains desconflits du secteur médical, si ces journalistes sont parvenus à affiner leurscritères de classification, c'est qu'ils ont su s'appuyer sur la montée enpuissance des grilles de lecture économique de l'activité médicale. D'ailleurs ,le simple fait de considérer comme intéressant le principe d'un classement deshôpitaux dénote une lecture particulière du monde médical. Envisager un palmarèscomme une information utile, c'est s'accorder, au moins implicitement, sur deuxpostulats essentiels : d'abord, que cela présente un intérêt d'évaluer laperformance hospitalière et qu'il est possible d'aboutir à une évaluation« juste et vraie » de cette performance (s'ils marquent leur désaccords sur lescritères utilisés, tous les individus intéressés – au sens large du termec'est-à-dire même les plus farouches opposants – par ces classements ,s'accordent ainsi sur l'idée qu'il suffirait de prolonger les recherches pourtrouver des indicateurs valables de classification); ensuite, que la mise enconcurrence des hôpitaux par la comparaison de leur performance présente uneutilité. Bref, si la « nature » des critères utilisés contribue, comme nousallons le voir, à imposer une vision « économicisée » de l'hôpital, ce sont audépart les accords implicites sur l'activité même de classement qui révèlentcette nouvelle représentation du système hospitalier : un espace fortementconcurrentiel dans lequel les établissements les plus performants doivent êtremis en valeur. Or, si à l'époque des premières publications certaines critiquesparvenaient à maintenir audible cette question de l'intérêt d'un classement deshôpitaux, la relative pérennisation de leurs parutions, et la translation desdébats autour de la pertinence des critères qui l'a accompagnée, a fini parrendre leur existence « évidente ». D'ailleurs, si les journalistes ont pumobiliser des critères de classification de plus en plus nombreux et semble -t-ilprécis, cela est principalement dû à l'élargissement de leurs sources dedonnées. Celles -ci sont de première ou seconde main. Les sources de premièremain restent secondaires : il s'agit pour l'essentiel d'un questionnaire que lesjournalistes adressent aux différents hôpitaux pour vérifier certains points del'organisation des services ou pour parfaire leur présentation des aspects« hôteliers ». Si ce questionnaire est parfois complété par des appelstéléphoniques, voire des déplacements physiques dans certains centreshospitaliers, il reste d'autant plus accessoire que le taux de réponse dépasserarement les 50 %. Finalement, pour l'essentiel, c'est en mobilisant des donnéesissues des administrations centrales que ces trois journalistes construisentleurs classements. À partir de 1998 (date du second classement de Sciences et avenir), c'est le pmsi (Programme médicalisé des systèmes d'information), géré par ladirection des hôpitaux, qui va ainsi devenir le principal support declassification, base de données qui sera parfois complétée par la consultationdes pages des sros (Schémas régionaux d'organisationsanitaire), ou encore par le recours aux informations disponibles dans les sae (Statistiques d'activité des établissements). Or ,la majeure partie des indicateurs contenus dans ces documents ont été constituésdans le but de mener à bien les récentes politiques de rationalisation des soinset d'amélioration de la gestion hospitalière; ce sont donc avant tout desdonnées d'ordre médico-économiques, dont l'objectif premier est de mesurer la« productivité » de chaque établissement, pour que chacun d'entre eux bénéficiede ressources en rapport avec son activité effective. Ainsi les critèresutilisés par les journalistes – comme le taux d'activité, la durée de séjour, oule pourcentage d'opérations réalisées en ambulatoire – sont emblématiques de cesnouvelles préoccupations de rationalisation des soins. Paradoxalement, c'estdonc en affinant leurs critères de classification au fil des ans, que lesjournalistes deviennent de plus en plus dépendants de certaines sources –médicales et administratives – celles -là mêmes contre lesquelles ils prétendent« lutter ». Sur ce point, les propos d'un des journalistes à l'origine del'enquête sont éclairants : « Mais, si vous voulez, c'était incontestable. Incontestable .[ Parlant des “conclusions” de leur enquête] Nous on dit, attendez, premièrementon dit : “il y a tant de maternités qui font moins de trois cents accouchements ,les voilà ”. Bon ben, c'est vrai, il y a les chiffres, il y a pas de pipeau .Deuxièmement, “il y a plus de mômes et de femmes qui meurent à l'accouchement enFrance ”, vous le saviez pas ? Eh ben on vous le dit. Troisièmement, on a vouludes documents, il a fallu saisir la cada. .. Attendez ,la mise en scène elle était impeccable, impeccable, il y avait rien à dire. Lesmecs ils étaient accablés, c'était étayé par des documents internes. Qu'est ceque vous voulez faire ? Le boulot il était là. Il y avait des cartes avec desdocuments, avec des chiffres, des papiers étayés par des documents émanant dusystème lui même et la preuve que ces gens là ne voulaient pas que cesinformations soient portées à la connaissance du public » En même temps, si cette dépendance aux sources peut-être considérée comme unecontrainte, ce rapport privilégié avec certaines d'entre elles constitue uneressource indispensable pour faire face aux risques juridiques qui pèsent surl'activité des journalistes. En effet, lors des premières publications, unepartie du corps médical a réagi avec hostilité à ces classements, certainsmédecins et/ou directeurs d'hôpitaux n'hésitant pas à intenter des procès auxmagazines. La multiplication des critères, leur sophistication progressive, laprésence d'une page de « méthodologie », ainsi que le recours aux interviews dedifférents « experts » peuvent alors être analysés comme un moyen pour lesjournalistes de se protéger sur le plan juridique – l'un d'entre eux note :« Moi j'ai consacré une page du magazine à la méthodologie. Une page c'est150 000 balles ! Quand vous mettez une page de méthodologie, le juge il vientpas vous faire chier ». Et de justifier, au moins symboliquement, leur intrusiondans un domaine autrefois monopolisé par le corps médical : « Pour le premier classement, il fallait vraiment des mecs quivalident. Et puis nous de toute façon il faut toujours des mecs qui valident. Lemec qui lie un papier, quand il voit dans le Figaromagazine le patron de l ' anaes interviewé ,c'est un plus sublime. Quand il voit le Pr X interviewé. .. il fallait validernotre truc, parce que notre truc il était limite crédible quoi. Vous imaginezpour les gens, voir “on meurt plus de l'accouchement en France, on le sait, onsait ce qu'il faut faire. ..” Mais vous imaginez l'indignation ! Alors il fallaitque ce soit validé par des gens qui ont une certaine audience. Vous interviewezplutôt le patron de Tenon, que celui de St Giron. Mais le truc de base, c'estquand même de choisir des mecs connus, respectés dans le milieu. Quand vousfaîtes une enquête, vous essayez de faire parler des messieurs qui ont uneautorité quoi. C'est ce qui fait qu' à la fin vous avez une mise en scène quitient la route. C'est quand même l'enquête sur laquelle on a eu le moins deprocès » Finalement, le « bon hôpital » est celui qui réussit à concilier les contraintesde rationalisation des soins avec une forme d'efficacité thérapeutique. Laprésentation du « palmarès des 500 hôpitaux de France » publié dans le Figaro magazine en septembre 1999 est explicite sur cepoint : « Les 154 établissements où chaque Français peut aller se faire soigneren toute confiance. Ils sont parmi les plus actifs, possèdent une fortenotoriété, présentent un indice de mortalité peu élevé, utilisent les techniquesles plus modernes et disposent du personnel et des équipements nécessaires à unebonne prise en charge des patients ». C'est donc en parvenant à articuler différentes logiques et contraintes que lesjournalistes ont pu produire des critères pour classer les hôpitaux. En ce sens ,les palmarès sont davantage des co-productions que l' œuvre des seulsjournalistes. Une des conséquences de ces conditions particulières de productiondes critères de classification est que ces derniers n'ont rien d'universel etreflètent davantage un état des luttes et des enjeux spécifiques à d'autressecteurs sociaux. Désormais, il faut donc restituer l'acte même de classement ,c'est-à-dire l'application de ces critères aux établissements hospitaliersfrançais pour affiner l'analyse du processus de consécration journalistique. Dans son article consacré au hit-parade des intellectuels, Pierre Bourdieu( 1984 : 95) explique que « possédant à la fois la liste des “élus” et la listedes juges, on découvre immédiatement dans la seconde le principe de lapremière », transférant ainsi son hypothèse de l'existence d'une « homologiestructurale » (Bourdieu, 1979 : 255-271) entre les écrivains journalistesclasseurs, et les écrivains journalistes classés. Effectivement, dans le cas despalmarès des hôpitaux, il semble bien que l'on retrouve ce principe d'homologie .Les établissements les mieux classés sont ceux qui parviennent à articulerdifférentes logiques : médiatique de la transparence, économique de la maîtrisedes dépenses, médicale de la technicité. Dès lors, comprendre les mécanismes parlesquels certains hôpitaux sont considérés comme « les meilleurs de France » ,suppose d'analyser les logiques spécifiques au sous champ hospitalier et ainside rompre avec certains biais du média-centrisme (Schlesinger, 1992). Plusgénéralement, cela évite d'appréhender le processus de consécrationjournalistique uniquement comme l'action d'un classeur sur un classé passif, etpermet de saisir la logique de consécration journalistique dans un cadredynamique, un peu à la manière dont les études en sociologie des publics et dela réception s'efforce de saisir dans un même mouvement production et réceptiondes biens culturels (Le Grignou, 2001; Charpentier, 2006). Le cas d'un hôpital – il s'agit d'un établissement privé psph (participant au service public hospitalier), né récemment duregroupement de deux hôpitaux – qui culmine depuis plusieurs années (plusprécisément depuis le palmarès de 1998) aux premières places du hit-parade dansdifférentes spécialités, côtoyant les « prestigieux » chu (il est très souvent le premier hôpital non chu), et qui, tous les ans, est classé dans les 20 premières places du« tableau d'honneur » des meilleurs hôpitaux français, constitue une bonneillustration de ces prédispositions à la consécration et des interactions qui senouent entre classeurs et classés. Que ce soit du point de vue des techniquesmédicales utilisées, du rapport aux objectifs d'économie en matière de soins, ouà la question de la « transparence » (vis-à-vis des médias notamment), toutsemble vouer cet hôpital à figurer parmi les « meilleurs ». Ainsi, lorsque l'onconsulte les pages du site internet de cet établissement, peut-on y voir vantéles mérites « d'une nouvelle approche de l'organisation hospitalière où lemalade est pris en charge globalement par la création de 14 départements, 2unités et la mise en œuvre d'une gestion innovante ». Résolument tourné versl'extérieur (l'existence du site internet en est une preuve), son architecturel'est également par une « structure esthétique et transparente qui ne compte pasplus de 7 étages », sous-entendu à l'inverse des chu construits dans les années 70, qui se caractérisent par leurs tours de grandestailles et l'absence de baies vitrées. La construction récente de l'hôpital européenGeorges Pompidou – qui répond lui aussi à ce nouveau critère de « transparencearchitecturale » – est d'ailleurs perçue par certains des médecins de cetétablissement comme une mise en concurrence directe. Dans la demi page que lesjournalistes consacrent à cet établissement, un des médecins déclare :« L'Assistance publique des hôpitaux de Paris [de laquelle dépend l'hôpitalGeorges Georges Pompidou] pensait peut-être attirer certains de nos malades versson nouveau navire amiral. Et si c'était l'inverse qui se produisait ? »; etles journalistes de poursuivre que la construction de cet établissement a étéfaite « à un coût raisonnable, 775 millions de francs, le tiers du pharaoniquehôpital Pompidou » Aussi, et compte tenu de leurs schèmes de perceptiondu système hospitalier, les journalistes n'ont-ils pu qu' être « séduits » parles aspects matériels et esthétiques de cet hôpital. De même, l'attention queporte cet établissement psph à la satisfaction despatients en organisant, tous les mois avec l'Ipsos, des sondages téléphoniques« pour connaître [leur] opinion sur la qualité de [ses] prestations » n'a faitque conforter leur point de vue. Bref, comme le conclut la présentationinternet, ce qui caractérise cet établissement, c'est son « espritd'innovation », tant sur le plan des techniques médicales et des nouveaux modesde prise en charge des patients, qu'au niveau de sa gestion. En effet, cethôpital s'accorde avec la nouvelle vision politico-administrative de ce qu'estun « bon » établissement. S'il participe activement à la production des donnéesnécessaires à l'élaboration du pmsi, il se distinguesurtout par l'expérience d'accréditation qu'il a mené dès 1997 avec le concoursdu Conseil canadien d'accréditation, « avant même que l ' anaes ait publié ses normes et ses méthodes », expériencedont les médecins de l'établissement semblent fiers : « Attendez ,l'accréditation. .. Vous parlez de chez moi, nous on l'a faite en 1995, lesCanadiens sont venus ici, ils sont venus, l'Office national d'accréditationcanadienne ! On est accrédité au Canada nous ! On a passé l'accréditationcanadienne, parce qu'on a trouvé que c'était très, très bien; c'est une réponseforte d'ailleurs, parce que je vous dis, quand vous avez les structures, leslogiques, les protocoles, quand tout est mis en place, c'est que ça marche. »Accréditationqui permet donc l'obtention de profits symboliques en sanctionnant la qualité del'établissement, mais qui confirme également la position particulière decelui -ci dans le sous champ hospitalier, vu les réticences d'une grande partiedu milieu médical face à l'intrusion « d'experts », notamment ceux de l' (ex - )anaes. Si l'exemple de cet établissement est instructif, c'est qu'il condense lesdifférentes propriétés que l'on retrouve de manière plus ou moins prononcée dansles autres établissements consacrés. Pour simplifier, on peut les limiter àl'acceptation d'une triple logique : médiatique de la transparence, économiquede la maîtrise des dépenses de soins, et enfin techniciste de la rationalisationdes pratiques médicales. En effet, il semble que l'acceptation de la logiquemédiatique de la transparence constitue le préalable indispensable pour touthôpital qui souhaite être consacré. Accepter de jouer le jeu des médias n'estpourtant pas partagé par tous les médecins. Le faible taux de réponse auquestionnaire envoyé par les journalistes aux services qu'ils souhaitent évaluerconstitue un premier indicateur de ces réticences. Mais ce sont sans aucun douteles réactions très tranchées des médecins face à ce principe de reconnaissanceexterne, qui illustre au mieux ces rapports différenciés à la logique de latransparence. Ainsi, les praticiens qui acceptent de collaborer avec lesjournalistes, sont-ils toujours stigmatisés par leurs collègues les plus liés àla logique spécifiquement médicale : « Tous ces gens que vous entendez dans les télés ettout. .. les journaux ont des listes de médecins et ils savent que si ontéléphone à trois heures du matin, ils seront là, parce qu'ils veulent êtremédiatisés. Pourquoi ? Parce qu'ils ont soif. .. c'est tentant d'une certainefaçon d'avoir la notoriété, et ils pensent que les médias sont un moyen utiled'augmenter leur notoriété et par conséquent le nombre de malades. C'est tout ». De ces rapports différenciés aux médias, résultent desréactions aux résultats de ces publications, en tout point opposées, comme leprouvent ces deux extraits de courrier : Courrier des lecteurs, Sciences et avenir (620 ,oct. 98) « Voilà deux jours que je viens de prendre connaissancede votre enquête sur l'hôpital en France : un travail colossal [. .. ]. Grâce àvous, je sais aujourd'hui que j'opère dans un service de chirurgie de qualité[. .. ]. Bien sûr, vous direz -vous, celui -là nous écrit pour nous remercier car ilse trouve bien placé dans notre palmarès; il ne l'aurait pas fait dans le cascontraire ! Sans doute ! Mais si je prends la plume en ce moment, c'est parceque [. ..] vous m'avez apporté une reconnaissance qui me procure une émotionprofonde et une grande joie intérieure ». Courrier communiqué par les journalistes (nonpublié) « Je profite de ce courrier pour stigmatiser lecomportement de certains collègues dont la boulimie médiatique ne s'est pasdémentie à cette occasion. [. ..] Ils ont deux points communs : l'absence totalede nuances dans leurs propos écrits ou télévisuels; l'absence de publicationsde leurs résultats. Cherchez le lien ? S'ils ne se reconnaissent pas qu'ilsm'écrivent, je leur donnerai des précisions supplémentaires. [. ..] Vous lesavez, l'humour est la politesse du désespoir. Mais croyant en la naturehumaine, je pense que ces collègues indélicats, maintenant, rasent les murs etsont devenus insomniaques comme nous mêmes ! ! ! ». Mais accepter la logique médiatique ne suffit pas. Pour espérer être consacré ,encore faut-il souscrire aux récentes injonctions économiques de maîtrise desdépenses de soins. Très concrètement, cela passe par une sensibilité à certaineslogiques managériales, et par la conviction qu'un service hospitalier constitueune « petite entreprise » qu'il faut gérer selon des critères decoût/rentabilité. Dans cette perspective, la médecine peut être appréhendéecomme une prestation de service, la rencontre entre une offre et une demande ,l'ajustement nécessaire entre des ressources et des besoins. Un des médecins quiont soutenu les journalistes dans leur publication décrit ainsi sonactivité : « Ici, l'avantage, c'est qu'on est 14 chefs de service. Vousimaginez un hôpital de 420 lits, on est 14. Avec le directeur on est 15. Quandon se réunit, c'est pas l'armée mexicaine. Et donc la stratégie quand on parle d‘ économie, on parle à 15. À 15, on peut dire : “Voilà moi j'ai un problème. Onme facture du personnel qui est là en attente, je ne l'utilise jamais ”. On vapas licencier les gens évidemment, on les réattribue ailleurs, du coup onaugmente la productivité, du coup c'est stable. Ce qui fait que dans cethôpital, quand on a ouvert, on avait fait ce projet de tout modifier, et ben, ona augmenté l'activité de 21 % en une année. Vous imaginez, 21 % ! Alors, on adépassé le budget de 50 millions, mais 50 millions pour 21 % d'augmentation ! Ona augmenté entre le quart et le cinquième l'activité, pour augmenter le budgetde 50 millions sur 770 millions, c'est-à-dire même pas 1 %, pour 21 %d'augmentation d'activité ! » Or, pour les médecins les plus liés à la logique purement médicale, un tel pointde vue est critiquable : le colloque singulier entre un médecin et son patientne peut se réduire à un calcul coût/avantage de type économique; chaque casétant unique, seule la guérison du patient importe quels que soient les coûtsdes moyens cliniques et thérapeutiques mis en œuvre. Ce que critiquent donc cesmédecins ce n'est pas tant une mauvaise gestion/management des moyens qu'unmanque de moyens : « On en a vraiment ras le bol, je vous assure, et la coupe est unpeu pleine. Il va arriver un moment où l'on dépensera plus d'argent pour unestructure de type ANAES, pour évaluer les actifs, c'est-à-dire ceux quisoignent ! Ce sont les médecins qui sont au chevet, ce sont les médecins quiopèrent dans leur coin, qui reprennent la nuit parce que ça saigne, pourvérifier un truc. Si j'étais un bon caricaturiste, vous savez ce que j'auraienvie de faire, je dessinerais une rue, dans la rue on verrait une charretteterriblement chargée de tout un tas de charges, des charges médicales ,administratives, universitaires, et il y aurait un pauvre malheureux toutfamélique qui serait le médecin, le chef de service, et sur le trottoir, il yaurait des centaines de gens qui seraient les évaluateurs, et qui critiqueraientet qui diraient : “Oh, fait ceci, le travail n'est pas bon, tire plus fort !” .Or, cette logique économique de la maîtrise médicalisée des dépenses est souventliée à la logique techniciste de rationalisation des pratiques médicales .Celle -ci se repère par exemple dans une codification écrite des fonctions desmédecins, et dans le respect des guides de bonnes pratiques, qui décrivent pourchaque intervention une « procédure » à suivre. Cette codification écritefavorise l'émergence d'une nouvelle représentation de la pratique médicale, enaccentuant son caractère éminemment technique, reléguant ainsi au second plan ladéfinition qui prévalait jusqu'alors de la médecine comme art. Pour s'en convaincre, il est possible de comparerles points de vue de deux médecins sur cet aspect : si le premier, chirurgien etchef de département dans l'établissement que nous avons présenté, revendiquel'efficacité d'un encadrement strict de l'activité médicale – « un service quiest mauvais n'a pas de protocole, n'a pas étudié. Si tous les protocoles sontbien faits, comment voulez vous que les mecs soient mauvais ? Tout a été prévu .Tout est écrit. Vous imaginez. Un hôpital qui a pris le temps de se faire chierà faire ça, vous me ferez pas croire qu'il est mauvais, c'est pas vrai, c'estpas vrai. On me gonfle ! » —, le second, chef de service dans unchu parisien, présente quant à lui une vision plus« traditionnelle » de sa pratique – « si un tel encadrement de l'activitémédicale, de l'activité opératoire en particulier, est conceptuellementdéfendable, toujours au nom de la défense du consommateur vis-à-vis des excèsdes praticiens, dans les faits cette approche est un peu difficile, tant ladifférence dans les gestes réalisés, dans ce qui est réellement fait, quiconduit à un succès ou à un échec peut être minime, décelable par l'ultraspécialiste uniquement et encore, s'il peut être le témoin direct de l'action[. .. ]. Il paraît en effet essentiel que soit encouragée, préservée, l'éthiquepersonnelle du chirurgien, celle qui a permis un essor rapide de la spécialitépour le plus grand profit de la très grande majorité, sinon la totalité desmalades » Finalement, les rapports très différenciés que les médecins entretiennent avecces trois logiques – médiatique de la transparence, économique de la maîtrisedes dépenses et techniciste de la rationalisation des pratiques de soins –renvoient d'une manière plus générale à deux conceptions des liens que lamédecine doit entretenir avec les autres univers sociaux. En stigmatisant le« ridicule » des classements journalistiques, les médecins les plus engagés dansle champ médical révèlent ainsi la structuration chiasmatique des deux principesde reconnaissance – interne ou externe – possibles. Fonctionnant un peu à lamanière des vases communicants, le cumul des deux espèces de capitalscientifique – « pouvoir temporel » ou « capitalscientifique pur » – est difficile à réaliser pratiquement. Il semble que lanotoriété médiatique de certains, qui leur permet de bénéficier de pouvoirtemporel, interdit la notoriété purement médicale. Comme le note un médecinengagé dans le champ : « La notoriété c'est quoi ? C'est un bilan extrêmementsubtil dans lequel il y a le niveau d'activité, le résultat, la personnalité desgens qui sont dans le service, la situation géographique, la qualité del'architecture, les relations des responsables du service avec les médias. Vousavez des gens qui n'ont aucune relation avec les médias qui sont des gens très ,très bien. Cela dit, ils n'auront pas acquis la notoriété par les mêmesprocédures, et ils auront malgré tout une notoriété, parce que la notoriétéc'est quelque chose de très complexe, beaucoup plus complexe que ce que disaitLe Figaro » Dès lors, si les médecins consacrés par lesjournalistes bénéficient d'une consécration publique, celle -ci n'a aucun effetdans l'univers médical, si elle n'est pas corrélée avec une reconnaissanceinterne. Les logiques de la consécration journalistique sont plurielles. Que ce soit ducôté des conditions de production des critères de classification qui supposentque les journalistes articulent différentes logiques, ou bien du côté desmédecins et des établissement classés, qui doivent eux aussi souscrire à uneconception relativement récente de la médecine, celle d'une activité quis'insère dans un réseau d'interdépendances avec d'autres univers sociaux( économique, journalistique, juridique, associatif). En ce sens, il faut donc, àla suite d' Érik Neveu (2001 : 91), parler du pouvoir des journalistes comme d'un« pouvoir en réseau », le pouvoir de consécration des journalistes révélantalors leur place centrale dans la coordination de différentes activités. Dèslors, ce sont deux figures du médecin qu'opposent les classements des hôpitaux :d'un côté, des médecins qui ont voué leur existence à l'activité médicale etn'acceptent de convertir que sur le tard le capital spécifique qu'ils ont puaccumuler dans le champ médical en devenant par exemple conseiller techniqueauprès d'un ministère; de l'autre, des médecins qui s'efforcent de tenirensemble les multiples contraintes qui pèsent sur leur activité (économique ,administrative, juridique et médiatique notamment) et qui ne les perçoivent doncpas comme une remise en cause de leur autonomie. En reprenant la typologieweberienne, on pourrait dire que ces classements des hôpitaux signent le passaged'une domination traditionnelle et charismatique (dont la figure du grand patronest sans aucun doute le meilleur exemple), à une domination légale rationnelle( guide de bonne pratique, respect des procédures, qualité des soins. ..) .
Depuis bientôt une dizaine d'années, paraissent au moins une fois par an des « palmarès des meilleurs hôpitaux de France » qui, pour leur majeure partie, sont produits par une équipe de trois journalistes. Le succès qu'ils rencontrent est tel qu'une société d'assurances s'est récemment associée à eux pour proposer à ses clients un service téléphonique d'orientation vers le « meilleur hôpital ». Si, d'une manière générale, ces classements sont révélateurs d'une extension continue des personnes autorisées à parler des choses de santé et d'une évolution dans les représentations de l'hôpital, on questionnera ici plus précisément les logiques de la consécration journalistique. En rappelant, dans un premier temps, les conditions de production des critères de classification, on montrera que ce « pouvoir de consécration médiatique » réside d'abord dans la capacité des journalistes à coordonner les différentes logiques (médicale, économique et juridique) en présence. On pourra alors, en prenant l'exemple d'un hôpital prédisposé à la consécration journalistique, rappeler que ces logiques de consécration doivent être appréhendées comme un processus dynamique et comme le résultat d'interactions entre classeurs et classés.
sciencesInfo_10-0245724_tei_1094.xml
termith-533-communication
Aujourd'hui, de nombreuses institutions comme les archives départementales ou régionales, les bibliothèques et médiathèques ou les musées ont opté pour la numérisation de leurs fonds documentaires. La numérisation de ces fonds permet de proposer de nouvelles formes de valorisation des documents grâce à l'usage des nouvelles technologies, un processus de valorisation se traduisant par la mise en place de moyens spécifiques pour véhiculer, de manière ciblée, un contenu sur un public donné en vue d'un impact précis. En outre, une étude faite sur le moteur de recherche Excite montre qu'une requête sur cinq effectuée sur celui -ci est lié à la géographie (Sanderson et al., 2004). L'information géographique, contenue dans le corpus mis à notre disposition par la MIDR 1, est composée d'entités spatiales, temporelles et thématiques. « Les instruments de musique dans le voisinage de Laruns au XIXesiècle » est un exemple d'entité géographique complète : « Instruments de musique » est l'entité thématique, « dans le voisinage de Laruns » est l'entité spatiale et « au XIXesiècle » l'entité temporelle. La plupart des systèmes permettant la gestion et la consultation de documents numériques en ligne proposent des méthodes d'indexation reposant sur l'exploitation de méta-données 2, combinées à des techniques de recherche plein texte. Ces dernières sont basées essentiellement sur des méthodes d'analyse de données portant sur les formes (mots ou graphies) qui constituent un texte. Seules quelques propositions préindustrielles améliorent la précision grâce à la prise en compte de certaines relations sémantiques dans la requête de l'utilisateur (comme, par exemple, certaines relations spatiales dans le projet européen SPIRIT (Chen et al., 2006)). Mais dans ces propositions, l'indexation géographique des contenus, quant à elle, se limite à associer une entité nommée toponomique à une géoréférence. Actuellement donc, les techniques d'indexation opérationnelles ne permettent pas une prise en compte aisée de l'information géographique telle qu'elle apparaît dans notre corpus. Or parallèlement et depuis bientôt une dizaine d'années, l'analyse sémantique de contenus à partir de textes connaît une évolution importante grâce notamment à un renouvellement de la manière de poser le problème (Bourigault et al., 2001) (Enjalbert et al., 2004). Les textes sont vus désormais comme des sources à exploiter par des logiciels de Traitement Automatique des Langue (TAL) au sein d'un processus supervisé par un analyste qui tient compte des objectifs de la modélisation. Aux méthodes de recherche basées sur l'analyse de données, de plus en plus de travaux opposent donc actuellement des méthodes permettant d'exploiter véritablement la sémantique du « contenu » des documents. Celle -ci est appréhendée de manière très partielle pour des raisons de complexité. Le gain attendu est à la fois en termes de rappel, de précision (car cela permet de dépasser la combinaison booléenne d'indicateurs) et de meilleure compréhension par l'utilisateur des résultats de sa requête. Dans le domaine de l'information géographique, l'enjeu est donc de pouvoir « interpréter » des expressions telles que « au Nord de », « entre », « à proximité de » ou « en périphérie de » ou temporelles comme « vers le début », « aux alentours de » voire de composition ou de dépendance « les pics Pyrénéens les plus élevés » ou « les gaves à fort débit » ou encore « vers le début de l'hiver 1850 » ou alors « après les années de sécheresse du début de ce siècle ». Deux approches majeures sont aujourd'hui proposées afin de prendre en compte la sémantique du contenu du document. La première approche porte sur des techniques basées sur des ontologies de domaine. Avec ce type de technique, la structure de l'index est donnée par la structure de l'ontologie employée. Un des problèmes rencontrés vient de la difficulté de disposer d'ontologies offrant des concepts spécifiquement dédiés à l'information géographique. En effet, très peu d'ontologies sont actuellement réalisées en pratique (Lemmens, 2006) ou alors celles -ci portent sur des domaines très ciblés. La seconde s'appuie sur des techniques TAL (traitements automatiques de la langue) permettant de construire une représentation symbolique d'une information cible présente dans le contenu des documents. Cela consiste généralement à appliquer au flux textuel des patrons syntaxico-sémantiques associés à des bases lexicales. Un des problèmes rencontrés vient du fait d'une grande variation des performances de ces techniques celles -ci dépendant de deux paramètres : la complexité/variabilité de l'information recherchée et le corpus sur lequel les patrons ont été définis (Aussenac-Gilles et al., 2006). Dans le cadre du projet PIV 3, à l'origine des travaux présentés dans cet article, la seconde approche est bien adaptée. En effet, si l'on décline l'information géographique selon le triptyque espace, temps, thème/phénomène et que l'on opère, uniquement et de manière indépendante, sur les composantes espace et temps (connues comme bénéficiant d'une certaine stabilité dans la langue), on peut considérer que le problème posé par la complexité/variabilité devient maîtrisable. Enfin, l'information géographique dans des corpus textuels peut être exprimée dans des formes plus ou moins explicites (complètes). L'implicite (incomplète) peut se situer au niveau des différentes composantes (espace, temps, thème/phénomène) mais également à l'intérieur de chacune d'entre elles. Cette propriété a orienté notre démarche aussi bien, dans la manière de modéliser les deux composantes (espace et temps) sur lesquelles portent nos traitements sémantiques, que dans la manière de construire les index. La section 2 présente, dans le cadre de la démarche de modélisation et de marquage des expressions textuelles, nos propositions relatives à la composante temporelle. La section 3 quant à elle décrit, toujours en ce qui concerne la composante temporelle de l'information géographique, l'approche retenue pour produire une interprétation formelle et les index correspondants. La dernière section détaille dans un premier temps les différentes approches adoptées pour chaque composante de l'information géographique (espace, temps, phénomène/thème) afin d'élaborer un système de recherche d'information (RI) par le contenu. Cela permettant d'aboutir à un système de recherche s'appuyant sur une granularité intra-documentaire de l'information. Enfin, dans un second temps, nous proposons une première technique permettant de combiner les résultats obtenus avec les recherches spatiale, temporelle et thématique. Dans cette section, nous allons détailler les expressions temporelles typiques que l'on trouve dans notre corpus 4. Nous étudierons les travaux réalisés pour la modélisation du temps et notamment le langage timeML. Enfin, nous présenterons notre modèle. Notre objectif étant de connaître les périodes abordées dans les documents, nous nous intéressons seulement aux expressions temporelles à connotation calendaire. Voici des exemples d'expressions temporelles que l'on peut trouver dans nos documents : 11 mars 1957; juillet 1957; 11 mars; mars; printemps 1787; été de 1799; hiver; 2002; XVIIIe siècle; 18h00; fin de 1892; dès 1781; de-puis 1787; 1997-1998; fin août 1801; de 1950 à 1960; début des années 1950; vers la fin du printemps de 1800; avril et mai 1798; premiers jours de l'automne; vers la fin de 1794 ou le début de 1795; 12, 15 et 20 juillet 1916; 1950,52,57; du 29 au 30 septembre; avant l'ère chrétienne; depuis la révolution; pendant 18 ans. Dans un premier temps, nous avons décidé de ne pas retenir les expressions faisant référence à des heures (car dans notre fonds documentaire, ce n'est pas un grain approprié), à des durées (à cause de leur référence anaphorique, il est difficile de les placer sur un axe du temps), et à des événements historiques (car elles nécessitent un thésaurus d'événements historiques). Dans le sous-ensemble restant, certaines expressions référencent explicitement une entrée dans le calendrier : ce sont des dates (ex : 11 mars 1957; printemps 1901; XVIIIe siècle ;…). Nous les appelerons entités absolues. D'autres correspondent à une adaptation d'une ou plusieurs entités temporelles absolues (ex : fin de 1892; vers la fin du printemps de 1800 ;…). Nous les appellerons entités temporelles relatives. La granularité la plus fine est le jour. Les entités temporelles peuvent être complètes ou incomplètes. Les entités incomplètes ne peuvent pas être situées sur une échelle de temps absolue car elles ne possèdent pas d'année (ex : mars; 11 mars; hiver ;. ..). De nombreux travaux sont consacrés à l'analyse temporelle du document. (MUC7, 1998) ne s'est interessé qu'aux entités temporelles absolues (date et heure). De façon plus générale, (Vazov, 2001) identifie dans le document les entités qui répondent à la question « quand », mais ne leur associe ni sémantique ni représentation. (Schilder et al., 2001) propose un marquage sémantique des entités temporelles calendaires, mais une représentation non uniforme. Enfin, des travaux tels que (Gosselin, 1996), (Mani et al., 2000), (Setzer et al., 2002), (Muller et al., 2004), (Mani, 2004) et (Sauri et al., 2006) s'intéressent à l'analyse temporelle de la langue naturelle en marquant les relations temporelles qui existent entre les événements contenus dans les documents. (Muller et al., 2004) s'intéresse plus particulièrement à l'annotation automatique des relations introduites par des verbes conjugués. Les travaux tels que ceux de (Mani et al., 2000), (Wilson et al., 2001), (Setzer et al., 2002) et (Ferro et al., 2003) ont conduit à l'unification de la manière d'annoter le temps dans les documents (expressions calendaires et relations entre événements) au travers du langage timeML (Sauri et al., 2006). TimeML utilise quatre types de balises, chacune possèdant un ensemble d'attributs permettant de décrire précisément l'information marquée. Les différentes balises sont décrites dans le tableau 1. Les balises timeML <EVENT> permet de marquer les événements, ponctuels ou ayant une certaine durée, qui se produisent ou qui se sont produits <TIMEX3> permet de marquer les heures, les dates, les intervalles et les durées. Ils peuvent être complètement spécifiés (ex : « le 3 juin 1950 ») ou non (ex : « le 3 juin ») <SIGNAL> permet d'annoter les mots indiquant comment les informations temporelles sont reliées (ex : avant, après, durant ,. ..) <TLINK> Temporal link : permet de décrire les relations temporelles entre les balises <EVENT>, entre les balises <TIMEX3>, ou entre les balises <EVENT> et <TIMEX3> <ALINK> Aspectual link : permet de décrire les relations entre les balises <EVENT> correspondant à un événement aspectuel (commencer, finir, …) et les balises <EVENT> correspondant à l'événement argument <SLINK> Subordination link : permet de décrire le contexte introduisant les relations entre deux balises <EVENT> Etant donné que nous nous intéressons seulement aux entités de type calendaire, seules les balises <TIMEX3>, <SIGNAL> et <TLINK> ont un intérêt pour le marquage de nos documents. Prenons quelques exemples : L'attribut value utilise la notation préconisée par la norme ISO-8601. La forme de la valeur dépend de la nature de l'entité marquée. Notre objectif étant de marquer des entités temporelles pour un usage plus efficace en RI (Recherche d'Information), cette forme de représentation présente des limites : en effet, lors de la phase de recherche, les comparaisons vont être réalisées entre éléments ayant des formes différentes. Lorsque l'entité calendaire est relative comme, par exemple, « le début de juin 1963 », la marquage se fait de la façon suivante : La construction de « début de juin 1963 » ne peut se faire qu'en la rattachant avec l'événement associé. Soit ei4, l'identifiant de l'instance de cet événement. On obtient alors le marquage suivant : L'attribut relType précise le type de la relation temporelle. Le problème est qu'aucune représentation (valeur) n'est associée à « début de juin 1963 ». Or, lors de la phase de recherche, il est nécessaire d'avoir une représentation pour cette période. Notre objectif est de permettre la recherche de documents traitant d'une période donnée, sachant que la granularité la plus fine est le jour. L'annotation des éléments temporels contenus dans les documents devra être réalisée de manière automatique. D'une part, le fait que les entités temporelles relatives ne sont pas associées à des représentations, et d'autre part le fait que la représentation des entités temporelles absolues n'est pas uniforme constituent un inconvénient pour la recherche. Ce sont pour ces raisons que nous n'avons pas utilisé le langage timeML pour annoter nos documents. Nous avons donc proposé un langage pour l'annotation conforme à notre modèle temporel, ce dernier étant en adéquation avec notre modèle spatial (Gaio et al., à paraître en décembre 2007). L'élaboration du modèle a commencé par l'étude de notre corpus. Suite à cette étude, nous avons proposé un modèle unifié pour décrire les entités spatiales et temporelles. La figure 1 donne un aperçu du modèle. Les entités spatiales (ES) comme les entités temporelles (ET) peuvent être absolues ou relatives. Une entité spatiale absolue (ES A) correspond à une entité géolocalisée. Une entité spatiale relative (ES R) définit une relation spatiale avec au moins une ES. Par exemple, « au nord de Pau » est une ES R qui définit une relation d'orientation avec l'ES A « Pau ». Pour plus de détails sur le modèle spatial, voir (Lesbeguerries et al., 2006). Une entité temporelle absolue (ET A) correspond à une date. Une entité temporelle relative (ET R) décrit une relation entre une ou plusieurs ET (qui peuvent être absolues ou relatives). Chaque ET possède une ou plusieurs représentations. Nous avons choisi de représenter les ET à l'aide d'intervalle de temps (comme dans le modèle SdT (Gosselin, 1996)). L'intérêt est de nous permettre, lors de la phase de recherche, de ne calculer que des intersections d'intervalle et notamment d'utiliser les opérateurs définis par Allen (Allen, 1984). Les ET A correspondent à des dates : un jour, un mois, une saison, une année ou un siècle. Elles peuvent être complètes ou incomplètes. Par incomplet, on entend un jour, un mois ou une saison sans année. Les ET R correspondent à une relation entre une ou plusieurs ET. Nous distinguons cinq types de relation : inclusion : relation unaire qui permet de décrire des entités temporelles telles que « au début de ET », « à la fin de ET » ,… adjacence : c'est une relation unaire qui permet de décrire des entités temporelles telles que « vers ET », « aux alentours de ET », « les années ET » ,… orientation : c'est une relation unaire qui permet de décrire des entités temporelles telles que « avant ET », « après ET » ,… intervalle : c'est une relation binaire qui permet de décrire des entités temporelles telles que « de ET1 à ET2 » ,… énumération : c'est une relation n-aire qui permet de décrire des entités temporelles telles que « 9, 10 et 12 novembre 1900 », « 1950, 60 » ,… Contrairement à timeML, notre modèle permet de décrire la sémantique d'une ET R indépendamment de l'événement auquel elle est liée. De plus, le modèle associe une représentation unifiée à tout type d'ET sous la forme d'un ou de plusieurs intervalles de temps. La création des index temporels est réalisée en deux étapes. La première consiste à extraire les ET (décrites par notre modèle) à l'aide d'une chaîne de traitement syntaxico-sémantique. La deuxième consiste à interpréter la sémantique associée à l'ET pour calculer l'intervalle de temps associé. La chaîne de traitement syntaxico-sémantique est réalisée à l'aide de la plateforme linguastream (Bilhaut, 2003) (Widlocher et al., 2005). Elle prend en entrée un fichier au format txt et est composée principalement des traitements suivants : une analyse morpho-syntaxique à l'aide de l'outil Tree-Tagger (Schmid, 1994); une analyse lexicale à l'aide de l'outil Lexicon Marker; une analyse syntaxico-sémantique réalisée à l'aide d'une grammaire DCG (Definite Clause Grammar) dans laquelle sont intégrés des traitements en Prolog. Le résultat est un fichier xml contenant pour chaque ET marquée sa sémantique. L'exemple qui suit montre le balisage de l'ET « juillet 1957 ». Cette dernière correspond à une ET A. La sémantique associée à chaque ET A consiste en un grain, un début et une fin. Enfin, chaque ET possède un identifiant et_id et se situe dans le paragraphe par_id. L'exemple suivant montre le balisage de l'ET « au début des années 1950 ». Cette ET est une ET R qui correspond à une relation d'inclusion avec l'ETR « années 1950 ». Cette dernière est une relation d'adjacence avec l'ET A « 1950 ». La phase d'indexation consiste à interpréter la sémantique de l'ET pour calculer le ou les intervalles de temps qui lui sont associés. Ce sont ces intervalles de temps qui seront utilisés lors de la phase de recherche. L'intervalle de temps associé à l'ET A est le même que celui décrit dans la sémantique. Si nous reprenons l'exemple « juillet 1957 », l'intervalle de temps associé va du 1957-07-01 au 1957-07-31. Nous avons utilisé la norme ISO-8601 pour les bornes de l'intervalle. Le balisage associé à l'ET devient donc : L'intervalle de temps associé à l'ET R est calculé à partir de celui de l'ET (ou des ET) associée(s) en tenant compte de la nature de la relation. Soient e r une ET R en relation ℜ avec l'ET e, I er l'intervalle de temps associé à e r et I e l'intervalle de temps associé à e. On distingue plusieurs cas de figure (voir figure 2) : si ℜ = inclusion : I er est inclus dans I e. Les bornes de I er dépendent du type d'inclusion (début, milieu, fin) et de la granularité de I e. Par exemple, pour une inclusion de type début, I er correspond environ au premier tiers de I e; si ℜ = adjacence : I er inclut I e. I e est donc élargie au niveau de ses deux bornes. Cet élargissement dépend de la nature de l'adjacence (vers, les années) et du grain de I e; si ℜ = orientation : I er inclut I e. I e est donc élargie au niveau d'une de ses deux bornes. Cet élargissement dépend de la nature de l'orientation (avant, après) et du grain de I e; Soient e r une ET R en relation de type intervalle avec l'ET e1 et avec l'ET e2, I er l'intervalle de temps associé à e r, l'intervalle de temps associé à e1 et l'intervalle de temps associé à e2. I er a pour borne inférieure la borne inférieure de, et pour borne supérieure, celle de (voir figure 2). Prenons l'exemple « de 1950 à 1960 », l'intervalle de temps associé va du 1950-01-01 au 1960-12-31. Le balisage associé à l'ET est donc : Soient e r une ET R en relation de type énumération entre l'ET A e a et la liste de valeur val, et I ea l'intervalle de temps associé à e a. Dans ce cas, plusieurs intervalles de temps sont associés à e r : I ea plus autant d'intervalles qu'il y a d'éléments dans val. Ces intervalles sont calculés à partir de I ea et de sa granularité (voir figure 2). Par exemple, « 12, 15 et 20 juillet 1916 » est une ET R de type énumération entre l'ET A « 20 juillet 1916 » et la liste de valeur contenant 12 et 15. Ainsi, les intervalles de temps représentant « 12, 15 et 20 juillet 1916 » sont : [1916-07-12,1916-07-12 ], [1916-07-15,1916-07-15 ], [1916-07-20,1916-07-20 ]. Le processus d'interprétation est récursif. En effet, si nous reprenons l'exemple « au début des années 1950 », cette ET R dépend d'une autre ET R. Il faut donc commencer par associer un intervalle de temps à cette dernière (« les années 1950 »). Nous sommes dans le cas d'une relation d'adjacence de type années. L'intervalle de temps associé va donc du 1950-01-01 au 1959-12-31. Puis, nous calculons l'intervalle de temps final en prenant le premier tiers (relation d'inclusion de type début). Nous obtenons : Le corpus mis à notre disposition par la MIDR comporte une dizaine d'ouvrages. Nous avons réalisé une première évaluation de notre processus d'extraction en considérant un bon tiers de quatre ouvrages, ce qui représente environ 540 entités temporelles. Le tableau 2 montre comment se répartissent ces entités. Répartition des différents types d'entités temporelles ETA ETR heure réf. événement durée 69,6 % 21,6 % 2,2 % 0,9 % 5,5 % Cette répartition conforte notre choix de considérer le jour comme la granularité la plus fine. Le tableau 3 donne les taux de rappel et de précision obtenus pour les entités que nous voulons extraire (ETAet ETR). Ces résultats s'expliquent par le fait que la grammaire a été définie à partir de l'étude des quatre ouvrages ayant servi à l'évaluation. Il faudrait maintenant réaliser une évaluation sur l'intégralité des ouvrages de notre corpus pour vraiment tester notre chaîne de traitement. L'information géographique se déclinant selon le triptyque espace, temps, phénomène/thème, différentes approches d'extraction et d'indexation ont été proposées. Par exemple, une page web peut-être référencée par une annotation géolocalisée, d'une part et, un index full-text, d'autre part (Vaid et al., 2005). Selon le même principe, T. Sagara (Sagara et al., 2004) utilise les pages jaunes pour générer des listes de mot-clés (activités/métiers) et annoter des pages web. Les projets SPIRIT, GeoSearch, GEO-IR, liés à la gestion d'informations géographiques sont présentés dans (Chen et al., 2006). Tous ces systèmes choisissent généralement le phénomène/thème comme point d'en-trée de l'information géographique et proposent, comme SPIRIT, des index combinant cette information (hôtel/restaurant) avec l'information spatiale, par exemple. Toute la difficulté est, bien entendu, d'assurer l'existence d'une réelle relation sémantique entre le phénomène/thème et l'information spatiale ainsi liés. Notre approche vise des documents de type et d'origine divers, peu structurés, décrivant des territoires, et ne cible aucun phénomène/thème particulier a priori. Dans un contexte de recherche d'information géographique, le critère d'entrée principal dans le document est l'espace et/ou le temps. Ces critères sont plus stables que le phénomène/thème relativement varié et généralement inconnu a priori. Ainsi, nous avons mis en œuvre des chaînes de traitement dédiées à l'information spatiale (Lesbeguerries et al., 2006) et temporelle (cf. §3) afin d'étendre des systèmes d'indexation classiques basés sur des méthodes statistiques. Les index qui en résultent sont donc complètement indépendants. Ils permettent des recherches sur un seul ou plusieurs critères. Dans ce dernier cas, la combinaison des résultats est encore un problème de recherche très ouvert. La RI géographique que nous voulons mettre en œuvre ne considère pas les documents comme un tout. Nous travaillons donc sur une unité documentaire (appelée fragment de document) qui est la phrase dans le processus d'indexation et le paragraphe dans le processus de recherche. Le paragraphe permet de replacer les phrases dans leur contexte. La méthode de stockage adoptée permet de passer aisément du paragraphe à la page, et de la page au document. La recherche spatiale commence par une extraction des informations spatiales exprimées dans la requête; ce traitement est similaire à la démarche de détection d'Entité Spatiale (ES) dans le fonds documentaire. Elle est suivie d'un appariement entre les ESs de la requête et celles contenues dans les index. Cet appariement est basé sur le calcul d'intersections entre les zones géo-référencées (boites englobantes) correspondant aux ESs de la requête et des index (Sallaberry et al., 2007b). Pour chaque requête (voir figure 3), le système évalue son degré de similarité avec les fragments de documents de la collection en calculant d'abord le qui est égal au rapport de la surface d'intersection entre la requête () et le fragment de document Puis le rapport avec la requête Et le rapport de distance : Ainsi, le degré de similarité est calculée comme suit : Plus les centroïdes de I et Q sont proches, plus la pertinence du fragment de document est grande. La RI classique est basée sur la notion de « sac de mot » (Baeza-Yates et al., 1999). Elle consiste d'abord à sélectionner les mots dans les documents, puis à les lemmatiser (Porter, 1980) et, enfin, à enlever les mots vides (stoplist). Nous avons utilisé une liste de mots vides et un lemmatiseur de la langue Française de la famille Snowball1. Un poids W td (t,d) est ensuite assigné à chaque terme t d'un document dj suivant la formule : représente la fréquence du terme ti dans le fragment de document dj, ni est le nombre de fragments contenant le terme ti et N le nombre total de fragments dans la collection. dlj représente la taille du fragment dj et avg_dl, la taille moyenne de document dans la collection. Cette méthode de pondération, qui est une amélioration de la formule TF.IDF est introduite pour atténuer l'impact négatif des documents longs lors de la phase de recherche (Robertson et al., 1998). Ceci est bien adapté aux paragraphes de tailles variées de notre collection. Le même processus d'indexation est appliqué aux requêtes. Un modèle de recherche vectoriel (Boughanem et al., 2001) est ensuite utilisé pour la phase de recherche : pour une requête q donnée, le produit scalaire (Inner product) entre le vecteur de la requête et ceux correspondants à chaque fragment de document dj dans la collection est appliqué pour calculer les scores de pertinence : Ce score de pertinence est utilisé pour déterminer le classement du fragment de document dj (ranking) dans la liste finale des documents sélectionnés en réponse à la requête q. Le processus de RI pour la partie temporelle passe par les étapes suivantes. Tout d'abord, une requête est exprimée en texte libre. Cette requête est ensuite interprétée en utilisant la même chaîne de traitement que pour l'indexation. Soient Ens req l'en-semble des entités marquées dans la requête et Ens doc, l'ensemble des entités marquées dans le document. Nous avons : Ensreq = {ETreq }et Ensdo c = {ETdoc }. Puis, nous calculons Ens res qui est l'ensemble des entités de Ens doc pour lesquelles l'intersection entre leur interprétation et celle d'une des entités de Ens req n'est pas vide. Nous avons : Ensres = {ETdoc} avec ETdoc ∈ Ensdoc et ∃ ETreq ∈ Ensreq tel que interprete (ETdoc) ∩ interprete (ETreq) ≠ ∅. Le résultat de la requête est l'ensemble des fragments de document auxquels les entités de Ensresappartiennent. Un degré de pertinence est associé à chaque fragment résultat. Ce degré de pertinence est calculé en fonction du recouvrement entre l'intervalle de temps de l'ET du fragment de document et celui de l'ET de la requête. Pour chaque requête (voir figure 4), le système évalue le degré de similarité des fragments de document de la collection avec la requête. Tout d'abord, il s'agit de calculer le qui est égal au rapport de la durée commune au fragment de document évalué et à la requête () avec la durée totale du fragment de document Puis, le rapport avec durée de la requête Et le rapport de distance : Ainsi, le degré de similarité est calculé comme suit : Plus les centroïdes des durées de I et de Q sont proches, plus la pertinence du fragment de document est grande. Nous avons déjà expérimenté un premier prototype combinant RI spatiale et thématique (Sallaberry et al., 2007a). Les résultats suggèrent que d'un côté, l'approche spatiale est bien adaptée à la recherche de documents traitant de cette dimension mais l'est évidemment moins quand il s'agit de classer les documents pertinents dans les requêtes générales (espace + thème). L'approche classique, quant à elle, manque d'ex-haustivité quand elle traite des requêtes spatiales, mais surclasse l'approche spatiale dans le cas de requêtes générales. Nous avons donc expérimenté une combinaison des deux approches pour améliorer le taux de précision des requêtes traitant de l'espace et du thème. Les détails des résultats obtenus sont donnés dans (Sallaberry et al., 2007a). Résultats de la combinaison de l'approche spatiale et classique Requêtes P@5 P@10 P@15 Nombre de réponses Approche spatiale Avg 0.15 0.18 0.18 1154 Approche classique Avg 0.48 0.39 0.36 331 Combinaison des résultats de l'approche spatiale et classique Avg 0.70 0.50 0.43 25.75 Les résultats confirment l'hypothèse de départ : combiner l'approche spatiale basée sur l'extraction et la comparaison des entités spatiales absolues et relatives avec l'approche thématique basée sur les statistiques permet d'améliorer les performances du système en classant plus de documents pertinents. Par exemple, aux cinq premiers documents (voir tableau 4), la précision atteint 70 % quand les approches classique et spatiale sont combinées; alors qu'elle n'est respectivement que de 48 % et 15 % quand les deux approches sont utilisées séparément. Cependant, on peut noter le nombre réduit de documents sélectionnés à cause de la méthode « prudente » de combinaison adoptée (intersection simple) : par exemple, dans le cas d'une de nos requêtes, l'approche combinée sélectionne seulement 4 unités documentaires alors que l'approche classique en retourne 233 et l'approche spatiale 724. L'amélioration de la précision au niveau des premiers documents restitués s'accompagne ainsi d'une diminution au niveau du rappel. Nous envisageons désormais de combiner ces trois approches de RI d'une manière similaire à cette première expérimentation. L'idée est de subdiviser une requête en trois sous-requêtes (voir figure 5); la sous-requête spatiale, la sous-requête temporelle et la sous-requête thématique. Les sous-requêtes spatiales et temporelles contiennent les ES et les ET identifiées par les chaînes de traitement linguistique correspondantes. La sous-requête thématique contient les termes restants de la requête (phénomène). Comme schématisé dans la figure 5, prenons l'exemple d'une requête visant les « Instruments de musique dans les environs de Laruns au XIXesiècle » : « les environs de Laruns » et « XIXe siècle » représentent respectivement la sous-requête spatiale et la sous-requête temporelle tandis que « instrument » et « musique » représentent la sous-requête thématique. Les trois sous-requêtes sont soumises au système d'appariement supportant l'approche appropriée. Le résultat final est construit en faisant une intersection des trois ensembles de documents sélectionnés (cf. figure 5). Le fait qu'une unité documentaire résultat correspond à un paragraphe augmente la probabilité que les informations spatiales, temporelles et thématiques soient sémantiquement liées. Le classement final est basé sur celui obtenu à l'aide des algorithmes de calcul de similarité spatiale et temporelle. Cette contribution se situe dans la lignée des approches d'extraction et de recherche d'information qui proposent des méthodes plus riches, atteignant le « sens » de manière plus fine, pouvant et devant être développées pour des espaces thématiques plus restreints et des tâches plus spécifiques. Une caractéristique majeure, peut-être même « la » caractéristique essentielle du « fait sémantique » est de rapporter une information à un espace de référence accepté ou posé à un moment déterminé par des usages. Ce sont deux composantes d'un espace de référence, appelé « information géographique », que nous avons investies dans nos travaux. Cet espace convient bien, dans le cadre du projet PIV, dans la mesure où de nombreux contenus de documents (de la base documentaire de la médiathèque), y ancrent une part importante de leurs informations. Les modèles sémantiques pour les composantes temporelles et spatiales de l'information géographique ont été élaborés sur un échantillon représentatif de ces documents. Cette manière de les concevoir fait leur force mais également leur limite. Issus du croisement entre l'étude du mode d'expression utilisé dans les documents, les objectifs et les impératifs d'un traitement automatique, ils sont tout à la fois légers (seuls les éléments pertinents sont modélisés), indépendants (les entités spatiales et les entités temporelles peuvent être traitées de manière totalement séparée) et compatibles entre eux. Mais leur généricité est limitée au cadre de corpus équivalents. Comme indiqué dans la section 2.2 certains pré-requis et formalismes du langage TimeML, comme le besoin de connaître a priori l'événement (ce que nous avons nommé le phénomène/thème) ou alors l'absence de représentation associée aux relations temporelles, ne nous ont pas permis de l'utiliser efficacement dans notre problématique de RI. Cette constatation nous a conduit à concevoir un langage de marquage, d'une part capable d'intégrer plus facilement les différents aspects de notre modèle, et d'autre part plus apte à répondre aux besoins de la phase de RI. A terme, il n'est pas à exclure qu'une telle démarche ne permette de proposer des extensions et/ou des évolutions du langage TimeML pour qu'il puisse intégrer ce type de besoin. L'architecture choisie repose sur le principe des Services Web. Les modèles, les marquages sémantiques opérés sur les contenus ainsi que les index qui en découlent s'appuient sur la technologie XML. Les processus d'extraction et de recherche d'information sont entièrement implémentés. L'ensemble du processus d'extraction a fait l'objet d'une évaluation, il en resulte que plus de 80 % des entités sont détectées et correctement décrites dans les modèles respectifs (des précisions, sur le mode opératoire de l'évaluation, pourront être trouvées dans (Sallaberry et al., 2007b) et en particulier concernant les entités nommées spatiales). Dans le processus de recherche, seul l'aspect spatial, sur lequel ont porté nos premiers efforts, a été soumis à évaluation (la description du processus d'évaluation est décrit dans (Sallaberry et al., 2007a)). Le protocole a montré que les résultats obtenus à partir de la combinaison des index spatiaux de PIV, avec les index thématiques, permettent un gain notoire dans la pertinence des documents retournés. Une évaluation similaire est en cours concernant l'as-sociation des index temporels, détaillés dans cet article, avec les index thématiques. A terme une expérimentation en collaboration avec la Médiathèque est prévue afin de tester, dans un usage de type tourisme culturel, la qualité des réponses retournées lorsqu'elles sont issues de l'intersection des trois index. Néanmoins, le problème de fusion des trois ensembles de résultats obtenus dans la phase de RI pour optimiser aussi bien la précision que le rappel, reste un problème ouvert. Ceci nécessite l'étude d'opérateurs plus complexes (union, avec intégration pondérée de la pertinence spatiale, temporelle et statistique, par exemple) que la simple intersection utilisée ici. Les prochains travaux devront mener à des propositions concernant le calcul du degré global de pertinence d'une unité documentaire retournée; les algorithmes d'intégration des taux de pertinence spatial, temporel et thématique devront tenir compte du contexte et des modes de calcul spécifiques de chacun de ces trois ratios. Des expérimentations d'algorithmes de combinaisons spatiale et thématique utilisant le produit, la similarité maximum, des fonctions de combinaison linéaire ont, par exemple, été décrites dans (Martins et al., 2005) .
Les travaux présentés dans ce papier se situent dans le cadre de la recherche d'information géographique. Notre objectif est d'exploiter les fonds documentaires patrimoniaux dont le contenu est fortement attaché au territoire (information géographique). L'information géographique peut être déclinée selon le triptyque espace, temps, phénomène. Ce papier se focalise plus particulièrement sur le volet temps. Nous proposons tout d'abord un modèle décrivant les expressions temporelles à annoter. Puis, nous présentons une méthodologie d'annotation sémantique pour l'indexation automatique de ces expressions. Enfin, nous évoquerons la recherche d'information géographique d'abord selon les critères spatial, thématique et temporel respectivement, puis nous combinons ces trois critères.
sciencesInfo_08-0228881_tei_DN_102_0129.tei.xml
termith-534-linguistique
Il est bien connu que la conjonction causale parce que autorise la permutation de ses arguments, la grammaticalité et l'interprétabilité étant conservées. Les deux phrases résultant de l'opération ne sont évidemment pas synonymes : par exemple, du point de vue pragmatique, l'une est une assertion portant sur l'existence d'un fait, l'autre est une assertion abductive (ceci pouvant être décrit aussi en terme de différence de portée du connecteur, cf. infra Section 2.4) : (1a) Assertion sur l'existence d'un fait : Cette eau bout parce qu ' elle a été portée à au moins 100° C. (1b) Abduction : Cette eau a été portée à au moins 100° C, parce que (= puisque) elle bout = « Si je dis que cette eau a été portée à au moins 100° C, c'est parce qu'elle bout ». D'autre part, nous montrerons dans la Section 2.2 que la négation externe, appliquée à (1a) produit (2a), et appliquée à (1b) produit (2b) : (2a) Cette eau ne bout pas, bien qu ' elle ait été portée à au moins 100°C. (2b) Cette eau n'a pas été portée à au moins 100°C, bien qu ' elle bouille. Au sein des phrases à connecteur de concession (2a) et (2b), le phénomène d'inversion parfaite de l'ordre des arguments qui prévalait dans le couple (1a) et (1b) ne se manifeste pas : la négation a changé de place. Est -ce à dire que les arguments de bien que ne peuvent pas permuter, la grammaticalité et l'interprétabilité étant conservées ? Il n'en est rien, comme le montrent les exemples (3a) et (3b) : (2a) Cette eau ne bout pas, bien qu ' elle ait été portée à au moins 100°C. (3a) Cette eau a été portée à au moins 100°, bien qu ' elle ne bouille pas. (2b) Cette eau n'a pas été portée à au moins 100°C, bien qu ' e lle bouille. (3b) Cette eau bout, bien qu ' elle n'ait pas été portée à au moins 100°C. Tout cela suggère que la permutation des arguments de bien que est d'une nature complètement différente de celle des arguments de parce que. A quelle opération syntactico-sémantique doit-on relier le phénomène de permutation des arguments du connecteur concessif ? C'est un des problèmes que nous voudrions résoudre. Pour ce faire, nous allons recourir à la notion logique de « contraposition », en l'étendant à la description syntactico-sémantique et en en élargissant le champ d'application (cf. Section 4). Selon cette analyse, (3a) est la contraposée de (2a) et réciproquement; (3b) est la contraposée de (2b) et réciproquement (cf. Section 4.3). La contraposition jouant un rôle important dans la syntaxe et la sémantique d'autres connecteurs que concessifs, nous allons définir, autour de cette notion, un ensemble de régularités linguistiques liant les éléments de toute une classe de structures concessives, causales et conditionnelles (cf. Section 5). Comme ces régularités sont de nature non transformationnelle, nous aurons à nous expliquer sur le choix de décrire, en syntaxe et en sémantique, des phénomènes que beaucoup de linguistes rapportent à la logique ou à la structure du monde (cf. Section 7). La permutation des arguments de certains connecteurs concessifs est commentée dans plusieurs grammaires traditionnelles, ainsi que par M.-A. Morel (1996:53), qui écrit : Pourtant et cependant se différencient des autres marqueurs par plusieurs propriétés : ils peuvent relier deux propositions qui sont permutables entre elles, sans que le sens de la relation concessive entre les deux propositions soit modifié. R.-L. Wagner qualifiait les marqueurs ayant cette propriété de marqueurs ‘ porte-manteau '. La valeur de la relation marquée par ces deux adverbes est celle de la concession logique. M.-A. Morel continue avec deux exemples : Notre voiture a 100.000 bornes, elle a pourtant (cependant) très bien roulé Notre voiture a très bien roulé, elle a pourtant (cependant) 100.000 bornes. A propos de l'adverbe pourtant, elle précise : Ayant une valeur proche de celle de la conjonction bien que, il s'en différencie toutefois en ce que la proposition dans laquelle il s'insère peut, selon les cas, être interprétée comme la principale, ou comme la subordonnée. Selon nous, la propriété « porte-manteau » est aussi bien vérifiée avec les conjonctions qu'avec les adverbes concessifs. Pour s'en convaincre, il suffit de considérer la vingtaine d'exemples de phrases à conjonction bien que, quoique et malgré que que donne Sandfeld (1936:370-373 (§§ 223-224)) : elles admettent presque toutes avec naturel la permutation des arguments. Voici les deux premiers et les deux derniers exemples de concession proposées par Sandfeld dans ce passage : (4a) Il n'a pas cessé son travail, bien qu'il soit malade. Il a tout mangé, bien qu'il n'eût pas faim. Malgré que sa voix fût grelottante et cassée, il savait encore bien la faire entendre. Elle avait une figure espiègle d'enfant, bien qu'elle approchât de la trentième année. Permutons les arguments. Nous obtenons : (4b) Bien qu'il n'ait pas cessé son travail, il est malade. Bien qu'il ait tout mangé, il n'avait pas faim. Malgré qu'il sût encore bien faire entendre sa voix, elle était grelottante et cassée Bien qu'elle eût une figure espiègle d'enfant, elle approchait de la trentième année Nous reviendrons sur cette question à la Section 4.3. M.-A. Morel (1996:5) rappelle que, depuis le milieu du 19è siècle, les grammairiens distinguent plusieurs sortes de relations concessives, dont celle de concession logique, laquelle est généralement décrite comme l'expression d'une cause qui n'a pas été suivie de l'effet attendu. Par exemple Sandfeld (1936:370 (§ 223)) écrit que « les propositions concessives marquent un fait qui normalement devrait empêcher la réalisation d'un autre, mais qui n'a pas ou n'a pas eu cet effet » et illustre cette affirmation des deux exemples suivants : (5a) Il a cessé son travail, parce qu'il est malade. (5b) Il n'a pas cessé son travail, bien qu'il soit malade. Une manière plus détaillée de décrire ce qui se passe consiste à décrire les phrases à connecteur de concession comme étant l'expression de la négation externe d'une phrase présupposée à connecteur de cause. Il existe deux sortes de négation : la négation externe et la négation interne. Le fait est mis en évidence par Ducrot (1972:37-38 » et commenté, entre autres, par Nølke (1993, chapitre 4). La négation externe (que Ducrot 1972 appelle négation métalinguistique) est polémique : elle consiste à nier un énoncé présupposé. Par exemple, écrit Ducrot, l'énoncé ce mur n'est pas blanc « sera très rarement utilisé pour décrire un mur, et, de fait, il renseigne peu sur le mur considéré. La plupart du temps, on l'emploiera pour marquer qu'on s'oppose à une affirmation antérieure ce mur est blanc ». Le cas de l'énoncé il n'y a pas un nuage dans le ciel est différent, ajoute Ducrot, puisqu'en disant cela « on entend la plupart du temps donner une description du ciel, dire comment il est ». Il s'agit alors de la négation interne (Ducrot l'appelle négation descriptive : elle sert, dit-il, « à parler des choses, non des énoncés »). La distinction entre les deux sortes de négations peut être exprimée en terme de portée de la négation : (6) Négation externe : NEG-[ce mur est blanc] Ex. Ce mur n'est pas blanc. Négation interne : [il non - existe un nuage dans le ciel] Ex. Il n'y a pas un nuage dans le ciel. Dans la négation externe, la négation a pour portée l'ensemble de la phrase qui correspond au présupposé. Dans la négation interne, elle a pour portée le seul prédicat de la phrase, ou le prédicat d'une éventuelle proposition subordonnée enchâssée. Dans les deux cas, on a appliqué le morphème de négation au prédicat de la phrase. La notion de « négation externe » prend tout son sens dans le cadre de la théorie de la polyphonie (mise en scène de plusieurs énonciateurs, dont le locuteur (cf. entre autres Anscombre & Ducrot 1988:174 & sqq). Lorsque le connecteur de cause est un verbe linéarisant ses arguments dans l'ordre antécédent-conséquent, l'application de la négation externe à la phrase lui donne automatiquement un sens concessif (cf. Le Pesant 2005) : Les exemples qui figurent dans (7a) sont synonymes de : (7b) Malgré le gel, il n'y a pas eu de dégâts. Malgré la fatigue, je n'ai pas été obligé de m'arrêter. Les choses se passent autrement lorsqu'on cherche à appliquer la négation externe à des phrases dont le connecteur linéarise les arguments dans l'ordre conséquent-antécédent; c'est notamment le cas de la conjonction parce que. Reprenons l'exemple de la phrase (5a) et appliquons -lui le morphème de négation : (5a) Il a cessé son travail, parce qu'il est malade. (8) Il n ' a pas cessé son travail, parce qu'il est malade. La phrase (8) est grammaticale, mais elle n'a pas de sens concessif. Autrement dit, en utilisant simplement le morphème de négation, nous avons appliqué à cette phrase la négation interne. La seule manière d'appliquer la négation externe à une phrase à connecteur conjonctif (ou prépositionnel) linéarisant les arguments dans l'ordre conséquent-antécédent est de la « transformer » en une phrase à connecteur concessif. Plus précisément, il faut : appliquer le morphème de négation à l'argument conséquent; remplacer le connecteur de cause par un connecteur de concession. Ainsi, (9a) NEG externe de : conséquent Conjonction Causale antécédent s'exprime au moyen de : (9b) non-conséquent Conjonction Concessive antécédent La négation externe de Il a cessé son travail, parce qu ' il est malade est Il n ' a pas cessé son travail, bien qu ' il soit malade. Une tradition inaugurée par O. Ducrot (1984) oppose la causalité opérant sur le dit (causalité factuelle) à la causalité opérant sur le dire, c'est-à-dire sur l'énonciation. Les énoncés inférentiels (déduction ou abduction) seront dès lors analysés à partir d'une primitive causale. Comparons parce que et puisque, qui sont les connecteurs les plus généraux de l'une et l'autre sorte. Le connecteur parce que a deux valeurs distinctes. Il exprime en général la causalité factuelle : (10a) Pierre a le bras dans le plâtre parce qu ' il a eu un accident. Mais il peut aussi, avec de complexes restrictions d'emploi, exprimer la causalité opérant sur l'énonciation (cf. C. Rossari 2000:60-66). Ainsi l'énoncé (10b) a pour force illocutoire l ' abduction : (10b) Abduction : Pierre a eu un accident, parce qu ' il a le bras dans le plâtre. = « Je dis que Pierre a eu un accident parce qu'il a le bras dans le plâtre » Quant à la conjonction puisque, elle ne peut pas exprimer la causalité factuelle. Elle exprime la causalité opérant sur l'énonciation, ce qui fait que l'énoncé dont elle est le prédicat a la force illocutoire soit de déduction, soit d ' abduction : (11a) Déduction : Pierre a le bras dans le plâtre, puisqu ' il a eu un accident. = « Je dis que Pierre a le bras dans le plâtre parce qu'il a eu un accident » (11b) Abduction : Pierre a eu un accident, puisqu ' il a le bras dans le plâtre. = « Je dis que Pierre a eu un accident parce qu'il a le bras dans le plâtre » Nous venons de « remonter » de la concession à la causalité (Section 2.3). Nous allons maintenant remonter encore davantage : de la causalité à la condition. La relation entre la phrase à connecteur de cause (qu'il s'agisse de causalité factuelle ou de causalité opérant sur l'énonciation) et la phrase homologue à connecteur de condition peut être exprimée en termes de relation entre posé et présupposé. Soit la succession des trois énoncés suivants, qui constitue un syllogisme modus ponens : (12a) Majeure : Elle n'a pas une figure d'enfant, si elle a 30 ans. (12b) Conjonction de la majeure de la mineure : (Elle n'a pas une figure d'enfant, si elle a 30 ans) ET (elle a 30 ans) (12c) Conclusion : Elle n'a pas une figure d'enfant, parce qu ' elle a 30 ans. La phrase à connecteur de condition (12a) est une assertion, mais ses propositions constituantes ne sont pas assertées. L'énoncé (12b) a pour prédicat principal la conjonction de coordination et, dont l'argument de gauche est l'énoncé (12a) dans lequel la proposition elle a 30 ans n'est pas assertée; quant à l'argument de droite, c'est de nouveau la proposition elle a 30 ans, assertée cette fois -ci. La phrase à connecteur de cause (12c) est la conclusion (au sens logique) de l'ensemble : elle reprend l'assertion de elle a 30 ans déjà posée en (12b) et elle asserte la proposition elle n'a pas une figure d'enfant, ce que ne faisaient ni (12a), ni (12b). Si on considère les choses en remontant de (12c) à (12a), nous pouvons dire que la phrase (12c) présuppose l'énoncé (12b) et au-delà (12a), puisque (12a) est déjà posé dans (12b). En logique élémentaire, on appelle loi de contraposition l'inférence immédiate suivante : « q si p » est logiquement équivalent à « non-p si non-q » (13) On est bipède, si on est un homme ≡ On n'est pas un homme, si on n'est pas bipède. (12a) Elle n'a pas une figure d'enfant, si elle a 30 ans ≡ Elle n'a pas 30 ans, si elle a une figure d'enfant. L'expression « être logiquement équivalent à » n'est pas synonyme de « être linguistiquement synonyme de ». Deux propositions sont logiquement équivalentes quand on peut remplacer l'une par l'autre et réciproquement salva veritate, c'est-à-dire sans toucher à la valeur de vérité, et ce indépendamment du contenu des arguments (l'équivalence logique est formelle). La synonymie de deux propositions implique certes la conservation de la valeur de vérité, mais elle prend en compte en plus le contenu linguistique des arguments. Revenons à la phrase (12a) et comparons -la à sa contraposée : Par la loi de contraposition, les phrases (14a) et (14a ') sont logiquement équivalentes. Leur absence de synonymie peut être décrite en des termes de pragmatique : si on admet que c'est l' âge qui détermine le physique d'un individu et non pas l'inverse, il faut aussi admettre que (14)a est soit l'assertion de l'existence d'un fait, soit une déduction, alors que (14)a ' est une abduction (cf. Section 2.4). Nous croyons possible de faire cette généralisation : étant donné deux propositions hypothétiques contraposées, l'une d'elles est l'assertion d'un fait ou une déduction, l'autre une abduction. Revenons maintenant aux phrases à connecteur de cause qui, telles (14b) et (14c) présupposent une phrase à connecteur de condition (cf. Section 3) : Appliquons -leur la loi de contraposition là où c'est possible : (14b ') Contraposition de (14b) : (Elle n'a pas 30 ans, si elle a une figure d'enfant) ET elle a une figure d'enfant. (14c ') Contraposition de (14c) : Elle n'a pas 30 ans, parce qu ' elle a une figure d'enfant. Par abus de langage (car en logique la contraposition ne concerne que les énoncés à connecteur de condition), nous disons que les phrases à connecteur de cause qui présupposent une phrase conditionnelle contraposée sont elles -mêmes des « phrases contraposées à connecteur de cause ». Dans nos exemples, (14b) et (14b ') d'une part, (14c) et (14c ') d'autre part sont deux couples de phrases à connecteur de cause contraposées l'une à l'autre. Dans chaque couple, les phrases « contraposées à connecteur de cause » sont logiquement contradictoires (alors que les contraposées à connecteur de condition sont équivalentes). Nous allons maintenant appliquer la négation externe aux énoncés (14c) et (14c '), afin d'obtenir des phrases à connecteur de concession. Selon la procédure décrite dans la Section 2.3, nous devons appliquer le morphème de négation à l'argument conséquent et remplacer le connecteur de cause par un connecteur de concession. Nous obtenons les phrases (15) et (15 ') : (15) Négation externe de (14c) : Elle a une figure d'enfant, bien qu ' elle ait 30 ans. (15 ') Négation externe de (14c ') : Elle a 30 ans, bien qu ' elle ait une figure d'enfant. Par le même abus de langage que celui qui nous a fait parler de « phrases contraposées à connecteur de cause », nous disons que les phrases (14c) et (15) d'une part, et les phrases (14c ') et (15 ') d'autre part sont des « phrases contraposées à connecteur de concession ». Deux phrases à connecteur de concession contraposées l'une à l'autre sont logiquement contradictoires : leur relation n'est pas d'équivalence, mais de disjonction exclusive. Les deux membres de chaque couple de phrases contraposées à connecteur de concession se caractérisent formellement par l'ordre inverse de leurs arguments : on retrouve là le phénomène de permutation d'arguments évoqué dans l'Introduction et dans la Section 1. Nous sommes en présence du système de phrases suivant : Si p = « elle a 30 ans » et q = « elle n'a pas une figure d'enfant », alors : Ce système met en jeu trois types de relations : une série d'inférences immédiates formant le syllogisme modus ponens (14a-c) une série d'applications de la loi de contraposition (14a/a '), (14b/b '), (14c/c ') deux applications de la négation externe : (14c)/(15) et (14c')/(15 '). C'est une classe d'équivalences syntaxiques en ce sens que c'est un ensemble de phrases reliées par une série de constantes sémantiques. Mais ce n'est pas une classe d'équivalences transformationnelles (cf. Section 7). Nous évoquons pour finir les adverbes de concession pourtant et cependant. Reprenons deux exemples de Morel (1996) illustrant leur propriété « porte-manteau » : (16) Notre voiture a 100.000 bornes, elle a pourtant (cependant) très bien roulé. (17) Notre voiture a très bien roulé, elle a pourtant (cependant) 100.000 bornes. Il a été souvent noté (avec des arguments fondés entre autres sur l'étymologie) que les adverbes connecteurs ont une valeur anaphorique : alors comme substitut de « au moment où cela se passait », ensuite comme substitut de « à la suite de cela », c'est pourquoi comme substitut de « c'est pour cela que », donc comme substitut de « d'où », « de là vient que » etc. Il y a tout lieu de penser qu'il en va de même pour les connecteurs de concession logique pourtant, cependant, toutefois, néanmoins, pour autant, malgré tout…. Ils sont tous fondamentalement, mais avec des différences dans les conditions d'emploi, des substituts de « malgré cela » : ils cumulent la nature de connecteur concessif et celle d'anaphore. Voici une illustration de cette analyse : (16a) [Notre voiture a 100.000 bornes] i; elle a pourtant [= malgré (cela) i] très bien roulé. L'énoncé (16) est composés de deux phrases. Contrairement aux apparences, l'adverbe concessif pourtant ne sert pas à connecter les deux phrases : la relation concessive n'est présente qu'au sein de la deuxième phrase. C'est ce qu'illustre l'analyse (16a). Voici maintenant l'analyse de l'énoncé (17), contraposition de (16) : (17a) [Notre voiture a très bien roulé] i; elle a pourtant [= malgré (cela) i] 100.000 bornes. Ces analyses impliquent que : (16) Notre voiture a 100.000 bornes, elle a pourtant (cependant) très bien roulé. = Notre voiture a très bien roulé bien que (quoique) elle ait 100.000 bornes. et que (17) Notre voiture a très bien roulé, elle a pourtant (cependant) 100.000 bornes. = Notre voiture a 100.000 bornes bien que (quoique) elle ait très bien roulé. Le caractère paradoxal de ces relations de synonymie est dû au fait que le caractère anaphorique des connecteurs concessifs adverbiaux n'est pas évident. Nous nous sommes abondamment référé à la loi de contraposition : « q si p » ≡ « non-p si non-q » (Si l'eau dépasse 100°, elle bout ≡ Si l'eau ne bout pas, elle ne dépasse pas 100°). Nous nous sommes également référé à une autre inférence immédiate de la logique élémentaire, la loi de double négation, quand nous avons écrit, par exemple à propos de la phrase (15 '), que « avoir 30 ans » est la négation de « ne pas avoir 30 ans ». D'autre part, nous avons ordonné une série de structures de phrases en syllogisme modus ponens. Enfin, l'analyse des phrases concessives en termes de négation externe d'un énoncé à connecteur causatif met en jeu un phénomène de changement de portée de la négation. A -t-on le droit, en syntaxe et en sémantique des langues naturelles, de créer de la sorte des classes d'équivalences fondées sur telle ou telle tautologie de la logique élémentaire ? Ne doit-on pas se borner à étudier les variantes syntaxiques qui concernent le nombre des arguments, leur ordre, leurs « effacements », leurs « mouvements », leurs pronominalisations, etc. ? Autrement dit, ne doit-on pas se limiter aux équivalences transformationnelles ? Nous répondons à ces questions par la négative. En effet, il existe un trop grand nombre de régularités syntactico-sémantiques non transformationnelles pour qu'on puisse se permettre d'en faire abstraction dans l'analyse linguistique. Prenons l'exemple des régularités paraphrastiques de conversion. Certes, un certain nombre d'entre elles sont des transformations. Par exemple, on peut parler de transformation de conversion (ou réciprocité) quand la permutation des arguments, pour un même prédicat, conserve le sens. C'est ce qui se passe avec des verbes comme se marier, se brouiller et se battre : (18) Pierre s'est (marié, brouillé, battre) avec Marie. = Marie s'est (mariée, brouillée, battue) avec Pierre = Ils se sont (mariés, brouillés, battus). On peut également parler de transformation de conversion quand, pour un même prédicat nominal, elle se fait au moyen d'un verbe support spécialisé (cf. G. Gross (1989)) : (19) Pierre a donné un conseil à Marie = Marie a reçu un conseil de Pierre. Il est en revanche impossible, comme l'indique Z. Harris (1990:13), d'attribuer un caractère transformationnel aux paraphrases de conversion qui mettent en relation des prédicats différents, telles : (20) Pierre a (prêté, vendu) un livre à Marie = Marie a (emprunté, acheté) un livre à Pierre. (21) Pierre a informé Marie qu'il veut l'épouser = Marie a appris de Pierre qu'il veut l'épouser. Dans des cas de ce genre, la synonymie n'est pas corrélée à une transformation. Il en va de même pour le phénomène de conversion qui met en jeu lesrelations cause/conséquence et conséquence/cause, comme dans : (22) Je suis parti, parce que j'étais fatigué = J'étais fatigué, si bien que je suis parti. Se priver d'étudier les régularités non transformationnelles reviendrait à se condamner à passer à côté d'une énorme partie du système de la langue. Aussi croyons -nous qu'en syntaxe et en sémantique, il faut, à côté des variantes paraphrastiques transformationnelles, prendre en compte, comme nous venons de le faire, les régularités paraphrastiques non transformationnelles .
A quelle opération syntactico-sémantique doit-on relier le phénomène de permutation des arguments du connecteur concessif ? C'est un des problèmes que veut résoudre l'A. Il a recourt à la notion logique de "contraposition". La contraposition jouant un rôle important dans la syntaxe et la sémantique d'autres connecteurs que concessifs, l'A. définit, autour de cette notion, un ensemble de régularités linguistiques liant les éléments de toute une classe de structures concessives, causales et conditionnelles. Enfin il explique son choix de décrire en syntaxe et en sémantique, des phénomènes que beaucoup de linguistes rapportent à la logique ou à la structure du monde.
linguistique_11-0080465_tei_459.xml
termith-535-linguistique
Les écrits scientifiques sont souvent considérés comme un genre « neutre », avec un fort effacement énonciatif, où l'auteur se dissimule derrière la présentation de faits objectifs et des modalités de raisonnement partagés par la communauté scientifique. Les travaux accomplis sur ce sujet dans les dernières années (par exemple, Swales, 1990; Hyland, 2005; Fløttum et al., 2006; Rinck, 2006) montrent cependant qu'il n'en est rien, en tout cas dans certaines disciplines, et que l'écrit scientifique est véritablement un texte argumentatif où la dimension rhétorique est fortement présente. Fløttum et al. (2006), en examinant un corpus varié d'écrits scientifiques en sciences humaines (linguistique), sciences sociales (économie) et sciences expérimentales (médecine) ont ainsi mis en évidence, à travers l'étude de plusieurs marques linguistiques énonciatives, une importante présence de l'auteur en sciences humaines et en sciences sociales. Ce constat rejoint l'étude faite dans (Tutin, à paraitre; Cavalla et Tutin, à paraitre) qui montre que le lexique évaluatif, fortement lié à des stratégies de persuasion (lexique de la nouveauté, de l'importance), est bien présent en sciences humaines et sociales. Dans cet article, nous souhaitons approfondir l'étude de la présence auctoriale et du positionnement de l'auteur, conformément aux objectifs du projet ANR Scientext que nous pilotons au sein du LIDILEM depuis 2007 (« Scientext : Un corpus et des outils pour étudier le positionnement et le raisonnement dans les écrits scientifiques »). En comparant trois disciplines des sciences humaines et sociales, la linguistique, la psychologie et les sciences de l'éducation, nous cherchons à étudier comment s'effectue linguistiquement l'engagement de l'auteur et la dimension argumentative du discours scientifique : nous analysons pour cela les verbes de positionnement associés à l'auteur à travers un pronom sujet (exemples : je cherche à démontrer, nous pensons que …). L'étude est principalement centrée sur les introductions et les conclusions, parties textuelles peu techniques où le positionnement de l'auteur est particulièrement marqué. Dans l'introduction, l'auteur doit en effet à la fois justifier l'intérêt et la nécessité de l'étude entreprise, mais aussi se situer par rapport à ses devanciers en s'inscrivant dans une tradition ou un cadre théorique (Swales, 1990; Boch et al., à paraitre). Dans la conclusion, il souligne généralement les apports spécifiques et résume les résultats de l'étude entreprise. Nous faisons l'hypothèse que la présence auctoriale s'établit diversement selon les disciplines des sciences humaines. On peut imaginer, comme mis en évidence par Fløttum et al. (2006), qu'elle sera assez manifeste en sciences du langage où l'auteur cherche souvent à développer une pensée ou un modèle propre. En psychologie cognitive et sociale, en revanche, on peut supposer que les écrits, qui se rapprochent par la structure (IMRD) et les méthodes (expérimentales) des sciences dures, pourraient ainsi en adopter le style plus « neutre », avec moins de références explicites aux auteurs et l'emploi moins marqué de verbes exprimant un point de vue. En outre, on peut aussi s'attendre à ce que le verbe de positionnement utilisé soit fortement lié à la valeur référentielle du pronom sujet, selon qu'il renvoie strictement à l'auteur ou qu'il intègre aussi la communauté de discours. Dans un premier temps, nous présentons la méthodologie de l'étude qui s'appuie sur un corpus de 60 articles et expliquerons comment le lexique étudié a été sélectionné. Puis nous présentons plus en détail le lexique du positionnement. Nous analysons ensuite les résultats sur un plan quantitatif et qualitatif. Le corpus exploré dans cette étude est un sous-ensemble du corpus Scientext, composé de 60 articles relevant de trois disciplines des sciences humaines (3 x 20 articles) : la linguistique, les sciences de l'éducation et la psychologie cognitive et sociale, explorées dans le cadre du projet Scientext. L'étude porte ici exclusivement sur les introductions et les conclusions, pour deux raisons : d'une part, comme mentionné en introduction, parce que nous avons remarqué que les stratégies rhétoriques de persuasion étaient particulièrement manifestes dans ces parties textuelles; d'autre part, parce que nous souhaitons proposer une étude qualitative, ce qui parait difficilement réalisable pour des raisons pratiques sur un corpus plus volumineux. Le corpus analysé, constitué d'un ensemble de revues représentatives de chaque discipline, est présenté dans le tableau 1. Lorsque les articles ne présentaient pas de sections clairement identifiées avec les termes « introduction » ou « conclusion », nous avons considéré comme telles toutes les premières et dernières parties textuelles. On observe dans le tableau 1 de grandes disparités au niveau du volume des sections. De manière générale, les articles de psychologie sont un peu plus longs que ceux des deux autres disciplines, et les parties introductives et conclusives y sont particulièrement développées. En psychologie, les articles suivent souvent implicitement la structure IMRaD en vigueur dans les sciences expérimentales (Introduction, Materials and Methods, Results and Discussion), et les introductions ou conclusions peuvent y intégrer respectivement les parties « Matériel et Méthode » ou « Discussion ». Ces différences de volume sont bien entendu prises en compte dans les évaluations quantitatives. Nous nous intéressons ici exclusivement au lexique verbal impliquant explicitement l'auteur de l'article scientifique par le biais d'un pronom personnel sujet de première personne ou un pronom on mettant en jeu l'auteur. Sont donc repérées des séquences comme les suivantes : je pense, nous avons choisi de, on peut penser que, nous avons souligné… Bien entendu, la voix de l'auteur ne se cantonne pas à l'emploi de la première personne sujet ou du pronom on. Elle apparait implicitement sous d'autres formes dans l'écrit scientifique, par le biais de l'évaluation axiologique adjectivale, comme en (1) : (1) Ce système est adapté aussi bien à une étude linguistique des marqueurs… (Article de linguistique). La voix de l'auteur est aussi décelable, mais de façon détournée, dans la mention d'opérations scientifiques qui impliquent de façon évidente l'auteur/chercheur. L'utilisation de structures passives (2) ou impersonnelles passives (3) pour des verbes à sujet humain comme définir ou demander est fréquente dans ce cas. (2) Les principes organisateurs de l'information ont été définis autour des liens méréologiques… (Article de linguistique.) (3) Au début de chaque entretien (entre une demi-heure et une heure), il a été demandé aux enquêtés, sous forme de questions fermées, s'ils comprenaient (réception) chacune des langues, dialectes ou variétés en présence. (Article de linguistique.) L'auteur se manifeste aussi implicitement dans des emplois métonymiques du type cet article ou ce travail (exemple : Cet article propose une revue de littérature sur l'ajustement postural [Corpus de psychologie]). Ces stratégies d'évitement de la mention explicite de l'agent sont courantes dans l'écrit scientifique. Nous verrons cependant que tous les verbes ne l'autorisent pas. En focalisant notre étude sur les structures je -nous -on + Verbe, comme Fløttum et al. (2006), nous avons choisi des contextes verbaux où le sujet s'inscrit délibérément comme un agent « agissant » (nous avons démontré, je pense que …), ce qui est généralement moins le cas dans des structures syntaxiques où le pronom occupe une autre fonction (exemples : il nous semble …). Nous incluons aussi dans les patrons je -nous -on + Verbe les structures infinitives où le pronom est sujet de l'infinitive (exemple : cela nous a permis d ' exclure cette possibilité…). Dans certaines constructions infinitives (exemple : je veux montrer), deux verbes de positionnement ont pu être dégagés (ici, vouloir et montrer). En ce qui concerne le lexique verbal, nous nous sommes concentrée sur le lexique qui indique un engagement fort de la part de l'auteur, qu'il s'agisse d'opinions et d'évaluations, de décisions ou de verbes indiquant des apports scientifiques spécifiques. Afin de caractériser les éléments du lexique qui nous intéressaient, une annotation semi-automatique a été réalisée sur les occurrences du corpus pertinentes, excluant bien entendu les contextes de discours rapporté. Les pronoms sujets qui renvoient à l'auteur dans l'écrit scientifique sont au nombre de trois : je, nous et on. je – finalement assez rare, comme on le verra – ne pose guère de problèmes : il renvoie pratiquement toujours à l'auteur/locuteur de l'écrit scientifique si on exclut bien entendu les contextes de discours rapportés, citations et autres. nous et surtout on sont sans surprise extrêmement ambigus sur le plan référentiel et énonciatif et l'interprétation en est délicate. Ce brouillage énonciatif peut aussi être une stratégie délibérée de la part de l'auteur (Loffler-Laurian, 1983; Fløttum et al., 2007). Les pronoms on et nous peuvent, dans l'écrit scientifique, exclure complètement l'auteur. Cet emploi, générique ou indéfini, est divers. Dans notre corpus, on et nous peuvent ainsi renvoyer à la condition d' être humain, comme dans l'exemple suivant de psychologie. Cette valeur référentielle n'est pas rare dans cette discipline ainsi qu'en sciences de l'éducation. (4) De la vivacité et de l'indubitabilité supposée de cette expérience, nous inférons les propriétés de richesse et de cohérence, que nous attribuons non seulement au monde externe, mais aussi au monde interne, … (Article de psychologie.) L'emploi générique peut aussi renvoyer à un sous-ensemble de la communauté sociale, par exemple la communauté des éducateurs et des décideurs, différente de la communauté de discours (celle des chercheurs). Dans ces emplois, on est préféré à nous (61 occurrences de on contre 41 occurrences de nous). (5) Si l ' on veut améliorer la démocratisation de l'enseignement supérieur en Belgique, c'est donc vers ces établissements que les moyens doivent être concentrés. (Article de sciences de l'éducation.) Ces emplois génériques, comme cela a été aussi relevé par Fløttum et al. (2006), ne sont généralement pas associés à des verbes spécifiques des écrits scientifiques et n'ont pas été intégrés dans l'étude. À côté de cet emploi générique, on relève trois emplois personnels qui incluent clairement l'auteur/locuteur. L'auteur singulier peut être représenté par nous et plus rarement par on. Ce nous renvoyant à un auteur unique, souvent appelé « nous de modestie », reste la norme dans les écrits scientifiques pour le français, même en sciences humaines comme on le verra, contrairement à l'anglais où le I est prédominant, en particulier dans les sciences humaines (Fløttum et al., 2006; Hyland, 2001). (6) Schématiquement, on associera à ces trois figures, dans la terminologie de Jakobson, respectivement les fonctions poétique pour l'énallage, conative et expressive pour l'hyperbole. (Corpus de linguistique.) Nous et on sont évidemment aussi employés pour renvoyer aux auteurs collectifs, très fréquents dans notre corpus en psychologie. Ces pronoms peuvent également inclure le destinataire/lecteur (emploi dit « inclusif », par exemple dans Riegel et al., 1994), en particulier dans les passages où le locuteur cherche à prendre le lecteur à témoin dans la démonstration ou le déroulement de la recherche en train de se lire. Dans certains contextes verbaux, l'interprétation inclusive est d'ailleurs la seule possible et l'emploi du pronom de première personne est tout à fait exclu (cf. 7 et 8) : (7) La progression de nos patrons est, nous l'avons vu, rythmée par la possibilité d'exprimer des contraintes de plus en plus complexes. (Corpus de linguistique.) (8) *La progression de nos patrons est, je l'ai vu, … Ces emplois strictement inclusifs – et finalement assez rares – sont particulièrement fréquents avec les verbes à fonction évidentielle comme voir, pour lesquels le chercheur cherche à associer fortement le lecteur dans l'observation des preuves(Grossmann et Tutin, à paraitre). Enfin, on relève un dernier emploi de on et de nous classiquement appelé « exclusif » (nous ou on = je + il(s)), qui inclut l'auteur et la communauté de discours au sens de Swales (1990), ici celle des chercheurs, comme en (9). Comme pour l'exemple (7) ci-dessus, le je est ici exclu. (9) Ainsi, toute une série de contraintes syntaxiques semblent liées à ce qu ' on pourrait appeler une « allergie » à la préposition. (Corpus de linguistique.) (10) *ce que je pourrais appeler une « allergie » à la préposition… Le lecteur étant intégré dans la communauté de discours, il est de fait inclus dans ce référent. Pour cet emploi, on est beaucoup plus productif que nous, en particulier avec le modal pouvoir comme remarqué par Gjesdal (2008) (voir aussi « Verbes et pronoms »). En bref, pour l'étude de notre corpus, nous avons étiqueté les valeurs de on/nous à l'aide des valeurs suivantes : emploi générique : les différents types d'emplois n'ont pas été affinés; auteur singulier; auteur collectif; auteur + lecteur; auteur + communauté de discours. Les valeurs utilisées ici sont proches de celles de Fløttum et al. (2006), hormis les cas de on-lecteur, que nous n'avons pas repérés dans notre corpus (exemple : on se reportera à la figure 2 pour observer cela). L'attribution des valeurs référentielles de on et nous a été particulièrement délicate, du fait d'une ambigüité référentielle, peut-être parfois délibérée, presque partout présente. Un contexte large a dû être examiné, prenant en compte le sémantisme des mots du contexte, en particulier des verbes. Quelques tests de substitution ont également été employés, comme on l'a vu plus haut dans les exemples 7 et 9. Pour des cas particulièrement délicats, l'avis d'un collègue linguiste a été sollicité. Comme indiqué plus haut, les verbes retenus comme s'inscrivant dans le positionnement sont des verbes qui indiquent un engagement fort de l'auteur, qu'il s'agisse de verbes d'opinion ou d'évaluation, ou de verbes indiquant un apport singulier de l'auteur dans la démonstration ou la découverte scientifique. Ne sont donc pas intégrés ici les verbes de fonctionnement purement métadiscursif (nous présenterons, nous finissons par …) ou qui renvoient à la narration scientifique (nous avons dépouillé 23 enquêtes, nous avons analysé les résultats …). Lorsque les verbes sont fortement polysémiques et très désémantisés, comme dans le cas des verbes supports (p. ex. faire une hypothèse, faire un choix), c'est toute l'expression verbale qui a été prise en considération. Nous avons dégagé empiriquement, à partir des observations sur corpus, trois grandes classes de verbes de positionnement : les verbes qui renvoient à une opinion ou un point de vue (penser, croire, considérer que, juger …), ou à une distance/adhésion par rapport aux pairs (se distinguer de, rejoindre …), ou à un questionnement (se demander …); les verbes qui indiquent un choix (choisir, retenir, opter pour …) ou une intention (vouloir, souhaiter, projeter …). Sous la classe du choix, nous avons intégré la classe spécifique de formulation des hypothèses (faire, formuler, émettre une hypothèse, supposer), qui nous semble relever de ce type sémantique dans les écrits scientifiques; les verbes qui indiquent un apport spécifique de l'auteur, qu'il s'agisse d'une proposition (proposer …), d'une preuve ou démonstration (montrer, prouver …) ou de résultats obtenus ou visés (dégager, souligner …). Le matériel lexical utilisé est ici assez spécifique des écrits scientifiques. Même s'il ne s'agit pas de prise de position au sens propre, l'auteur indique ici sa contribution au débat scientifique, et s'engage de ce fait fortement. La figure 1 résume la typologie employée. Bien entendu, une désambigüisation fine des verbes a été opérée en contexte. Par exemple, considérer que est souvent un verbe d'opinion, considérer X comme Y plutôt un verbe d'évaluation alors que dans la construction considérer SN (exemple : nous avons considéré les points suivants), il ne sera tout bonnement pas intégré parmi les verbes de positionnement. Nous avons calculé la proportion de pronoms sujets renvoyant à l'auteur dans les différentes disciplines. Les résultats, apparaissant dans le tableau 2, sont assez contrastés. D'une manière générale, les pronoms sujets renvoyant à l'auteur ne sont pas légion dans les écrits scientifiques examinés, ce qui semblerait alimenter la thèse des écrits scientifiques comme un genre à fort effacement énonciatif, où la voix de l'auteur n'est pas mise en avant (au maximum, en linguistique, 13 ‰ des occurrences lexicales). On observe cependant des différences remarquables entre disciplines des sciences humaines, ce qui met bien en évidence la diversité au sein des sciences dites « molles », diversité dont il faut absolument tenir compte afin d'éviter les présentations stéréotypées et réductrices. Les linguistes sont les chercheurs qui expriment le plus leur voix, en particulier quand ils ne parlent qu'en leur nom (pronoms exclusivement auteurs). Pour les autres emplois (inclusifs et exclusifs), ils dépassent également les psychologues et les spécialistes des sciences de l'éducation, mais dans une proportion moindre. Ces résultats confirment donc tout à fait ceux de Fløttum et al. (2006) qui relevaient une bien plus forte proportion de ce type de pronoms en linguistique qu'en économie et qu'en médecine. En outre, comme attendu, les psychologues emploient peu le pronom de première personne, et les pratiques d'écriture paraissent de ce point de vue proches des celles qui ont été observées par Fløttum et al. (2006) pour les médecins. Pour l'emploi du pronom, il est ainsi possible qu'il y ait davantage de différences entre la linguistique et la psychologie, qu'entre cette dernière discipline et la médecine. Les résultats en sciences de l'éducation paraissent plus surprenants : ils se rapprochent fortement de la psychologie, alors que les méthodes exposées ne sont pas celles des pratiques expérimentales. Les articles de notre corpus sont cependant très divers : certains se rapprochent plutôt de la philosophie (par exemple, « Assujettissement et subjectivation : réflexions sur l'usage de Foucault en éducation »), alors que d'autres utilisent les techniques statistiques et l'enquête sociologique (par exemple, « Peut-on conclure à propos des effets du redoublement ? »). Comment les auteurs, qu'ils soient singuliers ou collectifs, font-ils mention d'eux -mêmes dans les articles scientifiques (tableau 3) ? Les disciplines des sciences humaines représentées ici varient fortement en ce qui concerne les pratiques de rédaction collective ou individuelle : alors que les articles collectifs en psychologie sont nettement majoritaires (15 sur 20) – encore un trait qui rapproche la psychologie des sciences expérimentales –, cela est plus modérément pratiqué en linguistique (6 articles collectifs sur 20) et pas du tout dans nos articles de sciences de l'éducation. Notre corpus est ici assez modeste mais il donne surement quelques indications éclairantes sur les pratiques rédactionnelles, qu'il faudrait confirmer toutefois sur un corpus plus conséquent. Dans la façon dont les auteurs font référence à eux -mêmes, on observe également (tableau 3) une grande disparité au sein des sciences humaines représentées ici, ce qui confirme qu'elles ne doivent pas être considérées comme un ensemble homogène. Dans notre corpus, le je n'est utilisé qu'en linguistique, où il apparait cependant bien moins fréquent (32 %) que le nous (61,5 %) de modestie. De façon plus surprenante, en sciences de l'éducation, où aucun article n'est collectif, le je est totalement absent. Les chiffres sont plus difficiles à interpréter en psychologie où la part des articles collectifs est écrasante (seuls 5 articles individuels sur 20). La présence non négligeable du je en linguistique pour les articles individuels est aussi soulignée par Fløttum et al. (2006) qui relèvent une proportion nettement plus importante qu'en économie. Nos observations rejoignent également celles de Poudat et Loiseau (2005) qui, comparant la proportion des pronoms je en philosophie et linguistique, relèvent également une présence massive de je en linguistique par rapport à la philosophie. Rinck (2006) relève des chiffres comparables aux nôtres : le je est employé dans 6 articles sur 20. Il serait intéressant d'étendre ici l'étude à d'autres disciplines des sciences humaines (histoire, sociologie, géographie, ethnologie, par exemple), mais on peut dès lors relever que la linguistique semble dans notre corpus faire un peu figure d'exception, avec un emploi particulièrement marqué du je. Il ne faut pas cependant peut-être pas surinterpréter cet emploi dans cette discipline, et le considérer systématiquement comme une prise en charge individuelle particulièrement forte de l'auteur. Il paraitrait tout à fait abusif de considérer qu'un auteur qui y recourt systématiquement présente un point de vue plus tranché qu'un auteur qui emploie le nous de modestie. D'une part, la pratique du je peut être liée à des conventions d'écriture, variables d'une discipline à l'autre. L'auteur, l'utilisant, se conforme aussi aux conventions de sa discipline. D'autre part, d'autres moyens linguistiques sont bien entendu à la disposition du rédacteur pour exprimer sa subjectivité, en particulier pour exprimer ses positions et défendre son point de vue. Nous avions ainsi observé (Tutin, à paraitre; Cavalla et Tutin, à paraitre) que les économistes, qui emploient peu les marques de première personne (Fløttum et al., 2006), recourent néanmoins davantage au lexique évaluatif que les linguistes pour qualifier les méthodes, modèles et résultats, qu'il s'agisse des leurs et de ceux de leurs pairs. Ils apparaissent aussi plus susceptibles que les linguistes d'indiquer ouvertement leur positionnement par rapport aux pairs, à l'aide de marques de « démarcation », par exemple à la différence de X, nous… comme démontré par Chavez (2008) sur le même corpus ou d'indiquer explicitement leur filiation scientifique (Garcia, 2008; Grossmann et al., 2009). L'emploi récurrent du je dans les articles de linguistique, ainsi que la fréquence plus marquée des pronoms renvoyant à l'auteur, indique néanmoins une visibilité plus grande de l'auteur dans la discipline. Le recours au je apparait toutefois bien modeste pour le français (32 % des occurrences pour renvoyer à un auteur singulier), si on le compare aux écrits de linguistique anglaise où il est bien plus massif (32 articles avec je sur 35 dans le corpus KIAP anglais de linguistique). La visibilité de l'auteur semble être une spécificité de l'écriture de recherche anglo-saxonne en sciences humaines, où la prise en charge très explicite du positionnement de l'auteur est valorisée : Authorship in academic writing in English both carries a culturally constructed individualistic ideology and places the burden of responsibility for the truth of an assertion heavily on the shoulders of the writer. (Hyland, 2002, p. 1110.) Cette pratique est d'ailleurs parfois encouragée dans certains manuels de « academic writing », mais certaines communautés culturelles semblent réticentes à se l'approprier, comme les étudiants anglophones de Hong-Kong (Hyland, 2002). Sur les 506 pronoms sujets mettant en jeu l'auteur (les pronoms à valeur générique ou indéfinie ont été écartés), seuls 195 accompagnent des verbes où le positionnement et l'engagement de l'auteur apparaissent manifestes. Un grand nombre de verbes renvoient en effet aux processus de l'activité scientifique (analyser, repérer, observer …) ou au processus d'écriture (présenter, décrire …) et ne peuvent pas être considérés comme des verbes qui engagent fortement l'auteur. La répartition des verbes de positionnement apparait schématisée dans la figure 2 et le détail est donné dans le tableau 4. Le détail de la répartition est donné dans le tableau 4. Parmi les verbes de positionnement recensés, les résultats montrent que les verbes les plus subjectifs (verbes d'opinion et de point de vue) ne sont pas les plus fréquents dans notre corpus (64 occurrences), supplantés par les verbes indiquant un choix ou une intention (nous voulons, nous avons choisi …) (79 occ.). Ce lexique indique les motivations du chercheur et la façon dont il justifie des choix, sans l'engager toutefois aussi fortement que les verbes d'opinion et de point de vue. Parmi ces derniers, ce sont les verbes indiquant strictement une opinion (penser, considérer que …) qui sont les plus nombreux. Le lexique verbal indiquant une convergence/divergence n'est pas très fréquent sous la forme syntaxique je + nous + on V, par exemple dans Nous nous distinguons de X sur ce point : il apparait probablement davantage dans d'autres constructions lexico-syntaxiques (p. ex. contrairement à, à la différence de, à l'instar de, nos résultats rejoignent/diffèrent de …). Les verbes d'apports scientifiques sont les moins nombreux (52 occ.). Parmi ceux -ci, les verbes mentionnant les résultats obtenus (p. ex. nous dégageons, nous concluons) sont les plus fréquents. Nous observons des convergences dans nos répartitions avec l'étude de Fløttum et al. (2006) sur les verbes accompagnant le je dans les écrits scientifiques. En repérant la fonction sémantique des verbes, Fløttum et al. (2006) relevaient avec surprise que le rôle assumé par l'auteur le plus fréquent était celui du chercheur (46 % des occurrences). Puis venait le rôle de rédacteur (« writer ») avec 26 % des occurrences et enfin, celui d'argumenteur (« arguer ») avec 14 % seulement des occurrences. Les auteurs s'étonnaient que la part prise par les verbes d'argumentation soit aussi réduite, étant donné l'importance de valoriser ses recherches dans un environnement scientifique considéré comme de plus en plus compétitif. La typologie employée ici est assez différente de celle de Fløttum et al. (2006) puisque nous avons exclu les verbes de narration scientifique et les verbes métadiscursifs, deux catégories qui représentent déjà 3/5 des occurrences avec un pronom auteur sujet. En outre, nous avons inclus dans les verbes d'apports scientifiques quelques éléments que ces auteurs associaient à la fonction de chercheur. La majorité des verbes employés avec les pronoms personnels auteurs ne sont donc pas des verbes qui manifestent des prises de position marquées. L'auteur apparait essentiellement pour décrire les procédures scientifiques et accompagner le processus d'écriture, moins fréquemment pour exprimer une opinion. La répartition dans les différentes disciplines (fig. 3) permet d'affiner l'analyse et de mieux comprendre de quelle façon l'auteur s'engage dans l'écrit scientifique. Tous les types de verbes sont plus nombreux en linguistique – rappelons que les pronoms sujets y sont proportionnellement beaucoup plus fréquents – en particulier ceux qui renvoient aux opinions, intentions, à la démonstration, aux résultats et aux choix effectués. Les verbes d'opinion et de point de vue s'y expriment assez diversement (tableau 5), à l'aide de penser que (présent pour les trois disciplines) mais aussi à l'aide de verbe admettre, juger, se prononcer sur, qualifier … En psychologie, où les verbes sont globalement moins nombreux, ce sont les verbes d'opinion, d'hypothèse et de résultats qui sont les plus productifs, ce qui semble montrer que la dimension expérimentale (hypothèse et résultats) apparait plus manifeste que la dimension narrative du cheminement intellectuel du chercheur. Pour l'expression des hypothèses, les verbes supposer et s'attendre à ne sont d'ailleurs pratiquement présents que dans cette discipline, hormis dans deux articles de psycholinguistique sur l'acquisition de l'écrit. L'opinion s'exprime principalement à l'aide du verbe penser que, comme dans les deux autres disciplines, par exemple dans le passage suivant, en conclusion : (11) D'autre part, la comparaison du développement de l'intégration des connaissances sur le contexte dans l'anticipation appliquée à la fois au mouvement volontaire et à la posture n'a, à notre connaissance, jamais été conduite. Nous pensons ainsi qu'il doit être possible de faire un lien entre la prise en compte du poids des objets dans la saisie et dans l'anticipation posturale lors du lestage du bras/plateau par une tierce personne. (Article de psychologie, conclusion.) Ce qui caractérise les sciences de l'éducation, en revanche, étant donné la faible proportion de verbes de positionnement, c'est l'importance des verbes d'intention, d'opinion, de question et de résultats, les trois premiers types mettant l'accent sur les motivations et les raisons d' être de la recherche. Les verbes d'intention vouloir, chercher à, proposer de … apparaissent fréquemment comme dans l'exemple suivant : (12) Cette question se pose d'ailleurs à l'ensemble de l' Éducation nationale, à tous les niveaux : quelle réflexivité sur les pratiques ? Avec quels outils et pour quoi faire ? Nous voudrions ici développer un second point de conclusion. En quoi le processus que nous avons décrit permet-il d'avancer sur le cadre théorique utile pour penser la résistance à l'évaluation ? (Article de sciences de l'éducation.) Ce passage est tout à fait caractéristique des articles de sciences de l'éducation, avec un nombre important de questions rhétoriques (les verbes ayant trait au questionnement : se demander, répondre à la question … sont également fréquents dans cette discipline) : on relève proportionnellement deux fois plus de phrases interrogatives qu'en linguistique et quatre fois plus qu'en psychologie, où les problématisations ne semblent pas introduites par ce procédé. Dans l'exemple (12), le verbe vouloir n'exprime pas véritablement une intention au sens strict, mais sert à introduire un verbe métadiscursif. En psychologie, où l'écriture apparait plus sobre, ce type d'introducteur pourrait simplement être lexicalisé par deuxièmement. En bref, bien que le faible nombre d'occurrences observées dans le tableau 5 incite à la prudence, le positionnement des psychologues semble davantage marqué par une formulation plus explicite des hypothèses et des résultats, ce qui parait peu surprenant dans une discipline où l'expérimentation tient un rôle central. On observe chez les linguistes une répartition plus équilibrée des types de verbes utilisés alors qu'en sciences de l'éducation, les verbes exprimant une opinion apparaissent peu fréquents (aucun n'apparait à plus d'une occurrence), ce qui peut paraitre surprenant dans une discipline des sciences humaines souvent traversée par des débats polémiques. Jusqu' à présent, nous avons analysé indépendamment les pronoms et les verbes. Nous cherchons ici à observer les interactions et affinités entre ces deux catégories. Si l'on suit la tendance générale observée jusqu' à présent (une présence modérée des marques de l'auteur et une faible proportion de verbes engageant fortement le locuteur), on peut faire l'hypothèse que les positionnements verbaux les plus forts seront dans l'ensemble atténués par une prise en charge « diluée » du locuteur (par exemple, emploi d'un nous incluant la communauté de discours). Pour observer ces associations, les types de verbes les plus fréquents avec les types de pronoms auteurs ont été recensés (fig. 4). Les résultats montrent que l'hypothèse formulée – les prises de position les plus marquées seraient tempérées par la dilution de la prise en charge de l'auteur – est largement vérifiée. Les verbes associés exclusivement aux auteurs (sans inclure la communauté de discours) servent surtout à indiquer la formulation des choix et des intentions, ainsi que les résultats et la démonstration opérée. Les auteurs, lorsqu'ils parlent en leur nom propre, semblent être avant tout des chercheurs plutôt que des « argumenteurs » pour reprendre les termes de Fløttum et al. (2006). En revanche, lorsqu'une dimension argumentative et polémique est introduite, à l'aide d'un verbe d'opinion (on peut penser que…) ou de questionnement (nous pouvons nous demander si…), le pronom est plus fréquemment (en proportion) exclusif (auteur + communauté de discours), prenant à témoin la communauté des chercheurs, comme pour établir un dialogue avec elle. Ici, le pronom le plus fréquent est on, incluant clairement la communauté des pairs. Dans ce cas, les verbes d'opinion sont fréquemment modalisés ou introduits dans une subordonnée de condition (cf. exemple 14), ce qui atténue la prise de position individuelle. (13) D'un point de vue énonciatif, l'exclamation serait à mettre à part du fait que, contrairement à l'assertion, l'interrogation et l'injonction, elle n'a pas véritablement de destinataire (Tomassone, op. cit.); on peut admettre à l'inverse, avec H. Renchon (1967) qu'elle constitue une « prise à témoins de la “galerie” et éventuellement de surcroit une invitation de la part du locuteur à partager son sentiment – voire à agir en conséquence (Comme tu te coiffes !). » (Introduction, article de linguistique.) (14) Pourtant, même si l'on admet l'idée d'une certaine universalité du traitement orthographique, la variété des tendances n'est pas négligeable pour autant. (Conclusion, article de linguistique.) (15) Inversement, on peut également suggérer que les convergences constatées entre les données expérimentales et théoriques reflètent la part de communauté, de stabilité entre les jugements de similarité élaborés dans des contextes différents. Si ces marques linguistiques atténuent la responsabilité de l'auteur en impliquant les pairs, elles instaurent aussi un dialogue avec la communauté des lecteurs (le on est aussi inclusif ici) et une dimension argumentative. En incluant les pairs, l'auteur indique que l'opinion qu'il défend est celle que la communauté défendrait en examinant des faits similaires (si elle le faisait, d'où l'emploi du modal pouvoir). Son point de vue n'est pas uniquement personnel, mais celui de la communauté tout entière, et de ce fait, l'opinion défendue gagne en validité scientifique : elle n'est plus subjective mais partagée. L'association de on et pouvoir a pratiquement toujours une interprétation exclusive (voir aussi Gjesdal, 2008) : le modal introduit une dimension dialogique qui rend nécessaire l'insertion du on exclusif (auteur + communauté de discours). on peut admettre et on peut suggérer dans les exemples (13) et (15) sont tout à fait éclairants de ce point de vue. La première personne du singulier est tout à fait exclue ici : (16) *je peux admettre à l'inverse… (17) *Inversement, je peux suggérer… mais possible sans ce verbe (elle est attestée ailleurs dans le corpus). Les expressions sont accompagnées de connecteurs argumentatifs (également, inversement) qui indiquent ici qu'elles participent à un raisonnement exposé au lecteur et renforcent ainsi la dimension dialogique. Dans l'exemple (14), la subordonnée anticipe l'objection que la communauté pourrait formuler à l'encontre de l'auteur, et participe aussi au jeu conventionnel et un peu artificiel du dialogue avec le lecteur. Une autre façon pour l'auteur de ne pas se mentionner explicitement est de recourir à des expressions métonymiques comme ce travail ou cette étude. L'auteur s'efface ainsi devant l'ouvrage qu'il construit. L'emploi de ces expressions n'empêche pas en principe de mettre en avant un positionnement affirmé à l'aide du verbe. Des associations comme cet article opte pour ou cette étude adopte… apparaissent ainsi assez naturelles. Les verbes d'opinion marquée (rejeter, défendre …) les rendent plus difficiles, mais pas impossibles, mais ils sont cependant absolument exclus avec des verbes qui mettent en jeu un processus cognitif complexe : * cet article pense…, *cet article admet… Dans notre corpus, ces expressions sont relativement rares en position sujet : on n'observe que 14 occurrences de cette étude + V et 7 occurrences de cet article + V. Ce faible nombre rend hasardeuses les généralisations mais il est intéressant de constater que seul le verbe montrer (3 occurrences) peut être considéré comme manifestant un engagement de l'auteur, comme dans l'exemple suivant : (18) En outre, cette étude montre un lien négatif entre le but de maitrise-évitement et la motivation intrinsèque. Aucune étude ne testait cet effet jusqu'alors. (Corpus de psychologie.) Le sujet du verbe montrer peut bien ici être considéré comme métonymique (cette étude montre = nous montrons dans cette étude), contrairement à d'autres emplois du verbe montrer qui n'ont pas un sujet humain (ces chiffres montrent n'est pas l'équivalent de nous montrons dans ces chiffres). D'une manière générale, dans notre corpus, les mentions dépersonnalisées de l'auteur à l'aide de cet article, cette étude semblent donc plutôt s'accompagner d'un lexique verbal plus descriptif ou métatextuel (cet article présentera, cette étude comporte…). De manière générale, la mention explicite de l'auteur/locuteur n'est pas fréquente dans les articles de sciences humaines examinés, et de ce point de vue, le genre de l'article de recherche dans ces disciplines se caractérise bien par un certain effacement énonciatif. Cependant, on observe une très grande variation disciplinaire au sein des sciences humaines examinées (allant de 1 à 3 au niveau du nombre d'occurrences rencontrées), qui montre que cette famille de disciplines est extrêmement diversifiée et qu'il n'est pas pertinent de l'appréhender comme un ensemble homogène. Il serait ainsi particulièrement intéressant d'élargir notre étude en intégrant d'autres disciplines que celles qui ont été abordées ici, comme l'histoire, la sociologie, l'économie ou la géographie. La mention de soi s'exprime rarement à l'aide de je, sauf en linguistique, contrairement à ce qui a été observé pour l'anglais (Flottum et al., 2006). L'argument d'autorité mentionné par Hyland dans l'utilisation du je (I) parait probablement moins pertinent pour les chercheurs francophones, qui ont peut-être une conception moins individualiste de l'activité scientifique : le nous de modestie ou le on et nous exclusifs incluent le chercheur dans une communauté et crédibilisent de cette façon sa parole, non parce qu'elle est singulière, mais parce qu'elle est conforme à celle qu'auraient énoncée les pairs dans des circonstances analogues, et lui donnent ainsi une certaine objectivité (exemple : on peut penser que…). Les verbes de positionnement associés aux pronoms sujets sont moins fréquents que les verbes de narration scientifique (nous avons repéré…, nous avons procédé à…) ou les verbes à fonction métatextuelle (je présente d'abord, nous finirons par). Parmi les premiers, on relève de nombreux verbes qui expriment les choix et les intentions de l'auteur (nous voulons, nous avons choisi), et un peu moins de verbes exprimant un point de vue affirmé (nous pensons, nous croyons), alors que les verbes qui indiquent un apport scientifique propre à l'auteur concernent principalement les résultats. Les répartitions des verbes selon les disciplines révèlent des tendances intéressantes : les psychologues tendent à mettre l'accent sur les hypothèses et les résultats, les spécialistes des sciences de l'éducation sur les intentions du chercheur, ses opinions et son questionnement, alors que les linguistes utilisent de nombreux verbes ayant trait à la fois à l'apport scientifique propre (résultats et démonstration), aux intentions et aux opinions. Enfin, de manière tendancielle, conformément à nos attentes, plus les verbes expriment un positionnement marqué, par exemple, les verbes d'opinion, moins ils sont pris en charge par le locuteur : on remarque ainsi que les pronoms renvoyant à l'auteur seul (qu'il s'agisse d'un je ou d'un nous ou d'un on de modestie), renvoient surtout aux verbes indiquant un apport scientifique ou une intention, alors que les verbes de positionnement fort (verbes d'opinion) sont plus souvent introduits à l'aide d'un pronom incluant la communauté de discours (nous et on exclusifs) et sont souvent fortement modalisés (on peut penser que…), ce qui renforce l'impression que les articles scientifiques français en sciences humaines, sans évacuer complètement l'auteur, l'intègrent cependant fort discrètement. Cette étude pourrait être prolongée dans deux directions. D'une part, comme énoncé plus haut, il serait surement pertinent d'étendre notre investigation à d'autres disciplines des sciences humaines afin de vérifier dans quelle mesure et de quelle façon les disparités observées ici se confirment. D'autre part, il serait intéressant d'observer dans quelle mesure de fortes disparités énonciatives apparaissent au sein d'une même discipline, comme Rinck (2006) l'observait pour les sciences du langage. Une proportion réduite de ces écarts au sein d'une discipline pourrait ainsi indiquer une forme de normalisation dans les pratiques d'écriture .
Dans cet article, nous abordons la question de la présence auctoriale et du positionnement de l'auteur à travers l'étude des verbes de positionnement associés à un pronom sujet (exemple: je cherche à démontrer, nous pensons que...). L'étude, basée sur corpus, compare les introductions et conclusions de trois disciplines des sciences humaines et sociales, la linguistique, la psychologie et les sciences de l'éducation. Les résultats montrent que la mention explicite de l'auteur/locuteur n'est pas fréquente dans les articles de sciences humaines examinés, et de ce point de vue, le genre de l'article de recherche dans ces disciplines se caractérise bien par un certain effacement énonciatif. Cependant, on observe une très grande variation disciplinaire au sein des sciences humaines examinées, qui montre que cette famille de disciplines est extrêmement diversifiée et qu'il n'est pas pertinent de l'appréhender comme un ensemble homogène.
linguistique_12-0027446_tei_453.xml
termith-536-linguistique
La modélisation, thème du Colloque 2002 du GERAS, est une des questions épistémologiques qui interpellent les chercheurs en didactique des langues. L'objectif de cet article est de montrer qu'une référence plus approfondie à la méthodologie de la recherche en sociologie peut nous donner une dynamique nouvelle, tout autant que le peut un regard moins distant que celui que nous avons en général sur les positions des épistémologues des sciences de la nature. Cet article s'inscrit dans une continuité et poursuit la réflexion entamée dans plusieurs articles déjà publiés dans ASp (Narcy-Combes 2000) et ailleurs (Narcy-Combes1998b entre autres). Les apports nouveaux donnent des outils aux chercheurs de notre domaine pour mieux préciser les positionnements qui conditionnent leurs recherches, la légitimité de celles -ci et leur impact potentiel. L'organisation de cet article reflète plus l'évolution d'une pensée que la construction d'un plan à la logique cartésienne, sans doute parce que la réflexion s'est largement nourrie de la lecture de Damasio, l'auteur de L'erreur de Descartes. Une rapide réflexion bibliographique précèdera quelques définitions qui circonscriront le domaine dans lequel nous nous situons. Il sera alors possible d'aborder la réflexion épistémologique et les problèmes qui l'accompagnent pour le chercheur. C'est donc celui -ci qui deviendra alors le centre d'intérêt afin de déterminer comment son fonctionnement affecte sa conception de la recherche. Il sera alors possible d'avancer une approche épistémologique qui permet de rester cohérent avec ce qui précède. Cette approche conditionne l'emploi qui peut se faire des divers outils que la méthodologie propose, et impose d' être très explicite sur de nombreux points. Nous en verrons les gains en cohérence et en légitimité, ce qui n'est pas un mince avantage. Aller au-delà de notre domaine de recherche en particulier pour mettre en place un module d'épistémologie pour une École doctorale a permis de répondre à des questions que se posait déjà une unité transdisciplinaire de l'Université de Compiègne (COSTECH). La difficulté a toujours été d'intégrer les positions des chercheurs ou des épistémologues d'autres domaines, dont les points de vue étaient topographiquement, pourrait-on dire, très différents des nôtres. Une rencontre particulièrement fructueuse avec la réflexion sociologique a déclenché une réelle réorganisation de nos conceptions en donnant une clé pour lier les réflexions sur le fonctionnement cognitif des individus, les contraintes de notre domaine et les postures avec lesquelles les chercheurs abordent ces contraintes. Le choix de leurs outils, et les biais que ces choix impliquent, trouvaient alors une justification logique, si le chercheur acceptait de prendre le recul nécessaire. La bibliographie reflète donc ce travail. Elle contient de nombreuses références pratiques, en sciences humaines ou en sociologie, car ce sont ces domaines qui, selon notre point de vue actuel, opèrent de la façon la plus éclairante pour la didactique des langues, selon la définition à laquelle nous avons choisi d'adhérer. Consacrons quelques lignes à des définitions du mot modèle avant de revenir à notre domaine. Du côté des sciences humaines, on peut lire : Pour décrire, vérifier ou expliquer, prévoir, on peut construire un modèle qui est toujours une simplification de la réalité réduite à des descripteurs : plus précisément, un système de relations entre propriétés […] construit à des fins de description, d ' explication ou de prévision. (Bourdieu et al. 1968 : 250) Juan (1999) nous rappelle, de plus, que le modèle relève de l'approche explicative de la sociologie, point sur lequel nous reviendrons ultérieurement. En mathématiques, et/ou dans les sciences à méthodologie mathématique, il en va autrement : L'espace où la science utilise les modèles s'étend de la représentation presque figurative à celui de la mise en relation de concepts d'un haut degré d'abstraction [… ]. Ces modèles permettent, entre autres, l'élaboration de modèles simulables sur ordinateur. Un modèle est alors […] « éminemment calculable ». (Joshua & Dupin 1993 : 15-16). Il y a donc une différence notable entre un modèle de l'apprenant en didactique, et un modèle de l'apprenant en informatique. Le second est conçu pour permettre des calculs et opérations afin d'assurer son fonctionnement. Reste à connaître la validité de ce fonctionnement. Différence à ne pas perdre de vue quand on travaille en lien avec des informaticiens qui œuvrent sur les TICE. Cette rapide réflexion sur diverses manières de concevoir ce qu'est un modèle soulève des points sur lesquels nous reviendrons : Comment se positionner en ce qui concerne un éventuel principe de réalité ? Qu'en est-il des concepts de calcul et de prévisibilité dans notre domaine ? Nous entrons là dans une réflexion épistémologique qui va plus loin que ce que nous avons l'habitude de faire dans nos comptes rendus de recherche et qui néanmoins n'est pas sans conséquence sur la légitimité que ces comptes rendus peuvent avoir. La conception de la didactique dans laquelle notre groupe se reconnaît s'inscrit dans un vaste courant comme le montre cette définition issue de Manesse et al. (1999) : La recherche en didactique d'une discipline vise à produire des savoirs susceptibles de faire évoluer l'enseignement/apprentissage de cette discipline en fonction des besoins des élèves et des avancées des connaissances. Elle est tournée vers l'action, et vécue comme une pratique sociale. Quand nous voyons que la recherche-action peut se définir comme : « a systematic process of investigating practical issues or concerns which arise within a particular social context » (Burns : 20), il nous semble logique d'adhérer au consensus où se retrouvent un ensemble de théoriciens (Manesse, Coste, Dabène, Ellis, et Nunan, pour n'en citer que quelques-uns) qui pensent que la recherche-action est la méthodologie de la recherche la mieux adaptée pour gérer les interrogations que suscite ce domaine. Il arrive que des recherches en didactique soulèvent des questions dont les réponses ne peuvent être données par la recherche-action. Il s'agit souvent d'incursions dans une des sciences de fondement, sur des points où cette science n'a pas encore apporté de réponses concluantes pour l'action. Inclure de telles recherches en didactique est parfaitement acceptable, si nous nous gardons d'en généraliser les conclusions. La définition de la didactique que nous avons acceptée nous impose de réaliser que nos objets de recherche ne sont jamais des items isolés et/ou isolables, il s'agit d'interaction(s) d'objets dans des systèmes complexes, dont on peut dire que chacun d'entre eux est le résultat d'études dans une, ou plusieurs, des sciences sur lesquelles la didactique se fonde. Il est souvent difficile de décrire de telles interactions en langage naturel, et nous recourrons alors à des tableaux, graphiques ou schémas, auxquels nous donnons souvent le nom de modèle. Avons -nous raison de le faire ? Voilà, en fait, la véritable question à laquelle cet article souhaite se consacrer. Pour ébaucher une réponse à ces questions, il convient de considérer comment dans, le cadre méthodologique qui vient d' être décrit, nous construisons notre objet de recherche. Le travail que le tableau 1 décrit se situe dans la phase initiale d'une recherche-action. Il précède l'action. Dans la mesure où l'action modifiera l'objet, ce cycle se répètera chaque fois qu'il n'y aura plus identité satisfaisante entre l'objet sensible, et l'objet construit d'une part et/ou un décalage trop grand entre la connaissance experte/construite (dans la problématique) et les théories en amont. Ces décalages peuvent provenir soit de la double herméneutique des sciences humaines (les humains lorsqu'ils apprennent comment ils fonctionnent modifient leurs comportements, ce qui modifie les résultats des études initiales), soit du fait que l'action a pour objectif de modifier l'objet. Rappelons -nous que des références à la complexité nous manquent encore ici. Cette représentation, qui remplace et complète celle publiée dans ASp 27-30, s'insère dans la phase initiale de la colonne recherche du cycle de la recherche-action (Narcy-Combes 1998b). Les changements les plus notoires concernent la compréhension du fait que notre objet de recherche est en fait une interaction d'objets, interaction complexe dans laquelle le contrôle des variables est rarement en notre pouvoir. Initialement, pour chacun de nous, l'apparence de l'objet sensible (qui est ici une interaction d'objets) est le résultat de notre regard conditionné et des constructions auxquelles nos représentations initiales nous conduisent. Le travail ascendant va consister à le déconstruire en éléments stables et pertinents que l'on pourra confronter aux multiples théories des diverses sciences en amont. Ce travail ne saurait se faire de façon totalement naïve, puisque nous avons eu accès à une ou plusieurs de ces théories, il est donc plus ou moins descendant, en parallèle. Le chercheur devra mesurer les biais qui en découlent. De la confrontation aux diverses théories va naître l'objet construit. Cette construction implique que, parmi des théories parfois divergentes, nous nous positionnions (notre problématique est justement l'ensemble théorique dans lequel nous choisissons d' œuvrer). Notre problématique nous amène à construire un objet dont il importe de nous rappeler qu'il aurait pu être construit différemment par un autre chercheur. Le travail descendant consiste à vérifier la validité de notre construction de l'objet et de son fonctionnement, ce qui nous amène à mettre en place un dispositif de recueil de données dans des systèmes d'apprentissage/ensemble d'actions où nous n'avons qu'un très faible contrôle des variables qui nous permettront de mesurer la validité de nos hypothèses. Ce travail ne saurait avoir lieu sans qu'un travail ascendant ne s'effectue en parallèle. Travail qui ne peut qu'influer plus ou moins implicitement sur nos hypothèses et leur opérationnalisation. Les résultats de notre travail de validation serviront à consolider la théorisation de notre domaine et à augmenter la connaissance experte, s'il y a diffusion vulgarisatrice. Souvent, la complexité de nos conclusions nous conduit à les proposer sous formes de tableaux. Ces tableaux ne représentent que la façon dont nous avons compris le fonctionnement des interactions d'objets que nous avons étudiées, dans un contexte donné. Il pourrait paraître hâtif de les appeler modèles. Pourtant, dans la mesure où nous avons à agir, nous le ferons en nous référant à ces tableaux, et ils fonctionneront alors comme pourraient le faire des modèles. Du rôle d'explicitation de ce que nous avons compris, nous passerons à un rôle explicatif et prédictif. Le tout est de le savoir et d'en mesurer les conséquences. Notre travail ne s'arrête pas là. Il nous restera à vérifier si l'objet construit est identique à l'objet sensible et si la théorisation du domaine est en accord avec les conclusions des sciences en amont. Si des incohérences apparaissent, il nous faudra relancer un processus de recherche. Un retour en arrière s'impose maintenant sur la façon dont nous élaborons notre problématique. Revenons maintenant à la construction d'une problématique (Narcy-Combes 2000a), qui, dans notre domaine, est particulièrement complexe. Ce qui nous arrête maintenant n'est plus la technique des entonnoirs (étudier les diverses théories en fonction des besoins et limites de notre contexte de recherche, cf. Narcy-Combes 2000a), mais ce qui justifie nos choix et nos positionnements. Pour le comprendre, nous avons été progressivement conduits à travailler sur les conceptions qui sont actuellement avancées en ce qui concerne la construction de la connaissance humaine. Il nous paraît possible d'affirmer maintenant que la recherche nous permet de passer d'une rationalité conditionnée à une rationalité limitée par la prise de conscience de notre besoin constant de recul. Toute donnée (ou ensemble de données), qui peut activer nos capacités sensorielles, éveille, quand nous entrons en contact avec elle, une sensation qui ne relève pas de notre conscient. Cette sensation est « conditionnée » par notre passé, mais également par l'état émotif du moment et l'effet du contexte social sur nous. Notre perception des données dépend donc de cela. Nous ne verrons, lirons, entendrons, vivrons, que ce que nous sommes conditionnés à voir, lire, entendre, vivre, etc., à ce moment -là (flèche 1 tableau 3). Les émotions relèvent de notre physiologie et non de notre affectif, ni de notre cognitif. Elles génèrent des réactions affectives ou conatives (motivation), en fonction de notre vécu, et ces réactions nous conduiront à une réaction cognitive qui pourrait être différente chez un autre sujet. Cette perception, ce vécu des données, agit, disons, en générant une émotion (un jeu d'émotions) qui peut avoir deux effets. Soit, cette émotion enclenche un ensemble complexe d'actions quasi automatiques (a course of action) (flèche 1a), soit elle nous conduit à une prise de décision, conditionnée mais volontaire, c'est-à-dire consciente mais sous cette forme : « je sais que je ressens ceci, je n'ai qu'un choix d'action que je ne discute pas » (flèche 1b). Si la perception reste semi-consciente, l'action, devient consciente, même si elle est automatique. S'il nous est demandé de raisonner après un tel cheminement, nous rationaliserons (justifierons a posteriori), soit en refusant le perçu réel pour maintenir notre perçu conditionné, soit en rejetant le perçu réel, soit en manifestant notre incompréhension (« je ne comprends rien », « je ne vois pas ce que vous voulez dire », etc.), soit d'autres manières qui toujours auront une part de logique (résultat des parcours fléchés 1a ou 1b). Dans un cas comme dans l'autre, on comprend qu'il ne saurait y avoir apprentissage. Pour qu'il y ait apprentissage, il est nécessaire qu'une déstabilisation du conditionnement ait lieu (on retrouve là des notions de la didactique d'aujourd'hui). Pour faciliter l'apprentissage, Buser postule la mise en place d'un système métacognitif d'autocontrôle. Des chercheurs en sociologie, comme Bourdieu ou Morin, ont eu cette intuition de leur côté. Tout comme les didacticiens qui avancent la nécessaire mise en place d'une réflexion métacognitive. Dans la mesure où les phénomènes relationnels qui accompagnent l'apprentissage d'une langue (en ce qui concerne la communication et l'interculturel) relèvent de cette réflexion, si nous tentons d'intégrer les diverses théories psychologiques ou psychanalytiques dans un modèle temporaire, il paraît possible de postuler qu'il serait pertinent que chacun mette en place un recul conscient. Ce recul favoriserait la mesure plus ou moins juste de l'écart qui existe entre ce que notre conditionnement nous fait vivre, et ce qui s'est passé pour d'autres. Il fonctionnerait à chaque niveau, émotions, action et rationalisation ou réflexion (parcours fléché 2). Je suis tenté d'ajouter la qualification d'épistémique à un tel recul pour montrer à quel point il est constitutif de notre personnalité apprenante. Plus ou moins consciemment, toute personne qui apprend se sert de ce recul à la façon de monsieur Jourdain. Son rôle est explicité dans la partie gauche. Pour le moment, nous gérons apprentissages et vie sans prendre la mesure de l'importance du rôle et du fonctionnement de ce recul. Bien souvent nous voulons, en plus, être complètement dégagés de tout irrationnel en nous. Ce qui signifierait que notre recul est complètement efficace. Cette efficacité absolue est difficile à concevoir même si nous rendons plus conscient le fonctionnement de ce recul. Ce recul nous permet(trait) de tempérer les émotions, modifiant ainsi partiellement les effets d'une perception conditionnée. Il favorise(rait) donc, ensuite, la prise de décisions plus mesurées. Si nous acceptons la déstabilisation nous pouvons modifier ou affiner le perçu de départ. Ce travail cognitif facilitera notre reconnaissance de la nécessité de modifier nos conceptions et réactions antérieures. Le recul nous permet donc d'accepter d'apprendre. Il convient de se rappeler qu'une telle conception repose sur des données neurophysiologiques observables. Il est de ce fait plus difficile qu'auparavant de récuser de telles données et de maintenir des comportements personnels, ou des pratiques enseignantes et apprenantes d'autrefois. Ce qui relève de l'inconscient (cf. Buser) dans ces théories ne relève pas d'un inconscient tel que la psychanalyse le conçoit, mais si nous sommes dominés par un conditionnement (conditionnement qui ici n'est pas une référence à Skinner, mais à Laborit, par exemple), pourquoi ne pas le prendre en compte ? Suivant que nous fonctionnons par rationalisation ou par réflexion, nous suivons un cheminement épistémologique radicalement différent comme nous allons maintenant le voir. Ceci explique comment nous pouvons passer d'un conditionnement rationalisé à une rationalité limitée. Il reste à expliquer comment nous pouvons maintenant appréhender ce qui contribue à donner au chercheur sa posture. Pour tout chercheur qui adhère aux théories synthétisées dans le point 5, son conditionnement personnel et culturel joue un rôle non négligeable dans la construction de sa posture. Il nous semble possible, en fonction d'autres études (Barbot & Camatarri entre autres), d'ajouter ses valeurs, ses goûts, ses visées, ses ressources et ses contraintes. Le recul permettra à chacun de mesurer ce que représente chacun de ces points pour lui, comment ces derniers influent sur sa recherche, et quel degré de cohérence qu'il atteint. Dans une culture où la recherche quantitative est valorisée, par exemple, un chercheur qui souhaite faire carrière (visée) peut être conduit à choisir une approche de ce type, tout en se connaissant une approche très humaniste (au sens Rogérien) et très ascendante des relations humaines. Il y aura alors un manque de cohérence au niveau méthodologique, et donc au niveau de la légitimité des résultats. C'est la rencontre avec la sociologie qui nous a sensibilisés à ce problème. Les sociologues semblent d'accord pour relever trois grandes postures de base, tout en n'en retenant que deux principales, si leurs propos ont été bien compris. 7.1. La posture explicative (tradition de Durkheim) Elle est objectiviste et le chercheur s'intéresse aux observables et non à ce qui est intérieur aux individus. Elle est descendante, à partir d'une théorie, elle formule des hypothèses et cherche à les valider. 7.2. La posture compréhensive (tradition de Weber) Elle est subjectiviste et cherche à comprendre ce qui meut les individus. Elle recherche le sens que les personnes donnent à leur action. Elle se veut ascendante (elle part de données pour comprendre les phénomènes sociaux). 7.3. Une posture plus interactioniste (tradition école de Chicago) Dans cette posture, les chercheurs ne théorisent pas généralement, mais opèrent en fonction des contextes et des problèmes. Le rapport avec le point 7 est évident. Un conditionnement personnel ou culturel peut expliquer que l'on se reconnaisse plus dans une posture ou une autre. Comprendre pourquoi et comment (recul) rendra plus légitime la position prise et permettra une plus grande cohérence. Le lien entre posture et méthodologie de recherche est évident en sociologie. Avant de nous y arrêter, il nous reste à nous positionner sur le sens que peuvent avoir les concepts de vérité et de réalité. Ce positionnement nous permettra de mieux concevoir comment organiser les paramètres qui gouvernent les options épistémologiques d'une recherche, et de proposer un cadre qui permet de nous assurer de la cohérence méthodologique de cette recherche. Pour les épistémologues, deux points de vue dominants s'opposent en ce qui concerne la fonction des théories : Le réalisme pour qui la théorie décrit ce à quoi le monde ressemble. Ce concept inclut la notion de vérité. L'instrumentalisme qui affirme que les théories sont conçues comme des instruments pour relier des séries d'états observables. Selon Chalmers, la vision réaliste serait plus motivante pour les chercheurs (il s'agit d'une opinion difficilement justifiable par observation, mais elle est séduisante). Comme le réalisme lui paraît difficilement tenable au niveau épistémologique, il propose le concept de réalisme non figuratif. Selon lui, le but de la physique (d'une science) est d'établir des limites à l'application des théories actuelles et de développer des théories qui soient applicables au monde avec le plus grand degré d'approximation dans une grande variété de circonstances. Ceci rejoint d'autres points de vue selon lesquels il n'est pas possible d'établir une concordance iconique entre la représentation et la réalité (cf. Barbot & Camatarri 1999 : 53). Le réalisme non figuratif est réaliste car, d'une part, il contient l'hypothèse que le monde sensible (l'apprenant dans une interaction pour nous) est ce qu'il est indépendamment de notre connaissance. D'autre part, il contient l'hypothèse que, dans la mesure où les théories sont applicables au monde sensible (à l'apprenant dans une interaction), elles le sont toujours, en situation expérimentale ou non. Il est non figuratif car il ne s'agit pas d'une théorie de la correspondance de la vérité avec les faits. En effet, nous n'avons jamais accès au monde indépendamment de nos théories (ce qui est contre-intuitif). Cette théorie a l'avantage de résoudre tout conflit diachronie/synchronie. Dans la diachronie, il y a quête de la vérité. Dans la synchronie, il peut y avoir des aléas de parcours. Ce fait justifie le polythéisme dans la synchronie, dès lors qu'il n'est pas possible d'atteindre un point de vue unifié. Si l'idéologie consiste à développer des théories pour convaincre les autres que l'on a raison (cf. Cyrulnik), cela ne semble pas le cas ici, tout en soulevant un authentique débat. Nous sommes maintenant en mesure de comprendre comment les approches de recherche se mettent en place et les conséquences que cela implique au niveau de la méthodologie. Commençons par le tableau 4 qui s'appuie sur un modèle de Juan, complété par les concepts issus de Chalmers. Le positionnement que nous avons sur le réalisme, le réalisme non figuratif ou l'instrumentalisme, conditionnera l'autorité que nous attribuons aux résultats de la recherche et à nos représentations sur leur stabilité. Notre posture complétera ce qui précède, c'est elle qui guidera nos choix méthodologiques, comme le montre le tableau. De nombreux chercheurs pensent que les postures et les approches se complètent, et cela paraît rassurant, encore faut-il que cela se fasse en toute cohérence et en toute clarté. En ce qui concerne la didactique, il nous reste à résoudre un dilemme. Si des chercheurs, avec lesquels notre groupe est en accord, pensent que la recherche-action en est la méthodologie constitutive, cela vient-il de leur posture ? Il convient alors de le dire. Ou cela est-il une vérité ? Dans ce cas, nous serions en contradiction avec ce qui précède… De ce qui précède nous pouvons conclure que : Connaître sa posture permet d' être cohérent dans sa démarche, (moins de rationalisation ou d'intellectualisation). Il nous est possible de mieux gérer la cohérence de la démarche et des outils. Il existe un jeu de complémentarité (de la compréhension à l'explication, ou à l'interaction, etc.) qu'il nous sera utile de mieux comprendre. Nos conclusions de recherche auront ainsi une plus grande légitimité. Cet article nous a permis de voir que la nature de notre domaine de recherche fait de notre objet de recherche une interaction d'objets dans des systèmes complexes, mais la complexité au sens de Morin et de Le Moigne n'est pas abordée. Il semblerait que cet objet nous impose partiellement notre posture dans la mesure où la recherche-action s'affirme comme mode de recherche constitutif (ce qui reste à approfondir). Si nous adoptons une approche compréhensive, qui est celle qui est cohérente en recherche-action, comme nous avons besoin de tableaux pour présenter notre compréhension des interactions sans trop dépendre du langage humain dont la précision serait source de confusions, nous avons envie de les appeler modèles. Cela nous place dans la tradition explicative, qui n'est pas celle qui correspond à la recherche-action. Ces tableaux nous aident à comprendre, mais il est difficile de s'en servir pour prédire ou calculer. S'ils fonctionnent comme modèles lors de la mise en place d'action, il convient d' être vigilant afin de les modifier dès que l'action révèle un point faible. Dans la mesure où notre domaine reste celui de la praxéologie, nous pouvons penser que la complémentarité des approches et des postures se fait dans la complémentarité avec les sciences de fondements. Cette position ressemble trop à une pirouette facile pour s'en contenter, mais pour le moment il nous faut bien l'accepter .
En fonction des domaines de recherche dans lequel il est employé, le concept de modèle prend des définitions assez divergentes. Si on admet que la recherche-action est la forme de recherche la plus adaptée à la didactique des langues et que l'objet de recherche est en fait une interaction d'objets, on est confronté à un dilemme : puisque la recherche-action relève d'une posture compréhensive et que la modélisation, elle, relève d'une posture explicative, il semble peu logique de modéliser en didactique des langues de façon généralisante. Pourtant, la complexité même de l'objet de recherche impose au chercheur de décrire comment il comprend son fonctionnement sous forme de tableaux d'interactions, auxquels il serait préférable de ne pas donner le statut du modèle mathématique ou informatique. L'article tentera de déterminer alors ce qui conditionne le chercheur, et comment cela influence sa posture de chercheur. Il conclura en montrant comment le chercheur peut maintenant expliciter la cohérence de sa démarche et en mesurer les limites et les biais.
linguistique_524-03-12137_tei_436.xml
termith-537-linguistique
Je vais abuser de ma position de candide dans ce congrès. Il est notoire, en effet, que je ne suis pas spécialiste des langues de spécialité. Non que je ne m'y intéresse pas : je suis fier d'avoir dirigé l'habilitation de mon collègue et ami Vidalenc (1995), qui m'a fourni des aperçus précis et quasi exhaustifs sur deux langues de spécialité au moins, celle des scientifiques et celle des scénarios de films.Mais je vais profiter de la distance que j'ai vis-à-vis de votre discipline pour commencer par vous parler de tout autre chose. Cette autre chose sera ensuite qualifiée d'objet de parabole, pour me permettre de revenir aux questions de langue qui nous intéressent directement. Si je commence par une parabole, c'est pour vous dire ce que j'entends par médiation, ou plutôt, puisque ce concept est résolument hégélien, par la dialectique du médiat et de l'immédiat. Le sujet de votre congrès suggère qu'en tant que corps constitué vous mettez votre idéal du moi dans le médiat plutôt que dans l'immédiat. Je vais essayer de vous dire pourquoi je pense que vous avez raison de le faire, mais j'emprunterai des chemins détournés. Voilà donc l'autre chose dont il sera d'abord question. C'est un tableau, une annonciation de Francesco del Cossa, peintre ferrarais de la seconde moitié du 15 e siècle, peinte pour une église de Bologne, et que l'on peut voir aujourd'hui au musée de Dresde (voir annexe 1). Si je devais dire d'un mot ce qui caractérise le style de cette œuvre, et ce qui m'attire en elle, je dirais : l'exubérance de la représentation, la joie de la perspective entièrement maîtrisée et de la profondeur récemment découverte. Ce tableau n'a pas encore recours aux contorsions du maniérisme, mais il a déjà perdu la simplicité et le hiératisme des primitifs et de Piero della Francesca. Tableau éminemment décoratif, ce qui était une caractéristique notoire des peintres de Ferrare, proche en cela des tableaux de Crivelli, contemporain de Cossa, il nous présente le monde dans sa richesse foisonnante et surtout dans ses trois dimensions : la surface de la toile est une frontière immatérielle que notre regard est avec insistance invité à franchir. Cette exubérance de la représentation a quelque chose à voir avec l'immédiateté : le tableau est en réalité plus présentation, sur le mode de l'immédiat, que représentation d'une scène trop connue. L'organisation en profondeur des plans, la complexité de l'architecture, la position des personnages, même si leur mouvement est arrêté sur image, produisent un fort effet visuel de présence. Cet effet de présence immédiate s'accompagne, même aujourd'hui, d'un effet de réel. Il suffit de comparer ce tableau soit avec une icône byzantine sur le même sujet, soit avec une peinture gothique, telle l ' Annonciation de Simone Martini, qui se trouve aux Offices : chez Martini, la ligne qui unit l'ange à la Vierge court à la surface du tableau et la matérialise (au point que les paroles de l'ange, qui sont inscrites sur cette ligne, qui va de la bouche de l'ange à l'oreille de la Vierge – souvenez -vous que cette conception est auriculaire – sont sculptées en relief sur la surface du tableau); chez Cossa, cette ligne est une diagonale, qui parcourt et institue la profondeur de l'espace du tableau, produisant un effet de réel, c'est-à-dire de trompe-l'œil. Et ces corps dispersés en profondeur, par leur attitude, par leurs traits, par les vêtements qui les couvrent, produisent une impression de réalité, dont Martini n'a cure. Chez Cossa, même les ailes de l'ange, ces objets notoirement impossibles, ont l'apparence d'ailes d'oiseau. On peut aller plus loin. Le tableau de Cossa n'est pas seulement réaliste, il est, si vous me pardonnez l'anachronisme, embourgeoisé; un certain effet de reconnaissance y est produit. Cet effet est, en quelque sorte, naturel; nous avons toujours déjà vu une représentation de l'Annonciation. Mais il est ici appuyé : cette vierge est une femme réelle, dont le modèle arpentait sans doute les rues de Ferrare; cet ange est un beau jeune homme; cette architecture d'arrière-plan est irréelle, mais aisément reconnaissable (que diable vient faire ici cette tour en ruine ? Mais je n'ai aucun mal à l'identifier). Tout au fond, sous l'auréole de l'ange, on distingue même une porte médiévale, que deux moines s'apprêtent à franchir. Au premier plan les marmi finti sont, malgré leur feintise, plus vrais que nature. Et, sous la main gauche de l'ange, se promène un chien, détail qui suffit à ancrer la scène dans la réalité quotidienne contemporaine. Cette Annonciation, plus présentation que représentation, lieu d'effets de réel et de reconnaissance, se caractérise donc par son immédiateté : un ange passe, avec arrêt sur image. Et pourtant, il apparaît assez vite que cette immédiateté est de surface, qu'elle passe par une série de médiations. Il apparaît en effet très vite que l'immédiatement présent ne se soutient que de l'impossible. Dans son analyse de ce tableau, Daniel Arasse (1999) fait remarquer que l'architecture devrait s'effondrer faute de seconde colonne qui, à la place exacte qu'occupe le spectateur, devrait soutenir l'architrave qui, en haut du tableau, se dirige vers nous. Il fait également remarquer qu'il y a dans le tableau une autre diagonale qui croise la première (laquelle construit la présence immédiate de la scène), celle qui va de Dieu, minuscule parce que lointain (c'est-à-dire soumis, de façon inhabituelle, aux lois de la perspective humaine) à l'escargot qui, en bas à droite, rampe sur le bord du tableau, et qui, si on le rapporte au pied de l'ange, est de taille démesurée : cet escargot est long, nous dit Arasse, de dix-huit centimètres. Nous avons donc affaire à une première médiation, qui est celle du signe. L'escargot, dont on pensait à l'époque qu'il s'autofécondait, est le symbole de la Vierge. Il est aussi le signe du bord du tableau, qu'il marque de sa présence, rappelant à la fois qu'une frontière infranchissable sépare la réalité intrapicturale et la réalité extrapicturale du monde, et invitant le regard du spectateur à la franchir. Sa taille démesurée marque cette fonction antiréaliste, parce que soit symbolique, soit métapicturale. Et une fois l'escargot vu, le tableau se fait forêt de symboles. Cette colonne, qui occupe le centre du tableau et s'impose à l'attention du spectateur, ce n'est pas, bien sûr, seulement une colonne. C'est la marque de la séparation ontologique entre l'ange et la Vierge : l'ange ne peut envahir l'espace marial de la chambre et de son seuil – dans l ' Annonciation de Martini, cette séparation est marquée par un vase contenant des lys. Mais c'est aussi, c'est du moins ce que le commentaire d'Arasse m'a appris, le symbole du Christ qui est en cet instant conçu (la colombe de l'Esprit Saint vient d' être lâchée). Il n'est pas jusqu'aux deux arches qui ne fassent signe : pourquoi y en a -t-il deux, et ni une ni trois ? Parce qu'elles inscrivent le M de Marie dans le tableau, bien sûr. Il est donc clair que nous ne sommes plus du tout dans le domaine de l'immédiat, mais dans le domaine de la médiation par excellence, celui du signe ou du symbole. En réalité nous n'y avons jamais été, car la scène est toujours déjà peuplée de signes : même vue, c'est toujours déjà une scène écrite. Car la scène originaire, qui est re-présentée ici, n'a jamais été présentée ou vue, non seulement parce qu'elle est mythique (rien ne nous interdit de croire à ce mythe), mais parce qu'elle est toujours déjà médiée par le texte des Evangiles qui la narre et qui est son vrai lieu d'origine. C'est bien pour cela que la Vierge de l'Annonciation est toujours représentée lisant (ce que n'indiquent pas les Evangiles – un évangile apocryphe, ou est -ce une invention des libres-penseurs des Lumières, suggère qu'elle était en train de ravauder les chausses de Joseph). Pour indiquer sa grande piété, bien sûr, et pour nous rappeler que l'Annonciation était elle -même annoncée dans les prophéties de l'Ancien Testament, mais aussi, je le crois du moins, parce que cette scène, qui s'origine dans un livre, est une scène du Livre : ce qui s'incarne dans Marie, c'est l'esprit de la lettre. On a donc une chaîne de médiations : un texte sacré, dont ce tableau d'autel est l'illustration. Un texte médié par une image, sous ses deux aspects d ' istoria (qui met en histoire la narration, c'est-à-dire l'inscrit dans deux moments qui se répondent en miroir : le moment palestinien du mythe, et le moment italien de la scène représentée) et le disegno, c'est-à-dire la composition, qui produit les effets de réel et de reconnaissance pour ce qu'ils sont, autrement dit des effets : les paroles qui, contrairement à Martini, ne sont pas inscrites sur le tableau sont néanmoins présentes, non parce qu'elles volent dans l'atmosphère diaphane, mais parce qu'elles sont inscrites dans le geste de l'ange (‘ Ave '), dans les arcades qui surplombent la Vierge (‘ Maria '), et dans la colonne qui matérialise, fort matériellement, le fruit de cette conversation, et qui fonctionne comme une sorte de signature. Et il y a une médiation supplémentaire, qui parachève la dialectique du médiat et de l'immédiat – et ici je me sépare définitivement de l'analyse d'Arasse : celle de l'abyme. Déjà, nous avons vu que l'escargot était signe métapictural. Mais regardez bien l'auréole de l'ange : c'est clairement un disque de métal fixé sur sa tête par une armature qui la transforme en casque. Cet ange, qui ressemble à un beau jeune homme, est un beau jeune homme qui joue un ange. Cette scène, qui est si réelle qu'elle ressemble à un décor, est donc en effet un décor, une scène à l'italienne : le tableau est virtuellement entouré par les rideaux d'un théâtre. Ces spectateurs que nous sommes sont donc bien des spectateurs : nous assistons à la mise en scène d'une scène, à la représentation d'une représentation. Nous sommes d'ailleurs présents aussi dans le tableau, sous la forme de la femme et de l'enfant au balcon, au-dessus de la tête de l'ange. Voilà donc pourquoi cette architecture est à la fois irréelle et réaliste : c'est un décor de théâtre, comme l'est cette architecture imaginaire parfois attribuée à Piero della Francesca, et que l'on peut voir au musée d'Urbino. La ville est un théâtre, la scène religieuse un drame : l'immédiateté a radicalement disparu, ou plutôt elle se donne enfin pour ce qu'elle est : une illusion soigneusement, par médiation, construite. La dialectique de l'immédiat et du médiat a donc, dans ce tableau, la forme suivante : il y a une chaîne de la médiation, qui va de la scène mythique au texte sacré, puis à l'illustration qu'est le tableau, puis au décor de théâtre que cette illustration, en abyme, reproduit, dans lequel la scène originale est mise en scène; et il y a, par boucle, un effet d'immédiateté, qui unit les deux termes de la chaîne, la scène mythique originelle et la mise en scène abyssale. Cet effet d'immédiateté, de mise en scène, construit bien sûr une illusion : dans notre tableau, elle est forte, et a nom trompe l' œil, effet de présence, de réel, de reconnaissance. La réponse à cette question est simple : les disciplines du langage (j'entends par là la critique littéraire autant que linguistique) sont fréquemment victimes d'une illusion d'immédiateté, par quoi il ne faut pas entendre nécessairement qu'elles s'imaginent avoir directement accès, par quelque intuition mystique, à l'essence du langage, mais qu'elles prétendent retrouver le fondement, l'origine directe, de la langue ou du sens. Je vous en propose deux exemples. Le premier est emprunté à la linguistique. C'est, excusez du peu, le programme de recherches chomskyen. Je n'ai pas besoin de vous faire un dessin : c'est le plus prestigieux, le plus répandu (dans le monde entier), celui qui prétend être le plus scientifique. Cette prétention doit être contestée, en ce qu'elle est source d'une illusion d'immédiateté. Le chomskysme se présente en effet comme un naturalisme, qui réduit, au moins idéalement, les phénomènes linguistiques à des connexions physiques dans ce que Chomsky appelle le mind/brain. Les lois de la grammaire universelle sont des modèles abstraits de phénomènes biologiques ou psychologiques encore, provisoirement, inconnus, ce qui veut dire qu'un jour la linguistique s'effacera devant la biologie du cerveau, lorsque celle -ci aura suffisamment progressé. Ce réductionnisme, que le vieux marxiste que je suis a envie de qualifier de matérialisme vulgaire, sombre dans l'illusion d'immédiateté en ce qu'il postule une causalité directe du physique au linguistique, incarnée dans ce monstre de langues, mind/brain (on lui opposera, à titre de comparaison, le parallélisme spinoziste entre les deux modes de la substance ou la théorie de la « supervenience » des phénomènes mentaux chez Davidson). Dans la doctrine chomskyenne, cette illusion d'immédiateté a des manifestations, et des conséquences délétères. Cela commence par la disparition de tout facteur externe (non que les chomskyens refusent, bien sûr, de reconnaître leur existence, mais ils leur dénient toute pertinence) : ainsi la grammaire universelle n'est pas objet d'apprentissage, étant innée. L'argument, unique et sans cesse ressassé, s'appuie sur la soi-disant explosion de compétence chez le jeune enfant : une connaissance complexe acquise si rapidement que la seule explication possible est de considérer qu'elle était toujours-déjà là, inscrite dans le cerveau comme une propriété de l'espèce. Je fais simplement remarquer que la structure de cet argument est la même que celle de l'argument cosmologique pour prouver l'existence de Dieu : l'horloge du monde est trop compliquée pour ne pas avoir été conçue par un horloger. Cela continue (mais sur ce point Chomsky est fidèle à Saussure) avec le postulat de l'arbitraire du signe (qui exclut ou marginalise les phénomènes d'iconicité) et le principe de synchronie (qui sort la langue de l'histoire, et ne réintroduit celle -ci que sous la forme, toujours dévalorisée, de la diachronie). Chez Chomsky, ces deux postulats saussuriens sont poussés jusqu' à l'extrême. Le pire pour moi, dans cette illusion d'immédiateté, n'est pas là : il est dans la disparition des langues nationales en tant qu'objet d'étude pertinent. Car si l'on a accès immédiatement à la Langue, ou à la Grammaire universelle, le niveau médiat, ou intermédiaire, de la langue naturelle, ou nationale, perd tout intérêt : quelques switches de plus ou de moins dans le mind/brain, et l'on passe sans solution de continuité de l'allemand au hollandais, puis à l'anglais. Comme j'ai depuis toujours un intérêt passionné pour la langue anglaise, pour sa structure mais aussi pour son histoire et pour la culture qu'elle véhicule, vous comprendrez que cette affirmation d'immédiateté, qui est illusion et terrorisme scientiste, ne me réjouisse pas. Et où sont les langues de spécialité dans ce modèle ? La réponse est immédiate : nulle part. Si on a immédiatement accès à la Grammaire universelle (je caricature : je feins d'oublier la médiation du modèle abstrait, de la théorie), la langue de spécialité est doublement impertinente, en tant que liée à une langue naturelle, et que liée à un registre de cette langue, historiquement et culturellement constitué. Car la langue de spécialité suppose la médiation de l'historique et du social, comme le suppose tout point de vue « externe » au sens où Bourdieu entend cette expression, sur la langue. S'il existe des langues de spécialité, et un champ d'étude spécifique, c'est parce qu'il n'est pas de phénomène linguistique qui ne soit médié par l'historique, le culturel et le social – c'est-à-dire par des institutions, des rituels et des pratiques, dont il est sinon impossible, du moins extrêmement réducteur et dangereux, de l'abstraire. Mon second exemple est emprunté à la critique littéraire. Il n'est cependant pas si éloigné des préoccupations de la linguistique, car il concerne la construction du sens dans le texte littéraire. Ici, l'illusion d'immédiateté prend la forme d'une relation directe non pas tant entre le texte et son sens (tout sens ne se donne pas immédiatement), mais entre le texte et l'origine de son sens. Certains textes ont besoin d'un ouvre-boîte (j'ai fait la description de cette théorie de l'interprétation que j'appelle le tin-opener dans mon dernier livre, Interpretation as Pragmatics, 1999), mais une fois découvert ou recouvré, ce sens est directement c'est-à-dire causalement, lié à sa source. Les opinions quant à cette source varient : pour la pragmatique anglo-saxonne, c'est l'intention de sens du locuteur ou de l'auteur du texte, des conceptions plus anciennes de la littérature feront appel aux caractéristiques éternelles de la nature humaine (les chomskyens ne sont pas les seuls à y croire), aux valeurs éthiques qui inspirent le texte, à la psychologie qu'il met en scène. Je ne dis pas, naturellement, que ces derniers aspects ne sont pas présents dans le texte littéraire (pour ce qui est de la nature humaine, étant marxiste, j'ai du mal), mais que ce sont des effets d'immédiateté, des constructions médiates d'une illusion forte, mais illusoire. On doit lire Jane Austen comme si les personnages étaient des amis de la famille, comme si les situations dans lesquelles ils évoluent impliquaient les mêmes questions éthiques qui se posent dans notre vie quotidienne; mais on doit aussi, et en même temps, savoir que ces effets sont médiatisés (par le genre du texte, par la construction de l'intrigue, par les fils textuels qui tissent les personnages, par le langage dans lequel seul ils existent). Tel était, bien entendu, l'objet de ma parabole, dans laquelle le tableau peut être considéré comme un texte. Je me suis appuyé sur la lecture que fait Arasse (dans laquelle le disegno révèle l ' istoria et les valeurs religieuses qu'elle transmet : la seule médiation ici est que le disegno crypte le sens, les signes doivent être interprétés, mais leur interprétation provoque l'illumination du sens enfin directement atteint). Mais en remarquant un détail, l'auréole métallique de l'ange, qu'il néglige, j'ai essayé de montrer que l ' istoria et ses valeurs étaient en réalité le résultat d'une mise en scène, d'une chaîne de médiations. Je vous propose un exemple littéraire caricatural, et contre lequel j'ai déjà tonné en chaire. Push, roman de Sapphire (1996), a eu un grand succès il y a quelques années aux États-Unis et en France, où sa traduction s'est vendue à vingt mille exemplaires. Le roman est l'histoire d'une adolescente, noire, pauvre, obèse, de QI faible, ayant beaucoup de retard dans ses études. Et comme cela ne suffit pas, elle est mère célibataire d'un enfant trisomique, et enceinte d'un second engendré par son père, qui l'a violée et lui a transmis le SIDA. Mais il y a, à mon sens, encore pire : elle trouve le salut à l'école en rencontrant un professeur compréhensif qui l'incite à devenir poète; et elle s'appelle Precious Jones. « Jones » comme tout un chacun, mais précieux, néanmoins, comme chaque individu singulier. Il est facile de comprendre ce qui ne va pas dans cette caricature de politiquement correct, ce qui est tartiné si épais que cela provoque la nausée : c'est l'immédiateté de la revendication identitaire de l'héroïne en tant que victime. Le texte, qui n'est pas si mal écrit (Sapphire est poétesse de son état) disparaît sous le poids de l'affect immédiat, qui n'est en réalité qu'une médiation culturelle : Precious Jones n'existe pas, non tant en ce qu'elle est un personnage de fiction qu'en ce qu'elle est une abstraction, une composition de catégories sociologiques défavorisées. Je me souviens d'un dessin de Wolinski, dans L'Humanité, où une jeune personne se préparait à présenter à des parents fort bourgeois un fiancé qui ressemblait étrangement à Sammy Davis Jr : il était en effet noir, juif et borgne. Dans la bulle, elle lui disait : « s'il te plaît, chéri, ne lui dis pas tout de suite que tu es communiste ». Vous me direz que je charge des moulins à vent. Il est clair que Push n'est pas un chef d' œuvre, que le moment du structuralisme nous a débarrassé de l'immédiateté éthique ou psychologique en littérature et, sous l'influence de la linguistique, forcés à nous intéresser à l'écriture du texte, à sa constitution grammaticale. Mais l'illusion d'immédiateté est vieille comme le monde, elle s'appuie sur des effets (de réel, etc.) qui sont sources d'affects forts, elle revient sans cesse, et au galop, sous diverses formes : la revendication d'identité (le texte exprime directement, et revendique, pour son auteur, ses personnages ou ses lecteurs, une quelconque identité), mais aussi la revendication d'autorité (le sens du texte appartient à son auteur, et la tâche du critique est de le recouvrer), ou encore la revendication de valeurs (nous assistons actuellement, en critique littéraire, à un retour en force de l'éthique, et le parcours de Todorov, de la structure à la morale, est significatif). Cette illusion d'immédiateté littéraire est forte et vivace, parce qu'elle s'appuie sur une philosophie du sens, à laquelle la linguistique n'échappe pas toujours (je pense en particulier à la pragmatique anglo-saxonne) qui fait dépendre le sens de l'énoncé de l'intention de sens du locuteur et de sa reconnaissance par l'interlocuteur. Cette philosophie est exprimée dans un article célèbre de H. Paul Grice, « Meaning » (1989), où il définit ce qu'il appelle le « sens non-naturel », c'est-à-dire le sens produit par des signes qui sont des artefacts humains et non des symptômes naturels. Il ne m'est pas indifférent que le lexique philosophique de Grice soit, sur ce point, emprunté soit à l'éthique du philosophe américain Stevenson, soit à la seconde critique Kantienne. Mon ambition est de suggérer une théorie du sens qui ne verse pas dans ces illusions, et qui donc fasse une place au concept de langue de spécialité (car nous avons vu que l'immédiateté du rapport entre texte et grammaire universelle ne laissait aucune place à la langue de spécialité, et il en est de même de l'immédiateté du sens à ses origines individuelles, psychologiques ou éthiques). Pour cela, je vais partir d'un exemple canonique (cela fait à peine dix ans que je le ressasse) (chapitres 2 et 3, op. cit. 1999) une phrase simple : « Let him have it, Chris ». Si j'aborde cette phrase possédé par la première illusion d'immédiateté, celle d'un rapport direct à la langue ou la grammaire universelle, j'aurai une analyse syntaxique simple, à la Chomsky, qui me dira que cette simple phrase est une phrase simple, à l'impératif, et que la structure profonde rétablit un pronom personnel sujet, « you », effacé en surface. Le problème est que la connaissance de la structure syntaxique ne me permet pas ici de remplir le programme de l'analyse linguistique, c'est-à-dire de passer du son au sens; la phrase contient un certain nombre de variables, qui échappent à l'analyse syntaxique : embrayeurs (le « you » implicite), plus généralement ce qu'on appelle en anglais des « indexicals » (« him » et « it »), mots vagues ou de sens générique, comme « have ». Même le nom « Chris » est source d'incertitude en ce qu'il est épicène. Si bien que le seul mot dont le sens m'est immédiatement donné par le système de la langue est le verbe « let », marqueur grammatical de l'impératif. Cette immédiateté du système échoue donc à me donner le sens de la phrase. Mais ma seconde illusion d'immédiateté, littéraire et linguistique à la fois, vient à la rescousse. Elle me permet la donation immédiate du sens par reconstruction de l'intention du locuteur. Le problème de l'analyse syntaxique chomskienne, me dit-elle, est qu'elle est trop abstraite : elle s'intéresse à des phrases, non à des énoncés attestés, et sa pratique de l'astérisque est notoirement désinvolte, voire terroriste (l'astérisque sert parfois à exclure des phrases que la théorie rejette mais que la pratique de la langue accueille volontiers). La pragmatique et la linguistique énonciative, elles, réintroduisent le contexte, ou la situation d'énonciation. En déplaçant le centre d'intérêt vers le locuteur ou le sujet d'énonciation, elles permettent aux embrayeurs et autres pronoms personnels de trouver leur référence, et de désambiguiser le sexe du ou de la prénommé(e) Chris. Imaginons un tel contexte : le père, Chris, la mère (qui est l'auteur de l'énoncé), le fils (« him »), et la banane (« it »). Alors la valeur de « have » s'induit du reste, et avec elle le sens de la phrase. La mère excédée enjoint au père de donner la banane à la marmaille qui réclame : « For heaven's sake, let him have it, Chris ». Encore faut-il que cette famille soit monorejetonne, et que la banane soit perceptivement saillante. Et même dans ce cas, qu'est -ce qui nous assure que le « have it » ne doit pas être entendu métaphoriquement et que la mère, non seulement excédée mais poussée à la violence, ne demande pas au père de flanquer au marmot une raclée ? Il apparaît donc qu'il y a des expressions dont le sens est constitutivement vague, ou ambigu, et que « have it » est l'une d'entre elles. Cela apparaîtra encore plus clairement si je vous livre le contexte réel de ma phrase. Elle est au cœur de l'affaire Bentley, fait divers anglais du début des années cinquante. Derek Bentley, âgé de dix-huit ans, épileptique, et à la limite de la débilité mentale, cambriole un entrepôt en compagnie de Chris, son complice, âgé de seize ans. Ils se font prendre. En état d'arrestation, Bentley, qui n'était pas armé, est accusé d'avoir crié à son complice encore libre, « Let him have it, Chris ». Ce sur quoi Chris sortit de sa poche un revolver et tua le policier qui s'apprêtait à l'arrêter. Trop jeune, il n'encourait pas la peine de mort. Bentley qui avait l' âge, fut poursuivi pour « constructive malice », complicité d'assassinat, condamné à mort et, malgré les protestations, pendu. Ma phrase fut décisive pour l'accusation qui l'utilisa pour établir l'incitation au meurtre. Le problème est qu'elle est radicalement ambiguë, et que la situation seule ne suffit pas à la désambiguiser, sous une interprétation qui est une décision, c'est-à-dire un jugement. Prise littéralement, elle peut vouloir dire : « donne le lui », où « it » renvoie au pistolet. Un Bentley résigné demande à son complice de se rendre. Entendue métaphoriquement, elle peut vouloir dire : « descends -le ». Un Bentley vindicatif pousse son complice au meurtre. L'accusation opta pour la seconde solution et par le jugement final réussi à imposer ce sens comme le sens de la phrase. On voit ici que l'espoir d'une donation immédiate du sens est bien une illusion : il ne sert à rien en effet de demander à Bentley ce qu'il voulait dire, car il choisira toujours, pour sauver sa tête, l'interprétation innocente. Le sens est donc établi médiatement (il est construit lors d'une succession d'audiences, dans l'agôn judiciaire) et contre ce qu'on sait par avance être le « sens du locuteur », ici par principe déclaré non fiable, c'est-à-dire lui -même médiat. Incidemment, le sens de la phrase était si peu immédiat que Bentley a été, il y a deux ans (mais un peu tard) réhabilité : il semble bien qu'il n'ait jamais prononcé cette phrase, qui serait une invention des policiers, désireux de trouver un coupable pour venger leur collègue. Comme vous le constatez, les médiations s'accumulent et se compliquent. Je reconnais volontiers que la situation que j'ai décrite est singulière, et même exceptionnelle. Mais je pense que mon énoncé est exemplaire, et qu'il a valeur canonique. Il nous montre – ce qui peut et doit être généralisé – que le passage du son au sens ne se fait ni par référence directe au système de la langue, ni par appel immédiat à l'intention du sens du locuteur. Il nous montre, et ce ne sont pas les littéraires qui me contrediront, que le sens est toujours obtenu par construction, c'est-à-dire est toujours l'objet d'une interprétation, toujours atteinte par le biais de médiations. Décrire ces médiations, c'est élaborer une théorie du sens en tant qu'il est contraint a) par le jeu de langage au sein duquel l'énoncé apparaît (vous reconnaissez ici une allusion à Wittgenstein tel qu'il fut relu, et approuvé, par Foucault); b) par la conjoncture au sein de laquelle il émerge, et dont le moment précis (c'est-à-dire non seulement le point d'émergence, mais la dynamique (momentum en anglais, mot qui a la même origine que « movimentum ») a un rapport causal avec l'énoncé et son sens (vous reconnaissez ici un thème hégélo-marxiste : je pense que nous avons besoin d'un concept de « conjoncture linguistique »); c) par la chaîne d'interpellation dans laquelle l'énoncé est pris, et qui va de l'institution (au sein de laquelle les jeux de langage sont pratiqués) au rituel (dont le jeu de langage est le versant langagier) à la pratique qui inscrit le rituel dans des actes (ceci est une théorie matérialiste du sens) et enfin à l'acte de langage en quoi consiste l'énoncé. Et vous avez reconnu la référence à la pragmatique anglo-saxonne (ou « quand dire, c'est faire ») combinée à la théorie althussérienne de l'idéologie comme interpellation d'individus en sujets. On peut comprendre alors par quelles médiations le sens de ma phrase de départ se construit, et ce que ces médiations impliquent. Cet acte de langage, au singulier pouvoir performatif (puisqu'il est censé avoir causé la mort d'un policier, et qu'il a certainement causé celle de Bentley), loin d' être le résultat immédiat de l'intention de sens d'un sujet locuteur (son « auteur », je vous le rappelle, ne l'a jamais prononcé) est une construction, dans une conjoncture (la première conjoncture sécuritaire de l'après-guerre, où l'on craignait que les jeunes démobilisés ne sombrent dans la violence et la criminalité : le Garde des Sceaux refusa de gracier Bentley à cause de ces considérations politiques), dans une institution, l'institution judiciaire, avec ses rituels, ses pratiques, et ses jeux de langage (l'interprétation vraie de l'énoncé est ce que le jury décide). Et comme la phrase en question est, semble -t-il, une forgerie, les médiations se multiplient : c'est la police qui a placé ces mots dans la bouche de Bentley; ils avaient été effectivement prononcés, dix ans plus tôt, dans des circonstances similaires, par un truand nommé Appleby, qui incitait son complice à liquider le policier (la phrase d'Appleby est : « Let him have it, he is alone » ce qui n'est guère ambigu); et ce truand avait vu trop de films de gangsters américains dont il imitait le parler rude mais pittoresque. On comprend donc que la construction du sens d'un énoncé ne peut se satisfaire des illusions d'immédiateté, qu'elle doit les dénoncer comme des illusions. Bentley, locuteur postiche, est interpellé à sa place, celle du mort, par l'énoncé qui lui est attribué et dont le sens est construit par la conjoncture historique et son moment politique, par le jeu de langage dans le cadre duquel il est prononcé, par la chaîne d'interpellation qui lui donne naissance. J'ai dans mon dernier livre (1999) proposé un modèle d'interprétation, c'est-à-dire de construction du sens, en ces termes. Il a nom modèle ALTER, d'après les cinq actants ou places structurelles qui le composent, Author, Language, Text, Encyclopaedia et Reader. C'est un modèle textualiste, conçu pour rendre compte de l'interprétation des textes littéraires (d'où les actants « auteur » et « lecteur ») mais qui prétend s'appliquer à toute situation d'interlocution (on remplacera alors « auteur » et « lecteur » par « locuteur » et « interlocuteur » ou « destinateur » et « destinataire »). Comme le montre le schéma, au centre du modèle il y a un énoncé, le texte, produit ou contraint par la langue et l'encyclopédie et interpellant à la place des actants auteur et lecteur des egos ou acteurs qui assurent soit la production, soit la réception du texte. Autour de ce texte, donc, la conjoncture linguistique construit du sens et interpelle des sujets. Mais qu'est -ce que la « conjoncture linguistique ». C'est une conjonction de la conjoncture au sens marxiste habituel du terme (on parle de « conjoncture historique » et de « moment » de cette conjoncture – le moment par exemple où les slogans jusqu'ici justes deviennent faux, et où il faut en changer) et d'un état de la langue. Les deux éléments de la conjoncture sont notés E et L. E, c'est l'encyclopédie dans un sens dérivé de Eco : un ensemble de savoirs et de croyances, de discours publics tenus à un moment donné mais aussi les institutions, rituels et pratiques qui sont mis en discours et produisent des textes toujours collectifs, même si attribués à un auteur. Et L, c'est l'état de la langue dans une conjoncture : pas une grammaire universelle donc, pas l'inscription d'une faculté de l'espèce dans le psychologique et le biologique, pas donc un système abstrait, mais un état de langue, résultat d'une histoire, inscrit dans les rapports de force d'une conjoncture, systématique en ce sens qu'il s'impose à ses locuteurs (lesquels résistent, parfois avec succès, voyez l'histoire des pronoms épicènes en anglais), mais un système dynamique, soumis à une variation continue – la langue des sociolinguistes, de Voloshinov à Labov plutôt que celle de Saussure et de Chomsky. La conjoncture linguistique, c'est donc le cœur linguistique de mon modèle, LTE, l'origine des énoncés. Et ces énoncés interpellent à leur place à nouveau frais dans chaque conjoncture, auteur et lecteur, A et R. Ce qui veut dire, ce que vous concéderez, qu'un texte change de lecteur chaque fois qu'il change de conjoncture, mais qu'il change aussi d'auteur – l'histoire des études shakespeariennes est l'histoire des Shakespeare par elle produit (naguère protestant, aujourd'hui catholique; mais aussi, et pourquoi pas, lacanien). Le sens est donc à la fois le produit d'une conjoncture linguistique et le résultat d'un processus d'interpellation. Ainsi Bentley, interpellé en auteur d'une phrase qu'il n'a jamais prononcée, n'est pas le même en 1951 (c'est un voyou, naturellement coupable, dont il faut faire un exemple pour dissuader ses congénères) et en 2001 (c'est la victime non d'une erreur, mais d'un acte de cruauté judiciaire : ce n'est plus un coupable, mais un mal-jugé : d'ailleurs, il a été réhabilité). Et le sens de l'énoncé n'est pas le même, même si les mots n'ont pas changé, en 1951 ou en 2001. En 1951 la phrase n'est pas ambiguë, ou plutôt son ambiguïté n'est que virtuelle (dans le système de la langue) et temporaire (le jury lui fixe son seul et vrai sens). En 2001, elle est radicalement ambiguë, construite pour être désambiguïsée par coup de force, par l'imposition d'un sens terroriste, légal mais illégitime. Et Bentley n'est plus qu'un des auteurs qu'elle interpelle : elle interpelle aussi Appleby, qui la prononça réellement, et les policiers anonymes, qui la mirent dans la bouche de Bentley. C'est d'ailleurs une des causes de sa réhabilitation. Des linguistes ont analysé les interrogations de Bentley par la police. Les phrases qui lui sont prêtées (il était illettré) sont d'une telle complexité et raideur administrative qu'il est impossible qu'il les ait proférées ou même comprises. Le système juridique anglais en a d'ailleurs depuis longtemps tiré des conséquences : vous comprenez pourquoi, chaque fois que l'inspecteur Morse, ou l'inspecteur Frost, interrogent un suspect, il y a, bien en évidence sur la table, un magnétophone. Contrairement aux systèmes de linguistique théorique (qui nient toute pertinence aux jeux de langage ou aux registres ou bien s'en désintéressent), contrairement aux interprétations sémantico-littéraires (qui méprisent des textes trop collectifs, trop préconstruits ou trop contraints pour être intéressants), le modèle ALTER permet de faire aux langues de spécialité la place qui doit être la leur. Comme pour lui la langue est un agrégat de jeux de langage avec leurs règles ou leurs maximes, et comme la langue se combine à une encyclopédie (des institutions, des normes juridiques, des pratiques de groupe, etc.) il traite les langues de spécialité comme un de ses objets naturels, en ce qu'elles sont des jeux de langage, ou des familles de jeux de langage. Cela peut se dire d'une formule : pour le modèle ALTER, « il n'y a que des langues de spécialité ». La littérature est une famille de jeux de langage, c'est-à-dire une (ou des) langue (s) de spécialité. Cela nous permet de nous débarrasser du terrorisme de la linguistique théorique, qui méprise la linguistique appliquée (le langage des pilotes d'avion n'a peut-être pas besoin de structures d'enchâssements syntaxiques : les voici donc détrônées de leur centralité théorique – on se souviendra que c'est sur de telles structures que Chomsky s'est appuyé pour nier toute pertinence au modèle des chaînes de Markov pour l'analyse des langues naturelles). Elle nous permet aussi de nous débarrasser du paternalisme de la critique littéraire. Non que, contrairement à mon prédécesseur à l'université de Cardiff, je prétende que le mode d'emploi d'une essoreuse, traduit en anglais du japonais, est un texte aussi complexe ou linguistiquement aussi riche que le monologue d'Hamlet. Mais je prétends que l'un et l'autre, en ce qu'ils participent de deux jeux de langage, relèvent du même niveau d'analyse : il faudra alors décrire précisément ces jeux de langage, qui n'obéissent pas aux mêmes maximes, ne relèvent pas des mêmes institutions et des mêmes pratiques, et n'ont donc pas les mêmes caractéristiques syntaxiques, sémantiques ou pragmatiques. Mais l'un et l'autre inscrivent une conjoncture linguistique et interpellent des individus en sujets. Autrement dit, et le mode d'emploi de l'essoreuse et le monologue de Shakespeare sont partie prenante de ce que Deleuze et Guattari (1980) appellent des « agencements collectifs d'énonciation », où ils trouvent leur sens. Et chez Deleuze et Guattari, ces agencements sont des mélanges ontologiques. L'agencement féodal, par exemple, qui est leur exemple canonique comprend des objets matériels (le château fort, le chevalier, son armure et ses armes, son cheval), des institutions et des discours (les lois et coutumes qui organisent l'ordre féodal, les cours de justice qui l'imposent, les rites qui le perpétuent, par exemple les joutes), mais aussi une répartition de l'espace, des habitus (gouvernant par exemple les rapports entre les sexes, ou entre seigneur et vilain) et enfin des textes (par exemple les poèmes d'amour courtois). Il me semble que l'avantage de l'étude des langues de spécialité est qu'elle nous contraint à pratiquer une linguistique externe au sens de Bourdieu, à ne jamais oublier que les textes que vous étudiez sont pris dans des agencements collectifs : les spécialistes décriront mieux que moi l'agencement collectif d'énonciation dont fait partie la langue des pilotes d'avion. Allons un peu plus loin. Il me semble que les langues de spécialité partagent avec la langue dite littéraire (je préfère dire : avec les jeux de langage qui constituent la littérature) une propriété importante, qui justifie qu'on leur applique le terme de « poétique ». Comme les langues littéraires, elles participent à la minoration de la langue standard. Ce concept appartient lui aussi à Deleuze et Guattari (il est exposé dans Mille Plateaux (1980) et dans Kafka (1975)) : la majorité d'une langue standard n'est pas quantitative, mais résultat d'un rapport de forces. La langue majeure est ce qu'imposent certains appareils et institutions, même si bien peu de locuteurs la parlent réellement. Pour des raisons que l'on doit comprendre, mais que l'on doit aussi déplorer, nous enseignons l' « Anglais standard », que nos étudiants minorisent allègrement. Car ce qui fait survivre une langue standard c'est qu'elle est sans cesse transposée sur le mode mineur par une multiplicité de dialectes, de styles, de registres et de jargons, qui la contestent et la font vivre. Ainsi l'anglais, langue de la globalisation, et de l'impérialisme, est minoré par la multiplication des New Englishes (au nombre desquels il faudra inévitablement un jour compter l'anglais de France), par ses propres dialectes régionaux (qui apparaissent maintenant jusqu'aux informations de la BBC, même si c'est aux marges, par exemple pour annoncer la météo), par les langues qu'elle a presque réussi à dévorer (par exemple le gallois – relisez la première page de Under Milk Wood pour voir ce qu'une gallisation poétique de l'anglais peut faire), mais aussi par les registres, par les styles littéraires (on parlera à juste titre de la « langue de Finnegan's Wake »). Parmi toutes ces minorités, qui produisent bien sûr la majorité des énoncés, il faut compter les langues de spécialité. C'est là qu'il y a une poétique de la langue de spécialité, comme chaque fois qu'il y a transposition en mineur de la langue majeure. Il y a donc un style des langues de spécialité, collectif comme tous les styles selon Deleuze, même s'ils sont pratiqués par ce qu'il appelle des « auteurs célibataires » comme Kafka. Certes, la définition qu'il donne du style du texte canoniquement littéraire ne conviendra pas ici : il est en effet caractérisé par une tension du langage vers ses limites, et vers le silence qui l'achève, au sens anglais comme au sens français du terme. Mais il y a certainement place pour une poétique de la langue de spécialité. Comme vous êtes incrédules, comme Saint Thomas, vous attendez que je vous le prouve par un exemple. Pour être bref, je vais le faire indirectement, et terminer sur une pirouette : ce qui prouve qu'il y a une poétique de la langue de spécialité des scientifiques (souvenez -vous, c'est la seule que je connaisse un peu – Vidalenc me l'a apprise), c'est qu'elle est pastichable, et que Perec l'a pastichée dans Cantatrix Sopranica L. (1991). L'origine du texte est bien connue. Perec, de son métier bibliothécaire scientifique a monté ce canular – ce n'était pas le premier. Ses complices de l'Oulipo ont fini par le rendre public. Regardons rapidement le début du texte (voir Annexe 2). Ce texte, naturellement possède toutes les caractéristiques que l'on peut attribuer, réellement ou fantasmatiquement, à un texte scientifique. Je dis « naturellement », car c'est l'objet même du pastiche que de les relever. Et comme mon texte n'est pas tant un pastiche qu'un pastiche de pastiche, c'est-à-dire une parodie, son objet n'est pas seulement de les relever, mais de les marquer afin de les moquer. On fera donc la liste attendue des caractéristiques lexicales (le texte jargonne et polysyllabilise à l'envie), morpho-syntaxiques (pas d'embrayeurs, pas d'aspect en –ing, hormis quelques participes présents, pas de modaux, présence de formes passives : toutes les marques de l'impersonnel sont là), pragmatiques (abondance des références entre parenthèses, présence de guillemets – « yelling reaction », de sigles – « YR » et d'italiques – « the more you throw tomatoes at Sopranoes, the more they yell ») et enfin stylistiques (des phrases d'une longueur digne de Proust, un goût immodéré pour l'hypotaxe et en même temps pour l'accumulation paratactique). Moquées par la parodie, ces caractéristiques marquées finissent par pousser le jeu de langage de l'anglais scientifique jusqu' à ses limites (ce qu'il est, nous l'avons vu, une des définitions du style littéraire) : non seulement parce que le texte introduit un contenu loufoque dans un cadre formel sérieux, mais en ce que, utilisés par excès, et donc exploités, ces traits formels finissent par produire un effet de verve comique. Ici, on peut dire que la parodie minore au carré, qu'elle minore une minorisation. Car la langue scientifique exploite les maximes de la langue standard, par exemple celles qui règlent la présence de l'énonciateur à son énoncé. Et la parodie minorise cette minorisation de multiples façons. J'en cite quelques-unes : la parodie introduit, utilisant la présence obsédante des références entre parenthèses, un autre texte dans le texte : on se met en effet à lire les parenthèses à la suite, dans leur cohérence, de même que dans The Third Policeman, de Flann O'Brien (1967), on ne lit pas seulement l'histoire principale, on lit l'autre histoire, que racontent les notes en bas de page. Le rôle du second texte, qui est franchement comique, et bien plus inventif, et de tirer la barbichette du premier qui se donne les apparences du sérieux. le second texte est fondé sur l'usage systématique du calembour et de tous les jeux que l'on peut pratiquer sur la forme des mots. Il n'introduit pas seulement des éléments d'encyclopédie qui font coq à l' âne, et rappellent le Je me souviens, autre texte célèbre de Perec (1978) (je me souviens de Roux et Combaluzier), il se livre à tous les louches trafics pour lesquels l'almanach Vermot fut jadis célèbre. Ce qui veut dire qu'il pratique systématiquement tous les jeux sur les mots que la langue scientifique s'interdit expressément, dont la langue littéraire raffole, et que les langues naturelles, en leur imperfection, trop souvent autorisent (cela s'appelle ambiguïté ou vague). Cette rhétorisation par ce que j'ai ailleurs appelé le travail du reste (1990), du texte second, contamine le texte principal. Alors les listes se font litanies, et les mots se mettent à rimer (« muscular, ventricular »). Alors s'introduisent les tropes les plus douteux, tel le chiasme (« puzzling tangle and tangling puzzle »). Si bien qu'un dialogue s'établit entre les deux textes, par lequel le premier finit par perdre son sérieux et à rire lui aussi (« digestive (Alka-Selzer) »). Mais le texte scientifique parodié n'est minoré que parce qu'il est lui -même minorant, parce qu'il possède quelque chose qui relève du concept de style, et relève donc d'une forme de poétique, entendue non bien sûr comme description d'émotions esthétiques béates, mais comme analyse de phénomènes langagiers. Il y a bien une poétique des langues de spécialité .
La dialectique de la médiation et de l'immédiat dans les langues de spécialité est envisagée en commençant par un détour : l'analyse d'une Annonciation italienne de la Renaissance en termes d'effet de réel et de construction médiate de l'immédiateté. Cette illusion est ensuite décrite dans les deux domaines de la linguistique (à travers une critique de la philosophie du langage de Chomsky) et de la littérature (critique de l'illusion qui fait de l'auteur la source du sens du texte). La sortie de l'illusion passe par l'analyse d'un énoncé au centre d'un fait-divers, l'affaire Bentley, et une introduction au modèle ALTER de construction du sens. Elle passe aussi par le concept d'agencement collectif d'énonciation, emprunté à Gilles Deleuze. Ceci permet d'envisager une poétique de la langue de spécialité à partir de la parodie de Perec, «Cantatrix Sopranica L».
linguistique_524-02-12087_tei_753.xml
termith-538-linguistique
Au détour de quelques lectures en arabe égyptien, il nous a semblé que le système hypothétique ne correspondait pas à ce à quoi nous sommes habitués dans une autre variété de cette langue, l'arabe classique. Qu'en est-il exactement ? Pour répondre à cette question, et pour le cas échéant ne pas nous contenter d'un aperçu en synchronie, nous avons cru bon de porter le regard sur une large période en recourant à la littérature d'expression dialectale égyptienne sur à peu près un siècle. Nous avons par ailleurs doublé ce premier travail d'observation par l'étude des manuels et grammaires descriptives de l'arabe égyptien sur cette même période. À ce propos, un mot s'impose pour préciser qu' à l'instar de ces travaux descriptifs, et pour les mêmes raisons, à savoir par facilité tout autant que par convention et par contrainte (le corpus réuni et l'origine de sa production surtout), nous considérerons ici l'arabe du Caire, capitale administrative, politique et culturelle, comme représentatif du dialecte égyptien dans son ensemble, sans se leurrer sur les différences linguistiques existant entre les différentes régions de ce pays. Chronologiquement, nous nous sommes donc appuyé sur les œuvres suivantes : Es-Sayyed we-mrāto fi Bārīs (Es-Sayyed) de Bayram al-Tūnisī, roman qui date des années 1920; les dialogues du film de Ṣalāḥ ' Abū Sayf, Bidāya we-Nihāya (BwN), tourné en 1960, transposition cinématographique du roman éponyme de Naǧīb Maḥfūẓ dont les dialogues ont été adaptés par Aḥmad Šukrī et Muḥammad Kāmil ‘ Abd al-Salām; et sur un ensemble formé des dix premiers chapitres de Šaraf de Sun ‘ Allāh Ibrāhīm, de ' An takūn ‛Abbās al-‛Abd (‛Abbās) de Aḥmad al-‘A'īdī et de Bāzel de Ḥusayn ‘ Abd al-‘Alīm. Il est à noter, concernant ces romans, que Es-Sayyed et Bāzel, contrairement à Šaraf et à ‛Abbās, sont des œuvres entièrement rédigées en égyptien, cet usage ne concernant dès lors pas uniquement les dialogues, mais tout l'appareil narratif, ce qui donne donc à voir plus de systèmes conditionnels et permet donc d'asseoir nos observations sur des bases statistiques plus solides. Nonobstant la différence intrinsèque qui peut exister entre des dialogues d'une part, proches d'une langue parlée ordinaire, et une production “littéraire” dialectale d'autre part, le corpus utilisé n'en n'est pas moins homogène. Dans le cas de Šaraf et de ‛Abbās, les parties écrites en dialecte étant limitées aux dialogues, ceux -ci sont donc comparables aux dialogues du film, n'étant ni moins ni plus suspects de contamination “classique ”. D'autre part, concernant désormais les deux œuvres entièrement rédigées en dialecte égyptien, Es-Sayyed et Bāzel, l'essentiel, si ce n'est la totalité des systèmes hypothétiques recensés, l'est lui aussi dans les parties dialoguées. Dans l'ensemble des cas donc, l'état linguistique proposé à l'étude est celle, tout au moins présentée et reconstruite par leurs différents auteurs comme telle, de la langue parlée ordinaire. Enfin, et pour conclure sur la présentation de notre corpus, l'intérêt du dernier ensemble, formé par Šaraf, ‛Abbās et Bāzel, nous semble primordial. Les phénomènes linguistiques sont changeants, et le caractère récent de ces œuvres fournit justement une image à peu près fidèle de la situation actuelle en arabe égyptien. Šaraf a un peu plus de dix ans, publié la première fois en 1996, ‛Abbās date de 2003 et Bāzel, lui, de 2005. Cet ensemble permet donc de ce faire une représentation encore adéquate de la situation et surtout, par le biais de la comparaison, de voir en diachronie une évolution avec les dialogues du film qui date lui de 1960. Un rappel s'impose sur les notions essentielles abordées ici dans le cadre des conditionnelles. Un système hypothétique se caractérise par le fait que l'actualité du procès noté par le verbe de l'apodose (q) est conditionnée par l'actualité du procès noté par le verbe de la protase (p). Ainsi si p se réalise, q se réalisera et si p ne se réalise pas, q ne se réalisera pas. Exemple : « s'il pleut, les toits seront mouillés ». Ce rapport d'implication logique entre p et q peut être perçu comme nécessaire, énonçant alors une règle générale, et alors le si prend la valeur de quand, à chaque fois que, lorsque. Ce peut être aussi bien dans le passé (« Quand il pleuvait, les toits étaient mouillés »), que dans le présent (« Quand il pleut, les toits sont mouillés »). Le premier sera nommé dans les termes de notre tradition grammaticale Éventuel passé, et le second Éventuel présent. Ce rapport d'implication peut être aussi perçu comme possible, mais incertain. C'est ce que nous nommons le Potentiel, correspondant à des énoncés du type « S'il pleut (maintenant, demain, dans dix ans, mais cela reste une hypothèse), les toits sont/seront mouillés ». Et enfin, ce rapport peut être perçu comme plus ou moins impossible dans l'avenir ou bien comme relevant du passé et donc de fait impossible. Il s'agit dans le premier cas de ce que nous catégorisons comme Irréel du présent où l'on nie l'actualité du procès du verbe de la protase au moment de son énonciation, c'est-à-dire dans le présent, du type « S'il pleuvait (mais il ne pleut pas), les toits seraient mouillés », et dans le second cas de ce que nous catégorisons comme Irréel du passé où l'on nie cette fois -ci l'actualité du procès du verbe de la protase dans le passé, du type « S'il avait plu (mais il n'a pas plu), les toits auraient été mouillés ». Nous le voyons, en français tout au moins (mais c'est aussi le cas par exemple en anglais), les systèmes hypothétiques se différencient au moyen d'une concordance des temps entre protase et apodose, ce que nous formalisons par ce tableau : Néanmoins, tout n'est pas si simple que cela. Dans une langue comme le français « S'il faisait beau, je sortirais » comme énoncé oral peut s'interpréter aussi bien comme Potentiel (« Sil fait beau, je sortirai ») que comme Irréel du présent (« S'il faisait beau, je sortirais »). Il s'agit donc de cas d'ambiguïté que seul le contexte permet de lever. La différence intrinsèque entre les ordres Potentiel et Irréel réside donc dans l'existence nécessaire d'un mais implicite dans le cas de l'Irréel (« mais il ne fait pas beau », Irréel du présent, « mais il ne faisait pas beau », Irréel du passé). C'est alors notamment ce mais qui permet de différencier entre les deux « S'il faisait beau, je sortirais », celui du discours, avec existence d'un mais, et qui relève bien de l'Irréel du présent, et celui de la narration, n'ayant une forme syntaxique d'Irréel du présent que pour cette raison du récit, et n'impliquant alors aucun mais, ce qui le fait en conséquence appartenir à l'ordre du Potentiel. Considérons ainsi la séquence suivante qui se passe de nuit ou dans une salle fermée sans que l'on connaisse la météo : A. : « S'il fait beau, je sortirai » (Potentiel); B. : « Qu'a dit A ? »; C. « Il a dit que s'il faisait beau il sortirait » (Potentiel, car absence d'un mais qui pourrait permettre de le relier à l'Irréel). De la même manière, certaines ambiguïtés peuvent être observées en arabe, et c'est alors le contexte qui permet d'en assurer le sens, comme dans le cas de certains des énoncés relevés dans notre corpus. Nous avons donc réfléchi à partir d'un corpus constitué de trois époques, Es-Sayyed, BwN et Šaraf-‘Abbās-Bāzel ,dont il nous reste désormais à présenter les résultats de l'analyse. Pour chacune des œuvres citées, nous avons relevé les occurrences des opérateurs de la conditionnelle. Par opérateurs, nous entendons à la fois ' in et law, mais aussi ' iza. Le terme d'opérateur servira donc de manière générique, sans induire de confusion terminologique entre l'une et l'autre catégorie. Au total, nous avons recensé 200 phrases (respectivement 70 dans Es-Sayyed, 65 dans BwN, 9 dans le corpus littéraire fourni par Frédéric Imbert, 22 dans Šaraf, 15 dans ‛Abbās et 19 dans Bāzel). De cet ensemble, nous avons choisi de ne garder que les systèmes véritablement hypothétiques (dont la protase p implique logiquement l'apodose q), et parmi eux uniquement les systèmes hypothétiques doublement verbaux et positifs. “Doublement verbaux” signifie d'une part que la protase comme l'apodose sont constituées de phrases verbales ou bien de phrases nominales dont le propos est une phrase verbale, et exclut d'autre part les systèmes dits incomplets (cas de la troncation, cas de l'optation et cas des emplois figés, type law samaḥt ou ' in šā'a-llāh), de même que les systèmes à apodose de type nominal ou de type syntagmes prépositionnels (type lā-budda, ‛alay-hi, etc.). “Positifs ”, exclut quant à lui l'impératif, la défense, et l'interrogation. Enfin, nous choisissons de ne traiter que de la séquence si p q. Nous aboutissons alors à 81 systèmes hypothétiques que nous serons amené à présenter de manière formalisée dans la suite de cette étude en types essentiels. Ces 81 systèmes se répartissent ainsi : 33 pour Es-Sayyed, 22 pour BwN, 9 pour Šaraf, 5 pour la recension effectuée par Frédéric Imbert, 2 pour ‛Abbās et 10 pour Bāzel. Sur ces 81 systèmes, nous trouvons 2 Éventuels, 39 Potentiels, 24 Irréels du présent et 16 Irréels du passé. Nous trouvons 23 ' iza, 14 ' in, 43 law, 1 law-lā. Dans le cadre Éventuel, seul ' iza est représenté, soit 2 ' iza - s. Dans le cadre Potentiel, nous avons 8 ' iza - s, 17 law - s, et 14 ' in - s. Dans le cadre Irréel du présent, 12 ' iza - s, et 12 law - s. Dans le cadre Irréel du passé enfin, 1 ' iza ,14 law - s, et 1 law-lā. De ce premier décompte, il est immédiatement perceptible que c'est l'ordre Potentiel qui est le plus largement représenté (39/81 soit 48,14 %). Mais, et c'est l'un des détails les plus intéressants, ce n'est pas ' iza qui est majoritaire (23/81 soit 28,39 %), mais law (43/81 soit 53,08 %), et pour cause… On note en effet deux caractéristiques en arabe égyptien qui tranchent par rapport à ce qui est généralement donné en classique : à la fois l'emploi de law dans le cadre Potentiel, mais aussi, plus étonnant parce que moins connu, l'emploi de ' iza dans l'ordre Irréel, ainsi qu'en diachronie, la disparition de celui -ci, entre la première époque de notre corpus et la dernière, de l'ordre Potentiel au profit exclusif de law. Au vu des occurrences répertoriées dans ces corpus, et nonobstant la marginalité de ' iza dans l'ordre Irréel, il semble que certaines régularités se fassent jour, ce qui permet d'organiser le système comme nous allons voir en comparant avec nos trois corpus, trois stades d'une évolution qui nous semble révélatrice. Le propos du livre étant très didactique, un mari expliquant à sa femme les différences de cultures existant entre la France et l' Égypte, il se prête volontiers à des jeux de mise en situation qui font appel à des conditionnelles : « imagine si tu étais … que verrais -tu ? », « si nous étions au Caire, nous ferions… ». De ce fait, ce livre en est riche, comme nous l'avons rappelé plus haut, avec 33 systèmes hypothétiques pertinents pour notre étude. ' In : 5 ' In ne connaît d'autre emploi ici que celui de particule propre à l'expression du Potentiel. C'est du reste le cas dans l'ensemble des trois corpus. Contrairement aux deux autres opérateurs donc, il ne s'est pas transposé à d'autres ordres conditionnels que le sien propre. Sa raréfaction, notée en arabe classique, est aussi tout à fait perceptible dans ce premier état de l'arabe égyptien puisqu'on n'en compte que 5 occurrences, soit 15,15 % seulement des conditionnelles. On observe un système régulier avec en protase un accompli et en apodose un inaccompli tel que le présente le tableau suivant : (1) ' in kānet mōbīliyāt telā q ī-ha markūna ‘ ala ba‘ḍa-ha (Es-Sayyed, p. 59) « Si ce sont des meubles, tu les trouveras empilés les uns sur les autres » (2) we-'in kunti ‘ āyiza buhyagi mā telā q īhši ' illā q ā‘id ganb el-maḥaṭṭa masalan (Es-Sayyed, p. 31) « Et si tu veux un cireur de chaussures, ce n'est qu' à côté de la gare que tu le trouveras assis par exemple » ' Iza : 18 ' Iḏā, nous le savons, a remplacé ' in dans l'emploi Potentiel de ce dernier en arabe littéraire. La même observation est à faire en arabe égyptien. L'emploi de ' iza représente ainsi 54,54 % des systèmes hypothétiques recensés dans ce roman. Deux grands modèles syntaxiques se dégagentavec cet opérateur : ' iza accompli … inaccompli et ' iza accompli … accompli. La neutralité de ' iza accompli … inaccompli est d'autre part à observer entre Éventuel (marginal dans notre corpus), et surtout Potentiel et Irréel du présent, seul le contexte venant lever l'ambiguïté. Observons de même que les protases ne sont pas constrastives entre les différents ordres, accompli étant partout présent, et que la seule distinction possible, quoique légère, s'opère au niveau des apodoses, la distinction se faisant donc entre inaccompli (neutre entre Éventuel, Potentiel et Irréel du présent) et accompli (Irréel du passé). Une telle neutralité a pour corollaire une certaine ambiguïté, qui elle a pour conséquence le risque de confusion. Il s'agit peut-être d'une des raisons du phénomène de disparition de ' iza comme nous le verrons plus tard. Voici le tableau tel que la lecture du roman nous permet de le reconstruire : Éventuel : (3) el-muṣība ' inna kull marra maṣriyya ' iza masakete s-sikkīn lāzem tegraḥ īd-ha (Es-Sayyed, p. 25-26) « Le problème, c'est que toute Égyptienne, quand elle s'empare d'un couteau, elle se blesse forcément la main » Potentiel : (4) we-'iza sā‘idet-ku al-ḥaẓẓ, ar-riyāl yeksib 100 ginēh (Es-Sayyed, p. 110) « Et si la chance vous sourit, le riyal gagnera 100 livres » Irréel du présent : (5) ṣabi l-trezi ' iza kasab lōteriya ya‘mol « ṣālūn mizayyin » (Es-Sayyed, p. 43) « L'apprenti tailleur, s'il gagnait à la loterie, il ouvrirait un “salon de coiffure” » (6) ' iza kān kull wāḥed ba q a ye‛mil nafso ḥares ‛alā l-ādāb, el-nās tākul ba‛ḍ-ha we-teb q a fawḍa we-hargala (Es-Sayyed, p. 92) « Et si chacun alors se faisait le gardien des bonnes mœurs, les gens se mangeraient entre eux et le chaos et le désordre règneraient » Irréel du passé : (7) ' inna-ma ḍ amīrik huwwa ' elli yaršidik li-n-na ẓ ra l-wa ḥ ša we-l-kwayīsa we-'iza ' atta‘amat ba ṣ īratik (we-)lā ‘ araftīš el - ḥ a qq min el-'a ṣ wāt we-n-na ẓ arāt (Es-Sayyed, p. 90) « Il n'y a que ta conscience qui t'aide à distinguer dans le regard le bon du mauvais, et si tu avais été complètement aveugle (et) tu n'aurais pas distingué la vérité à partir des intonations et des regards » Law : 10 Law est l'opérateur de l'Irréel, et apparaît, quoique discrètement, dans le Potentiel. Avec 10 occurrences, il représente 30,30 % des conditionnelles du roman. Contrairement à ' iza, il distingue lui bien entre les trois ordres Potentiel - Irréel du présent - Irréel du passé au moyen de l'alternance des formes verbales protase-apodose, offrant un modèle plus contrasté et plus régulier. En effet, la protase est contrastive entre le Potentiel en inaccompli et l'Irréel en accompli ou kāna inaccompli. Par contre, les protases ne sont pas contrastives entre Irréel du présent et Irréel du passé, celles -ci étant identiques en accompli. Dans ce cas, ce sont les apodoses uniquement qui font la différence entre un Irréel du présent en … inaccompli et Irréel du passé en … kāna + accompli/inaccompli, tel que nous pouvons le voir dans le tableau suivant : Potentiel : (8) ' eḥna law nākul ḍafādi ‘ natamatta ‘ bi-l-laḥm ' elli ' eḥna maḥrūmīn minno (Es-Sayyed, p. 108) « Et nous, si nous mangeons des grenouilles, nous nous délecterons de la viande dont nous sommes privés » Irréel du présent : (9) ' ana masalan law bustik fi šāri ‘ min šawāri ‘ Maṣr tbuṣṣ tlā q i ḫamsīn ' alf wāḥed itlammū ‘ aleyya (Es-Sayyed, p. 92) « Moi par exemple, si je t'embrassais dans une des rues du Caire, tu trouverais soudainement cinquante mille quidams qui rentreraient en contact avec moi » (10) we-n-nabi law kunt min el-būlīs we-'ašūf itnēn wā q fēn fi rukn ḍ alma we-lāz q ēn fi ba‛ ḍ la-agarr-hom ‛al-karākūn (Es-Sayyed, p. 93) « Par le prophète, si j'étais de la police et que j'en voyais deux debout dans un coin sombre collés l'un à l'autre, je les amènerais au poste » Irréel du passé : (11) al-ḥikāya inno rāgil miskīn ‘ agūz ‘ ayyān ma huwwaš ‘ āgbik ' imma law kān šab ṣoġayyar kunti - nbasaṭti min raf ‘ al-burnēṭa (Es-Sayyed, p. 83) « Le fait est que c'est un pauvre vieil homme fatigué qui ne t'a pas plu, alors que si cela avait été un homme jeune, tu te serais réjouie qu'il te salue du chef » ' Iza est le plus employé des opérateurs, représentant à lui seul plus de la somme des occurrences de law et de ' in. Il est par contre moins régulier dans la syntaxe de sa protase et encore plus de son apodose que ne l'est law qui, par ailleurs, distingue mieux, par la concordance des formes verbales employées, entre les différents ordres conditionnels, cette distinction se faisant soit par les protases (Potentiel - Irréel du présent) soit par les apodoses (Irréel du présent - Irréel du passé). Enfin, tant law que ' iza apparaissent tous deux, à ce stade de l'arabe égyptien, dans les différents ordres de la conditionnelle, ce que ne mentionnait pas Spiro Bey en 1912, ni même De Lacy O'Leary en 1925 … ' In : 6 ' In, s'il conserve un emploi Potentiel sans en remplir d'autre, ce qui était le cas à l'époque antérieure, ne conserve néanmoins pratiquement celui -ci qu'en cooccurrence avec šā'a - llāh (83 % des cas, hors ' in šā'a-llāh figés que nous avons évacués de notre décompte). Ce faisant, et même s'il se maintient encore, représentant 26,08 % des systèmes hypothétiques des dialogues du film, son emploi peut être perçu, dans cet état de l'arabe égyptien, comme encadré, voire résiduel. Sa syntaxe reste inchangée. À noter l'apparition d'une marque de futur, trait qui, nous le verrons, semble s' être depuis généralisé à des fins contrastives entre différents ordres conditionnels pour les autres opérateurs. Nous trouvons, concernant cette particule en 1960, le système suivant : (12) ' in šā'a-llāh tu q ‘ ud la-ṣ-ṣobḥ (BwN, Scène 32, p. 23) « Si Dieu le veut, elle tiendra [peut-être] jusqu'au matin » (13) ' in šā'a - llāh bokra ḥa-waṣṣī ‘ alēk we-'ašaddid fi t-tawṣiyya (BwN, Scène 43, p. 29) « Si Dieu le veut, je te recommanderai chaudement demain » (14) el-wāḥed ya ' aḫi ' in ma kanš yefawwit ma yestaḥmilš dunyato (BwN, Scène 57, p. 37) « tu sais mon vieux, si on ne laisse pas [un peu] couler, on ne supporte pas la vie » ' Iza : 3 ' Iza représente 13,04 % des emplois hypothétiques des dialogues, ce qui, comparé à l'époque antérieure, représente une régression notable. Au contraire de la situation antérieure, kān apparaît ici pour distinguer entre Potentiel et Irréel. On distingue en effet entre le Potentiel en futur inaccompli et l'Irréel du présent en kān inaccompli. Comme à l'état antérieur, le trait saillant est celui de l'utilisation de ' iza dans l'ordre Irréel. Nonobstant le petit nombre d'occurrences de celui -ci dans cet emploi, la syntaxe des autres systèmes (notamment celui de law), et surtout la forme syntaxique de l'apodose qui semble jouer un rôle de plus en plus contrastif en lieu et place de l'opérateur de la conditionnelle, nous permettent de dresser le système suivant : Potentiel : (15) ' iza kān ‛ala l-ḥesāb miš ḥa teḫlaṣi minni abadan… (BwN, Scène 12, p. 11) « Si c'est sur la note, tu ne te débarrasseras jamais de moi… » Irréel du présent : (16) wa-llā mīn ‘ ārif ' iza kān la-hā ' uḫt kān ra'yak yekūn ' ēh… (BwN, Scène 8, p. 8) « Et qui sait, si elle avait une sœur, quel serait alors ton avis… » Law : 12 Law continue quant à lui d'exprimer l'Irréel, passé comme présent, mais aussi le Potentiel où il apparaît en force, 41,66 % de ses emplois en relevant. Cet opérateur représente 54,54 % des emplois conditionnels des dialogues, ce qui, au contraire des deux autres opérateurs, représente une très forte augmentation et le hisse au premier rang des opérateurs. Contrairement à ' iza, il offre toujours plus de contraste dans sa syntaxe entre les trois ordres Potentiel-Irréel du présent-Irréel du passé au moyen de l'alternance des formes verbales protase-apodose, offrant un modèle encore plus régulier qu' à l'époque antérieure. Tout d'abord, les apodoses sont celles qui font la différence entre Potentiel en futur inaccompli, Irréel du présent en kāna inaccompli et Irréel du passé en kāna accompli. D'autre part, contrairement à l'état antérieur, les protases ne semblent pas ici contrastives, étant toutes en accompli (accompli, kān accompli et kān inacompli). Nous avons ainsi le système suivant : Potentiel : (17) lākin ' elli ' ana mit'akkid minno ' inne-na law rafaḍet ḥa-neḫsar el-flūs… (BwN, Scène 24, p. 17) « Mais ce dont je suis sûr c'est que nous, si elle refuse, nous perdrons l'argent … » (18) we-l-Llāhi law-ma bi‛ittiš ‛anni la-agīblik el-‛askari (BwN, Scène 29, p. 21) « Je te jure, si tu ne t'écartes pas de moi je t'appelle le policier » Irréel du présent : (19) law kunti teštaġili ḫayyāṭa dānti kunti teksabi dahab ! (BwN, Scène 5, p. 6) « Si tu travaillais comme couturière, toi, tu gagnerais de l'or ! » Irréel du passé : (20) law kān Allāh yerḥamo q araṣ ‘ alayya we-ḫallā-ni akammil ta‘līm mā kānš da ba q a ḥāli (BwN, Scène 11, p. 10) « S'il, Dieu lui fasse miséricorde, m'avait poussé et laissé continuer des études, mon état ne serait pas devenu ce qu'il est ! » Law-lā : 1 law-lā n'apparaît qu'une seule fois dans les dialogues du film en respectant les critères énoncés plus haut, et il n'apparaît que dans l'ordre de l'Irréel du passé : (21) we-law -la ḥaḍretak ẓahart min ġēr munāsba kunna - ttafa q na (BwN, Scène 16, p. 13) « Et si Môsieur ne s'était pas pointé sans raison, nous nous serions mis d'accord » Quelques remarques pour conclure sur cette période. Notons tout d'abord que Lehn et Abboud faisaient, en 1965, sensiblement les mêmes observations, le Potentiel ayant pour forme si accompli/kān inaccompli … futur inaccompli, et l'Irréel passé étant lui en si (kāna) accompli … kān accompli/ inaccompli. Les apodoses seules jouent donc bien un rôle contrastif, même si, dans les exemples qu'ils donnent, des indicateurs temporels sont présents (bokra pour le futur, qui désigne alors le cadre Potentiel, et ' imbāreḥ pour le passé et donc l'Irréel passé). Selon Jomier en revanche, c'est ' iza qui est l'opérateur principal de la conditionnelle égyptienne. Or, en comparant la situation qu'il décrit avec les trois corpus dont nous nous sommes servi d'une part, et avec le manuel d'arabe égyptien du Caire de Wadie Boutros publié en 1993 d'autre part, il ressort que ce qu'il donne, tant en 1973 que dans son édition corrigée de 1989, comme étant les systèmes hypothétiques répond à la situation de l'époque du film, 1960, et non à celle de 1993, ni a fortiori à celle de 1996-2003-2005. Il est vrai qu'en 1980, on trouve encore des cas où ' iza exprime le Potentiel comme dans ġadāki fi t-tallāga…'iza ḥabbētī tesaḫḫanīh (Masraḥiyyāt, p. 49) : « Ton déjeuner est dans le frigo. Si tu veux, tu le réchauffes », mais cette situation, nous allons le voir, va fortement changer. Par contre la situation propre à l'époque du film, concernant les concordances formelles des verbes dans les systèmes en law, est exactement celle que Wise, que cite Martine Cuvalay, donnait encore en exemple en 1975 et que nous nous permettons de reproduire ici : law yinzil talg bukra ḥa'‘ud filbēt s'il neige demain je resterai à la maison law nizil talg bukra ḥa'‘ud filbēt s'il devait neiger demain je resterais à la maison law nizil talg bukra kunt a'‘ud filbēt s'il neigeait demain je resterais à la maison Comme nous allons le voir avec le prochain corpus, la situation sera différente, signifiant donc encore une fois une évolution, entre 1975 et 1996. Ce troisième ensemble, parce que le plus récent, doit nous permettre de saisir la situation actuelle en arabe égyptien concernant les systèmes hypothétiques. À lui seul, il représente un corpus de 21 systèmes hypothétiques. ' In : 2 ' In ne connaît toujours d'autre emploi que celui de l'expression du Potentiel. Son emploi tombe à 9,52 %, mais il apparaît de manière plus autonome qu' à l'époque précédente où il était quasiment toujours en collocation avec šā'a-llāh. Enfin, aucun changement n'est à noter entre la situation contemporaine et celles des deux autres époques, le système syntaxique restant le même. Concernant ' in, nous avons le système suivant : (22) ' in ma - q ala‘tš ḥa-yeftekrūk ‘ ayyān (Šaraf, p. 92) « Si tu ne te déshabilles pas, ils penseront que tu es malade » (23) we-'in ma - taragga‘š we-t‘addal ‘ ala ṭūl ‘ a l-muḥāmī yaḥbeso (Bāzel, p. 64) « Et s'il ne revient pas [sur sa position] et ne se corrige pas très vite, c'est l'avocat qui l'incarcère » ' Iza : 1 Le grand changement se trouve dans la situation de ' iza qui, en plus d' être désormais résiduel, ne représentant plus que 4,76 % des emplois conditionnels, a complètement disparu de la scène potentielle, n'exprimant dès lors que l'Irréel, et encore, vu le nombre d'occurrences le concernant, que marginalement. Il apparaît par ailleurs pour signifier, ce qui est remarquable, l'Irréel du passé. Nous obtenons alors, pour l'époque actuelle, et concernant ' iza, désormais d'emploi plus que résiduel, le système suivant : Irréel du passé : (24) q alīl ' iza waḥda ṣaddet-ni aw qidiret te q āwim-ni.. mā-na ba q ēt zayy er-rigāla ' elli besma ‘ ‘ an-hom (Bazel, p. 35) « Rien de grave, si une [d'entre les femmes] m'avait résisté ou avait été capable de me tenir tête… je ne serais pas devenu comme les hommes dont j'entends parler » Law : 18 Law s'impose lui, comme l'Opérateur de la conditionnelle, se taillant la part du lion avec 85,71 % des occurrences, et surtout 100 % de l'ordre Potentiel. Sa syntaxe est très régulière et très contrastive. L'apodose se décline dans les différents ordres conditionnels, entre Potentiel en futur inaccompli, trait maintenu de l'époque précédente et qui, visiblement tend à se stabiliser, Irréel du présent en inaccompli et Irréel du passé en kān accompli. Ce faisant, les apodoses étant parfaitement contrastives, nul besoin ne semble subsister d'avoir recours aux protases à cette fin. La protase retrouve alors un aspect d'accompli en collocation avec l'opérateur de la conditionnelle : Potentiel : (25) law ruḥt al-wa q t ' abūk ḥa-yeḍrabak. ta‘āla ma‘āya ' aḥsan (Šaraf, p. 82) « Si tu pars maintenant ton père va te frapper. Vaut mieux venir avec moi » (26) ' ana ma-šuftiš fi ḥayāti ḥadd gowwah kammiyyat ḥaqd ḫām q addak, danta ya ibni law bala‘t rī q ak ḥa-yegīlak tasammum (‘ Abbās, p. 55) « Moi, je n'ai jamais vu de ma vie quelqu'un qui ait une quantité de haine brute comme toi. Petit, si tu avales ta salive, elle va t'empoisonner » (27) lawu z-zamān samaḥ lēna ha‘arrifak ezzāy Fā'iza teta‘āmal zayy as-sinyūra (Bāzel, p. 63) « Si on a le temps, je te montrerai comment Fā'iza se comporte comme une grande dame » Irréel du présent : (28) we-law ḥabbēt ' ašterī ḥāga ḥelwa malā q īš ġayr malban … (Šaraf, p. 162) « Et si je voulais acheter une douceur, je ne trouverais rien excepté du loukoum » (29) we-law ' it q addimt bi-šakwa rasmi tekūn šarīk fi garīmat r-rašwa (Bāzel, p. 28) « Et si tu déposais une plainte officielle, tu serais complice de corruption » Irréel du passé : (30) law ma-kānš i‘taraf kān nifid (Šaraf, p. 53) « S'il n'avait pas avoué, il aurait pu s'en sortir » (31) le-'anno law baṣṣ fi ‘ enēki bas makānš sābik (‘ Abbās, p. 81) « Parce que s'il avait seulement regardé dans tes yeux il ne t'aurait pas quittée » (32) te‘rafi law kunti wāfa q ti min ġēr kitāba … kunt bahdiltik (Bāzel, p. 11-12) « Tu sais, si tu avais accepté sans contrat … je t'aurais fait une scène » On notera pour conclure sur cette période que les observations faites ici recoupent la description du système hypothétique égyptien et des concordances des formes verbales entre protase et apodose faite par Wadie Boutros en 1993. Il donne en effet pour les ordres Potentiel respectivement law accompli … futur inaccompli; ' in accompli … impératif et ' iza accompli … inaccompli, où nous retrouvons bien, tant pour law que pour ' iza, nos observations. Pour l'Irréel du passé de même puisque qu'il donne law (kān) accompli … kān {accompli/futur inaccompli }, ce que corroborent nos observations même si nous n'avons pas relevé de … kān futur inaccompli pour l'Irréel du passé. Pour ce qui est de l'Irréel du présent, il donne, lui, le modèle suivant : law (kān) accompli … kāna zamāno be-inaccompli, là où nous n'avons pas recensé de zamāno, quasiment jamais de be - (un seul exemple dans ‘ Abbās sur les 21 systèmes concernant cette époque, et encore, il s'agit d'une concessive en win) et où le système découlant de notre recension est un peu plus simple, puisqu'il se présente sous la forme law accompli … inaccompli. D'autre part, même s'il note que c'est law qui est majoritairement employé (exclusif pour l'ordre Irréel), Boutros semble encore laisser à son époque, concernant le Potentiel, une place, certes résiduelle, à ' iza tout d'abord et à ' in ensuite, là où nous observons au contraire, quelques années après, le maintien confidentiel de ' in et la disparition pure et simple de ' iza. On attirera enfin l'attention sur deux travaux “récents” menés sur l'arabe cairote et dont les observations et ou analyses se doivent d' être ici abordées, “récents” par leurs dates de publication, mais dont les sources utilisées concernant notamment les systèmes hypothétiques sont elles “datées ”, ce qui induit donc un certain “retard” descriptif sur lequel il convient d'attirer l'attention. Il s'agit en premier lieu de l'étude faite par John C. Eisele, Arabic Verbs in Time : Tense and Aspect in Cairene Arabic, parue en 1999. Traitant des temps et aspects, l'auteur a été amené à considérer et à décrire les emplois verbaux dans les systèmes hypothétiques cairotes. Selon l'auteur, « CA distinguishes between high and low hypotheticality based not only on devices such as backshifting but also based on the type of particle that is used : ' iza = low, law = high ». Or, si son ouvrage date bien de 1999, les sources qu'il utilise concernant cette question des systèmes hypothétiques en arabe cairote contemporain datent elles de 1975, 1979 et 1980, soit vingt ans plus tôt. Et nous l'avons vu, le système évolue extrêmement vite. Il n'y a donc rien d'étonnant à ce que ce que nous propose l'auteur comme description des systèmes hypothétiques en arabe égyptien contemporain ne coïncide pas avec nos observations dont les matériaux datent eux des années 1996, 2003, 2005. Ainsi, concernant son analyse de l'utilisation des temps dans les systèmes hypothétiques, et plus précisément lorsqu'il écrit que « law ne peut être utilisé comme Potentiel que si utilisé sans le temps du passé, i.e. vraisemblablement sur un pied d'égalité avec ‘ ' iza + passé ' », il décrit une situation qui est au moins celle du film de 1960, où, effectivement, pour l'expression du Potentiel, on trouve, aux côtés de ' iza accompli … (futur) inaccompli, law inaccompli … futur inaccompli, situation qui a dû perdurer dans le temps, et visiblement jusqu'en 1980, et qui était encore donnée dans le dictionnaire de Badawi et Hinds en 1986, mais qui n'est plus observable d'après notre corpus le plus récent. De la même manière, nos observations nous conduisent à réfuter, pour ce qui est de l'époque actuelle, son impression qui reste vraie pour une époque antérieure et qu'il exprime ainsi : « La façon dont le système fonctionne normalement est que ‘ ' iza + passé ' est préféré pour les conditionnelles peu hypothétiques [Potentiel ], tandis que ‘ law + passé ' est préféré pour les conditionnelles fortement hypothétiques [Irréel] », puisque la situation actuelle semble plutôt être celle de l'extension de law à l'ensemble du système hypothétique et, conséquemment, l'éviction de ' iza. Eisele note toutefois que « law peut aussi être utilisé dans certains contextes avec des verbes à l'accompli [non renforcé par kān] dans la protase et exprimer soit un Potentiel soit un Irréel, auquel cas c'est le temps de l'apodose qui détermine s'il est lu en tant qu'Irréel ou que Potentiel : si l'apodose est au passé (généralement marquée par kān + verbe), alors l'ensemble de la conditionnelle est lue comme Irréel; si l'apodose est [à un temps] non-passé, alors la conditionnelle est lue comme Potentiel », ce qui rejoint parfaitement nos observations faites, cette fois, à partir de notre dernier corpus, et donc, ce qui semblait n' être qu'une possibilité offerte par le système, « dans certains contextes » dans les années 1970-1980, semble bien s' être généralisé à l'époque postérieure. Le second travail, considérable, est celui de Manfred Woidich, Das Kairenisch-Arabische. Eine Grammatik, qui date lui de 2006. Woidich note, comme nous l'avons fait et comme l'ensemble de ceux qui se sont penchés sur la question l'ont fait, la désuétude de ' in, relayé par ' iza. Néanmoins, sa description du système hypothétique reste quelque peu classique, si l'on peut se permettre, dans la mesure où, pour le Potentiel (Reale Bedingung), la protase (Vordersatz) est introduite par ' iza, law et ' in, suivis soit de accompli, soit de kān et d'une autre forme verbale : Concernant l'apodose (Nachsatz), celle -ci est formée soit de l'impératif, soit de l'inaccompli sans be -, soit de ce dernier précédé d'une marque de futur. Woidich caractérise donc bien, pour law, la situation observable dans notre dernier corpus, à ceci près que l'inaccompli n'apparaît justement pas seul sans une marque de futur dans le Potentiel, cette syntaxe étant au contraire propre à l'Irréel présent. Enfin, concernant ' iza, sa description correspond plus à l'époque du film, car ce dernier opérateur a depuis quasiment disparu. Pour l'Irréel (Irreale Bedingung), le système proposé ne répond (déjà) plus aux observations faites à partir de notre ensemble le plus récent. En effet, si l'auteur note bien la synonymie existant entre les différents opérateurs, comme il le faisait du reste pour l'ordre Potentiel, cette synonymie est étendue, dans l'ordre Irréel, à ' in, ce que nous n'avons pas été en mesure d'observer. D'autre part, Woidich précise que « syntaxiquement, ces phrases sont tout d'abord marquées [par le fait] que l'apodose est introduite par kān. Si un accompli le suit, cela confère alors un sens contraire au passé. Dans tous les autres cas, il s'agit d'une conditionnelle hypothétique dont la probabilité de réalisation est estimée comme étant faible ». Ce qui donne selon Woidich le tableau suivant : Or ceci ne correspond pas à la situation de ' iza dans notre dernier corpus, et ne correspond que partiellement à ce que nous donnent les textes concernant law dont la situation, pour l'Irréel du passé, est certes proche de celle décrite par Woidich ici, mais dont la situation concernant l'Irréel du présent est, elle, différente, dans la mesure où l'apodose est en inaccompli et non en kān inaccompli, modèle qui correspond, lui, encore une fois à la situation de l'époque du film. En arabe standard, les modèles, quels que soient les opérateurs envisagés, sont généralement donnés en accompli … accompli. Notre relevé, et ce sur trois stades de l'évolution des systèmes hypothétiques en arabe égyptien, montre une réalité tout autre : le recours à une concordance des formes verbales d'un autre type. Cette concordance, selon nous, découle d'un trait majeur qui caractérise l'arabe égyptien par rapport à l'arabe classique, et ce au moins sur les deux premières époques que nous avons balayées : la synonymisation des opérateurs ' iza et law. Si cette synonymisation, nous le rappellerons, n'est qu'une étape du développement, suivie qu'elle est par l'hégémonie de law sur ' iza, elle n'en n'a pas moins eu des conséquences nous semble -t-il remarquables, au premier rang desquelles l'ordonnancement des formes verbales à des fins contrastives entre les différents ordres conditionnels, ceux -ci n'étant plus marqués par les opérateurs, devenus eux synonymes… Les phénomènes perçus ici, s'ils sont certes ceux de l'arabe égyptien, ne sont néanmoins pas ceux de l'arabe égyptien dans l'absolu, d'un état éthéré, stable et invariant. Si, en synchronie, les différences existant entre l'arabe égyptien et l'arabe dit classique sont patentes (emploi de law dans l'ordre Potentiel et de ' iza dans l'ordre Irréelpour ne citer que ces deux particularités), il apparaît aussi que nous pouvons, en diachronie cette fois -ci et à l'intérieur de cette même variété égyptienne, percevoir des transformations semble -t-il plus profondes que de simples modifications de surface. Ainsi, la comparaison entre diverses époques d'une même variété d'arabe permet de mettre au jour ce que nous appellerions une simplification du système hypothétique. Concernant en effet l'ensemble du système hypothétique égyptien à opérateurs spécifiques, i.e. ' iza, ' in et law, nous avons observé des modifications en diachronie. Ainsi, dans l'ordre Potentiel, à une relative régularité syntaxique des systèmes en law et en ' in, s'oppose une relative anarchie avec ' iza, plus marqué que d'autres par des risques d'ambiguïté. D'autre part, law, comme il découle des analyses faites plus haut étape par étape, fournit des systèmes plus réguliers et plus distinctifs entre les différents ordres conditionnels que ne le fait ' iza. La question qui doit ici être posée dans le cadre de la conditionnelle potentielle est la suivante : pourquoi trois opérateurs sont-ils en cooccurrence pour l'expression du Potentiel, alors que la situation en arabe dit classique est celle d'une distinction assez nette entre ses opérateurs ? Si la situation de ' in s'apparente à celle du ' in classique, c'est-à-dire celle d'une survivance, cantonné qu'il est soit à de simples emplois figés dans ' in šā'a-llāh, sans valeur réelle de conditionnelle, mais plutôt de sens proverbial, soit à des emplois certes conditionnels potentiels, mais majoritairement en collocation avec ce même šā'a - llāh, reste à élucider la question de l'emploi conjoint de ' iza et de law en égyptien pour le Potentiel d'une part, mais aussi celle de leur cooccurrence dans le cadre Irréel, le paroxysme étant atteint avec l'époque du film où les deux opérateurs sont à peu près à égalité de représentation et expriment tous deux les trois ordres conditionnels. Il pourrait sembler que nous nous trouvions devant une anarchie d'emploi, or, en linguistique, l'anarchie, fût-elle apparente, n'est certainement pas de mise, et quand bien même, elle est plutôt temporaire, représentant un état moyen entre deux états, la langue se chargeant toujours de donner une régularité aux emplois, d'en différencier les recours… Il semble possible de poser un certain nombre d'hypothèses pour essayer de comprendre ces phénomènes tout d'abord de cooccurrence avec prééminence de ' iza (Es-Sayyed), puis de disparition de celui -ci (tout d'abord dans BwN, puis dans le corpus contemporain formé par Šaraf-‘Abbās-Bāzel). Les deux systèmes en law et ' iza sont syntaxiquement relativement proches, tels que le montrent les tableaux ci-dessus. De plus, en se basant sur les descriptions que Spiro Bey et de Lacy O'Leary font, vraisemblablement sur le modèle classique, à savoir que law serait réservé à l'expression de l'Irréel, tandis que ' iza le serait lui tout d'abord à l'expression de l' Éventuel, puis, remplaçant ' in dans son emploi, à celle du Potentiel, un fait nouveau surgit. Le fait, récent, qu'ils soient cooccurrents dans l'expression à la fois de l'Irréel et du Potentiel, pousse en effet à reconnaître que cette cooccurrence indique non seulement qu'en arabe égyptien, law et ' iza ont perdu leurs valeurs propres, posées par Spiro Bey et de Lacy O'Leary donc, attachées à certains types de conditionnelles, et sont donc synonymes, mais bien plus, que law comme ' iza n'indiquent désormais alors rien de plus que la conditionnelle dans l'absolu. Les nuances conditionnelles ne relèvent donc plus de l'emploi d'un opérateur en particulier, mais sont uniquement marquées par recours à des apodoses et/ou protases contrastives, et plus particulièrement même par l'identité syntaxique de l'apodose en relation avec le marqueur conditionnel employé, la protase étant le plus généralement en accompli. Cette synonymie explique en retour la possibilité, semble -t-il un temps explorée, quoique marginalement, de l'utilisation de ' iza, par mimétisme avec law, dans l'ordre Irréel. Pourquoi alors deux systèmes (quasi identiques syntaxiquement par ailleurs) si ces deux systèmes expriment in fine les mêmes réalités sémantiques ?Cette cooccurrence ne devait donc être que temporaire, un temporaire qui pouvait certes durer dans le temps, mais où l'un devait se substituer plus ou moins totalement au second, ce dernier ayant alors un emploi résiduel. À cet égard, la recension des occurrences semble bien indiquer que le choix de la langue s'est porté sur law. En premier lieu, celui -ci est de loin plus employé pour exprimer le Potentiel que ne l'est ' iza pour rendre l'Irréel. Mais encore, en courte diachronie, il semblerait bien que law se soit effectivement imposé, ou soit en train de le faire, comme l'opérateur de la conditionnelle par excellence de l'égyptien moderne. Ceci est particulièrement visible dans le cadre Potentiel, notamment lorsque l'on compare entre Es-Sayyed et le corpus du film de 1960. Si dans le premier nous trouvons bien une prééminence de ' iza (6/13 soit 46,15 %) sur law (2/13 soit 15,38 %), dans le second les proportions sont quasiment inversées (' iza 2/13 soit 15,38 % et law 5/13 soit 38,46 %), l'emploi de law étant deux fois et demi supérieur à ce qu'il était 36 ans auparavant quand dans le même temps l'emploi de ' iza est lui trois fois moindre. De la même manière, ' iza n'apparaît plus pour exprimer l'ordre Potentiel dans Šaraf-‘Abbās-Bāzel là où law représente respectivement 80 % des emplois potentiels pour Šaraf, 100 % pour ‘ Abbās et 80 % pour Bāzel, soit, sur l'ensemble de ce corpus 9/11 (81,81 %). L'apparition du law égyptien dans le cadre Potentiel, de même que son extension à l'ensemble de la conditionnelle et par suite sa substitution à ' iza dans les sphères potentielles et irréelles de celle -ci, pourrait être expliquée par le fait que a) des trois opérateurs historiques de la conditionnelle égyptienne law exprimait déjà deux formes de conditionnelles (Irréel, présent et passé), et qu'il serait par conséquent plus facilement extensible à d'autres formes de conditionnelles, b) parce que contrairement à ' iza qui n'exprime que très marginalement l'ordre le plus éloigné de ses attributions premières, à savoir l'Irréel du passé, law, lui, remplit de manière massive comme nous venons de le souligner le Potentiel, sans cesser d'exprimer les Irréels, et c) parce qu'il offrirait une plus grande régularité syntaxique d'emploi, opérant des différenciations claires entre les ordres conditionnels sur la base de distinctions syntaxiques, et ce sans appauvrir les possibilités d'expression des conditionnelles dans les deux ordres Potentiel et Irréel. Posons alors l'hypothèse suivante en diachronie. Sémantiquement, law ne traduisait que l'Irréel, et ' iza que l' Éventuel, puis l' Éventuel et le Potentiel après avoir évacué ' in. Pratiquement, nous sommes donc passés d'un système hypothétique à trois marqueurs (' iza, ' in et law) à deux marqueurs (' iza et law). Law apparaissant en force dans le cadre Potentiel, il embrasse dès lors l'ensemble de la conditionnelle, Éventuel excepté. Ce faisant, il acquiert les mêmes valeurs sémantiques que ' iza ou ' in, ce qui n'est pas réciproque, ces derniers n'acquérant pour l'un que très marginalement le sens premier de law. Syntaxiquement maintenant, law offre une économie d'emploi, un système bien différencié et régulier qui tranche avec ' iza, ce qui empêche du reste ce dernier de s'étendre à l'expression de l'Irréel dans les mêmes proportions que law ne le fait dans le Potentiel. Ce dernier finit donc naturellement par s'imposer, relayant et éliminant de fait ' iza. Le système devient donc économique syntaxiquement et sémantiquement. En d'autres termes, nous assisterions, en arabe égyptien, à une simplification du système conditionnel, avec disparition de la multiplicité des opérateurs de la conditionnelle et développement consécutif du rôle contrastif des protases et apodoses, i.e. aux formes verbales employées. Nous aboutirions donc à un système proche du système hypothétique français, par exemple, où nous n'avons comme opérateur que si et où les temps du verbe permettent de situer la conditionnelle dans les différents ordres. Plus particulièrement nous assistons en arabe égyptien au développement du rôle contrastif des apodoses pour distinguer entre Potentiel, Irréel du présent et Irréel du passé, puisque nous sommes passés d'un rôle contrastif propres aux protases (1927) à celui des apodoses (1996-2003-2005). À l'issue de cette étude, il semble donc que nous assistions à une simplification des systèmes hypothétiques en égyptien moderne, simplification au profit de law et aux dépens de ' iza, law recouvrant désormais l'ensemble des valeurs conditionnelles (Potentiel, Irréels), i.e. n'en n'ayant plus aucune, mais indiquant simplement le cadre conditionnel de l'énoncé, les différences se faisant dès lors de manière syntaxique par recours à des apodoses contrastives. Ceci rapproche le système égyptien des systèmes français ou anglais où, là aussi, ce sont les formes verbales qui permettent de marquer l'ordre de la conditionnelle, notre si ne servant lui qu' à indiquer le cadre conditionnel. En une génération ou un peu moins, des changements s'opèrent, des tendances s'affirment ou se renversent, ce que nous montrent les textes du corpus ici utilisés .
Cet article tend à montrer comment, à partir d'oeuvres littéraires du début du siècle passé au début du nouveau, oeuvres rédigées tout ou partie en arabe égyptien, les systèmes hypothétiques propres à cette variété d'arabe ont évolué selon un double processus: synonymisation des opérateurs de la conditionnelle ('in, 'iza et law) et, parallèlement, recul très marqué de 'iza et désuétude de 'in au profit de l'emploi quasi-exclusif de law pour l'expression de la conditionnelle. Ce dernier joue alors le même rôle que notre si français ou que le if anglais: l'indication du cadre conditionnel de l'énoncé sans présupposer de son identitié potentielle ou irréelle (présente ou passée). La distinction entre ces différents ordres de la conditionnelle relève désormais nécessairement de syntaxes verbales contrastives bien loin des modèles classiques.
linguistique_10-0057827_tei_585.xml
termith-539-linguistique
Le genre que nous nous proposons d'étudier s'inscrit dans les études en langue spécialisée et, à ce titre, la définition que nous retiendrons pour délimiter le cadre de cette analyse est celle de J. Swales (1990 : 58) : A genre comprises a class of communicative events, the members of which share some set of communicative purposes. These purposes are recognized by the expert members of the parent discourse community and thereby constitute the rationale for the genre. This rationale shapes the schematic structure of the discourse and influences and constrains choice of content and style. Cette définition est riche en notions clés qui ont guidé nos pas dans l'analyse de notre corpus. En premier lieu, c'est l'aspect communicationnel qui importe et doit retenir notre attention. Avant J. Swales, dès 1984, C. Miller (citée dans Freedman & Medway 1994 : 24) avait suggéré une redéfinition du genre qui insistait déjà sur le côté pragmatique : A rhetorically sound definition of genre must be centred not on the substance or form of discourse but on the action it is used to accomplish. Assurément, à partir du moment où il y a un but précis à atteindre, un public cible identifié et un message à faire passer, il semble difficile d'envisager ce type de textes sous l'angle purement informationnel. Ceci est confirmé par R. Oliver (1999) qui précise qu'il ne s'agit pas d'aborder un genre sous les traits abstraits d'une rhétorique théorique, mais au contraire dans une optique dynamique, en contexte, dans le souci de comprendre et d'appréhender les conventions d'échanges d'un groupe, d'une communauté donnée. L'accent est mis clairement sur la dimension sociale et culturelle que l'on ne saurait négliger. D'ailleurs, dans la définition citée plus haut (Swales 1990), l'auteur souligne que les buts sont partagés et reconnus par la communauté des spécialistes et que le choix du contenu et de la forme sont en quelque sorte définis par la logique du genre en question. Il rejoint en cela G. Kress (1988 :183) en sous-entendant que, lorsque le genre est défini, et ses conventions établies, les auteurs d'un texte et leur public sont liés par un contrat tacite. Au plan sémiotique, on peut donc décrire un genre comme un code partagé. Si la connaissance de ce code risque de susciter un certain nombre d'attentes chez le lecteur, on est en droit de penser que la compréhension du message en sera facilitée. Toutefois, il faut aussi envisager l'idée que le genre, contraint dans sa forme, peut restreindre les possibilités d'interprétation d'un texte, en canalisant la compréhension du lecteur et en suggérant une lecture privilégiée. La dimension idéologique (Fairclough 1995 : 23) doit donc également être présente à l'esprit lorsque l'on aborde un genre tel que celui que nous avons choisi d'étudier. D'où la nécessité de décrypter soigneusement les textes qui constituent notre corpus en ayant le souci d'analyser aussi bien le fond que la forme (Chandler 1997 : 3), en nous intéressant aussi bien à l'axe syntagmatique qu' à l'axe paradigmatique et en nous plaçant dans une perspective diachronique aussi bien que synchronique. V. Bhatia (2002 : 3) relève que l'analyse d'un genre oscille souvent entre deux pôles : It may be seen as a reflection of the complex realities of the world of institutionalised communication, or it may be seen as a pedagogical effective and convenient tool for the design of language programmes. En suggérant quelques pistes pour faciliter le décryptage des communiqués de presse de la Réserve Fédérale, notre but n'est certes pas de faire en sorte que des non-spécialistes ou des spécialistes en devenir soient capables de s'approprier, par exemple, le style afin de le reproduire dans leurs propres textes : ceci n'aurait pas de sens. C'est plutôt la première fonction évoquée par Bhatia qui nous intéresse, afin de faciliter une sorte d'acculturation par rapport aux conventions et aux caractéristiques de ce genre bien particulier dans le but ultime de permettre une meilleure construction du sens. Dans la mesure où il est établi (Allen 1989 : 52) que tout texte exige des lecteurs un certain « capital culturel » il apparaît qu'en matière de genre, le capital culturel requis est la connaissance même des conventions sous-jacentes. Dans un premier temps, nous définirons plus précisément le genre que nous nous proposons d'analyser en expliquant ce qui a guidé notre choix. Ensuite, nous nous attacherons à faire ressortir les caractéristiques structurelles et formelles, et nous nous intéresserons particulièrement aux variantes rencontrées dans ce genre de texte assez codifié. Une approche diachronique nous permettra d'affiner notre analyse et nos conclusions. Il importe, en premier lieu, de préciser que cette étude s'intéresse essentiellement à une catégorie bien précise de communiqués de presse de la Réserve Fédérale, à savoir ceux qui émanent du Federal Open Market Committee (FOMC) et portent sur les décisions en matière de politique monétaire. Assurément, on pourrait nous opposer qu'il ne s'agit que d'un « sous-sous-genre » puisque, dans un premier temps, ces textes peuvent être rangés dans la catégorie plus large que sont les communiqués de presse et dans un deuxième temps, s'inscrire dans la rubrique générale des communiqués de presse de la Réserve Fédérale. Une consultation du site en ligne de cette institution fait état de cinq types de communiqués de presse, chacun étant consacré à des thèmes différents. Peu de points communs existent, à vrai dire, entre ces divers communiqués, et les textes de notre corpus ont plus d'affinités avec les rapports semestriels sur la politique monétaire faits par Alan Greenspan devant le Congrès, pourtant répertoriés comme des discours, qu'avec des annonces légales en matière d'organisation des banques et qui font l'objet de communiqués de presse. L'éternelle question se pose donc de savoir si un genre doit se définir par une unité de contenu ou une unité de forme ou les deux (Chandler 1997 : 3) : Conventional definitions of genres tend to be based on the notion that they constitute particular conventions of content (such as themes or settings) and / or form (including structure and style) which are shared by the texts which are regarded as belonging to them. Nous estimons qu'il n'y a pas lieu de traiter ici la question d'une taxonomie des différents genres ou sous-genres. Nous préférons nous en remettre à l'autorité institutionnelle qui a elle -même établi une différenciation; la nomenclature choisie par la communauté spécialisée n'est-elle pas, comme le suggère Swales (1990 : 54) une source fiable, même si, comme il le précise un peu plus loin (ibid. 58), ce choix doit être ensuite validé. À cet égard, un examen plus détaillé de notre corpus nous permet de confirmer l'existence d'un genre homogène bien particulier. Le premier critère est l'unicité de la source puisque tous ces communiqués émanent du FOMC. Le second point important est l'unicité du thème : toutes les annonces portent sur les décisions de politique monétaire. Le troisième aspect est la constance du but de la communication : faire part au public intéressé de la position des autorités monétaires, de leur analyse de la situation et de leurs décisions. Enfin, il ne faut pas oublier le public ciblé : public avisé d'investisseurs, de conseillers financiers, d'analystes qui serviront de relais auprès d'un public moins avisé, mais tout aussi concerné. Il va de soi que la langue, le style, la terminologie sont autant d'aspects éminemment importants puisque le message va être disséqué, analysé, et doit être compris sans donner lieu à des réactions trop fortes qui risqueraient de mettre en péril la politique choisie. Consciente de l'impact de la forme, la Réserve Fédérale a d'ailleurs révisé sa terminologie et publié, le 19 janvier 2000, un texte destiné à préciser le format et la langue de ces communiqués, dans un souci annoncé de plus grande transparence, et afin de laisser moins de place à une interprétation large des propos. Ce faisant, la Réserve fédérale « institutionnalise » ce type de communiqués et confirme la spécificité du genre. Ce texte refondateur constitue le pivot de notre étude, puisque notre corpus rassemble les communiqués de presse publiés sur une période de 6 années, de mars 1997 à mars 2003 (Annexe 1). Afin de bien comprendre quel est l'enjeu de ces communiqués bien particuliers, il convient d'analyser les contraintes propres au genre en question. La particularité de la Banque Centrale américaine, sous la présidence d'Alan Greenspan, est qu'elle poursuit un double objectif, à savoir juguler l'inflation tout en stimulant la croissance, contrairement, par exemple à la Banque Centrale européenne dont le seul objectif est de maîtriser l'inflation. Ce double objectif contraint les autorités à prendre les mesures nécessaires au maintien ou au rééquilibrage des forces en présence : si pressions inflationnistes il y a, il appartient de recourir aux instruments de politique monétaire pour contenir une hausse des prix, mais, ce faisant, il ne faut pas risquer de ralentir l'économie. Il faut donc beaucoup de doigté pour mener une politique monétaire avec succès, sachant que les effets d'une hausse ou d'une baisse des taux d'intérêt ne se font sentir qu'avec un certain décalage dans le temps. L'impact des annonces publiques en matière de politique monétaire est donc évident : il s'ensuit que chaque élément d'information doit être pesé, nuancé pour éviter tout dérapage, ou mis à profit pour susciter la réaction souhaitée. On conçoit aisément les liens très forts entretenus entre le fond et la forme, que ce soit au niveau de la structure schématique des textes, ou des choix lexicaux et syntaxiques. L'analyse du corpus permet d'établir un schéma assez régulier du communiqué sous sa forme actuelle, qui peut se résumer en quatre étapes au niveau de la structure du texte. La phrase d'ouverture contient l'annonce de la décision (D) prise quant aux taux d'intérêt (baisse, hausse ou statu quo) et, le cas échéant, la décision concernant le taux d'escompte. La seconde étape, en toute logique, vise à offrir une brève analyse (A) de la situation qui a conduit à prendre cette décision et à mettre en avant les arguments qui la justifient. Cette analyse peut également éclairer la troisième étape, très importante, qui se veut le reflet de l'appréciation portée par les autorités sur la période à venir. À l'occasion de cette projection (P) dans le futur, les autorités se prononcent quant aux risques qu'elles voient se profiler à l'horizon. Le FOMC y fait référence en parlant de « balance-of-risks sentence ». C'est à ce niveau du texte que l'on peut pressentir les décisions à venir, et tenter d'en tenir compte. Il s'agit donc pour les autorités de s'entourer des plus grandes précautions afin d'éviter toute réaction de panique ou d'euphorie. Enfin, mention est faite des membres qui ont voté (V) pour ou contre la décision. Nous ferons donc référence au schéma général par le sigle DAPV. Chacune des étapes que nous venons d'identifier présente ses propres contraintes quant à la syntaxe adoptée. La première étape (D) et la dernière étape (V) sont caractérisées par la sobriété. L'annonce des décisions est en effet purement factuelle et suit un schéma quasiment figé, avec une première phrase que l'on retrouve immanquablement dans chaque communiqué. La seule variante possible est centrée sur le groupe verbal et le pourcentage d'augmentation ou de baisse : [1] The Federal Open Market Committee voted today to raise its target for the federal funds rate by 25 basis points to 5-3/4 percent. In a related action, the Board of Governors approved a 25 basis point increase in the discount rate to 5-1/4 percent. (2 février 2000) De manière générale, au niveau de la première décision, les autres options sont exprimées soit par « decided to maintain the existing stance of monetary policy, keeping its target … at… » ou « decided to lower its target by … to … ». Plus récemment, l'annonce du statu quo a été simplifiée et l'on peut désormais lire « decided today to keep its target for the federal funds rate unchanged at … percent ». Quant à la seconde phrase, portant sur la décision concernant le taux d'escompte elle n'apparaît que pour signifier un changement à la hausse ou à la baisse, et dans ce dernier cas, « reduction » est simplement substitué à « increase ». S'agissant de la dernière étape, consacrée à l'expression du vote (V), elle a été, elle aussi, assez figée pendant deux ans, ne portant mention que du nombre de branches de la Réserve Fédérale (douze au total) s'étant prononcées en faveur de tel ou tel changement en matière de taux d'escompte : [2] In taking the discount rate action, the Federal Reserve Board approved requests submitted by the Boards of Directors of the Federal Reserve Banks of New York, Cleveland, Atlanta, St. Louis, Kansas City, Dallas and San Francisco. (3 janvier 2001) Puis, dans le communiqué du 19 mars 2002, une nouveauté est annoncée et introduite immédiatement. À partir de cette date, les communiqués mentionneront les noms des personnes et non plus des banques ayant participé au vote de la décision portant sur les taux d'intérêt et, le cas échéant, le nombre de voix contre cette décision sera indiqué, ainsi que les préférences des « dissidents ». Contrastant avec la sobriété des deux étapes évoquées, l'analyse de la situation (A) donne lieu à des formulations plus variées, en fonction, bien évidemment, de la conjoncture. Toutefois, un certain nombre d'éléments récurrents permettent de résumer les grandes lignes de cette étape marquée par un développement résolument logique. Le changement de style est induit par l'enjeu même du communiqué. Il importe de brosser en quelques traits les faits marquants de la situation économique et de justifier la décision en faisant ressortir les liens de cause à effet, et en insistant sur le fait que les différents éléments ont bien été pris en compte et soigneusement pesés. [3] These actions were taken in light of further weakening of sales and production, and in the context of lower consumer confidence, tight conditions in some segments of financial markets, and high energy prices sapping household and business purchasing power. Moreover, inflation pressures remain contained. Nonetheless, to date there is little evidence to suggest that longer-term advances in technology and associated gains in productivity are abating. The Committee continues to believe that… (3 janvier 2001) Par voie de conséquence, les mots de liaison sont mis à contribution pour enchaîner les arguments, faire suivre les éléments moins favorables de faits plus rassurants. Dièses ou bémols modulent ainsi les notes écrites sur cette partition savamment orchestrée. Il s'ensuit que le recours aux précautions discursives est abondant. De manière assez systématique, le FOMC se retranche derrière un passif, ou derrière des informations ou des faits qui semblent s'imposer d'eux -mêmes, avant de réapparaître dans un second temps pour tirer la conclusion de la situation évoquée. Dans l'exemple [3 ], le lecteur appréciera la séquence de précautions discursives de divers ordres : avec « to date », les autorités se couvrent contre le risque d' être contredites par les évènements en limitant l'analyse dans le temps; « there is little evidence » leur permet de relativiser les preuves que l'on pourrait leur opposer, et le verbe « to suggest » les protège contre quiconque leur reprocherait d' être trop catégorique. Quant à « longer-term », il permet de souligner au passage que le long terme est plus prometteur, ce qui contribue à atténuer les difficultés présentes ou à court et moyen termes. Enfin, il faut noter le recours à une syntaxe très étudiée qui revient à dire « x n'est pas négatif » plutôt que d'affirmer « x est positif ». Tous ces éléments ne constituent que des illustrations ponctuelles de procédés toutefois assez généralisés sur l'ensemble des communiqués étudiés. Il va sans dire que la panoplie complète des modaux, le recours au conditionnel, au passif, sont monnaie courante, ce qui n'est pas sans rappeler certains des outils linguistiques conventionnellement utilisés par la communauté des chercheurs dans leur discours formel. Ces précautions, que nous avons baptisées discursives, plutôt qu'oratoires, parce qu'elles englobent de nombreuses parties du discours et insistent sur l'aspect énonciatif qui nous semble primordial, ont été étudiées à de nombreuses reprises; il n'y a pas lieu d'en refaire l'analyse ici, et nous nous contenterons de faire référence à un certain nombre d'articles de recherche (Banks 1994, Dudley-Evans 1994, Salager-Meyer 1994, 2000, Resche 2000). Ces précautions discursives trouvent d'ailleurs leur plein épanouissement dans l'étape suivante (P), qui porte sur la projection sur l'avenir et l'appréciation des risques. Nous reviendrons sur cette étape plus en détail à propos de l'évolution du genre, car elle a fait l'objet d'une révision très précise. Comme l'étape que nous venons de détailler, elle est caractérisée par des phrases complexes, qui s'expliquent précisément par le souci constant de nuancer l'analyse afin d'éviter que toute réaction excessive du public ne vienne compromettre les mesures annoncées et leur effet escompté. Cette préoccupation est renforcée par les choix lexicaux, et d'ordre phraséologique, aspects qu'il importe de ne pas négliger. Les diverses étapes génériques définies par le schéma DAPV ont tout d'abord une incidence sur le choix des verbes. Assurément, les verbes des parties D et V sont des verbes déclaratifs, à forte valeur d'assertion (decided to adopt, voted, declared, has chosen); comme on peut s'y attendre, les temps indiquent que les mesures sont désormais sans appel. En revanche, en toute logique, les phases d'analyse (A) et de projection (P) font usage de verbes beaucoup plus nuancés (recent data suggest, the Committee believes / continues to believe /is concerned / remains concerned / recognizes). En présentant l'analyse des données, les autorités, conscientes que tout exercice de projection dans le temps est périlleux, prennent clairement et honnêtement à leur compte l'interprétation avancée; cela peut s'interpréter à la fois comme une preuve de courage ou comme une précaution supplémentaire. De toute façon, la technique est ambivalente; en effet, en revendiquant la paternité de l'analyse, cela leur permet, dans le même temps, de jouer de leur position d'autorité : si les experts que sont les membres du FOMC arrivent à telle conclusion, après avoir eu accès à des données fiables et récentes, peut-on vraiment remettre en cause ces conclusions ? Enfin, dans ces mêmes phases d'analyse et de projection, beaucoup de verbes sont utilisés de préférence à d'autres pour leur valeur euphémique : activity has flattened, capital investment has continued to soften. Ces verbes permettent d'évoquer une situation moins favorable, tout en évitant d'effrayer inutilement le public. Cet aspect se retrouvera d'ailleurs dans les autres choix lexicaux. Les choix les plus significatifs concernent les adjectifs et des adverbes. Ces derniers permettent, selon les cas, de mitiger les assertions (to tighten slightly, progressively increasing the risk …, cost pressures appear generally contained) ou de les renforcer (to increase significantly, […] contributed importantly to [… ], […] should markedly diminish the risk). Il faut souligner que les adverbes cités en exemple ont la particularité de donner un ordre de grandeur assez flou, de sorte qu'on a l'illusion de précisions, mais que l'information reste très parcellaire, fait qui n'est pas rare dans les textes économiques (Channel 1994, Bondi-Paganelli 1996 : 42-43). Au niveau des adjectifs, outre les choix classiques relevant des précautions discursives évoquées (potential, possible, likely, uncertain), nous aimerions citer quelques exemples assez caractéristiques du recours aux euphémismes. C'est ainsi que des données peu satisfaisantes deviennent « mixed economic data », que des indicateurs préoccupants quant à l'emploi ne peuvent être autre chose que « disappointing », qu'un ralentissement de l'activité économique est évoqué par l'adjectif « soft » et que, pour annoncer une amélioration prochaine, on s'empressera de préciser qu'il ne s'agit que de « preliminary and tentative signs ». C'est surtout en se plaçant sur l'axe paradigmatique, et en imaginant les substitutions possibles que l'on peut mieux donner à ces choix leur pleine signification. De manière quasi constante, au lieu de recourir au substantif « inflation » et de mentionner « the risk of inflation », les autorités préfèrent l'adjectif inflationary (inflationary imbalances / pressures). Nous aurons l'occasion de citer d'autres exemples en évoquant des pistes pour un meilleur décryptage, mais un dernier adjectif a retenu notre attention : il s'agit de « unusual », utilisé à plusieurs reprises pour évoquer des difficultés très particulières, qu'il s'agisse de la crainte du passage à l'an 2000 ou des évènements tragiques du 11 septembre 2001. Il est intéressant de noter que, lorsque le chômage est à son plus bas niveau, ce qui, certes, est préoccupant en termes de risques accrus d'inflation, mais ne constitue en rien un choc aussi terrible et soudain que les attaques terroristes de septembre 2001, le même choix lexical est fait, sur plusieurs mois consécutifs, sous la forme de l'adverbe correspondant : « employment is at an unusually high level ». Pour remplir son rôle et soutenir l'économie contre vents et marées, la politique monétaire menée se doit d' être souple (accommodative) et capable de s'adapter aux circonstances. Immanquablement, quand la situation devient plus délicate, la robustesse de l'économie et l'aptitude à mener une politique efficace sont mises en avant pour redonner confiance au public par une phraséologie bien sentie : [4] The Committee continues to believe that this accommodative stance of monetary policy, coupled with still robust underlying growth in productivity, is providing important ongoing support to economic activity. (6 novembre 2002, 10 décembre 2002, 29 janvier 2003) Si tous les traits que nous venons de passer en revue sont aisément repérables et constituent en quelque sorte le dénominateur commun à tous les communiqués, il serait erroné de considérer que nous nous trouvons devant un genre arrivé à maturité, abouti et figé dans sa forme. Dans la mesure où, comme notre analyse l'a fait ressortir, le fond influence grandement la forme, il nous faut concevoir que, au gré des évènements et au fil du temps, des aménagements puissent s'avérer nécessaires, et que des changements doivent s'opérer : nous sommes bien en présence d'un genre en constante évolution. C'est en 1994 que le FOMC a entrepris de faire une déclaration publique à chaque fois qu'il décidait de relever ou d'abaisser les taux d'intérêt. Puis, lors de sa réunion de décembre 1998, il fut décidé qu'une annonce suivrait tout changement majeur dans son appréciation de la situation à venir et des risques envisagés. Si l'intention était louable de faire part au public, au plus tôt, de la tendance probable de la politique à venir, il s'avéra que la fréquence accrue des communiqués, qui ne se fit sentir qu' à partir de mai 1999, n'apportait pas le résultat escompté : une certaine confusion demeurait quant au laps de temps pris en compte pour estimer l'évolution probable de la conjoncture économique; de plus, la formulation quant au penchant (bias ou tilt) des autorités pour telle ou telle mesure risquait d'exacerber certaines réactions des marchés financiers. En août 1999, un groupe de travail fut constitué pour réfléchir aux modifications à apporter dans la façon de communiquer les décisions et les prévisions en matière de politique monétaire. En décembre 1999, le FOMC décida de modifier sa façon de formuler ses communiqués de presse et le texte officiel fut publié le 19 janvier 2000. Les changements principaux apportés par ce texte sont de deux ordres. En premier lieu, il y est précisé qu'un communiqué suivra toute réunion du FOMC, qu'il y ait un changement majeur ou mineur à annoncer ou pas de changement du tout. En second lieu, les directives sont très précises quant à la formulation de l'appréciation de la situation à venir : [5] The FOMC has adopted new language to describe its judgment about the outlook. The new language will provide the FOMC's assessment of the risks to satisfactory economic performance (one set of bracketed words will be chosen at each meeting to reflect the Committee's view about prospective developments) : “Against the background of its long-run goals of price stability and sustainable economic growth and of the information currently available, the Committee believes that the risks are [balanced with respect to prospects for both goals] [weighted mainly toward conditions that may generate heightened inflation pressures] [weighted mainly toward conditions that may generate economic weakness] in the foreseeable future.” De fait, à partir de février 2000, tous les communiqués comportent ce paragraphe in extenso, le plus souvent en avant-dernière position, conformément au schéma DAPV évoqué plus haut. Simplement, pour le relier à ce qui précède dans tel ou tel communiqué, la première phrase du paragraphe peut être précédée de « Hence, / Consequently, / Nonetheless,/ In these circumstances, / the Committee continues to believe / believes that, against the background … ». On note également, une variante au niveau de la place de « in the foreseeable future » qui peut devancer « against the background … ». Une seule exception vaut la peine qu'on s'y arrête : pour la première fois depuis la parution du texte refondateur, le communiqué du 18 mars 2003 ne reprend pas ce paragraphe très normé, pour la simple raison que le Comité est incapable de se livrer à un pronostic quelconque quant à l'avenir, tant le contexte de la Guerre en Irak est encore incertain à ce moment -là : [6] In light of the unusually large uncertainties clouding the geopolitical situation in the short run and their apparent effects on economic decision-making, the Committee does not believe it can usefully characterize the current balance of risks with respect to the prospects for its long-run goals of price stability and sustainable economic growth. Rather, the Committee decided to refrain from making that determination until some of those uncertainties abate. In the current circumstances, heightened surveillance is particularly informative. En dépit de ces variantes, le schéma actuel semble plus stable qu'auparavant. La plus grande régularité dans la publication des communiqués a certainement contribué à mieux définir le cadre général. Si l'on se reporte à l'Annexe 1, on se rend compte du changement en observant que l'année 2000 marque un tournant réel à cet égard. Non seulement les communiqués antérieurs au texte plus normatif ne se suivent pas avec la même fréquence, mais ils ne présentent pas un schéma aussi régulier, même si, plus on approche de la fin 1999, mieux on sent se dessiner le nouveau schéma. Avant cette date, par exemple, le passage qui correspond à l'actuelle phase (A) (analyse de la situation), traduisait plus souvent un désir de commenter et de justifier les décisions prises : [7] This action was taken in light of persisting strength in demand, which is progressively increasing the risk of inflationary imbalances developing in the economy that would eventually undermine the long expansion. In these circumstances, the slight firming of monetary conditions is viewed as a prudent step that affords greater assurance of prolonging the current economic expansion by sustaining the existing low inflation environment through the rest of this year and next. The experience of the last several years has reinforced the conviction that low inflation is essential to realizing the economy's fullest growth potential. (25 mars 1997) On insistait parfois davantage sur le but que sur la raison en amont (« the action was taken to cushion the effects […] of increasing weakness in foreign economies … »). Les étapes (D) et (A) pouvaient également être fondues en une seule et même partie; le cas échéant, on pouvait y lire une sorte de satisfecit. Ainsi, l'exemple suivant souligne que les mesures prises à l'automne 1998 ont porté leurs fruits, puisque le marché est rentré dans le rang et que la baisse des taux d'intérêt a eu le résultat escompté, avec une reprise de l'activité économique. [8] The Federal Open Market Committee today voted to raise its target for the federal funds rate 25 basis points to 5 percent. Last fall the Committee reduced interest rates to counter a significant seizing-up of financial markets in the United States. Since then much of the financial strain has eased, foreign economies have firmed, and economic activity in the United States has moved forward at a brisk pace. Accordingly the full degree of adjustment is judged no longer necessary. (30 juin 1999) On s'aperçoit aisément que le format actuel est beaucoup plus régulier, mais on peut se poser la question de savoir si les efforts entrepris pour donner des repères au public aboutissent à une compréhension facilitée du message. C'est ce que nous tenterons d'établir dans notre dernière analyse sur le décryptage. Auparavant, il nous semble important, au regard de l'évolution que nous avons soulignée, de rappeler qu'une certaine tradition voulait que les genres soient considérés comme figés dans leur forme. Nous avons montré qu'il n'en est pas ainsi, ce qui semble aller dans le sens de la théorie contemporaine, selon laquelle forme et fonction sont toutes deux dynamiques, donc appelées à évoluer. En matière de texte spécialisé, instrument de communication entre membres d'une communauté de spécialistes, cette idée est particulièrement intéressante, en ce qu'elle vient en parallèle à tout ce que nous avons déjà dit de la terminologie spécialisée, non figée, évolutive (Resche 2001). N'oublions pas que le genre (du latin genus) nous renvoie aussi au domaine de la biologie et à la notion d'évolution, réalité que l'on ne peut ignorer. Il convient donc d'écarter toute idée de révolution, et de raisonner en termes d'évolution lente. M. Bakhtin (1986), d'ailleurs, précise que personne ne recrée un genre dans sa totalité. Les genres ont des structures relativement stables, mais il s'agit d'une stabilité relative, qui laisse la place à des évolutions et des glissements. C. Schryer (Freedman & Medway : 107), pour sa part, utilise la formule « stabilized-for-now », qui traduit bien ce que nous pouvons dire du genre qui nous intéresse ici. L'évolution officialisée par le texte de janvier 2000 était motivée par un souci de plus grande transparence dans la communication. Ces efforts louables ont entraîné, nous l'avons vu, une plus grande régularité dans la parution des communiqués, mais également une accumulation de remarques, avec leur cortège de restrictions, de précisions et de précautions discursives. Devant ce dédale d'arguments, on peut se demander si la tâche du public est finalement facilitée et s'il peut parvenir à construire un sens dans ces communiqués. En analysant le tableau en Annexe 2, on se rend compte que les données brutes, à elles seules, ne permettent pas de dégager des corrélations fiables entre les pronostics sur la période à venir d'un communiqué et les décisions sur les mouvements de taux annoncées dans le communiqué suivant. Même si, à partir du 16 novembre 1999, il semble plus facile de faire « parler » ce tableau, dans la mesure où le laps de temps entre deux communiqués est plus restreint, il n'en reste pas moins vrai que la logique est parfois prise en défaut. En effet, on pourrait s'attendre à ce qu'un pronostic de risques équilibrés soit suivi d'un statu quo au niveau des taux d'intérêt : ceci se vérifie dans la plupart des cas, mais pas de manière immuable. On s'aperçoit que la période entre le 21 décembre 1999 et le 2 février 2000 échappe à cette règle. La réponse est donc à chercher ailleurs, dans le contexte et en analysant les divers communiqués de l'époque : il ressort du communiqué de décembre 1999 que les autorités souhaitaient garantir un passage en douceur à l'an 2000. On se souvient, en effet, des craintes qui régnaient à l'époque sur le fameux « bug » de l'an 2000, qui risquait de déstabiliser le monde des entreprises et les milieux financiers. Une fois le risque passé, la politique économique a repris ses droits. On peut également considérer qu'il serait légitime de trouver un pronostic de risques équilibrés entre un pronostic portant sur les risques d'inflation et un pronostic portant sur les risques pour la croissance. Or, si l'on observe les pronostics des communiqués de novembre et décembre 2000, on note une rupture brutale, suivie en janvier 2001 d'une baisse des taux d'autant plus remarquable qu'ils n'avaient pas été changés depuis sept mois. On comprendra mieux ce qui s'est passé si l'on se souvient que le printemps 2000 a été marqué par l'éclatement de la bulle Internet qui a eu les répercussions que l'on sait sur les marchés boursiers, et le Nasdaq en particulier. Toutefois, les autorités n'ont pas immédiatement réagi, pensant que la Nouvelle Economie, qui avait porté la croissance économique pendant de si longs mois, pouvait peut-être poursuivre sur sa lancée. À l'époque, les consommateurs étaient encore confiants, le niveau de productivité restait élevé alors que le taux de chômage restait faible. C'est, du moins, ce qu'indiquaient les données sur lesquelles étaient fondées les analyses des communiqués de la période. En janvier 2001, le tableau fait état de deux réunions, ce qui est exceptionnel. Visiblement, de nouvelles informations justifiaient alors des mesures urgentes afin de rectifier la position. Une lecture attentive et régulière des communiqués nous apprend que, entre le 19 décembre 2000 et le 31 janvier 2001, la confiance des consommateurs a été affectée et, ajoutée à d'autres éléments, a conduit les autorités à tirer la sonnette d'alarme et à prendre les mesures qui s'imposaient. D'ailleurs, l'évolution des préoccupations se lit au fil des trois communiqués consécutifs : on est passé de « eroding consumer confidence » à « lower consumer confidence » puis à « consumer confidence has eroded further », ce qui a justifié le constat suivant : [9] Taken together, and with inflation contained, these circumstances have called for a rapid and forceful response of monetary policy. On connaît, depuis, la date officielle de l'entrée en récession de l'économie américaine (mars 2001). On notera avec intérêt que l'espoir d'une sortie rapide de la récession était présent dès l'été 2001 : le tableau fait ressortir que les efforts pour relancer la machine économique en jouant sur une baisse des taux semblaient être jugés moins pressants puisqu'on passait de 0,50 % à –0,25 % en juin et août 2001. C'était sans compter avec les évènements du 11 septembre 2001 qui ont naturellement remis en cause l'analyse des autorités : des efforts supplémentaires ont du être consentis jusque fin 2001. Ces chocs ne pouvaient évidemment pas être prévus. De même, les scandales en matière de comptabilité des sociétés (Enron, Tyco, Worldcom, etc.) ont conduit les autorités à craindre à nouveau pour la croissance en août et septembre 2002 et, enfin, l'incertitude de la durée de la guerre en Irak transparaît dans le tout dernier communiqué du tableau, avec l'impossibilité d'émettre un pronostic. Une dernière anomalie vaut la peine d' être citée : alors que le communiqué du 5 octobre 1999 évoque « a possible firming of policy », mais s'empresse de préciser que ce changement n'est pas forcément à envisager pour le court terme, la décision d'augmenter les taux est annoncée dès le communiqué suivant. Que s'est-il passé ? Simplement, des chiffres sont tombés qui ont montré une baisse supplémentaire du taux de chômage, amplifiant ainsi le risque d'inflation. D'ailleurs, les autorités ont bien précisé, depuis, en commentant la nouvelle formulation des risques, que « foreseeable future » est nécessairement une notion élastique, ce qui sous-entend que des décisions peuvent venir plus tôt que prévu, et confirme l'idée que le déchiffrage des communiqués reste un exercice difficile. Tout ceci est riche d'enseignements : se contenter de lire les décisions prises et les prévisions formulées reviendrait à faire une lecture isolée ou parcellaire des communiqués, ce qui est insuffisant pour analyser le message. Or, tous les détails sont importants. Il faut également se garder de se laisser bercer par les nombreux échos que l'on rencontre d'un communiqué à un autre, soit sous la forme d'une phrase quasiment identique, soit par la répétition d'un paragraphe entier. Il faut, au contraire, être d'autant plus vigilant que le moindre changement de temps ou de terme porte à lui seul tout le poids d'un nouvel indice. Ces nombreuses reprises laissent d'ailleurs à penser que les communiqués constituent les épisodes d'un même feuilleton; les autorités conçoivent chaque communiqué comme le prolongement du précédent, ce qui constitue pour elles un moyen supplémentaire de souligner au passage la cohérence de la politique menée et la cohésion du discours. La nécessité de prendre en compte l'axe diachronique s'impose donc, comme le démontrent les extraits suivants : [10] Recent data suggest that the expansion of aggregate demand may be moderating toward a pace closer to the rate of growth of the economy's potential to produce. (28 juin 2000) Recent data have indicated that the expansion of aggregate demand is moderating toward a pace closer to the rate of growth of the economy's potential to produce. (22 août 2000) Recent data have indicated that the expansion of aggregate demand has moderated to a pace closer to the enhanced rate of growth of the economy's potential to produce. (3 octobre 2000) En outre, devant la difficulté d'interpréter le contenu des communiqués, le lecteur ne peut s'empêcher de se demander si les autorités monétaires ont vraiment eu l'intention de rendre le message plus clair en cadrant davantage la structure générale des textes. Il ne s'agit pas là de faire un procès d'intention, mais d'essayer de comprendre le but poursuivi pour mieux envisager la construction du sens. Si l'on considère le rôle que doit jouer la Réserve Fédérale en matière de politique monétaire, à savoir garder le contrôle de l'inflation sans pour autant étouffer la croissance, le but poursuivi n'est pas tant d'informer que de mieux guider les investisseurs et agents économiques sur la voie souhaitée. D'une certaine manière, il y a une part de manipulation et de propagande, au sens étymologique de « partage de la foi » (foi en l'économie, en sa solidité, confiance en l'avenir). Le but est alors de susciter les sursauts nécessaires de la part du public afin de préserver la bonne santé de l'économie. Immanquablement, le message en est affecté et l'analyse et le décryptage de ce genre passent par une analyse de discours et par la prise en compte de la théorie selon laquelle « dire », c'est aussi « faire » (Austin 1962). A cet égard, l'expression « talking up / down the economy » décrit bien l'exercice auquel se livrent les autorités par le biais des communiqués. Par un savant dosage, elles peuvent ainsi espérer que leur message conduira le public à réagir de manière sensée, leur évitant peut-être de prendre des mesures plus radicales. Aucun faux pas n'est permis, et ce genre est un exemple en matière de maniement de la langue et d'art de convaincre, tout en donnant l'apparence de la neutralité et de l'objectivité. Au cours de la période que nous avons étudiée, pendant laquelle les difficultés n'ont pas manqué, comme nous l'avons vu, force est de constater que maintenir la confiance en insistant sur le long terme a toujours été à l'ordre du jour. Quand il s'agissait d'éviter l'inflation tout en faisant durer la croissance aussi longtemps que possible, le rappel de la croissance record était un argument récurrent et les adjectifs ne manquaient pas : « the long / record expansion », « the favorable / impressive / exemplary / record / outstanding performance of the economy ». Et, quand les difficultés sont apparues, et particulièrement après les événements tragiques du 11 septembre 2001, c'est l'admirable capacité de l'économie américaine à résister aux chocs sur le long terme qui a été systématiquement mise en avant : [11] The long - term prospects for productivity growth and the economy remain favorable and should become evident once the unusual forces restraining demand abate. (septembre, octobre, novembre et décembre 2001) Ces dernières remarques soulignent, s'il en était encore besoin, que les communiqués de presse, et particulièrement ceux qui portent sur la politique monétaire, font inévitablement appel à la rhétorique, en ce qu'ils visent à justifier les décisions prises, et influencer les réactions du public. On assiste véritablement, en filigrane, à un dialogue entre les autorités monétaires et le public, à une sorte de négociation du sens. En effet, les choix annoncés peuvent faire l'objet d'une polémique, être critiqués pour avoir été faits trop tôt ou trop tard. Les ressources linguistiques constituent, à cet égard, à côté des outils classiques, des instruments supplémentaires à la disposition des autorités pour affiner le réglage du moteur économique et huiler les rouages des mécanismes. Notre objet a été de montrer qu'il ne faut pas se contenter d'une lecture superficielle, mais se livrer à un examen attentif de la trame et de la chaîne du tissu discursif pour mieux asseoir la construction du sens. Décrypter les communiqués de presse de la Réserve Fédérale en matière de politique monétaire n'est certes pas un exercice facile, particulièrement si l'on n'est pas spécialiste du sujet, ou de la langue, mais il ressort de l'analyse de ce genre bien particulier qu'il est indispensable d'envisager ces textes sur la durée, tout en disséquant chaque communiqué, et en portant une attention toute particulière aux légers remaniements, aux changements de temps, de termes, aussi anodins puissent-ils paraître; en effet, rien n'est fortuit venant d'une institution pleinement consciente de l'enjeu de ses messages, ce qui rend l'étude de ces textes particulièrement intéressante pour le linguiste. Nous considérons qu'aborder un tel genre favorise une sensibilisation à de nombreux aspects qui caractérisent précisément la langue spécialisée, dont « l'usage tactique » de la langue évoqué par Bhatia (1995 : 162) n'est pas le moindre. A ceux qui seraient tentés de ne voir dans ces communiqués qu'une suite de paragraphes codifiés, cette étude montre qu'une approche descriptive permet de conclure à un genre qui continue à évoluer. Il est particulièrement intéressant d'observer l'existence de formes alternatives, même dans des textes relativement contraints, dans lesquels les interactions entre fond et forme sont fortes. La mise en évidence de l'importance du contexte d'énonciation et de la prise en compte du public ciblé a permis de souligner le caractère social et culturel de l'acte de communication. L'analyse de discours est donc difficilement dissociable de l'analyse de ce genre particulier. C'est aussi ce qui permet de conserver un regard critique et de mieux reconstruire le sens, sans se laisser abuser par la logique apparente ou impressionner par la complexité du discours. Un tel décryptage permet de mieux appréhender le milieu spécialisé et de prendre conscience de la nécessité de maîtriser les outils linguistiques à des fins professionnelles. Le genre que nous venons d'étudier offre, à cet égard, un exemple bien particulier de la langue spécialisée en action .
Les communiqués de presse de la Banque Centrale américaine qui font l'objet de cette étude constituent un genre bien particulier par l'homogénéité de leur source, de leur forme, de leur but et par l'enjeu du message qu'ils véhiculent auprès du public cible. L'analyse des choix lexicaux et syntaxiques, des conventions stylistiques visera à déterminer dans quelle mesure ces aspects sont liés au fond et permettent de distiller l'information souhaitée tout en laissant une marge à l'interprétation. Deux axes seront pris en compte pour affiner le décryptage. D'une part, l'analyse portera sur les communiqués considérés comme entités séparées ; d'autre part, elle comparera les différents communiqués au fil des mois, afin de déterminer les indices qui permettent une meilleure lecture et une compréhension affinée du message. Une mise en parallèle des communiqués antérieurs à la décision d'adopter un discours plus transparent et du modèle actuel de communication permettra d'apprécier le chemin parcouru.
linguistique_524-04-11620_tei_471.xml
termith-540-linguistique
Les sciences du langage s'appuient de plus en plus sur des traitements informatisés de corpus écrits et, depuis peu, oraux. Dans le contexte de l'oral tout particulièrement, la mise à disposition d'un corpus suppose un traitement préalable des données permettant par la suite divers types d'interrogations et d'usages informatiques. Alors que l'on dispose aujourd'hui de bases de données orales importantes aux États-Unis, mais aussi en Angleterre, en Allemagne ou en Espagne, ces ressources sont encore très insuffisamment développées en France. Ce type de données est pourtant fondamental tant pour le développement de la linguistique, des sciences sociales et de l'histoire que d'un point de vue patrimonial. La plateforme Corpus de langues parlées en interaction (CLAPI) du laboratoire ICAR est un environnement d'archivage et d'analyse de corpus d'interactions enregistrées en situation authentique (en famille et entre amis, sur le lieu de travail, dans les institutions les plus diverses, etc.). Dans son état actuel, la plateforme CLAPI comporte environ 75 corpus, soit plus de 150 heures de données transcrites ou 2,5 millions de mots, et fournit un ensemble croissant d'outils pour la construction de ce type de corpus, pour leur stockage, leur communication et, surtout, pour leur analyse qualitative et quantitative. L'orientation scientifique de CLAPI est d'abord déterminée par l'une des spécialités scientifiques traditionnelles du laboratoire ICAR, l'analyse interactionniste de faits de langue et de discours en contexte. En outre, dans la mesure où CLAPI rassemble les fruits de deux décennies de recherches menées par plusieurs laboratoires successifs d'orientation pluridisciplinaire – mais aussi grâce aux compétences des divers partenaires nationaux et internationaux –, le contenu et la conception de la base pourront également répondre aux besoins issus d'autres disciplines et courants théoriques en sciences humaines. Le nombre, la variété et la qualité des corpus rassemblés dans la base CLAPI lui confèrent aujourd'hui une valeur scientifique spécifique qui la distingue non seulement d'autres types de corpus, écrits et oraux, mais qui paraît aussi particulièrement prometteuse pour le développement de nouvelles approches et méthodes en linguistique interactionnelle et en pragmatique au sens large du terme. Le caractère authentique et la profondeur historique des corpus CLAPI confèrent également à la base une valeur patrimoniale unique dans une culture où domine la valorisation du langage écrit et de l' œuvre littéraire. Le fonctionnement de la base clapi a initialement été assuré par les projets du laboratoire en collaboration avec un certain nombre de partenaires. Selon les moyens disponibles, d'autres potentialités orientées vers la communauté scientifique plus large seront réalisés dans les années à venir. Le développement d'un projet comme la plateforme CLAPI dépend de la conjonction de facteurs scientifiques, technologiques et institutionnels. Ainsi, le développement des théories interactionnistes à partir des années 60 a été rendu possible par l'émergence du magnétophone portable. L'usage des supports audio-visuels, relativement complexes et coûteux (et donc souvent réservé à des structures de recherche d'une certaine taille), a encore longtemps été cantonné à des situations expérimentales. Les membres des structures dont est issue l'UMR ICAR actuelle, notamment le GRIC, ont fait un travail pionnier dans ce domaine en France, non seulement en introduisant les approches interactionnistes dès les années 75, mais aussi en créant un contexte institutionnel dans lequel un grand nombre de corpus audio et audio-visuels naturels et expérimentaux a pu être réalisé. Ces corpus jusque -là dispersés constituent aujourd'hui le fondement de la base CLAPI. Depuis la fin des années 90, les corpus CLAPI font l'objet d'un vaste programme de numérisation afin de garantir leur pérennité, de permettre un traitement unifié et de faciliter leur circulation entre chercheurs. Cela a donné lieu à la constitution d'une Médiathèque de corpus, composée de plus de 250 CD-ROMs. La vaste majorité des transcriptions existantes (doc, word, txt, etc.) sont converties vers un format XML spécialement adapté à la structure et aux fonctions des moteurs de recherche intégrés dans la plateforme CLAPI. Les principaux phénomènes interactionnels transcrits – productions verbales, chevauchements, pauses, etc. – sont balisés et reliés avec le signal audio ou vidéo correspondant. Dans le cadre d'une collaboration interdisciplinaire, la base de données CLAPI a été conçue dans la perspective de répondre à un certain nombre d'exigences – complexité, robustesse, accessibilité, extraction – qui permettront la gestion d'un nombre important de corpus, leur description précise au moyen d'un ensemble de descripteurs (attributs en terme informatique), des requêtes sur corpus (descripteurs et transcriptions alignées avec les enregistrements), la mise en place de procédures d'intégration en ligne de corpus constitués à l'intérieur ou à l'extérieur de l ' UMR ICAR, la gestion de la consultation des corpus par des droits d'accès. Durant l'année 2004, un prototype développé en collaboration avec le laboratoire ERIC a été implémenté en PHP/MySQL pour tester la sécurisation de l'accès aux données référencées dans CLAPI. Dans le même temps, les campagnes de construction de corpus se poursuivent, d'une part pour enrichir certains fonds existants qui sont particulièrement importants pour la recherche en linguistique interactionnelle – ou pour leur valeur patrimoniale –, d'autre part pour intégrer de nouveaux types de corpus permettant de traiter certaines questions liées au développement de la base (par exemple aspects juridiques et éthiques, analyse de données vidéo, etc.). Les caractéristiques de l'oral, les orientations interactionniste et sociolinguistique, ainsi que la méthodologie qualitative impliquent que la notion de corpus se distingue en partie de celle qui a cours en linguistique de corpus. Dans le cadre de la plateforme CLAPI, un corpus est un ensemble composé a) d'enregistrements audio ou vidéo d'interactions et b) de leurs transcriptions, éventuellement accompagnés c) de documents annexes. La constitution des corpus vise en priorité à rendre accessibles la qualité et la complexité des phénomènes de la langue parlée dans des contextes authentiques; les considérations de représentativité quantitative et de traitement informatique des données n'intervenant, par contre, que dans un second temps. L'unité d'un corpus est définie par une certaine homogénéité qui peut provenir des caractéristiques de la situation d'enregistrement (sites, terrains, etc.), des caractéristiques interactionnelles et linguistiques des données enregistrées (genre, type d'activité, etc.) ou des caractéristiques des interactants (leur compétence d'apprenant, par exemple). CLAPI est constitué d'une très grande variété de corpus individuels ou collectifs, notamment un fonds croissant de conversations ordinaires entre membres d'une famille, entre amis, voisins, etc., considérées comme prototypique de l'usage du langage en linguistique interactionnelle (voir par exemple Sacks, Schegloff & Jefferson, 1974; Schegloff, 1992; Traverso, 1996; Mondada, 2001). En France, un important corpus audio de ce type, Conversation familière, a été constitué à Lyon à la fin des années 80 (Traverso, 1996, 1999, à paraître). CLAPI comporte probablement l'un des premiers corpus vidéo expressément construit pour des analyses linguistiques/interactionnistes : le corpus Mode, composé de trois conversations avec thème, durée et interlocuteur imposés, a lui aussi donné lieu à une série de publications importantes (voir par exemple Cosnier & Kerbrat-Orecchioni, 1987). Dans le cadre des réflexions menées au sein de CLAPI et des projets de recherche actuels, une campagne a été lancée afin de constituer un corpus vidéo de Conversations ordinaires qui réponde à des exigences élevées en termes de construction du terrain, de dispositifs d'enregistrement audio-visuel, de préparation des données, d'archivage et d'exploitation scientifique (Balthasar & Mondada, 2003-…). Les corpus hébergés dans CLAPI ont été recueillis dans des contextes de conversations ordinaires, mais également dans différents types d'institutions, de services publics ou d'entreprises privées (poste, mairies, études notariales, commerces, etc.), dans l'enseignement secondaire et universitaire, dans différents contextes médicaux (cabinet, hôpital), dans les médias et sur le Web (les chats). Sont également hébergés dans CLAPI des corpus réalisés dans le cadre d'enquêtes dialectologiques (fonds en occitan et en francoprovençal de l'Institut Pierre Gardette) et en sociolinguistique, le corpus FRA 80 par exemple. Aujourd'hui, la majorité des corpus est encore enregistrée en audio avec, comme exception majeure, un ensemble important de corpus vidéo réalisés à partir des années 90 par le groupe de recherche COAST. Il est composé principalement d'enregistrements recueillis dans des classes de sciences au lycée. De plus en plus de corpus ne provenant pas d'ICAR sont également hébergés dans CLAPI, par exemple un certain nombre de corpus de français parlé du laboratoire LIDILEM, ainsi que des corpus d'apprenants L1 et L2 développés dans le laboratoire DDL. Dans la base CLAPI, les corpus sont archivés sous forme d'unités documentaires qui comportent obligatoirement : une fiche descriptive composée des descripteurs CLAPI; les enregistrements (données primaires); leurs représentations, en particulier sous forme de transcriptions, accompagnées des conventions correspondantes (données secondaires); la bibliographie des études portant sur le corpus. À ces éléments peuvent s'ajouter : des échantillons de données primaires et secondaires; des documents annexes numérisés (ex. artefacts produits par les interactants, documents utilisés lors de l'interaction, productions du collecteur / notes de terrain, photos, etc.); des publications portant sur le corpus. Lors de l'identification et du chargement du corpus, le responsable définit lui -même la structure de son corpus, explicite les critères retenus et précise ses liens éventuels avec d'autres corpus. La structure d'une unité documentaire dans CLAPI est hiérarchisée à partir de la fiche descriptive : un corpus comporte un ou plusieurs enregistrements, accompagnés éventuellement de documents annexes. Chaque enregistrement est associé à une ou plusieurs transcriptions (ex. versions successives anonymisées ou non, de formats différents – Word, Praat, CLAN, etc.) reliées systématiquement à leurs conventions de transcription. Des images annexes peuvent également être stockées dans CLAPI avec les transcriptions (ex. scans de transcriptions manuscrites, etc.). Si le responsable le souhaite, les interactants sont identifiés et leurs principales caractéristiques sociolinguistiques sont précisées dans les descripteurs. Le traitement des corpus réunis dans la plateforme CLAPI présuppose un certain nombre de formats standard, notamment en ce qui concerne la caractérisation des corpus. L'identification de corpus collectés en fonction de finalités scientifiques multiples et diverses est relativement complexe, d'autant plus que les standards informatiques développés jusqu' à présent – par exemple la Dublin Core Metadata Initiative – ne sont pas encore suffisamment adaptés aux besoins du traitement des corpus oraux, notamment en linguistique interactionnelle. En adaptant donc l'identification des corpus de la manière la plus précise possible aux exigences de la plateforme CLAPI et en attendant les résultats des initiatives en cours comme ISLE, développées en collaboration avec des linguistes, la liste actuelle des descripteurs CLAPI comporte 75 entrées hiérarchisées (génériques ou spécifiques, obligatoires ou facultatives) couvrant les points suivants : La structure informatique de la base permettra l'évolution de CLAPI en fonction de l'émergence de nouveaux besoins ou de l'adaptation à des metadata standards tels que ISLE. La situation concernant les conventions de transcription et les formats d'archivage est comparable à celle rencontrée pour les descripteurs de corpus. L'objectif d'un traitement unifié de la grande variété des corpus intégrés dans la plateforme CLAPI présuppose des formats d'archivage standardisés. Pour des raisons diverses, les conventions de transcription n'ont pourtant pas été unifiées jusqu' à présent en linguistique interactionnelle (comme c'est le cas, par exemple, pour l'API). Dans la mesure où les standards existant pour la représentation informatique de l'oral (TEI, CES, etc.) ne sont pas encore complètement stabilisés et comme ils ne répondent pas actuellement, de manière satisfaisante, aux besoins d'analyse et de représentation des données en linguistique interactionnelle, il s'est avéré inévitable de recourir à des développements réalisés au sein du laboratoire. Ces développements ont abouti à une première version d'une convention de transcription propre au projet CLAPI, la Convention ICOR, ainsi qu' à des prototypes de formats informatiques en XML. L'objectif de la convention a consisté à répondre de la manière la plus précise possible aux exigences de la transcription en linguistique interactionnelle. La convention ICOR tient donc compte d'un certain nombre de principes de transcription généraux, ainsi que de l'état d'avancement du domaine en ce qui concerne le choix, la définition et la représentation (signes de notation) des catégories analytiques retenues. Tout en respectant la représentation traditionnelle des données en linguistique interactionnelle, la convention favorise l'usage des outils de transcription les plus répandus dans le domaine, notamment Praat et CLAN. Les catégories de notation actuellement prises en compte au niveau de la totalité des corpus CLAPI sont les phénomènes de base du discours oral : production verbale/tour de parole; chevauchement; pause/silence; token/mot; ainsi que l'interactant auquel ces phénomènes sont attribués. La convention ICOR comporte en plus une vingtaine de conventions concernant des phénomènes segmentaux, supra-segmentaux et non verbaux (gestuels notamment). Aujourd'hui, la convention ICOR est notamment utilisée pour la réalisation des nouveaux corpus dans les logiciels Praat et CLAN, ainsi que pour l'affichage des résultats produits au moyen des moteurs de requête implémentés dans la plateforme CLAPI. Le format XML actuellement développé pour CLAPI vise d'une part une interprétation fidèle de la convention ICOR et, d'autre part, la traduction la plus précise possible des cinq phénomènes cités ci-dessus tels qu'ils sont transcrits dans les corpus de la plateforme. La convention ICOR, ainsi que le format XML de la plateforme évolueront nécessairement dans les années à venir en fonction des développements de la linguistique interactionnelle et des évolutions technologiques, ainsi que des objectifs analytiques des futurs projets de recherche du laboratoire. Pour être intégré dans la base de données, un corpus subit un traitement décomposable en plusieurs étapes successives. – Recueil des divers éléments du corpus et des autorisations signées par les personnes enregistrées. – Numérisation des données primaires et secondaires selon des formats prédéfinis. Cette standardisation s'appuie sur des évaluations portant sur l'accessibilité, le niveau de compression et la pérennité des formats vidéo, audio, texte et image. – Préparation du corpus : évaluation de l'application de la convention de transcription à partir d'échantillons; éventuellement, révision de la transcription. Il s'agit en général d'un « toilettage » léger soumis à l'approbation du responsable du corpus; pour les corpus non alignés (txt, rtf, doc…), minutage de la transcription; alignement d'extraits plus ou moins conséquents (au minimum 1 minute). éventuellement, conversion des transcriptions vers des formats exploitables par des moteurs de requête. – Anonymisation. Le stockage et la diffusion de certains corpus requièrent l'anonymisation des transcriptions, le bippage des données audio ou même des transformations de l'image vidéo. Les critères d'anonymisation sont établis par le responsable du corpus en tenant compte des recommandations issues de réflexions menées à ICAR en collaboration avec des juristes du CECOJI. – Mise en forme de transcriptions alignées avec l'extrait audio ou vidéo correspondant. Ces échantillons seront accessibles en ligne sur CLAPI sans restriction. Gravure d'un ou plusieurs CD-ROMs. Un double du corpus numérisé est rendu au responsable. Les données originales ou intermédiaires (p. ex. transcription ou données audio non anonymisées) sont également parfois conservées dans la Médiathèque de corpus. Celle -ci contient en outre certains documents papier (originaux des autorisations signées par les participants, documents collectés lors de l'enregistrement…). – Identification et intégration du corpus dans la base de données CLAPI. L'intégration de corpus nombreux et très divers a permis d'évaluer le temps de traitement des différentes étapes. Selon la nature du corpus ou le format des données primaires, par exemple, la durée de traitement peut varier du simple au décuple. À l'avenir, il est envisagé que le dépositaire d'un corpus prenne en charge une partie ou la totalité du traitement, avec l'assistance de l'équipe de la Médiathèque. A cette fin, des documents-supports à l'intégration seront mis à disposition : convention/accord pour l'enregistrement et la diffusion, recommandations techniques pour la numérisation, guide d'anonymisation, manuels pour les logiciels de transcription ou d'édition de corpus, aide à l'identification et à l'hébergement d'un corpus dans la base CLAPI. Afin d'assurer la gestion et la sécurisation des accès en ligne aux données hébergées dans CLAPI, le groupe ICOR a identifié les différents acteurs susceptibles d'intervenir dans la base et leurs droits respectifs sur les corpus. Cette réflexion a permis d'établir six profils différents en fonction des possibilités qui leur sont offertes : – Anonyme. Il s'agit des personnes ne possédant pas de droit d'accès particulier. Elles peuvent consulter la fiche descriptive des corpus non verrouillés et accéder à leurs échantillons. Elles peuvent également consulter les corpus en accès libre et effectuer des requêtes sur les données non verrouillées. – Responsable. La personne ayant déposé un corpus dans CLAPI est responsable de ses données. Elle signe une charte qui précise les conditions d'hébergement des corpus. Si son corpus n'est pas en accès libre, le responsable peut attribuer des droits d'accès à des tiers, en concertation avec le conseil de gestion de CLAPI. La consultation d'un corpus en accès limité exige la signature d'une convention de recherche entre le responsable du corpus, l'emprunteur et le directeur de l ' UMR ICAR. L'accès au corpus suppose un échange (réalisation de transcriptions, d'annotation, etc.). L'emprunteur devra également signaler toute publication portant sur le corpus. Un responsable peut verrouiller son corpus – il est alors invisible aux anonymes et aux contractuels – et il peut demander sa suppression. Il est le seul à pouvoir déverrouiller un corpus qu'il aurait lui -même verrouillé. S'il valide les modifications ou ajouts qui lui sont proposés, il devient alors responsable de ces nouveaux éléments. Le responsable peut également effectuer des requêtes sur son propre corpus, si celui -ci a subi le traitement nécessaire. Il précise alors les parties du corpus qui sont accessibles aux requêtes par les anonymes. Il a également été prévu de pouvoir déposer un corpus dans CLAPI tout en le verrouillant, pour pouvoir profiter des outils de requête de la plateforme sans que le corpus soit visible par les anonymes. – Contractuel. Une personne ayant signé une convention de recherche avec un responsable devient contractuel. Il peut consulter ou télécharger le corpus ou certains de ses éléments, il peut effectuer des requêtes sur ces données. – Equipe Médiathèque. L'équipe Médiathèque est chargée du traitement des corpus en vue de leur intégration dans la base de données et de leur archivage dans la Médiathèque. Elle assure également une assistance technique auprès des dépositaires de corpus. Les membres de l'équipe Médiathèque vérifient que les données figurant dans la base sont conformes aux principes techniques qui la régissent. Ils ont donc accès à l'intégralité des données et ils peuvent verrouiller un élément (corpus, enregistrement, transcription…). Les données verrouillées (nouveau corpus, ajout ou modification validés par le responsable, éléments verrouillés par l'équipe elle -même ou par le conseil scientifique) doivent subir la validation technique de l'équipe Médiathèque avant d' être déverrouillées par le conseil de validation. – Conseil de validation. Ses membres évaluent les demandes de dépôt de nouveaux corpus et ils valident les modifications ou ajouts proposés par le responsable. Ils peuvent verrouiller un corpus ou certains de ses éléments. Tous les éléments verrouillés doivent en dernier lieu être validés par le conseil pour être accessibles aux anonymes et aux contractuels. – Conseil de gestion. Il est composé de membres du groupe ICOR. Le conseil de gestion gère l'attribution des droits d'accès et la signature des conventions de recherche. Il peut suggérer les modalités d'échange entre responsable et emprunteur. Le conseil de gestion peut éventuellement s'opposer à une demande d'emprunt (par exemple demandes d'accès portant sur une partie trop importante des données de la base CLAPI). Le conseil de gestion peut consulter les données non verrouillées et émettre un avis sur les aspects juridiques concernant un corpus. L'organisation des droits d'accès dans la base s'explique par l'orientation générale donnée au projet : la plateforme CLAPI a été conçue comme un lieu d'hébergement de corpus, et comme un outil d'analyse à destination des responsables de corpus et des chercheurs à qui les responsables ont attribué des droits à leurs données. En attendant que la base de données puisse assurer la circulation en ligne contrôlée des corpus, le prêt reste expérimental; il est nominatif et gratuit. Après l'examen de la demande de prêt et la signature de la convention, des CD-ROMs sont envoyés aux emprunteurs. Dans leur vaste majorité, les corpus rassemblés dans la base CLAPI ont été construits dans la perspective d'études qualitatives portant a) sur des cas particuliers de structures interactionnelles, tels que, par exemple, le prolongement d'un tour avec des moyens syntaxiques ou gestuels afin de conserver le droit à la parole, b) sur des collections de structures permettant de dégager, par exemple, le fonctionnement de l'organisation préférentielle déterminant les phénomènes de réparation ou encore c) sur le fonctionnement de phénomènes socio-cognitifs comme le « face-work » dans le cas d'une confidence. L'un des objectifs de la conception de la base CLAPI consiste à favoriser ce type d'analyse au moyen d'outils informatiques aujourd'hui disponibles ou à développer en interne. Afin d'atteindre cet objectif, les nouveaux corpus CLAPI ont été construits en utilisant des outils d'alignement des transcriptions avec le signal (CLAN et Praat notamment). Mis à part leur intérêt pour la réalisation de la transcription, ils fournissent des fonctions analytiques spécifiques, ainsi que d'excellentes interfaces de présentation des données. En permettant de travailler en même temps sur le texte de la transcription et sur le signal, le caractère sélectif de toute transcription et la richesse particulière des données audiovisuelles restent continuellement transparents. De plus, des caractéristiques autrefois difficilement accessibles tels que les traits prosodiques des productions verbales ou encore le détail de structures audio-kinésiques peuvent être analysés efficacement avec ces outils. Les outils de requête intégrés dans la plateforme CLAPI – CLAPI QUERY et NXT Search notamment – faciliteront considérablement les analyses qualitatives en donnant un accès très rapide aux phénomènes de base des interactions (les productions verbales/tours de parole, les chevauchements, les pauses, les token/mots et la temporalité de leur production). Dans la mesure où ces phénomènes sont fondamentaux pour l'organisation des interactions et dans la mesure où les catégories retenues permettent de spécifier avec précision une grande variété de structures assez complexes, les outils de recherche seront d'une grande utilité, d'autant plus qu'ils permettent d'inclure des informations sociolinguistiques dans les requêtes elles -mêmes (et non seulement au niveau préalable de la sélection des corpus sur lesquels porteront ces requêtes). Les outils permettent à l'utilisateur d'effectuer des recherches sur une sélection de corpus CLAPI d'une part et sur des constellations complexes de phénomènes transcrits d'autre part, à savoir par exemple : dans des corpus CLAPI de dilogue au téléphone, successions d'au moins quatre productions verbales/tours (PV) réalisées par des interactants différents et séparées par des pauses longues; dans des corpus CLAPI de dilogue au téléphone, les PV réalisées en chevauchement avec au moins cinq token/mots dans chaque PV à partir du chevauchement; dans un sous-ensemble d'un corpus Z, toute production verbale du participant A contenant les tokens « ici », « là », « dessus », « dessous » ou « côté » suivies d'une production verbale du participant B qui commence par le token « non » et qui se trouve à une distance maximale de 2 PV de la PV de A. La présentation des résultats sera affichée sous forme de listes de segments transcrits et alignés avec le signal. Elle pourra être visualisée dans la convention ICOR ou suivant la convention d'origine. L'usage des moteurs de recherche actuellement développés permet d'élargir le cadre méthodologique de la linguistique interactionnelle et d'y intégrer des méthodes quantitatives. Ces moteurs de recherche permettront ainsi d'effectuer des comptes et des calculs de fréquence tels que : la fréquence des PV successives sans pause ni chevauchement par rapport aux PV réalisées en chevauchement et par rapport aux PV séparées par des pauses; la fréquence relative de productions verbales du locuteur A chevauchant une production du locuteur B par rapport au cas inverse (productions verbales du locuteur B chevauchant une production du locuteur A), ainsi que le nombre moyen de tokens contenus dans les productions verbales de A et de B après le chevauchement; une concordance KWIC du token « bof » portant sur l'ensemble de la base CLAPI avec comme contexte cinq tokens à gauche et à droite de « bof »; la fréquence relative du token « oui » par rapport au token « ouais » dans les productions verbales d'interactants âgés de moins de 10 ans, 20 ans, 30 ans… dans l'ensemble des corpus francophones de CLAPI. Bien que le nombre de phénomènes pris en compte soit aujourd'hui encore relativement réduit, il est évident qu'un certain nombre de questions de quantification qui, en linguistique interactionnelle, ont jusqu' à présent été traitées en termes de quantification informelle et de récurrence, pourront recevoir une interprétation et une validation en terme de quantification formelle (à ce sujet, voir par exemple Schegloff, 1993, Balthasar & Mondada, 2003). Même si les réserves vis-à-vis des méthodes quantitatives formulées dans les approches interactionnistes se justifient dans de nombreux cas, certaines hypothèses concernant notamment le système d'organisation des tours de parole ou des organisations préférentielles globales comme celles qui déterminent les réparations pourront graduellement être vérifiées. La plateforme CLAPI a été conçue pour pouvoir héberger un grand nombre de corpus de formats très divers, anciens ou récents, et pour permettre leur exploitation outillée. La structure de la base de données connaîtra encore des évolutions, par exemple au niveau de l'enrichissement et de l'adaptation des descripteurs, des formats de représentation de données finement annotées ou du nombre des phénomènes pris en compte par les outils d'analyse. La base évoluera aussi en fonction des besoins issus de nouveaux horizons disciplinaires. Les expériences de gestion d'une plateforme de corpus de langues parlées en interaction permettent de mieux assurer dans le futur la collecte, l'archivage et le traitement scientifique, ainsi que la diffusion d'une très grande variété de corpus, dans des conditions légales satisfaisantes. De nouveaux outils informatiques ont été introduits dans le travail quotidien de la recherche, notamment pour le traitement automatisé et semi-automatisé d'anciens corpus et pour la construction des nouvelles données audio et vidéo. Les recherches sur les corpus ont aussi considérablement progressé, notamment en exploitant systématiquement, pour certains projets, les nouveaux outils de requête et les méthodologies analytiques qui leurs sont associées. Enfin, comme nous l'avons montré dans la dernière section consacrée aux exploitations scientifiques, le projet CLAPI permet d'envisager divers développements. L'appareil méthodologique des approches interactionnistes peut être élargi au moyen des corpus CLAPI et des outils de requêtes intégrés dans la plateforme. Un certain nombre d'arguments concernant les hypothèses de base de la linguistique interactionnelle, notamment le fonctionnement du système d'organisation des tours, peuvent être rendus plus robustes. Des recherches récemment entamées permettront ensuite de reprendre et d'approfondir des questions plus complexes concernant des clusters de phénomènes multimodaux – en incluant par exemple la prosodie et les gestes –, de structures séquentielles ou de l'infrastructure des tours. Il sera possible de faciliter ainsi un rapprochement innovant entre les méthodes qualitatives systématiques et de plus en plus informatisées de la linguistique interactionnelle et des méthodes quantitatives appliquées jusqu' à présent essentiellement sur l'écrit. La plateforme Corpus de langues parlées en interaction CLAPI compte parmi les rares bases de données interactionnistes en français. La quantité et la diversité de ces corpus comme les outils intégrés à la plateforme faciliteront les analyses qualitatives traditionnelles en linguistique interactionnelle, ainsi que des explorations dans le domaine de la linguistique de corpus et d'une nouvelle linguistique diachronique tenant compte des différentes dimensions de l'usage du français parlé en situation .
Les As. présentent la Base CLAPI, en cours d'élaboration et qui peut être considérée comme la base centralisée de consultation de données orales pour l'interaction en France. En cours de construction à l'ENS Lettres et Sciences humaines de Lyon, elle est l'exemple même d'une synergie réussie et hautement performante entre linguistes et informaticiens. L'intérêt de cette base de données est multiple : actualisation de la réflexion théorique à mener autour des conventions de transcription ; sur les problèmes déontologiques et juridiques liés notamment à la diffusion des données. Le lecteur trouvera dans cet article une très abondante bibliographie et des liens internet de consultation des banques de données orales actuellement disponibles sur le web
linguistique_524-06-10298_tei_648.xml
termith-541-linguistique
Depuis les années 1970, des centaines de romans à suspense à dominante médicale écrits par des professionnels de la santé devenus écrivains ont été publiés aux États-Unis. Leur succès populaire a rapidement dépassé les frontières de l'Amérique du Nord et, aujourd'hui, des auteurs comme R. Cook ou M. Palmer jouissent d'une réputation internationale. Ces medical thrillers ont comme dénominateur commun la représentation du domaine professionnel de la médecine perceptible, à des degrés divers, dans la trame narrative et le tissu linguistique spécialisé qui les caractérisent. Cette prégnance de la réalité médicale est telle que les éditeurs et les auteurs aiment à dire que ces romans reflètent les pratiques et le discours des milieux professionnels de la santé. Dans cette étude, nous proposons d'aller au-delà des constatations de surface pour porter un regard approfondi sur les relations entre la fiction à substrat professionnel (FASP) médicale et l'environnement professionnel. Nous tentons de montrer, en nous référant à divers travaux de recherche sur la FASP, comment un genre littéraire existant, à savoir celui du roman à suspense, a été phagocyté par un substrat professionnel à dominante ou à forte influence médicale. La première étape de notre travail consiste à placer le roman à suspense à dominante médicale dans une perspective historique et à définir la typologie de ce sous-groupe générique. L'étape suivante de notre analyse porte sur le repérage systématique, dans le paratexte éditorial, graphique et auctorial des romans médicaux, des principales caractéristiques formelles externes permettant de confirmer l'appellation de sous-groupe générique à dominante professionnelle. Les caractéristiques formelles internes des ouvrages les plus connus sont également répertoriées dans une troisième partie. Elles mettent en évidence – au-delà des stéréotypes – l'intégration en profondeur de certaines pratiques et d'éléments du discours de la communauté médicale dans la narration. La quatrième étape vise à affiner notre analyse initiale des milieux professionnels et à clarifier le statut parfois ambigu des auteurs de medical thrillers en passant de l'autre côté du miroir. Nous y présentons une synthèse des réponses à un questionnaire ciblé soumis à quatre écrivains représentatifs : R. Cook, M. Palmer, L.R. Robinson et T. Gerritsen. Si le roman à suspense ou à énigme, communément appelé thriller, a une histoire déjà ancienne, le genre de la fiction à substrat professionnel a été défini récemment : Nous postulons que cet ensemble d'ouvrages de fiction présente suffisamment de caractéristiques communes pour justifier une appellation générique, et que la nature de ces caractéristiques peut être résumée par l'appellation de « substrat professionnel », ce qui nous conduira donc à parler de fiction à substrat professionnel, ou FASP. (Petit 1999 : 57) Les formes spécialisées de ce genre sont le legal thriller, le military thriller, le scientific thriller, le technothriller, le political thriller, le forensic thriller et le medical thriller. Il s'agit en faitd'un agglomérat de romans caractérisés par l'utilisation conjointe d'un discours spécialisé à dominante professionnelle et d'une intrigue marquée par le recours au suspense. Cet extrait du paratexte éditorial de The Hunt for Red October de T. Clancy souligne l'osmose entre substrat professionnel authentique et frissons : « A fine thriller […] flawless authenticity, frighteningly genuine » (Wall Street Journal). G. Diaz-Santos (2000) revient sur les caractéristiques majeures de certains romans appartenant au domaine de recherche de la FASP, tel que M. Petit l'a défini : During the last few years, doctors, biologists or physicists-turned-writers have raised science and high-tech topics to the level of hot literary commodities. Medical plots,deadly viruses, code-breaking, genetic manipulation, computer security, or virtualinformation environments are now themes which constitute creditable examples of how fast-paced action can be combined with scientific discussion and yield well-documented fiction works which entrance and educate a wide readership at the same time. (2000 : 222) Tous ces éléments convergents montrent que le roman à suspense à dominante médicale fait partie intégrante d'un genre populaire destiné au profane, mais qui s'appuie sur l'expérience et le discours des milieux professionnels. Dans son article fondateur, M. Petit fait la remarque suivante au sujet de ces romans spécialisés : Ils ont en commun de reposer sur un certain type de rapport avec ce milieu, le milieu lui -même n'étant en quelque sorte qu'une variable. C'est l'existence de ce rapport qui nous paraît définitoire du genre. (1999 : 62) Il convient désormais de définir les traits distinctifs de ce sous-groupe générique de la FASP, que nous nommerons désormais FASP médicale. Comme le laisse entrevoir le paratexte éditorial de Blood Run de L.R. Robinson, le roman à suspense à dominante médicale est le résultat de la fusion entre la matière médicale brute et les feux d'une intrigue marquée par de fréquents rebondissements : « A thrilling blend of cold medical facts and heated emotions » (The New York Times Book Review). F.G. Slaughter et M. Crichton sont les principaux inspirateurs de ce type de fiction médicale fondée sur l'expérience professionnelle des auteurs. F.G. Slaughter est souvent décrit comme le maître du roman médical car il a su mettre son expérience de chirurgien au service de l'écriture, s'attachant à dépeindre sans concession la communauté médicale qu'il connaissait de l'intérieur, comme dans cet extrait de Doctors at Risk : When the scope of what the AMA called the ‘ Impaired Physician ' problem was first realized five years ago, it was hoped that doctors whose abilities – their whole lives, in fact – are crippled by alcoholism or drug addiction would seek aid of their own accord, John Carr continued. Unfortunately, that rarely occurs, and they usually don't come to the attention of the committees until the drinking or drug problem is severe enough to cause their licenses to be in danger of being revoked by the Medical Licensing Board. (1983 : 188-189) Les romans de F.G. Slaughter présentent un intérêt sociologique et linguistique indéniable, mais ils comportent peu d'éléments de suspense. À ce titre, cet auteur ne peut pas être considéré comme le père fondateur de la FASP médicale, d'autant plus qu'il a également écrit de nombreux livres d'inspiration religieuse ou historique. Quant à M. Crichton, il a été un des premiers à utiliser le substrat de la langue et du discours professionnel de façon homogène dans des romans à suspense – A Case of Need (1968), The Terminal Man (1972) – ou dans l'adaptation cinématographique du premier roman médical de R. Cook, Coma (Turner Entertainment Co, 1978). Toutefois, il a délaissé la pratique médicale à l'issue de ses études de médecine pour se consacrer à l'écriture de technothrillers, autre sous-groupe générique de la FASP dont il est devenu la figure emblématique. Si M. Crichton a inspiré les auteurs de la FASP médicale, les véritables fondateurs du roman à suspense à dominante médicale sont R. Cook et M. Palmer. À la fin des années soixante-dix, ces deux médecins devenus écrivains ont commencé à produire et à populariser ce qu'il est convenu d'appeler aujourd'hui le medical thriller. Dans une lettre aux lecteurs placée en exergue de l'édition Signet de Coma, R. Cook s'attribue clairement la paternité du sous-groupe générique dont nous allons étudier les principales caractéristiques : On a lighter note, Coma essentially created a popular new genre : the medical/biotech mystery thriller. I am pleased that the book's reception vindicated my belief that stories of social significance involving medicine and medical research could be as entertaining and engaging as those dealing with detectives, spies, political intrigue, and traditional whodunits. (1978 :ii) Il est intéressant de noter que, dans le paratexte éditorial, R. Cook est systématiquement présenté comme un professionnel de la médecine qui en est venu à écrire des romans spécialisés : « Leave it to doctor-turned-novelist Robin Cook to scare us all to death » (Los Angeles Times, au sujet de Invasion). Le statut de M. Palmer, médecin urgentiste devenu romancier à succès dans le sillage immédiat de R. Cook, est tout aussi étroitement lié au milieu professionnel dont il est issu (et auquel il appartient toujours). Dans le paratexte éditorial de The Patient, l'expérience professionnelle de l'auteur est mise en exergue : « A top-notch thriller […] filled with bits and pieces that only someone who has lived his or her life in the medical profession can convey » (The Colony Times). Avec la publication de dizaines de romans à suspense à dominante médicale, R. Cook et M. Palmer ont fortement contribué à la popularité de ce genre reposant sur l'expérience médicale des auteurs. Ils ont permis au medical thriller de prendre corps et, en ce sens, nous pensons qu'ils ont fait école. Leur succès a incité d'autres professionnels de la santé à quitter, provisoirement ou définitivement, la pratique de la médecine pour se consacrer à l'écriture. L.R. Robinson, qui travaille comme auxiliaire médicale volontaire, a fait quelques infidélités au service des urgences d'un hôpital new-yorkais pour réinvestir son expérience personnelle dans l'intrigue médicale (Blood Run, Unnatural Causes). T. Gerritsen a abandonné la pratique de la médecine pour pouvoir élever ses enfants et produire, dans un premier temps, d'innocentes histoires romanesques. Depuis 1996, elle écrit des medical thrillers dont les plus connus sont Harvest, The Surgeon et The Apprentice. Dans ces romans, rédigés avec une précision chirurgicale, l'innocence, à tout jamais bannie de l'environnement médical, fait place aux plus noirs desseins et aux plus sombres peurs. Tous ces auteurs – pour ne citer que les plus représentatifs d'entre eux – ont fait du roman à suspense à dominante médicale un sous-groupe générique reconnu par de nombreux éditeurs et le grand public, mais aussi par les médecins et les praticiens hospitaliers eux -mêmes. Toutefois, le statut de ces auteurs reste ambigu. Sont-ils devenus des écrivains à part entière s'appuyant uniquement sur leur expérience professionnelle passée ou ont-ils gardé un contact suffisant avec leur milieu professionnel initial pour pouvoir prétendre être des médecins qui, accessoirement, écrivent des romans spécialisés ? C'est une question que nous leur avons soumise et dont les réponses seront fournies dans la quatrième partie de cet article. Une autre question se pose dont il convient de vérifier la pertinence. À l'exception de quelques auteurs (L.S. Goldberg, le médecin irlandais P. Carson…) qui ont choisi d'autres régions des États-Unis comme toile de fond, la plupart des auteurs à succès ayant contribué à l'essor du medical thriller situent l'action de leurs romans en Nouvelle-Angleterre. Bon nombre d'entre eux (R. Cook, M. Palmer, L.R. Robinson…) ont, ou ont eu, un ancrage professionnel dans la Nouvelle-Angleterre et entretiennent des liens étroits avec le milieu médical de la ville de Boston. Dans Flashback, M. Palmer, qui, à l'instar de R. Cook, a fait son internat dans deux hôpitaux de cette ville, insiste sur le rôle moteur joué par cette région au sein de la communauté médicale américaine : The company had set its sights on the prestige that involvement with established medical schools would bring, and there were ten of the world's most respected institutions in New England alone. (1995 : 213) En raison de ce faisceau de convergences et du fait que certains auteurs (T. Gerritsen et M. Palmer) co-animent des ateliers d'écriture spécialisés, nous avons émis, dans un article récent, l'hypothèse de l'existence d'une « École de la Nouvelle-Angleterre » susceptible d'avoir posé les fondements théoriques du roman à suspense à dominante médicale. Nous avons soumis cette hypothèse de travail à quatre auteurs de la Nouvelle-Angleterre, R. Cook, M. Palmer, L.R. Robinson et T. Gerritsen. Leurs réactions seront présentées dans la quatrième partie, lorsque nous aurons défini les caractéristiques formelles externes et internes de ce sous-groupe générique. Le problème posé est celui du degré d'intégration des pratiques et du discours des professions de la santé dans les romans à suspense à dominante médicale. Les maisons d'édition spécialisées mettent en valeur les caractéristiques professionnelles de ce type de fiction au travers d'éléments paratextuels susceptibles de capter et de retenir l'attention du lecteur. En surface, un simple survol des premières et des quatrièmes de couverture de ces romans permet de repérer des éléments textuels et visuels emblématiques de la communauté médicale. Il convient toutefois d'aller au-delà de cette première impression pour cerner les caractéristiques génériques externes de la FASP médicale en étudiant systématiquement ce qui gravite autour du texte. G. Genette (1987) a défini les composantes essentielles du paratexte, définitoires du cadrage générique. Son approche théorique, visant à faire ressortir les caractéristiques formelles externes du paratexte, a été relayée par P. Lane : Le paratexte désigne un ensemble de productions discursives qui accompagnent le texte ou le livre, comme la couverture, la jaquette, le prière d'insérer ou la publicité, le catalogue ou la presse d'édition. (1992 : 9) Nous traiterons du paratexte éditorial, du paratexte graphique,qui regroupe les composantes visuelles du paratexte éditorial, et du paratexte auctorial. Toutefois, dans un souci de simplification, nous ne prendrons pas en compte les nuances établies par G. Genette entre le péritexte, qui recouvre la matérialité du livre, et l'épitexte, qui concerne les événements éditoriaux et médiatiques situés à la périphérie du texte. Comme M. Petit l'a souligné dans son article séminal sur la FASP (1999), les commentaires éditoriaux ou les extraits de presse reproduits en première, en quatrième de couverture ou en pages intérieures répondent avant tout à des stratégies commerciales. L'accroche publicitaire la plus fréquemment mise en exergue sur la couverture est sans doute celle de « National bestseller », de « New York Times bestseller » ou de « International bestselling author ». Le paratexte éditorial permet également de donner un cadre chronologique, voire historique aux romans de la FASP médicale. Ainsi, le premier roman à suspense à dominante médicale écrit par R. Cook est-il présenté comme une œuvre pour ainsi dire classique : « The classic medical thriller » (note éditoriale au sujet de Coma). Pour établir la réputation d'un auteur, il est parfois fait allusion à un roman antérieur qui sert désormais de référence. T. Gerritsen est décrite de la manière suivante : « New York Times bestselling author of Harvest » (couverture de Life Support). Dans les rééditions, il est souvent fait allusion à l'ouvrage le plus récent de l'auteur. Cette stratégie est systématique chez Bantam Books : « Michael Palmer. Author of The Patient » (couverture de Flashback). Si les formes canoniques medical thriller ou novel of medical suspense ne sont pas toujours présentes dans le paratexte éditorial, elles font l'objet d'une reformulation qui met en avant les éléments de suspense et / ou l'expérience professionnelle de l'auteur : Palmer [brings] his fascinating ER procedural knowledge to a fast-paced […] narrative. (San Francisco Chronicle au sujet de Critical Judgment) Only a superb storyteller with a medical background such as Gerritsen's could have written such an eye-opening, palpitating thriller. (Maine Sunday Telegram au sujet de Harvest) Ces éléments du paratexte éditorial soulignent l'appartenance (passée ou présente) des auteurs à la communauté médicale, leur connaissance du champ professionnel concerné et la prégnance du suspense dans la narration. Ils constituent un faisceau de repères clairs visant à donner une crédibilité professionnelle à l' œuvre de fiction. Parfois, le paratexte éditorial se veut redondant et métaphorique afin de renforcer le réalisme médical du roman : « Murder is epidemic in this scalpel-sharp medical thriller » (au sujet de A Deadly Practice de L.S. Goldberg). L'autorité professionnelle du médecin devenu écrivain s'insinue jusque dans les pages intérieures. L'éditeur en profite pour promouvoir d'autres romans, de même nature, écrits par l'auteur : Spellbinding … a chillingly sinister novel made all the more frightening by [Palmer's] medical authority. (The Denver Post, au sujet de Extreme Measures, dans le paratexte éditorial de Side Effects) Ce souci de validation professionnelle est également présent dans les éléments graphiques du paratexte auctorial. En observant la première et la quatrième de couverture de la plupart des medical thrillers, le regard du lecteur potentiel ne peut qu' être attiré par un titre choc à dominante médicale et des éléments visuels frappants évoquant les milieux professionnels de la santé (caducée, seringue, brancard, tracé sinusal, pipette, cupule…). Ces signes extérieurs, souvent redondants, de richesse médicale présents dans le paratexte graphique représentent un vecteur promotionnel essentiel. Comme nous l'avons déjà indiqué (Charpy 2001), en faisant référence à A. Sauvageot, la puissance évocatrice de l'image crédibilise le propos professionnel attendu : L'image, au fond, non seulement fascine, mais elle convainc. En effet, l'image et son contenu symbolique, en recréant une situation réelle qui tend vers la perfection, mettent le spectateur hors de toute possibilité d'intervention active. (Sauvageot 1987 : 31) Des éléments visuels récurrents (caducée, tracé sinusal) sont présents sur la couverture de Life Support. Le caducée est reproduit en tête des vingt-et-un chapitres et de la page des références bibliographiques du roman de T. Gerritsen, donnant ainsi au récit une estampille professionnelle visible tout au long du roman. Il s'agit d'ailleurs du symbole graphique le plus fréquemment utilisé en couverture. On le retrouve, représenté de manière réaliste ou stylisée, dans A Case of Need, Doctors at Risk, Life Support et A Deadly Practice. La seringue symbolise également le milieu médical sur les couvertures de Doctors at Risk, The Sisterhood et Natural Causes. D'autres stratégies éditoriales mettent en avant des accroches visuelles plus racoleuses; sinistres cadavres sur un brancard (Side Effects, Fatal) ou dans une morgue (Vector), jeune femme nue, potentielle victime d'un tueur en série (The Surgeon, The Apprentice). Le choix des couleurs est également important. La couleur rouge connote à la fois le sang, emblématique de l'accident et de la salle d'opération, et le danger ou l'urgence, tous deux moteurs du suspense dans la narration. Les jaquettes de Flashback, Chromosome 6 et Final Duty sont rouge écarlate. Les titres de Fever, Vital Signs, Natural Causes, Blood Run, Shock et Fatal sont écrits en gros caractères de couleur rouge. La main ensanglantée qui ponctue le titre Blood Run, vient même renforcer cette impression d'urgence et de danger. Afin de capter l'attention du lecteur ou de le fidéliser, une autre accroche visuelle est utilisée dans le paratexte graphique; il s'agit de l'image de l'auteur. La photographie de R. Cook en tenue de médecin est pratiquement toujours présente en quatrième de couverture. L'objectif est de donner une caution médicale à ses romans à succès, même si son expérience professionnelle est désormais lointaine. Dans ses thrillers les plus récents (Vector, Shock), cette photographie occupe la totalité de la quatrième de couverture. M. Palmer, T. Gerritsen et L.R. Robinson sont généralement relégués en troisième de couverture, où leur photographie est accompagnée d'une courte bibliographie. Il est intéressant de noter que dans Blood Run, l'auteur est photographiée devant une ambulance des services d'urgence, ce qui met en avant le contexte professionnel. En revanche, en quatrième de couverture de Doctors at Risk, F.G. Slaughter dédicace un de ses romans devant les rayons d'une bibliothèque. Cette image de l'écrivain bien établi estompe quelque peu celle du médecin/chirurgien. À côté des illustrations graphiques du paratexte éditorial, de nombreuses interventions auctoriales viennent ancrer l' œuvre de fiction dans la réalité du milieu médical. En effet, le paratexte auctorial fait fréquemment référence à l'expérience professionnelle d'experts ou de spécialistes du monde médical qui apportent une caution scientifique à l' œuvre de fiction. Dans la partie Acknowledgements, les écrivains consacrent souvent une page complète aux remerciements dûs aux divers professionnels qui les ont conseillés et guidés. R. Cook et P. Carson ne remercient pas moins de six chirurgiens ou médecins dans le paratexte auctorial de Vector et de Final Duty. Dans le paratexte auctorial de Natural Causes, M. Palmer insiste sur les conseils précieux fournis par des spécialistes de son domaine professionnel, mais aussi par des juristes : Dr. Rick Abisla of Falmouth, Massachusetts, and Dr. Dolores Emspak of Swampscott, Massachusetts, gave me invaluable technical advice in their specialty. Attorneys Marcia Divoll and Joanne Colombani Smith of Boston, and Ms. Ginni Ward did the same for me in their areas of the law. (1999 : vii) Afin de souligner la portée médicale de leur roman, certains auteurs ont recours à une citation précédant généralement le prologue ou le premier chapitre. L.S. Goldberg cite King Lear en exergue de A Deadly Practice : « Kill thy physician and thy fee bestow upon the foul disease » (1994 : vii). M. Crichton cite un extrait du serment d'Hippocrate en relation avec le thème principal de A Case of Need. Il conclut son roman par des notes personnelles, à savoir sept annexes qui lui permettent d'exprimer son point de vue sur des sujets aussi variés que l'éthique médicale, l'avortement ou la terminologie médicale. D'autres romanciers éprouvent le besoin de clarifier une terminologie parfois absconse pour le profane en incluant un glossaire à la fin du roman. C'est le cas de Vector et Chromosome 6 de R. Cook où l'auteur fournit de précieuses indications dans le domaine de la génétique et des transplantations. Afin d'aider le lecteur à surmonter certaines difficultés techniques ou conceptuelles liées au substrat professionnel présent, certains auteurs, comme M. Palmer dans la partie Author's note de Fatal, proposent les coordonnées d'organismes spécialisés : As a medical fiction author, it is often difficult for me to fully discuss complex medical issues in the course of a novel. Fatal is no exception. For those readers who would like to do their own investigation into these subjects, the following sources of information may be helpful. (2003 : 510) Enfin, une bibliographie détaillée proposée par l'auteur permet au lecteur d'approfondir ses connaissances dans le champ professionnel ciblé. Pas moins de cinquante et un ouvrages sont référencés à la fin de The Terminal Man de M. Crichton. Life Support de T. Gerritsen comporte une bibliographie comportant treize références. Les divers éléments du paratexte présentés ci-dessus concourent tous à mettre en relief la prégnance de la réalité professionnelle dans les romans à suspense à dominante médicale. Après avoir passé en revue les principales caractéristiques formelles externes du roman à suspense à dominante médicale, nous allons en recenser les caractéristiques formelles internes en relation avec le milieu professionnel de la médecine dont les auteurs sont issus. Les medical thrillers sont inscrits dans un cadre formel clairement identifiable qui répond à des critères de stabilité et de reconnaissance propres au sous-groupe générique de la FASP médicale : « Genres themselves are classes of communicative events which typically possess features of stability, name recognition and so on … » (Swales 1990 : 9). Un genre littéraire possède une unité formelle et conceptuelle qui assure à la narration une cohérence particulière. Dans le cas de la FASP médicale, le terme de sous-groupe générique paraît adéquat car les principaux traits du roman à suspense (intrigue complexe, recours systématique aux émotions fortes, poursuites échevelées, dénonciation de la corruption ou de la collusion, enquêtes policières…) s'entrecroisent avec les éléments constitutifs de l'environnement professionnel médical. L'interpénétration des thèmes majeurs du roman à suspense et du substrat professionnel propre à la communauté médicale est perceptible dans Vital Signs et Shock (corruption et manipulations génétiques), Fever, Final Duty, Critical Judgment et Miracle Cure (corruption, industrie pharmaceutique et problèmes écologiques), Coma, Harvest et Chromosome 6 (corruption et trafic d'organes), The Surgeon, The Apprentice et A Deadly Practice (perversité et milieu hospitalier), Life Support (pègre et trafic génétique) et enfin, dans Vector et The Patient (bio-terrorisme). Il serait d'ailleurs intéressant de savoir quelles influences littéraires, en particulier quels thrillers, ont pu laisser leur empreinte sur l' œuvre des auteurs de romans à suspense à dominante médicale. La question a été soumise à quatre écrivains; une synthèse de leurs réponses respectives est présentée dans la section suivante. Du point de vue narratif, le récit débute généralement par un prologue et se termine par un épilogue, frontières implicites entre le paratexte et le texte. Ils constituent un cadre narratif et chronologique formel. La fonction première du prologue est d'aiguiser l'appétit du lecteur et de lui offrir un condensé des événements à venir. Le prologue rend le futur tangible, comme c'est le cas dans Vital Signs où il annonce le drame qui va se nouer en mêlant vocabulaire spécialisé et métaphores : The infecting bacteria came in a swift gush, as if flushed from a sewer. In an instant, several million slender, rod-shaped micro-organisms filled the lumen of the fallopian tubes. Most were grouped in small, tight clumps. They settled against the velvety convolutions of the mucosa, nestling in the warm, fertile valleys, absorbing the abundant nutrients and expelling their own foul excretions [… ]. Yet, there was more to this episode than Rebecca could have known. The bacteria had started a chain of events that went beyond the immunological. The consequences were destined to come back to haunt her, to rob her of her happiness, and eventually, indirectly, to kill her. (Cook 1992 : 1-3) L'épilogue correspond souvent à la conclusion formelle du roman, mais parfois, il ouvre également des perspectives narratives et éditoriales pour l'avenir. Quant au procédé classique des indications chronologiques (jour, date, année et heure précise) qui servent d'en-tête aux chapitres de nombreux medical thrillers, il constitue un emprunt au genre du roman à intrigue ou à suspense. La présence de ces références détaillées permet de fournir un cadre chronologique, condition indispensable au développement du suspense. C'est un procédé narratif utilisé initialement par M. Crichton dans A Case of Need et repris assez systématiquement par R. Cook. Dans Coma, l'auteur va même jusqu' à donner la date et l'heure à la minute près. Ces indications temporelles font office d'en-tête de chapitre. Le milieu médical même dans lequel évoluent les personnages conditionne la narration dans les romans à suspense à dominante médicale. Qu'il s'agisse de l'hôpital, de la médecine urgentiste ou généraliste, les lieux professionnels les plus souvent représentés sont le service des urgences (Unnatural Causes de L.R. Robinson; Critical Judgement de M. Palmer; The Surgeon de T. Gerritsen), le service des soins intensifs (The Patient de M. Palmer) et le service médico-légal (Chromosome 6 de R. Cook; Fatal de M. Palmer). Ces lieux médicaux éminemment spécialisés, par nature ou intrinsèquement évocateurs de danger ou de mort, sont propices à la construction progressive du suspense. Les scènes chaotiques qui s'y déroulent sont décrites par des auteurs qui connaissent bien les rouages de ces différents services. Les protagonistes de nombreux medical thrillers sont d'ailleurs souvent des urgentistes ou des médecins affectés aux urgences. C'est le cas d'Abby Dolan, l'héroïne de Critical Judgment, d'Evelyn Sutcliffe, « resident in emergency medicine », dans Blood Run ou encore de Toby Harper, l'urgentiste de Life Support. Les scènes liées à la médecine légale sont également assez fréquentes. Une autopsie bien menée ou une analyse pathologique pertinente peuvent faire avancer l'intrigue. Joanna Blalock, l'héroïne de A Deadly Practice est spécialisée dans la pathologie médico-légale. Un des personnages principaux de Chromosome 6, Jack Stapleton, est médecin légiste. Dans le processus narratif, l'influence du milieu professionnel sur les motivations des personnages principaux est particulièrement claire dans cet extrait de Unnatural Causes : Well, it's a long story. My parents had always steered me toward a career in medicine. My mother's the director of nursing at a large hospital center in New Jersey, and my father's a pediatric neurologist there. To make them happy, I took a double major in English and biology. (Robinson 2001 : 53) L'influence de la formation professionnelle initiale des auteurs est telle que, même dans un contexte narratif non médical, le choix des figures de rhétorique ramène le lecteur à la réalité médicale. Dans The Apprentice, l'agent du FBI Dean, venu seconder le détective Rizzoli sur la scène du crime, est comparé à un chirurgien : « She watched as Dean gracefully balanced on one leg to pull on a shoe cover. He thrust his long hands into gloves, like a surgeon preparing to operate » (Gerritsen 2003 : 161). Cette scène entre les personnages principaux de Invasion donne lieu à une allusion médicale alors que l'atmosphère générale est proche de celle des romans de science-fiction : “You're going to be okay,” Beau said. Cassy shuddered. It was the cliché that was always told to the patient no matter what the prospective prognosis. (Cook 1997 : 269) Toutefois, les scènes purement médicales sont minoritaires dans certains medical thrillers récents qui privilégient les rebondissements de l'intrigue. Dans ces conditions, il est préférable de parler de romans à suspense à influence médicale. Ainsi, R. Cook met-il en avant l'action dans Chromosome 6 et la science-fiction dans Invasion. Les scènes médicales de The Apprentice représentent moins de dix pour cent de la trame narrative du roman. Il importe désormais de vérifier si le lien étroit entre substrat professionnel et narration a son pendant dans la trame linguistique des medical thrillers. La pertinence de l'étude des caractéristiques discursives et linguistiques propres à chaque communauté professionnelle a été soulignée par E. Benveniste : On pourrait vérifier ainsi sur un modèle réduit le rôle de la langue à l'intérieur de la société en tant que cette langue est l'expression de certains groupes professionnels spécialisés, pour qui leur univers est l'univers par excellence. (1974 : 459-460) Le style télégraphique émaillé d'abréviations et de termes techniques présent dans la plupart des romans à suspense à dominante médicale reflète le discours à la fois concis et précis des urgentistes. Ce type de discours spécialisé peut désorienter le lecteur non averti, mais il établit un cadre professionnel crédible. Dans Unnatural Causes, l'auteur met son expérience professionnelle d'auxiliaire médicale au service de la narration afin de faire partager au lecteur l'urgence dramatique de la situation : ‘ Thank God, you're back, ' Ramsey cried. ‘ Incoming. MVA – we don't know anything except she's burned and there were fatalities at the scene. ' ETA two minutes. ' […] By now the sirens were whooping down Amsterdam Avenue. We lined up by the ambulance bay door. The beep-beep-beep now of the ambulance backing into the bay. We threw open the doors and ran out onto the dock. The paramedics were already rolling. ‘ Unknown female, Asian, approximately mid-thirties, she was the driver of the vehicle, three fatalities, ' one of the medics announced as he propelled the gurney into the emergency room. ‘ BP one-eighty over ninety. ' (Robinson 2001 : 231-232) Le vocabulaire spécialisé (MVA, ETA, BP one-eighty over ninety …), contribue à l'effet de réel. Ce type de discours génère une certaine unité situationnelle et communicationnelle. Ceci fait écho à la théorie de J.M. Swales sur les codes du discours et de la communication au sein des communautés socio-professionnelles : « Established members of discourse communities employ genres to realize communicatively the goals of their communities » (1990 : 52). Dans The Patient, le lecteur n'a pas de difficulté de compréhension particulière. Le seul terme technique, « the temporalis muscle », est explicité par le narrateur et l'image de « the question-mark incision » est transparente : Working with practiced quickness, Jessie made a question-mark incision just over Sara's left ear, then worked the scalp away and began freeing the temporalis muscle – the broad muscle that closes the jaw. All the while, she was concentrated on locating the upper branch of the facial nerve and the vessels arising off the temporary artery. Cutting through any of those structures would have permanent consequences. (Palmer 2001 : 56) Dans The Surgeon, le discours se complexifie quelque peu (« bowel sounds, paracentesis, a central line, Ringer's lactate »), mais le lecteur est à même de comprendre l'essentiel : Ron Littman, the senior surgical resident, gave her a rapidfire report. “John Doe Pedestrian, hit-and-run. Rolled into the E.R. unconscious. Pupils are equal and reactive, lungs are clear, but the abdomen's distended. No bowel sounds. BP's down to sixty over zip. I did a paracentesis. He's got blood in his belly. We've got a central line in, Ringer's lactate wide open, but we can't keep his pressure up.” (Gerritsen 2002 :19-20) En revanche, la compréhension par le profane de ces quelques lignes extraites de Shock est soumise à l'utilisation d'un dictionnaire médical. Le seul effort de vulgarisation fait par l'auteur est l'utilisation de l'expression courante « belly button » pour éclairer le sens du terme strictement médical « umbilicus » : Paul's first goal was to introduce the trocar of the insufflation unit to fill the patient's abdominal cavity with gas. It was the creation of a gap-filled space that made the laparoscopic surgery possible. Sheila helped by grabbing two bites of skin alongside Kristin's belly button with towel clips and pulling up on the relaxed abdominal wall. Meanwhile, Paul made a small incision at the umbilicus and then proceeded to push in the foot-long Veress insufflation needle. (Cook 2002 : 8) Dans un souci de clarification, il n'est pas rare que le narrateur (ou un personnage) intervienne afin d'expliquer une abréviation ou un terme technique. Comme le montrent ces quelques reformulations malicieuses tirées de Unnatural Causes, la réalité parfois sèche du discours médical spécialisé doit s'accommoder de quelques aménagements nécessaires à la compréhension : Vittorio was not what you would call a compliant patient… He skied the most expert, black-double-diamond slopes; twice he'd sustained tib-fib fractures (both bones in the lower legs). Sailing to him meant offshore in vessels that had no business leaving sheltered bays. So far he'd been hospitalized on one occasion for hypothermia (freezing your ass), and on another for concussion (the boom on the boat swung around and hit him in the head, knocking him overboard). (Robinson 2001 : 43) Soucieux d'éclairer le lecteur non initié, F.G. Slaughter a recours au même procédé explicatif. Non content de reformuler un terme pourtant largement connu (« cartilage »), il propose une alternative plus familière, « breastbone », au mot « sternum » : What would have been gibberish to the uninitiated was perfectly understandable to Mark. Tietze's syndrome was a very painful condition in which the cartilage – gristle to the lay person – attaching the end of a rib to the breastbone or sternum was partially ruptured, causing intense chest pain that could easily be mistaken for angina. “Floppy mitral” described an anatomical abnormality found in perhaps twenty percent of the general population without causing any symptoms – except in a few. (Slaughter1983 : 47) Les auteurs vont parfois jusqu' à insérer des documents (pseudo) authentiques comme une fiche de suivi de patient dans A Case of Need (Crichton 1969 : 9) ou des graphiques dans The Terminal Man (Crichton 2002 : 127-128). Cette insertion dans le corps du texte d'éléments spécialisés renforce la prégnance du réel médical dans le roman. En voici une illustration extraite de Flashback : Brief operative note (full note dictated) : … Four-inch gash over T-10, 11, and 12 debrided … hemostasis attained … wound explored. … Jagged five centimeter by three centimeter piece of rusty metal removed without difficulty … dura appears intact; … No collection of blood noted. … Wound irrigated copiously, and then closed with drain in place. … Patient sent to recovery room in stable condition, still unable to move either lower extremity. … Tetanus and antibiotic prophylaxis initiated. … Preoperative impression : foreign body, low midback; postoperative impression : same, plus paraplegia – etiology uncertain, possibly secondary to spinal cord disruption or circulatory embarrassment. (Palmer 1995 : 316) Au vu de ces divers exemples, il est possible de dire que le discours type de la plupart des medical thrillers est à dominante médicale, même si des aménagements ponctuels (reformulations, définitions…) sont apportés pour faciliter la compréhension. Toutefois, il convient d'ajouter que le discours médical est proportionnel au substrat professionnel contenu dans la trame narrative. D'un point de vue purement linguistique, il serait intéressant de vérifier si les théories de plusieurs chercheurs sur le discours spécialisé dans un contexte purement professionnel sont applicables à la FASP médicale. C. Candlin a étudié différents modes de communication dans le cadre de consultations médicales formelles. Malheureusement, dans la plupart des medical thrillers, ce type de communication n'est pas dominant car les patients se retrouvent fréquemment dans des situations (service des urgences, soins intensifs…) où ils ne sont pas ou peu en mesure de communiquer. T. Varttala a observé les stratégies de communication mises en œuvre dans les articles médicaux spécialisés. Son analyse de la stratégie du hedging pourrait fort bien être appliquée au domaine de la FASP médicale : On the one hand, hedging may take place when the precision level of exact references or numerical expressions is lowered to meet the interests of a non-specialist audience. On the other hand, hedging may be applied in a seemingly opposite manner so as to make sure that the readership draws the desired conclusions from the information presented. In both cases, hedging takes place when the specialist author aims at adjusting the information to the assumed earlier knowledge of a less educated audience. (Varttala 1999 : 191-192) Il pourrait également être utile d'analyser les relations et les formes de communication interpersonnelle entre médecins et / ou chirurgiens, courantes dans les romans à suspense à dominante médicale. De telles études dépassent le cadre de cet article, mais elles pourraient faire l'objet d'un travail de recherche ultérieur. Après avoir défini la FASP médicale en tant que sous-groupe générique de la fiction à substrat professionnel, il nous a paru utile de comparer le résultat de notre étude avec le vécu d'auteurs de romans à suspense à dominante médicale. Afin d'étudier au mieux la perméabilité entre le milieu professionnel initial – celui de la médecine – et l' œuvre de fiction, nous avons soumis en septembre 2003 un questionnaire ciblé à quatre auteurs de medical thrillers : R. Cook, M. Palmer, L.R. Robinson et T. Gerritsen. À l'exception de R. Cook, notre questionnaire a été soumis aux quatre écrivains sous forme électronique en utilisant leurs sites personnels ou professionnels. Il comporte huit questions. Nous présentons ici les questions posées et une synthèse des éléments les plus pertinents de leurs réponses. 4.2.1. At this stage, do you consider yourself as a doctor who writes or as a writer who happens (or happened) to be a doctor ? Il semble que l'empreinte du milieu professionnel initial reste forte chez les auteurs de la première génération. Il convient de noter que les commentaires de L.R. Robinson sont parfois ambigus car, bien qu'étant auxiliaire médicale dans un service des urgences d'un hôpital new-yorkais, elle ne se considère pas comme un médecin à part entière. 4.2.2. What motivations caused you to switch from medicine to fiction ? R. Cook prétend avoir été motivé par un souci de vulgarisation. T. Gerritsen affirme clairement avoir délaissé définitivement la pratique de la médecine pour l'écriture par vocation littéraire. En ce qui concerne les raisons qui ont poussé ces auteurs à privilégier l'écriture, elles sont également d'ordre familial et pratique (M. Palmer et T. Gerritsen). 4.2.3. How familiar were you with the thriller genre when you started writing ? À l'exception de T. Gerritsen, les auteurs n'avaient pas une connaissance approfondie du genre du thriller quand ils se sont aventurés sur le terrain de l'écriture. Toutefois, de nombreux écrivains spécialisés dans le roman policier ou à énigme – au rang desquels M. Connelly, P.D. James, mais aussi S. King – les ont influencés. Il est intéressant de noter l'émulation précoce entre M. Palmer et R. Cook et l'influence de M. Crichton et R. Cook sur les écrivains de la deuxième génération de la FASP médicale. 4.2.4. In your view, what are the narrative techniques that best fit the atmosphere and the purposes of medical thrillers ? Le contenu narratif des medical thrillers semble étroitement lié au milieu professionnel initial. Tous les auteurs insistent sur le fait que l'association d'un certain réalisme médical reposant sur leur expérience personnelle et d'une intrigue fondée sur le mystère constitue la pierre angulaire du roman à suspense à dominante médicale. R. Cook et T. Gerritsen indiquent que l'hôpital et son cortège de peurs se prêtent bien à la rédaction des romans à suspense à dominante médicale. En outre, T. Gerritsen affirme qu'une adaptation du discours spécialisé est indispensable. 4.2.5. Do you work or exchange views with other writers of medical thrillers ? Les différents auteurs ont tendance à travailler en solitaire, ce qui ne plaide pas en faveur de l'existence d'une « École de la Nouvelle-Angleterre » formelle. En effet, leur seul travail collaboratif notoire est celui des ateliers d'écriture co-organisés dans le Massachusetts par T. Gerritsen et M. Palmer. 4.2.6. What do you think of the assumption that there might be a « New England School” in the field of medical fiction ? Même si R. Cook se pose en père fondateur, notre hypothèse d'une « École de la Nouvelle-Angleterre » fondée sur la collaboration entre les principaux auteurs ne se vérifie pas. Toutefois, le rôle prépondérant et fédérateur de l'environnement médical exceptionnel de la Nouvelle-Angleterre dans le développement du roman à suspense à dominante médicale est reconnu de façon explicite. 4.2.7. Do you personally believe in the pedagogical value of medical thrillers ? Les auteurs pensent qu'ils font œuvre de vulgarisation, voire de pédagogie, en raison des sujets scientifiques ou d'actualité abordés dans leurs romans. R. Cook et M. Palmer soulignent la portée éthique, voire politique, des sujets qu'ils traitent. 4.2.8. In what pedagogical context(s) are your novels used in the United States ? À l'exception des romans de L.R. Robinson, leurs medical thrillers sont utilisés à des fins pédagogiques dans le secondaire et le supérieur aux États-Unis. Après un contact électronique complémentaire avec T. Gerritsen, il nous est possible de dire qu'un enseignant d'un lycée du Maine (The Maine School of Science and Mathematics), John Corrigan, utilise régulièrement les romans de T. Gerritsen – en particulier Gravity – dans ses cours de littérature. Bill Pomidor, qui enseigne dans une faculté de médecine de l'Ohio, s'en sert également comme œuvre de référence pour son cours Medical School Class in Fiction. Quant au professeur Gary Goshgarian (Department of English, Northeastern University), il propose à ses étudiants l'étude de Harvest dans son cours intitulé Modern Bestsellers. Il est intéressant de noter que G. Goshgarian écrit également des medical thrillers (cf. Gray Matter, Elixir) sous le nom de plume de Gary Braver. L'étude des principaux romans à suspense à dominante médicale permet d'affirmer que les milieux professionnels de la santé peuvent se reconnaître dans le substrat professionnel qui les caractérise. L'intégration, à partir du genre littéraire classique du thriller, d'éléments linguistiques et socio-professionnels propres au domaine médical donne lieu à un faisceau de caractéristiques communes fortes, emblématiques du sous-groupe générique de la FASP médicale. L'extrait suivant du paratexte éditorial de Unnatural Causes résume bien ces éléments fédérateurs : « Interesting and credible characters […] an intelligent and gutsy heroine […] realistic medical emergencies » (commentaire d'un journaliste du Daily Telegraph). Ce substrat professionnel crédible, car proposé par des auteurs issus de la communauté médicale, est associé à une intrigue haletante fréquemment liée à un contexte médical et à un discours spécialisé souvent adapté au grand public. La cohérence de la FASP médicale est assurée par l'expérience professionnelle initiale des auteurs, leur désir de vulgarisation et le rôle fédérateur de l'environnement médical propice de la Nouvelle-Angleterre. Comme le montrent les diverses utilisations pédagogiques des medical thrillers aux États-Unis, les romans à suspense à dominante médicale sont susceptibles de trouver un écho favorable auprès des étudiants et des professionnels de la santé. Ce travail de recherche nous incite à penser que le roman à suspense à dominante médicale présente des caractéristiques suffisamment crédibles et attractives pour provoquer une envie de lecture accrue auprès des membres des professions médicales qui souhaitent progresser en anglais. Le chercheur y trouvera un terrain fertile, car bien des questions restent en suspens, voire en suspense .
Le but de cette étude est de mettre en lumière les relations entre les milieux professionnels de la médecine et la fiction à substrat professionnel (FASP) et de les analyser. Il est convenu de dire que les medical thrillers, dont les caractéristiques principales en tant que sous-groupe générique de la FASP sont présentées ici, offrent un reflet plutôt fidèle du monde de la médecine, L'auteur montre l'intégration en profondeur du discours et des pratiques de la communauté médicale dans la trame paratextuelle, narrative et linguistique des romans à suspense à dominante médicale. Afin de mieux comprendre les relations entre l'environnement professionnel et l'oeuvre de fiction, l'auteur présente les résultats d'un questionnaire soumis à quatre médecins devenus écrivains: R. Cook, M. Palmer, L.R. Robinson et T. Gerritsen.
linguistique_08-0265420_tei_758.xml
termith-542-linguistique
Le terme de « sémiotique » exige souvent de laborieuses mises au point. Il se trouve actuellement au centre d'un remue-ménage qui agite les sciences du langage et qui s'étend même au dehors de celles -ci. Son intégration a lieu dans des champs de recherche si dissemblables qu'on ne saurait leur trouver un air de famille : ils ne se reconnaissent pas même entre eux. Cette dissemblance, certes, ne date pas d'hier. Rien ne permet, par exemple, de rapprocher la sémiotique de Peirce, qui prétend être une théorie de la connaissance — une logique, d'après l'intention de Peirce lui -même — de celle de Saussure ou de Greimas, qui se présentent comme des sémiotiques linguistiques. N'est -ce pas alors prendre le parti de la complication, voire de la contradiction, que d'associer à la sémiotique des personnalités aussi contrastées que Locke, Peirce, Saussure, Hjelmslev, Benveniste, Greimas, Prieto, Lotman, pour ne citer qu'eux, ainsi qu'on a encore coutume de le faire ? Au départ, une opposition semble s' être faite entre la sémiotique européenne et la sémiotique américaine. En France, durant l'ère structuraliste, c'était surtout à Greimas qu'on pensait chaque fois que le terme de sémiotique était évoqué; il fallait cependant faire une exception avec Perpignan, où G. Deledalle et son équipe travaillaient sur la sémiotique de Peirce. En revanche, aux États-Unis, où le terme est employé dans sa forme plurielle — semiotics —, ce sont les travaux de Peirce ou Morris qui permettent de s'en réclamer. Mais il est vrai que la sémiotique américaine reste peu connue en France, surtout dans le milieu des linguistes, et que sans doute l'introduction de cette sémiotique dans les programmes universitaires n'est pas pour demain. Aussi n'est -ce pas cette opposition inter-atlantique qui est la cause fondamentale de l'ambivalence du terme de sémiotique. On constate en revanche que le terme de sémiotique revient ces derniers temps sous les plumes de chercheurs tels que Fr. J. Varela, P. Ricoeur, R. Thom, Fr. Rastier, B. Cyrulnik, J-Cl. Coquet, J. Fontanille, qui sont loin de partager les mêmes objets de connaissance. Cette liste hétérogène suscite bien des réflexions. Bornons -nous à constater qu'aujourd'hui le terme de sémiotique ne caractérise plus personne. Autrement dit, il ne caractérise plus un domaine de recherche particulier : bien des chercheurs, travaillant dans des domaines de recherche divers, se l'approprient sans spécifier son sens. Nous nous proposons d'étudier ici la coexistence au sein de la sémiotique européenne de deux paradigmes, attachés respectivement aux noms de Hjelmslev et de Greimas. Plus précisément, nous cherchons à savoir ce qu'il en est de la reconduction du projet glossématique de Hjelmslev dans la sémiotique de Greimas. En effet, on place souvent Greimas dans la continuité de Hjelmslev, en invoquant des concepts comme texte, connotation, dénotation, immanence, empirisme, pour s'en tenir aux plus connus. Cette continuité mérite d' être examinée de plus près : les deux sémiotiques ne visent pas à recouvrir les mêmes types de problématiques, même si elles empruntent les mêmes voies. C'est ce que nous argumentons dans la première partie, introduite par quelques commentaires sur la réception tardive de l' œuvre de Hjelmslev, en interrogeant la notion de « texte » à travers la catégorisation « universel » vs « général ». Dans la seconde partie, nous montrons que ce sentiment de parenté n'est pas pour autant sans fondement : entre Hjelmslev et Greimas, il y a bien une continuité. Seulement, il ne faut pas la chercher directement dans la reconduction par Greimas du projet linguistique de la glossématique, mais bien dans la réflexion épistémologique de Hjelmslev, lorsque celui -ci conçoit la sémiotique comme une sémiotique universelle avec des sémiotiques spécifiques. Arrivé commente ce paradoxe dans les termes suivants : À qui jette un coup d' œil sur la production linguistico-méthodologique de la sémiotique contemporaine — voire d'une façon générale sur les discours des sciences humaines — apparaît à l'égard de la glossématique un trait caractéristique : à quelques rares exceptions, la référence à la glossématique est absente ou fortement péjorative (Arrivé 1981 : 305). Hjelmslev n'a donc pas fait école. Son héritage, tant au Danemark qu' à l'étranger, n'a pas marqué beaucoup de linguistes. Dans son pays natal, contrairement à ce qui a eu lieu pour l'autre grand linguiste danois — V.Brøndal — le centenaire de sa naissance n'a pas été célébré. La glossématique de Hjelmslev devait attendre le milieu des années quatre-vingt, grâce à l'intérêt des linguistes, notamment des sémioticiens, pour sortir d'une ombre de longue durée. Car si c'est Greimas qu'on désigne comme le véritable continuateur de Hjelmslev, ce sont des chercheurs de la même demeure, qu'on appelle l' École de Paris, ou parfois des ex-greimassiens, qui ont assuré le relais. On peut mettre au premier rang les travaux de Fr. Rastier, Cl. Zilberberg, M. Arrivé et H. Parret. En Italie, c'est sous le patronage d'un autre sémioticien, U. Eco, que, par des recherches, d'ordre épistémologique et exégétique, notamment grâce aux numéros de Protagora et Versus, va réapparaître l'intérêt pour les écrits de Hjelmslev. Toujours en Italie, cet intérêt va jusqu' à faire naître le premier « Circolo glossematico » et une revue, Janus. Mais, dans les années soixante-dix, la redécouverte en France de l' œuvre de Hjelmslev avait déjà été amorcée grâce à Greimas et à Barthes. Des textes comme « Éléments de sémiologie », Le système de la mode ou Sémantique structurale ont relancé l'intérêt pour les textes de Hjelmslev. Les deux sémioticiens ou sémiologues travaillaient, à cette époque, de conserve. À propos de cette période, citons la réponse de Greimas à une question posée par Arrivé lors du colloque qui lui était consacré à Cerisy-la-Salle : Je n'arrive pas à me souvenir du moment de ma rencontre avec Hjelmslev. Je ne sais pas si c'est Barthes qui m'a dit que c'était important, ou si c'est moi qui l'ai dit à Barthes (1987 : 303). Chacun aura sa façon d'aborder les textes de Hjelmslev. Les deux parcours de Greimas et de Barthes illustrent clairement le poids déterminant du Danois sur la naissance en France de deux sémiotiques différentes. Ici on peut lire avec intérêt que ces deux sémioticiens, s'ils sont partis tous deux des textes du Danois, n'ont pas privilégié le même point de départ : Je sais que c'était un coup de foudre pour tous les deux [i.e. Greimas et Barthes ]. Seulement, il a commencé par les Essais et moi par les Prolégomènes (1987 : 42). Greimas a commencé par le chemin le plus théorique, préférant ainsi ce qu'il appelle le « système dénotatif », Barthes, lui, est allé vers les sémiotiques non scientifiques, c'est-à-dire les « langages de connotation » (lesquels, cependant, contrairement à ce que laisse entendre Greimas, sont développés non dans les Essais, mais bien dans les Prolégomènes). Par-delà ces divergences, l'apport novateur de Hjelmslev, son erreur géniale, pour reprendre une expression de Rastier, qui va beaucoup marquer la sémiotique en France, consiste à sortir de l'hypostase du signe : commencer non pas par les signes, mais par les relations, plus précisément par le texte : La théorie du langage s'intéresse à des textes, et son but est d'établir une procédure permettant la description non contradictoire et exhaustive d'un texte donné (Hjelmslev 1943 : 31). Et encore ceci : L'objet est bien entendu un texte que celui -ci se manifeste graphiquement sous la forme d'un message écrit ou phoniquement sous la forme d'un message oral (Hjelmslev 1985 : 77). Greimas a bien retenu la leçon. Le signe ne mène nulle part, ce n'est qu'un point de départ, car le vrai travail commence sous les signes : Pour moi, la science des signes, c'est une fausse définition. Parce que derrière les signes se cache le jeu des significations, et une analyse plus profonde amène à détruire, à déstructurer le signe, pour mettre à jour les univers de signification. Autrement dit, le travail de la sémiologie c'est de parvenir aux structures logico-abstraites sous-jacentes à l'effervescence des normes figuratives qui nous entourent, explique Greimas dans un entretien accordé au journal Le Monde (1974). Hjelmslev et Greimas, les sémioticiens connaissent cette bipolarité, mais il semble que la divergence entre ces deux pôles ait été sous-estimée. Car rares sont ceux parmi les linguistes qui sont allés lire le texte du Danois. Ce que l'on en connaît vient souvent de seconde main. Pour notre part, c'est en lisant un article de Cl. Zilberberg, l'un des grands connaisseurs des textes hjelmsleviens, que nous avons décidé d'entrer dans les rouages de cette soi-disant continuité. Le premier constat concerne le parcours des deux sémioticiens : Hjelmslev a voulu fonder une épistémologie pour toutes les sciences. Cela vaut la peine de rappeler immédiatement un passage central des Prolégomènes qui est à la base de notre point de vue : Nous pensons qu'il est possible de supposer que plusieurs des principes généraux que nous avons été amenés à adopter au stade initial de la théorie du langage ne sont pas seulement valables pour la linguistique, mais pour toutes les sciences (1943 : 17). Avec ce geste, Hjelmslev, nous dit Rastier, voulait reformuler « à sa façon la thèse néo-positiviste de l'unité de la science, que Morris et Carnap reprenaient en 1938 dans l ' Encyclopaedia of Unified Science; mais il place cette unification sous l'égide de la linguistique et non de la logique » (Rastier 1997 : 144). Cette épistémologie générale justifie l'intérêt qu'a suscité l' œuvre de Hjelmslev dans des disciplines aussi différentes que la philosophie, avec Derrida, Deleuze, Ricoeur, Guattari, Eco, les sciences du langage, avec Martinet, Greimas, Rastier, Zilberberg, Parret, ou avec des théoriciens de la littérature, tels Barthes et Kristeva. Cette diversité explique les différentes interprétations de la sémiotique de Hjelmslev, comme nous le montre M. Rasmussen dans cet extrait : Aussi voit-on en Hjelmslev un penseur à la fois positiviste (Gregerson 1991 : I, 28; II.214; Olsen 1989 : 49), en tous cas pas positiviste (Mortensen 1972 : 49; Kemp 1972 : 133-34), idéaliste (Mounin 1965 : 82), conceptualiste (Leroy 1952 : 529), positiviste logique (Pavel 1988 : 88), néorationaliste (Barilli 1974 : 126), platonicien (Jensen 1981 : 88), défenseur d'un empirisme sceptique (Stjernfelt 1992 : 184) ou bien d'une science à la fois aristotélicienne et galiléenne (Ranulf 1946 : 186-96) voire comme « le métaphysicien d'un structuralisme » (Meschonnic 1975 : 231). (Rasmussen 1993 : 115). Ces différentes interprétations trouvent leurs explications par l'ambition même du projet glossématique de Hjelmslev. Il suffit de lire les premières pages des Prolégomènes pour s'en apercevoir, ou la dernière phrase : La théorie du langage a ainsi atteint le but qu'elle s'était assigné : humanitas et universitas (1943 : 171). Greimas, lui, voulait construire, à travers le principe de la narrativité, une sémiotique qui ne tient pas compte du genre des textes : c'est-à-dire que rien ne devait échapper aux modèles construits par la sémiotique. Nous pensons à des notions comme « schéma actantiel », « schéma narratif », ou le fameux « carré sémiotique ». L'heuristique de la sémiotique du discontinu se voulait universelle. Car le sens réside partout où il y a activité humaine, il est structuré d'une façon narrativement indépendante; ainsi la sémiotique retrouve les mêmes structures profondes, stables et universelles, sans tenir compte de la spécificité des discours. Les auteurs du Dictionnaire de sémiotique vont jusqu' à considérer les structures sémio-narratives comme des « formes de l'intelligence humaine ». Nous les avons vues appliquées au discours littéraire : le Maupassant de Greimas, les analyses d'Arrivé sur l' œuvre de Jarry, ou encore les recherches de Fontanille sur Proust en témoignent; au discours juridique à travers les travaux de É. Landowski; au discours scientifique avec les analyses de F. Bastide. Pour cette sémiotique, tout est narrativisable, aussi bien les textes verbaux que les textes non verbaux. Les analyses de F. Thürlemann ou de J-M. Floch sur la peinture ou la publicité, ou celles du discours musical, avec les tentatives de E. Tarasti ou L. Tatit, reflètent clairement cette ouverture de la sémiotique sur le non-verbal. À cet égard, Greimas et son École reconduisent la tradition hjelmslevienne en reconnaissant la non-pertinence de la substance : la nature de la substance n'est pas définitoire pour la sémiotique : La classification selon les canaux de transmission de signes (ou selon les ordres de sensation) repose sur la prise en considération de la substance de l'expression : or celle -ci n'est pas pertinente pour une définition de la sémiotique (qui est en premier lieu une forme) (Greimas et Courtés 1979 : 341). À notre avis, s'il existe une continuité entre Hjelmslev et Greimas, c'est ici qu'il faut la chercher. Plus précisément, il faut voir que la glossématique de Hjelmslev se voulait, non pas une sémiotique générale, mais bien une sémiotique universelle. L'opposition « général » vs « universel » est un tournant décisif chez le sémioticien danois. C'est ce qui permet de distinguer le projet glossématique de sa préhistoire que l'on retrouve dans les Principes de grammaire générale ou dans La catégorie des cas. Car si Hjelmslev a commencé par viser le « général », c'est qu'il avait conscience d'appartenir à une tradition, comme celle de son compatriote R. Rask, ou celle de Grimm et Saussure. Le mot « général » revenait souvent dans le discours d'un grand nombre de linguistes de cette époque : en témoignent, par exemple, Linguistique historique et linguistique générale de A. Meillet, Cours de Linguistique générale de F. de Saussure, Linguistique générale et linguistique française de Ch. Bally. Beaucoup de passages des textes de Hjelmslev permettent de trancher cette question du « général » et de l' « universel ». D'un texte de 1939, nous proposons le passage suivant : Une grammaire générale ne se fait pas en alléguant quelque principe extra-linguistique, qu'il soit d'ordre logique, psychologique, biologique, sociologique, ou qu'il soit emprunté à telle théorie philosophique ou à telle autre. Une grammaire générale ne se fait pas non plus par les généralisations prématurées de la squinting grammar, et la grammaire générale ne se confond pas avec la grammaire gréco-latine, ni avec celle de l'indo-européen primitif. La grammaire générale ne s'acquittera de sa tâche qu' à condition de devenir grammaire comparative. C'est la comparaison des langues qui permet d'établir la grammaire du langage (Hjelmslev 1939 : 140). On est ici à l'opposé absolu de la théorie glossématique que Hjelmslev produira quelques années plus tard, en quittant le général et l'induction pour l'universel et la déduction. Ici donc seule la méthode comparatiste est jugée pertinente pour établir une grammaire générale, pour saisir la réalisation d'un fait réalisable derrière le réalisé. L'exigence à laquelle est soumise la grammaire générale consiste à s'interroger sur les faits réalisables et surtout sur les conditions intrinsèques de leur réalisation. Ces conditions permettent de considérer l'objet de l'analyse sans aucune référence à la réalité mondaine, sans aucune référence extrinsèque, seule la langue fait référence, comme le dit clairement le principe d ' « immanence » : La grammaire générale ne se confond pas avec la grammaire universelle : la grammaire générale est faite par la reconnaissance des faits réalisables et des conditions immanentes de leur réalisation (ibid.; nous soulignons). Et plutôt que de rester à l'intérieur du signe, comme on l'a vu ci-dessus, Hjelmslev propose d'aller vers le texte avec une méthode déductive – dans l'acception particulière que ce terme a chez lui –. Ainsi pour l'objet de la glossématique, il propose ceci : Nous exigeons par exemple de la théorie du langage qu'elle permette de décrire non-contradictoirement et exhaustivement non seulement tel texte français donné, mais aussi tous les textes français existants, et non seulement ceux -ci, mais encore tous les textes français possibles et concevables – même ceux de demain, même ceux qui appartiennent à un avenir non déterminé – aussi longtemps qu'ils seront de même nature que les textes considérés jusqu'ici (1943 : 32). Un autre passage des Prolégomènes corrobore ce point de vue : Le linguiste, comme tout autre théoricien, doit donc avoir la précaution de prévoir toutes les possibilités concevables, y compris celles qui sont encore inconnues et celles qui ne seront pas réalisées. Il doit les ajuster à la théorie de telle façon que celle -ci soit applicable à des textes et à des langues purement potentiels, et dont certains ne seront peut-être jamais réalisés. C'est ainsi seulement que l'on peut assurer l'applicabilité d'une théorie du langage (1943 : 32-33). Or de cette applicabilité nous n'avons rien lu chez Hjelmslev. Le Danois faisait partie des gens qui détestaient donner des leçons sur l'applicabilité de leur théorie; à d'autres il réservait ce soin, à en croire E. Fischer-Jorgensen. Greimas, au contraire, s'est donné, depuis Sémantique Structurale, une double tâche : mener de front théorie et pratique. Son entreprise adopte un mouvement en spirale : elle progresse en reconstruisant, dans le but de l'approfondir, ce qu'elle a déjà amorcé et construit. Et si Sémantique Structurale et Du Sens se caractérisent par une élaboration de modèles opératoires à partir d'un matériau théorique déjà formulé, Maupassant, Du Sens II ou De l'imperfection se distinguent par leur démarche analytique. Il faut ajouter pourtant que ce geste universaliste, proposé par Hjelmslev, et reconduit ensuite par Greimas, est contrebalancé, d'une certaine façon, par ce qu'on appelle l'objet de connaissance. La thèse de l'auteur des Prolégomènes consiste à partir du texte, mais sans pour autant le prendre comme objet visé par la théorie. Pourquoi donc analyse -t-on le texte ? Tout simplement pour accéder au système de la langue. Certes, l'un des grands mérites du maître danois est d'avoir fondé une sémiotique sans tenir compte de la tradition classique, préoccupée par l'analyse des signes. Il faut cependant signaler qu'il ne visait pas ainsi la fondation d'une grammaire du texte, telle que la conçoivent Van Dijk ou Kintsch, encore moins une sémantique des textes, telle qu'elle a été élaborée depuis par Rastier, ni même une linguistique textuelle, telle qu'elle est pratiquée par J-M. Adam. L'objectif de Hjelmslev est d'analyser le texte pour manifester la langue, considérée comme l'axe paradigmatique correspondant au texte comme syntagmatique. Mais si Hjelmslev faisait du texte la voie royale d'accès au système de la langue, Greimas, lui, l'aborde au profit de la narrativité. Cette notion de narrativité, complètement absente chez Hjelmslev, permet à Greimas d'examiner le texte comme le résultat d'une série de transformations, définies comme un enchaînement logique de plusieurs étapes, lesquelles se répartissent dans un rapport de présupposition. On voit ainsi que ces deux sémiotiques ont le même point de départ, qu'elles empruntent les mêmes chemins, mais qu'elles ne se dirigent pas vers le même terme, car leur objet de connaissance est différent. D'où la conclusion suivante : les réflexions du Hjelmslev linguiste, n'ont pas beaucoup impressionné Greimas; c'est plutôt le Hjelmslev épistémologue qui, semble -t-il, l'a fasciné, ainsi que le laisse voir la question des sémiotiques spécifiques. Hjelmslev, dont l' œuvre est un maillon indispensable pour comprendre l'évolution de la sémiotique moderne, avait précisément pour dessein de formuler une sémiotique universelle qu'il a baptisée glossématique. Cependant son projet ne s'arrête pas là, on y trouve aussi une place considérable pour ce qu'on peut appeler des « sémiotiques spécifiques », c'est-à-dire des sémiotiques qui se définissent par la singularité de leur champ de validité. Ces sémiotiques spécifiques n'ont néanmoins bénéficié que d'un chapitre de douze pages dans les Prolégomènes, alors que l'intérêt porté à ces sémiotiques par des chercheurs aussi divers que Barthes, Greimas, Metz et Kerbrat-Orecchioni, pour ne citer que ceux -ci, est redevable en grande partie à ces quelques pages. Sauf erreur de notre part, le nombre de types différents de ces sémiotiques spécifiques se limite à dix. Pour la commodité du lecteur, citons à nouveau leurs définitions. Avant de procéder à cette présentation, on doit souligner que ces dix sémiotiques spécifiques ont été distinguées les unes des autres sur une nouvelle base, à savoir l'opposition « sémiotique scientifique » vs « sémiotique non scientifique » : Une métasémiotique est une sémiotique scientifique dont un ou plusieurs plans sont une sémiotique. Une sémiotique connotative est une sémiotique non scientifique dont l'un des deux plans, celui de l'expression, est une sémiotique. Une sémiotique dénotative est une sémiotique dont aucun des deux plans n'est une sémiotique. Une métasémiotique scientifique est une métasémiotique dont l'objet est une sémiotique scientifique. Une sémiologie est une métasémiotique dont la sémiotique objet est une sémiotique non scientifique. Une sémiologie interne est une sémiologie dont la sémiotique objet est une sémiotique dénotative. Une sémiologie externe est une sémiologie dont la sémiotique objet est une sémiotique connotative. Une métasémiologie est une métasémiotique scientifique dont les sémiotiques objets sont des sémiologies. Une métasémiologie interne est une métasémiotique dont les sémiotiques objets sont des sémiologies internes. Une métasémiologie externe est une métasémiologie dont les sémiotiques objets sont des sémiologies internes. Devant cette panoplie de sémiotiques, le lecteur aperçoit sans aucun doute l'importance du rôle accordé au mot « scientifique », terme dangereux et lourd de connotations diverses. Qu'est ce que donc « scientifique » peut bien vouloir dire dans ce contexte ? Essayons de le comprendre en suivant pas à pas le texte de Hjelmslev. Selon les Prolégomènes, il s'agit d'un concept auquel incombe la fonction de distinguer deux types de sémiotiques. Sa définition est donc tributaire de la notion d ' opération, concept clé dans la terminologie de la glossématique. Prenons pour exemple la métasémiotique que Hjelmslev qualifie de scientifique : c'est une opération, alors que la sémiotique connotative n'en est pas une. Mais qu'est ce qu'une opération ? Hjelmslev la définit comme une « description en accord avec le principe d'empirisme » (1943 : 50). Cette définition manifeste l'un des traits essentiels du style des Prolégomènes, où rien n'est démontré, rien n'est défini dans le sens traditionnel du terme. L'axiomatique glossématique n'est définie que relationnellement; il y a une détermination entre les définitions, celles qui précèdent présupposant celles qui suivent et inversement. Tout cela ressemble à une pelote telle que si l'on tire un fil, tout le reste suit. Et puisque les choses fonctionnent de la sorte, poursuivons avec la notion d'empirisme : La description devra être exempte de contradiction, exhaustive et aussi simple que possible (Hjelmslev 1985 : 88). À partir de là, on peut inférer que les sémiotiques scientifiques sont régies par le principe d'empirisme, tandis que les sémiotiques non scientifiques ne le sont pas. De ce fait, on voit que la scientificité est tributaire de l'opération, et que l'opération est une propriété du principe d'empirisme. Ainsi les sémiotiques connotatives, comme sémiotiques non scientifiques, peuvent entraîner la contradiction, ne sont pas exhaustives et donnent des résultats qui enfreignent le principe de simplicité, tandis que la sémiotique dénotative est par principe non contradictoire et tend vers l'exhaustivité et la simplicité. De ce point de vue, le concept d'opération est conforme à l'adage hjelmslevien suivant lequel tous les concepts sont définis comme étant des concepts souples et relatifs. Tout se résume donc en ceci : comme les principes d' « analyse », de « grandeur », de « signe », de « signification » et d' « empirisme » sont relatifs, le concept d'opération aussi ne peut être que simple et relatif : De telles définitions font de l'opération et de la procédure des concepts souples (1943 : 50). Cela signifie que ce qui sépare les sémiotiques scientifiques et les sémiotiques non scientifiques est poreux; dès lors, il n'y a pas de division absolue entre ces deux sémiotiques. À bien les examiner, cependant, les sémiotiques scientifiques et les sémiotiques non scientifiques vont en sens inverse les unes des autres. Pour saisir ce qui les distingue, glossématiquement, nous choisirons, faute de pouvoir embrasser la totalité des sémiotiques, deux sémiotiques distinctes se rapportant chacune à une classe précise de sémiotiques. Parmi les sémiotiques scientifiques, on interrogera la sémiotique dénotative, et parmi les sémiotiques non scientifiques, la sémiotique connotative. À partir de ces deux types de sémiotiques, nous pouvons voir que lorsque Hjelmslev parle de sémiotique non scientifique, cela ne veut pas dire, comme semblent le comprendre Greimas et Courtés, qu'elle est située « en dehors du champ de la scientificité », mais tout simplement qu'elle n'est pas une opération, et par conséquent, pas une théorie. Voilà le critère qui nous semble décisif pour distinguer ces deux sémiotiques. En d'autres termes, si ces deux sémiotiques sont opposées selon le critère de scientificité, il faut préciser que celui -ci est lui -même dépendant d'un autre principe, le principe d'empirisme — critère indispensable pour parler du concept de théorie. En effet, qu'est -ce qu'une théorie, demande Hjelmslev, sinon une voie qui nous conduit « à des résultats conformes aux faits d'expérience » (1943 : 50) ? Revenons aux deux exemples choisis ci-dessus, sémiotique dénotative vs sémiotique connotative, pour voir les choses sous un angle un peu différent. Pour la sémiotique connotative, il s'agit d'une sémiotique qui fonde en constante ce qui est susceptible de variation dans la sémiotique dénotative. C'est donc la variabilité du plan d'expression de la sémiotique dénotative qui rend possible l'apparition d'une sémiotique connotative. C'est à partir de là qu'il devient aisé de suivre la pensée du maître danois. Premièrement, on peut constater que la sémiotique dénotative est définie comme théorie, c'est-à-dire comme sémiotique exempte de contradiction, exhaustive et simple, tandis que la sémiotique connotative est vue comme hiérarchie « dont chacune des composantes admet une analyse ultérieure en classe définie par relation mutuelle, de telle sorte que chacune de ces classes admette une analyse en dérivés définis par relation mutuelle » (Hjelmslev 1985 : 96). Almeida voit ce problème des sémiotiques scientifiques et des sémiotiques non scientifiques autrement et permet, à notre avis, de comprendre clairement cette opposition. Il propose d'appréhender les sémiotiques scientifiques comme des sémiotiques décrivantes, et les sémiotiques non scientifiques comme décrites : Tout se résume donc en ceci : une sémiotique non scientifique est une hiérarchie décrite, et une sémiotique scientifique est la même hiérarchie mais prise en tant que décrivante (1998 : 3). Un doute s'élève. La sémiotique dénotative est une sémiotique dont aucun des deux plans n'est une sémiotique, c'est pourquoi elle est décrivante, tandis que la plan d'expression de la sémiotique connotative est une sémiotique, et c'est pourquoi elle est vue comme décrite, c'est-à-dire comme hiérarchie, à l'encontre de la décrivante qui est une opération, et par voie de conséquence, une théorie scientifique. Or cela ne veut pas dire que la sémiotique connotative est dépourvue de scientificité, mais simplement qu'elle n'est pas une théorie parce qu'elle dépend d'un principe souple et relatif, le principe d'opération. Le seuil qui sépare, donc, les sémiotiques scientifiques des sémiotiques non scientifiques est fragile, puisqu'il dépend d'un moule souple et maniable selon les procédures d'analyse. En gardant en mémoire la typologie hjelmslevienne, Greimas propose de diviser les sémiotiques en trois niveaux, sans pour autant faire intervenir le critère de scientificité, écarté au profit du nombre des plans dont une sémiotique est constituée : sémiotique monoplane, sémiotique biplane, sémiotique pluriplane. Les premières, c'est-à-dire les monoplanes, sont les systèmes de symboles dont les deux plans du langage sont liés par une relation de conformité. C'est le cas de l'algèbre et des jeux. À la différence des autres sémiotiques, les biplanes, ou sémiotiques proprement dites pour Hjelmslev, sont celles qui comportent deux plans. Quant aux sémiotiques pluriplanes, Greimas entend les sémiotiques biplanes dont au moins un des deux plans est une sémiotique. Les sémiotiques connotatives et les métasémiotiques font partie de cette troisième catégorie. Ensuite Greimas abandonne cette tripartition en proposant de distinguer les sémiotiques linguistiques des sémiotiques non linguistiques. Cette dernière opposition le conduit à reconnaître que le phénomène de la signification « peut se cacher sous toutes les apparences sensibles, elle est derrière les sons, mais aussi derrière les images, les odeurs et la saveurs, sans pour autant être dans les sons ou dans les images » (Greimas 1971 : 49), d'où l'indifférence de la forme sémiotique à la nature de la substance qui la manifeste. Ceci posé, l'on peut tout de même prévoir des cas où il y ait hétérogénéité des sémiotiques : il sera alors possible d'examiner des sémiotiques élaborant leur plan de l'expression à partir d'éléments relevant de sémiotiques diverses. C'est ce que Greimas appelle sémiotiques syncrétiques. Qu'il suffise d'évoquer, par exemple, tout le travail réalisé par la sémiotique du cinéma, la proxémique et la sémiotique visuelle où se manipulent des éléments provenant de plusieurs sémiotiques différentes. Ceci dit, il convient d'ajouter que ces sémiotiques spécifiques constituent un champ de recherches qui procèdent souvent par emprunts conceptuels. S'appropriant telle ou telle notion, qui a pris naissance dans la sémiotique universelle, les sémiotiques spécifiques la modèlent et la redéfinissent conformément à leurs principes de pertinence. Ce fut le cas de la sémiotique visuelle, ce fut aussi le cas de la sémiotique musicale ou architecturale; ou celui encore de la sémiotique des passions, du goût et des odeurs. C'est enfin le cas aujourd'hui pour la sémiotique cognitive qui bat son plein avec P. Ouellet et P. A. Brandt. Des propos de Greimas et Courtés, pleins d'optimisme et d'ambition, confirment ce point de vue : Toutes ces distinctions et réorganisations, mêmes si elles introduisent parfois quelques confusions dans le champ sémiotique, sont à considérer comme un signe de santé et de vitalité d'une sémiotique qui se veut un projet de recherche en train de se faire (1979 : 344). À partir de ce fonds épistémologique commun constitué par des principes comme celui de l'universalisme ou celui des sémiotiques spécifiques, il est clair que chaque sémioticien développe sa propre problématique. Greimas est donc loin d' être le continuateur de Hjelmslev. Les deux sémiotiques sont différentes. On comprend dès lors que ni Hjelmslev ni Greimas ne visent à proprement parler à rendre compte du texte, car leurs théories sont dépourvues de toute textualité. Si le premier cherchait le système derrière le texte, le second voulait accéder aux structures logico-grammaticales sous-jacentes au niveau discursif manifeste. Cette divergence reconnue, même par Greimas, se manifeste essentiellement aujourd'hui par les ouvertures de la sémiotique sur d'autres horizons. Si, durant toute l'ère structuraliste, la sémiotique de Greimas a abordé le texte d'un point de vue discontinu (à travers l'heuristique du parcours génératif, avec ses niveaux et ses composantes), en revanche, actuellement, c'est le continu qui apparaît sur le devant de la scène, renvoyant au passé l'immense puzzle théorique construit sur plus de vingt-cinq ans. Aujourd'hui plus que jamais, la sémiotique greimassienne cherche ses marques. Certains parlent d'une nouvelle sémiotique, du maître dépassé ou trahi : tout cela montre que la sémiotique existe. Les séminaires, les congrès et les publications en témoignent clairement. Car si le continu a permis à la sémiotique d'éviter les ressassements et l'immobilisme en remettant en question l'autonomie du langage, il a conduit les recherches vers l' « allonomie », pour reprendre une expression de Varela, vers la perception, l'intentionnalité et le corps, bref vers la cognition. Or, comme l'a noté Rastier, la cognition « reste un objet dont aucune science n'a encore su déposséder la philosophie » (1991 : 20), et comme aucune science parmi les recherches cognitives ne prend la cognition comme objet spécifique, pourquoi donc la sémiotique resterait-elle à l'écart de ce programme interdisciplinaire ? Mais ce n'est pas parce que la sémiotique peut être mise au nombre des recherches cognitives, avec les travaux éminents de Petitot, Brandt et Ouellet, qui donnent plus de dynamique — c'est le mot en vogue ces derniers temps — à l'heuristique sémiotique, qu'on doit faire tabula rasa de l'immense puzzle de la sémiotique du discontinu. Car si maintenant « ça commence à bouger », il nous faudra préciser à quelles conditions la sémiotique peut participer à ce débat sur la cognition. Nous resterons sur cette interrogation .
Nous proposons d'étudier dans cet article la coexistence au sein de la sémiotique européenne de deux paradigmes, attachés respectivement aux noms de Hjelmslev et de Greimas. Plus précisément, nous cherchons à savoir ce qu'il en est de la reconduction du projet glossématique de Hjelmslev dans la sémiotique de Greimas. Nous essayerons de montrer que ce sentiment de parenté n'est pas pour autant sans fondement : entre Hjelmslev et Greimas, il y a bien une continuité. Seulement, il ne faut pas la chercher directement dans la reconduction par Greimas du projet linguistique de la glossématique, mais bien dans la réflexion épistémologique de Hjelmslev, lorsque celui-ci conçoit la sémiotique comme une sémiotique universelle avec des sémiotiques spécifiques.
linguistique_524-04-10155_tei_544.xml
termith-543-linguistique
Tous les deux ans, un colloque intitulé European LSP Symposium réunit plusieurs centaines de chercheurs et de pédagogues de tout le continent, mais en particulier des pays du Nord. C'est lors de ces rencontres que l'on peut apprécier, dans les thèmes évoqués et la manière de les traiter, les fortes différences qui subsistent entre les traditions intellectuelles des pays représentés. La dernière en date est celle de Bergame en 2005; malgré le cadre latin, le choix des sujets reflète surtout le point de vue des chercheurs du Nord et couvre un vaste éventail, dont l'étendue a surpris au moins un observateur anglo-saxon, Philip Shaw (2005), qui s'est interrogé sur ces différences. L'opposition entre le pragmatisme des uns et la théorisation des autres relève sans doute de la caricature, mais les différences entre les approches germaniques et celles du reste du monde sont profondes et, à nos yeux, méritent qu'on s'y intéresse. À un moment où les anglicistes français s'interrogent sur l'organisation de leurs activités de recherche, il peut être utile de passer en revue certaines des caractéristiques des études de langues de spécialité (LSP) dans les pays de langue allemande. C'est d'ailleurs le conseil donné par Pierre Cotte lors d'une table ronde consacrée au colloque de la SAES à Nantes en 2006 : il s'agit de s'inspirer des sujets et des méthodes de recherche des pays voisins. L'insistance sur le rôle de l'érudition dans la recherche lui semblait particulièrement digne d'intérêt. Or, le reproche que l'on entend le plus souvent en France concernant les études des langues de spécialité est le manque d'ambition théorique. Même si cette opinion ne correspond pas vraiment à la réalité, on peut avoir intérêt à examiner comment d'autres chercheurs en langues de spécialité intègrent théorie et érudition dans leur démarche intellectuelle. C'est lors de la fondation du Centre de terminologie et de néologie (CTN) en 1987 que l'auteur s'est rendu compte de la richesse de la recherche germanique dans ces domaines. Cette petite équipe, placée au sein de l'Institut national de la langue française, était chargée de développer une recherche en terminologie, de participer à deux revues (Terminologies nouvelles et La Banque des mots) et de constituer un centre de documentation. Ces trois missions ont mis l'équipe en contact avec les pays francophones, qui développaient des activités dans le cadre de l'aménagement linguistique, mais plus encore avec ceux de langue allemande, où les études de terminologie se plaçaient – et se placent encore – résolument dans le cadre des langues de spécialité, elles -mêmes situées dans le domaine de la linguistique. Depuis cette première rencontre, nous avons la conviction que les recherches en terminologie, comme en langue de spécialité plus généralement, ne peuvent se faire sans référence à un cadre théorique faisant appel à une méthodologie systématique, dont on trouve des exemples significatifs dans les pays germaniques. Cette contribution est conçue par ailleurs comme une occasion de renouer avec la politique d'ouverture du GERAS : on pense en particulier aux colloques consacrés aux comparaisons entre l'anglais et le français de spécialité (ASp 15/18) et aux thèmes transversaux, comme celui englobant traductologie et terminologie (ASp 19/20). On pense aussi aux communications présentées par les membres du GERAS aux colloques de LSP, à commencer par le troisième Symposium européen, que Michel Perrin a organisé en 1983 à Bordeaux (Perrin 1983), ou à celle que ce dernier a prononcée à Vienne en 1995 (Perrin 1995). Pour les besoins de cet article, les aires culturelles couvertes comportent non seulement les pays germanophones (Allemagne, Autriche, Suisse), mais aussi ceux où l'allemand joue ou a joué un rôle de langue véhiculaire : dans le passé en Tchécoslovaquie (l'influence de l'école de Prague est particulièrement importante dans l'histoire du développement des études de langues de spécialité en Allemagne), et encore de nos jours en Scandinavie, au Danemark avec Heribert Picht (voir Nuopponen et al. 2000), Gert Engel (voir Grinsted, Nistrup Madsen 1994), Henning Bergenholtz, et en Finlande avec Christer Laurén, Nina Pilke, Anita Nuopponen en particulier. Les pays de langue néerlandaise, en revanche, ne sont pas inclus, car les thèmes de recherche, ainsi que la langue, y sont depuis longtemps ceux du monde anglo-saxon. La méthode adoptée pour préparer ce panorama est simple. Le point de départ est un dépouillement intégral des dix dernières années des périodiques spécialisés : Lebende Sprachen, Fachsprache pour les pays de langue allemande, Hermes et Sprint pour la Scandinavie, suivi d'une analyse des derniers colloques, surtout European LSP Symposium, mais aussi TKE, TAMA (voir la rubrique Collections et périodiques en fin d'article).Les monographies, qui sont en grand nombre, n'ont pas fait l'objet d'une analyse systématique; la sélection présentée ici est forcément personnelle. Il convient de signaler, toutefois, que de nombreuses thèses allemandes sont désormais disponibles en ligne, ce qui permet une consultation immédiate. On déplore en revanche que la plupart des monographies signalées ici, ainsi que les périodiques, ne soient pas répertoriés sur SUDOC (Système universitaire de documentation, catalogue collectif des bibliothèques universitaires françaises < www.sudoc.abes.fr/ >), indication supplémentaire de l'inadéquation des bibliothèques françaises pour les besoins de la recherche en sciences humaines. Avant d'aborder les spécificités de la recherche germanique, il convient de rappeler quelques convergences. Dans l'ensemble, on peut dire que l'on relève de nombreux thèmes communs aux recherches en LSP des deux côtés du Rhin. Le terrain d'entente est large. La linguistique textuelle, pratiquée avec des variations nationales, figure comme outil indispensable à bien des études. De même, les études de genres (déroulement d'une communication à un colloque international, structure de l'article de recherche, modes d'emploi,…) sont aussi souvent pratiquées en Allemagne qu'en France. On relève également la même répartition en domaines thématiques : langues juridiques, scientifiques, économiques, etc. Au-delà des questions purement linguistiques, on signale une même préoccupation pour des problèmes de conceptualisation véhiculée par les LSP. À ce propos, on peut signaler un intérêt commun pour la métaphore telle qu'elle est exploitée dans les discours spécialisés. La plupart des francophones qui s'intéressent à ce sujet connaissent déjà le forum électronique metaphorik.de, qui comporte parfois des contributions sur les LSP, mais la tradition allemande dans l'étude des métaphores est ancienne. Nous abordons ce thème ci-dessous. Tous ces sujets communs sont importants, mais l'essentiel est ailleurs : le point de rencontre le plus évident pour tous ceux qui s'intéressent aux LSP est l'intérêt pour la didactique, qui est sans doute sa principale application. La différence serait surtout une question de degré, car cet intérêt semble moins prépondérant dans les pays de langue allemande, et les autres sujets de recherche plus variés. Rappelons également que l'approche germanique n'a rien de monolithique. Bien au contraire, on assiste à de grands débats, à des luttes d'influence, à des schismes, par exemple entre lexicographes et terminologues. En ce qui concerne ce dernier cas, la différence entre les deux cultures est sans doute due au fait que la lexicographie et la terminologie ne font pas partie en France du paysage des LSP. On constate également une différence entre le degré d'influence qu'a la recherche en langue anglaise et la prise en compte variable des thèmes spécifiquement allemands. On se demande si la jeune génération allemande ne s'intègre pas davantage aux recherches planétaires, tandis que les plus anciens maintiennent le lien avec la recherche propre aux pays du Nord. Liebert (2002), par exemple, tient davantage compte des traditions allemandes que les plus jeunes, comme Drewer (2003). On signale également des différences de réaction par rapport à la question de savoir comment remédier aux insuffisances théoriques en LSP, sujet auquel nous revenons dans le cadre de l'évaluation de la recherche. La première caractéristique des études des langues de spécialité dans les pays à tradition germanique est la position qu'elles occupent en tant qu'application de la linguistique. Le manuel classique de LSP (Fluck 1996 : 10) souligne l'importance de l'ancrage linguistique pour ces études, mais il signale en même temps le rôle que les langues de spécialité sont appelées à jouer en tant que branche de la linguistique ou de la linguistique appliquée. Cette vision, qui se veut globale, fait partie de l'héritage des ambitions des linguistes de l'école de Prague, qui se donnaient pour tâche de rendre compte du fonctionnement de la communication en général, ainsi que de la communication spécialisée, grâce à l'application systématique d'outils développés dans des cadres aussi variés que ceux de la phonologie ou de la norme littéraire. L'empreinte de cette tradition est visible dans les études de LSP telles qu'elles se pratiquent encore en Allemagne. En effet, elles se caractérisent par le recours à une analyse systématique, qui présente à l'examen chaque paramètre du système. Comme exemple de cette tradition, et de son insistance sur une démarche systématique, nous prenons l'analyse que fait Klaus-Dieter Baumann (2005) des normes qui opèrent dans la communication spécialisée, et dont l'ambition a surpris Philip Shaw. Visiblement nous touchons du doigt à une spécificité du programme de recherche germanique : éclairer la structure et les modes de pensée des « spécialismes ». Baumann fait appel aux préceptes de l'école de Prague développés en particulier par Havránek (1929, 1932), désormais accessibles grâce aux publications de Kocourek (2001 : 272-4) : fonctions pratiques et théoriques de la communication spécialisée, rôle de la convention, codification. Il s'agit d'une application de la théorisation de la norme littéraire, établie grâce à des études inductives-empiriques. Nous présentons sous forme de tableau les principaux critères dégagés dans l'étude de Baumann (voir tableau 1). Il convient de souligner que cet auteur, fidèle à la tradition allemande qui ne vise pas spécialement à faciliter l'accès à la connaissance spécialisée (Clyne 1987 : 66), n'inclut aucun tableau; celui qui figure ci-dessous, qui n'engage que nous -même, a été constitué à la lecture de l'article cité. Il a le mérite, nous semble -t-il, de souligner l'approche systématique d'un sujet fondamental de la communication spécialisée (la manifestation des normes) et de présenter une grille d'analyse qui permet d'orienter des recherches futures. On peut imaginer ce type de tableau comme ébauche d'un programme de recherche à réaliser. Comme exemple de lecture de la grille, on peut gloser par exemple sur le caractère du critère social, qui, pour Baumann, est bien plus vaste que le degré de connaissance que partagent les interlocuteurs et que le degré de spécialisation du sujet en question, car il englobe aussi leur statut social, l'orientation politique etc., qui influe également sur les normes qui seront – inconsciemment en général – appliquées. Le plus souvent, Baumann ne donne pas d'exemple d'un critère ou de son application, mais le lecteur peut le faire. Par exemple, au niveau phonétique, le débit de la météo marine se prête parfaitement à une analyse qui tienne compte de ses spécificités, de ses normes. Il ne faut pas oublier non plus que la grille représente une simplification par rapport à l'article. On a gommé certains aspects pour mieux en faire ressortir d'autres, comme par exemple le caractère implicite ou explicite des normes, ainsi que d'autres critères transversaux. La recherche en LSP est donc caractérisée dans les pays de tradition germanique par une très grande attention portée au caractère systématique de toute analyse et à la nécessité d'élaborer une méthodologie très explicite. Elle a, entre autres conséquences, l'avantage de produire une vaste documentation qui est tout aussi structurée. Signalons d'abord le rôle que joue – pour l'ensemble de la linguistique d'ailleurs – de grandes encyclopédies Handbücher zur Sprach und Kommunikationsforschung (Walter de Gruyter), qui n'ont pas d'équivalent au monde. Pour la langue de spécialité, les volumes sont intitulés Fachsprachen/Languages for Special Purposes (Hoffmann, Kalverkämper & Wiegand, dir. (1998, 1999)). Ils comportent plus de trois milles pages et 273 articles; sur les 150 articles du premier volume, 149 sont en allemand. En outre, les autres volumes de la série comportent également des articles qui intéressent les langues de spécialité, en particulier ceux consacrés au lexique (Lexikologie/Lexicology 2002) et aux dictionnaires (Wörterbücher/Dictionnaires/Dictionaries 1989-1991). Les périodiques sont également systématiques et pluridisciplinaires : Fachsprache – généraliste, s'intéresse autant à l'allemand qu'aux langues étrangères, Lebende Sprachen, est nettement orienté vers la traduction spécialisée. Les éditeurs proposent par ailleurs des collections où les langues de spécialité figurent en bonne place. La plus importante est sans doute le Forum für Fachsprachen-Forschung, chez Gunter Narr, qui en 2007 compte 82 titres. À titre de comparaison, le même éditeur propose 74 publications dans le domaine de l'anglistique. Ces publications comportent des manuels : celui de Fluck (1996), déjà mentionné, fait figure de classique, car il en est à sa cinquième édition depuis 1976, mais on signale aussi beaucoup de recherches ponctuelles, généralement issues de thèses particulièrement réussies. Celles -ci présentent encore des « portraits » de langues de spécialité données, comme par exemple Hänchen (2002), sur le français du marketing, mais aussi sur le rôle de la métaphore dans la recherche et la vulgarisation scientifiques (Drewer 2003), parmi beaucoup d'autres. Dans la grande majorité des cas, surtout dans les monographies, on relève une insistance sur la nécessité d'une assise théorique et méthodologique. Celle -ci aboutit inévitablement à la constatation que les langues de spécialité ont fait l'objet de beaucoup de travail utile mais qu'elles sont encore insuffisamment théorisées. Une des meilleures expressions de ce type de bilan se trouve précisément dans l'encyclopédie, lorsque deux des trois rédacteurs, Hoffmann et Kalverkämper (1998), présentent les réalisations pratiques qui sont effectivement nombreuses, qui répondent à des besoins précis et qui participent d'une systématisation des données et d'une prise de conscience des problèmes posés. La tendance à élargir le domaine de la recherche, désormais étendue à la communication spécialisée plutôt qu'aux langues de spécialité, est évaluée de façon positive, mais les deux rédacteurs sont obligés de constater, malgré le chemin parcouru, qu'il reste un « déficit douloureux » en matière de théorie des langues de spécialité, constatation qui trouve des échos auprès de certains spécialistes francophones, par exemple Yves Gambier (1998), lui -même professeur de traduction en Finlande. Malgré le chemin qui reste à parcourir, les réalisations sont nombreuses et se fondent sur une connaissance approfondie de nombreux paramètres des langues de spécialité, indication du respect du critère de l'érudition mentionnée en introduction. Elle s'exprime de nombreuses façons, mais l'une des plus importantes est le lien avec le passé. L'importance de l'école de Prague a déjà été mentionnée : les travaux de Havránek (1929, 1932) portant essentiellement sur les fonctions pratiques et théoriques de la communication spécialisée, le rôle de la convention, de la codification, trouve encore des échos dans les travaux actuels, comme nous l'avons vu avec Baumann. Cette insistance sur les fonctions de la communication spécialisée a débouché sur l'élaboration d'une Wirtschaftslinguistik (linguistique du langage de l'économie, voir Picht 1998) de la période de l'entre deux guerres, qui est reconnue comme l'ancêtre direct des études de langue de spécialité. Les études de langues de spécialité font également appel à une autre spécialité allemande, celle de l'onomasiologie, développée sous le nom d'une revue, fondée à Heidelberg en 1909, Wörter und Sachen, et connue surtout par les publications de Hugo Schuchardt, Sachen und Wörter de 1912. Elle a été déterminante dans la formulation d'une première ébauche d'une théorie sur le lexique spécialisé sous la forme de la thèse d'Eugen Wüster (1932), qui débouchera plus tard sur une théorie de la terminologie. L'innovation que comportait cette thèse a été rappelée un quart de siècle plus tard (Weisgerber 1958), car elle ouvrait la voie à l'étude de cette partie de la langue que les hommes construisent en réponse aux besoins de la science et des technologies. Les études des métaphores, déjà mentionnées, puisent également dans une riche tradition allemande, celle des Bildfelder, les champs d'images, qui sont encore exploités par des linguistes tels que Liebert (2002). L'importance de l'histoire de la linguistique appliquée a son pendant dans le développement des études sur l'histoire de la langue, y compris les langues de spécialité. L'encyclopédie (Hoffmann et al. 1998, 1999) en comporte un grand nombre dans différentes langues, y compris l'anglais, et on compte une douzaine d'articles sur l'anglais de spécialité du XIX e et du XX e siècles, allant de la chimie (Crosland 1999) à la médecine (French 1999) en passant par les langages linguistiques, littéraires et pédagogiques (Walmsley 1999, Salmon 1999). Ces études commencent seulement à puiser dans la méthodologie de l'étude diachronique des langues de spécialité proposée par Walter von Hahn (1983) qui préconise une méthodologie réfléchie des références croisées selon le modèle de la philosophie de l'histoire. À un moment où la terminologie diachronique commence timidement à faire son apparition en France, il serait opportun sinon de traduire au moins de présenter les grandes lignes de la méthodologie. En Allemagne, les études de ce type sont toujours assez rares, mais on peut signaler une thèse remarquable sur l'histoire de la création des concepts mathématiques au XIX e siècle et de leur circulation dans les principales langues européennes (Becker 2005). Walter von Hahn est également connu pour avoir impulsé des études sur le caractère vague des langues de spécialité, prenant ainsi le contre-pied de ceux qui prétendaient qu'elles se caractérisent par la précision. C'est un aspect qui a renouvelé en particulier l'étude des discours juridiques et administratifs. L'une des grandes différences entre l'étude des langues de spécialité dans les pays anglophones et francophones d'un côté et germanophones de l'autre est la prise en compte de la composante lexicale. Cette différence s'explique en partie du fait du développement relativement tardif des études de LSP en dehors de la Germanophonie, à une époque où le lexique n'occupait plus le devant de la scène. Comme ailleurs, l'importance du lexique commence à être relativisée dans les pays de langue allemande, comme le titre d'un ouvrage de L. Hoffmann de 1988 le laisse penser : Vom Fachwort zum Fachtext - Du terme au texte spécialisé. Néanmoins il continue de faire l'objet de recherches très variées. On peut distinguer au moins trois grands courants concernant le lexique. Le premier est sa présentation sous forme de dictionnaires. La lexicographie est plus qu'une pratique, c'est une méthodologie et, à partir des observations tirées de la pratique, elle commence à se constituer en théorie. La lexicographie théorique doit beaucoup à H. Wiegand (1987, 1989), qui a l'ambition d'élaborer une théorie autonome et générale de la lexicographie, comme de la métalexicographie, basée sur les besoins des usagers. Le point de départ de la lexicographie fonctionnelle est la déduction a priori des besoins. Bergenholtz et Tarp (2003), les premiers auteurs à avoir conçu un manuel de lexicographie spécialisée (Bergenholtz & Tarp 1995), élaborent une théorie modulaire, dérivée de la théorie des fonctions lexicographiques, dégroupées selon les besoins les plus variés, par exemple pour les différents types d'apprenants. Ces théories s'appliquent aussi bien aux besoins lexicographiques de type langagier que de type factuel, et Bergenholtz est allé jusqu' à collaborer avec un biologiste pour faire un dictionnaire du génie génétique adapté aux besoins de l'utilisateur moyen (Kaufmann & Bergenholtz 1992). Le second courant est l'étude du lexique en soi, souvent orientée vers sa manifestation principale en LSP, à savoir la terminologie, qui en représente le troisième courant. Fluck (1996 : 12), dans le manuel désormais classique de LSP, l'exprime ainsi : Die Besonderheit der Fachsprache hingegen – auch darüber herrscht weitgehende Einigkeit – liegt einmal in ihrem spezifiellen, auf die Bedürfnisse des jeweiligen Faches abgestimmten Wortschatz, dessen Übergänge zur Gemeinsprache fliessend sind und der auch gemeinsprachliche und allgemeinverständliche Wörter enthält. (Fluck 1996 : 12) Tout comme le mot Fachsprache n'est pas un terme (ou pas de façon primaire), une distinction est souvent observée en allemand entre « Fachwort vs Terminus : toute expression d'une langue de spécialité vs désignation d'un concept susceptible d'une définition conventionnelle » (Fluck 1996 : 47, qui cite à ce propos le linguiste pragois Beneš). Les lexicographes et les terminologues germaniques avaient souvent des relations houleuses, mais entre la terminologie et la lexicologie, c'est l'entente cordiale, comme on peut le relever dans le volume (l'un des rares parus actuellement) sur la lexicologie, où l'on relève plusieurs articles de fond sur des questions de vocabulaire spécialisé. L'un des plus intéressants à nos yeux est celui de Kretzenbacher (2002) qui examine le caractère systématique des vocabulaires scientifiques par le biais de grilles de lecture. Le tableau 2 résume les thèses de Kretzenbacher. Contrairement à la France, où ce type de travail semble désormais délaissé, la lexicologie s'illustre en Allemagne par un grand nombre d'études sur l'anglicisation des vocabulaires, en particulier des vocabulaires spécialisés, à commencer par celui de la physique (Schmitt : 1985), les nouvelles technologies de l'information et de la communication : informatique en général (Chang : 2005), l'Internet (Jansen : 2005), Deutsche Telecom (Wetzler : 2006). Ces études s'appuient sur une tradition qui légitime l'implication d'un angliciste dans la confection d'un dictionnaire d'anglicismes. C'était le cas de Broder Carstensen et puis d'Ulrich Busse, qui publient entre 1993 et 1996 un dictionnaire allemand des anglicismes, en trois volumes, et de Manfred Görlach, le directeur d'une équipe qui a publié, entre 2001 et 2002, un dictionnaire européen comparatif des anglicismes (Dictionary of European Anglicisms), ainsi qu'une bibliographie analytique et un historique. Le vocabulaire spécialisé joue un rôle important dans ce cadre, car c'est surtout par ce biais que les anglicismes pénètrent dans la langue. Dans les pays scandinaves, la concurrence de l'anglais devient si âpre surtout dans les domaines de pointe en science et en technologie que l'on voit paraître des études sur la perte de domaines, domaines où la science ne se fait plus dans la langue nationale, comme celle de Pia Jarvad (2001). La terminologie a des applications directes dans le domaine de la traduction spécialisée, mais elle est également un élément clé dans les recherches en intelligence artificielle et dans le transfert des connaissances. En Allemagne, ainsi qu'en France également, plusieurs linguistes qui travaillent surtout en lexicologie, comme Wolf-Andreas Liebert, spécialiste de la métaphore, enseignent en transfert de connaissances dans un département d'informatique. Comme l'article de Sophie Moirand et de Geneviève Felten-Treguer (2007) le démontre dans ce volume, la tendance est de centrer les études de LSP sur la communication spécialisée et les formes de sa réalisation, tendance qui est tout aussi sensible dans les pays de langues germaniques que dans ceux de langue française. Cette orientation est déjà perceptible dans la dernière édition du manuel classique de langue de spécialité (Fluck 1996 : 233) : un nouveau chapitre présenté à la fois en guise de conclusion, de mise à jour et de prospective est intitulé « langue de spécialité, texte spécialisé, communication spécialisée interactive et interculturelle », et il montre bien la voie. La tendance s'est accentuée en Scandinavie, où l'enseignement du français a connu un recul important : plusieurs spécialistes de cette langue ont réorienté leur recherche en communication multiculturelle, comme Finn Frandsen et Winni Johansen (pour un article en français qui est typique de ce changement d'orientation, voir Frandsen & Johansen 2001). Autre signe des temps, le bulletin d'information des LSP publié à la Handelshøjskole de Copenhague pour le compte de l'UNESCO, UNESCO ALSED-LSP (Anthropologie et sciences du langage dans le développement éducationnel - langages spécialisés 1977-2000) a changé de titre et d'orientation, pour devenir LSP and Professional Communication. La communication en entreprise est un thème qui est particulièrement développé dans les pages de Fachsprache comme de LSP and Professional Communication, comme dans l'article de Satzger (2005). La qualité de communication est un sous-thème particulièrement riche, développé par Engberg et Göpferich (2003). L'intérêt pour les aspects commerciaux de la communication spécialisée ne s'est pas substitué à celui pour les autres types de communication professionnelle, comme par exemple le courrier des médecins, analysé par Jakob en 2005. Sur le plan strictement scientifique, il est intéressant de signaler l'existence d'une série d'articles et d'entretiens avec des scientifiques qui parlent de leur recherche et de leur langue – l'allemand, son usage par rapport à l'anglais, la terminologie des lauréats du prix Nobel Nobelpreis Fachlexikalisch : Peter Christian Aichelburg, Fiorenza Fischer, Mathias Zirm (Fachsprache 28, 2006, 102-109). Le rôle de la terminologie dans la traduction spécialisée a déjà été mentionné et il n'est pas étonnant de constater qu'elle figure en bonne place dans les études allemandes de traductologie : le périodique Lebende Sprachen est consacré en grande partie aux problèmes de terminologie dans une perspective de traduction, et Fachspache évoque souvent des problèmes plus théoriques, comme celui de l'interférence dans la traduction technique (Horn-Helf 2005). Pour connaître la place de la terminologie dans la théorie de la traductologie, les meilleures études sont sans doute celles de Heidrun Gerzymisch-Arbogast. Elle situe la terminologie à la base de la traduction technique en particulier dans les premiers chapitres de son manuel (Gerzymisch-Arbogast 1996). En France, on fait souvent abstraction de la terminologie tant du côté des Ladmiraliens que de ceux des Séleskovitchistes, sans doute à cause d'une orientation influencée par les interprètes. Or, il est connu que les interprètes n'ont pas du tout les mêmes besoins en terminologie que les traducteurs spécialisés. La terminologie est avant tout un phénomène de l'écrit. Les nombreux écrits de Daniel Gouadec, dont beaucoup sont réunis sur son site, comme les formations dans le cadre des universités d'automne, illustrent bien le rôle déterminant de la terminologie en traduction spécialisée et méritent d' être mieux connus en Allemagne. Chaque pays a sa spécialité en matière de traduction : le Danemark est fortement spécialisé en traduction juridique. Les orientations divergent. Certains suivent une logique lexicographique, comme Sandro Nielsen (1994), d'autres sont plus éclectiques comme Marianne Garre (1999), dont les travaux en traduction des droits de l'Homme ont alimenté la recherche d'Elsa Pic (2007-2008) sur la définition de l'anglais des droits de l'Homme. Les liens entre les spécialistes de langues de spécialité et la société sont évidents dans les rapports qu'ils entretiennent avec les entreprises (voir aussi Kresta 2003), mais ils prennent également d'autres formes. Les linguistes sont parties prenantes dans la réforme des pratiques de communication administrative, qui va au-delà de la simplification de la langue. L'importance du plurilinguisme dans les sciences fait l'objet d'un débat qui est aussi fourni en Allemagne qu'en France, et qui se fonde sur des études très précises, comme celle de Skudlik (1995). Les valeurs citoyennes sont mises en avant par des linguistes comme Ehlich (2004) mais contestées par d'autres, qui prétendent que la science reste la même, quelle que soit la langue par laquelle elle est véhiculée. Quelle direction prennent aujourd'hui les études de langues de spécialité en Allemagne ? Il est difficile de prévoir l'avenir, mais, au moment où un troisième tome de Fachsprachen/Languages for Special Purposes est annoncé, on peut revenir à l'analyse des besoins de Hoffmann et Kalverkämper (1998). Ils préconisaient d'abord de mieux faire dialoguer les différents secteurs que comportent les LSP : la terminologie a besoin de mieux communiquer avec les recherches en LSP en général, comme celles -ci doivent mieux prendre en compte la didactique des disciplines. En effet, les liens entre l'enseignement des sciences et les différents codes qui permettent cette communication méritent bien une collaboration que certains ont déjà appelée de leurs vœux (Schaetzen 1992). La stylistique des textes de spécialité a son rôle à jouer dans le cadre de cette collaboration didactique, tout comme pour la formation des rédacteurs techniques. La pertinence sociale est le mot clé dans cette réflexion. Après tout, l'objectif final est l'éducation, et pas seulement la formation. Le rôle des langues dans cet enseignement – l'anglais et la langue nationale – mérite également une réflexion approfondie, et plus généralement la domination de l'anglais doit être évaluée dans les différents secteurs. D'autres collaborations se révèlent tout aussi indispensables : la sémiotique figure en bonne place, car l'étude de la communication implique les interactions entre le langagier et le non langagier, entre l'oralité et l'écriture, entre le multimédia et ce que Hoffmann et Kalverkämper appellent l'internalité – c'est-à-dire les différences engendrées par l'exploitation des différents médias et leur synthèse nécessaire (Hoffmann & Kalverkämper 1998 : 365), sans oublier bien sûr l'interculturel. Ils prônent une posture synchronique, mais qui tienne compte de la diachronie. Concrètement, que peut faire le GERAS pour favoriser les échanges avec les pays de langue allemande ? Un premier pas serait d'élargir la nature des ouvrages analysés dans la rubrique des recensions à des comptes rendus de publications significatives en LSP – de type bref et surtout signalétique pour les ouvrages en anglais et plus circonstancié pour les livres en allemand, de telle sorte que le chercheur angliciste se tienne informé. Par réciprocité, on peut encourager les auteurs d ' ASp de proposer le résultat de leurs recherches à des revues, qui s'ouvrent de plus en plus aux publications « internationales ». C'est le cas d ' Hermes, qui souhaite précisément élargir non seulement son lectorat mais aussi la palette de ses contributeurs. Plus généralement, le GERAS se doit de continuer d'ouvrir ses publications et ses colloques à tous ceux qui travaillent dans le secteur des langues de spécialité. Les spécialistes du français sur objectifs spécifiques sont des interlocuteurs particulièrement proches, comme la conférence de Moirand et Tréguer-Felten l'a bien démontré en 2007, car ils ont non seulement les mêmes préoccupations, mais ils travaillent aussi sur l'autre langue d'interface, le français. En outre, ils ont des liens privilégiés avec les étrangers qui travaillent en LSP, comme le dernier Carnet du CEDISCOR le montre, en particulier avec l'étude de Bernd Spillner (2006). Le GERAS pourrait enfin continuer les invitations aux spécialistes européens des LSP, comme Maurizio Gotti (2004). L'essentiel est de poursuivre la politique d'ouverture, nationale et internationale aussi bien que disciplinaire .
La recherche menée en langues de spécialité dons les pays où l'allemand joue un rôle véhiculaire est caractérisée par l'importance accordée aux modèles théoriques et ou traitement systématique des données relevées. La gamme de sujets abordés est également vaste: elle englobe non seulement des aspects didactiques, mais aussi des questions de terminologie et de conceptualisation, de traduction spécialisée et de la théorie de la communication, sans oublier des préoccupations plus générales telles que la responsabilité sociale des chercheurs en longues de spécialité. Cet article peut être considéré comme une bibliographie commentée d'une partie de ces recherches.
linguistique_10-0232762_tei_816.xml
termith-544-linguistique
Depuis le début des années 2000, la dénomination des universités a été inscrite à l'agenda des préoccupations de l'enseignement supérieur. De nombreuses universités françaises ont changé de nom, soulignant par cet acte de langage – où dire, c'est faire exister – l'acuité de la dénomination dans un contexte de réformes et de mutations du supérieur (logique de regroupement entre anciennes facultés puis entre différentes universités : PRES – pôles de recherche et d ' enseignement supérieur –, Plan Campus). Les universités dites parisiennes, atypiques dans l'espace académique national par leur concentration notamment, illustrent cependant les enjeux actuels du supérieur quant à l'importance du nom en tant que vecteur de l'image, voire de la marque, des établissements universitaires. Nous nous proposons donc d'examiner d'un point de vue diachronique, dans la moyenne durée, les caractéristiques morphosyntaxiques et sémantiques des changements de nom des treize universités dites parisiennes. Pour saisir les traces d'emploi de ces dénominations depuis 1970, nous avons privilégié différents corpus relevant des espaces juridiques, administratifs et de communication : textes réglementaires, documents internes à l'établissement, articles de presse, communiqués de presse, sites web. Ces corpus nous permettront d'examiner les logiques juridico-administratives dans un premier temps, puis essentiellement communicationnelles dans la construction des dénominations. Si les noms d'établissements académiques occupent une place particulière dans l'espace discursif des noms propres, compte tenu du poids des logiques juridico-administratives et communicationnelles dans la construction du nom, ils sont, aujourd'hui, soumis à des consignes de la part des équipes présidentielles afin de stabiliser leur usage et de bénéficier ainsi d'une meilleure comptabilisation des signatures et d'un meilleur référencement. La notoriété dépend en effet de l'importance accordée à la place des universités françaises dans les classements internationaux et de la généralisation des outils technologiques de référencement qui induisent une stabilisation de la dénomination afin qu'elle soit cumulée (moteurs de recherche et outils bibliométriques). Après avoir examiné les caractéristiques morphosyntaxiques et « l'épaisseur sémantique » (Barthes, 1967) des treize dénominations académiques étudiées, nous nous intéresserons aux logiques de regroupement entre établissements et à la diversité des dénominations au regard de la question de l'affiliation. Nous accorderons une attention toute particulière aux récents changements de noms et aux usages du nom Sorbonne, signes de la prise en compte d'une logique de marque. Il y a en France, en 2010, 83 universités et établissements assimilés qui sont liés à la loi Faure du 12 novembre 1968. Ce nombre peut varier, selon les sources, de 83 à 85, ce qui souligne déjà l'importance de la nomenclature et des dénominations dans l'histoire des organismes d'enseignement et de recherche dans le supérieur français. Antérieurement, les établissements étaient structurés par champ disciplinaire, selon une division facultaire (Musselin, 2001, p. 103 et suiv.). La loi Faure du 12 novembre 1968 a supprimé les anciennes facultés au profit d'une logique universitaire d'établissements souvent pluridisciplinaires, donnant naissance, au-dessus des entités disciplinaires, à des établissements publics à caractère scientifique et culturel (EPSC) désignés génériquement par le nom d ' universités. Néanmoins, l'administration centrale a continué à prendre ses décisions « en fonction de la situation de la discipline concernée par rapport à l'ensemble du territoire, plutôt qu'en tenant compte de la situation particulière de chaque établissement, et les universités restaient absentes des discours, des représentations et des pratiques des agents du ministère » (ibid., p. 103). En mars 1989, une circulaire déterminera la politique dite contractuelle. Elle met en place l'autonomisation des établissements du supérieur qui négocient, tous les quatre ans, avec l'autorité de tutelle. La base de la négociation est le projet d'établissement qui donne lieu à la signature, entre l'établissement et l'autorité de tutelle, d'un contrat quadriennal. Si, schématiquement, la loi Faure rompt avec une logique facultaire au profit d'universités regroupant des UFR (Unités de formation et de recherche, souvent les ex - « facultés ») et des instituts, la politique contractuelle de 1989 renforcera cette logique en modifiant les relations entre l' État et les établissements. Dès 1970 et jusqu'en 1971, plusieurs décrets vont réorganiser l'ancienne Université de Paris et créer de nouvelles entités dont le nom administratif renvoie à la numérotation des universités parisiennes après 1971, de un à treize. Soulignons que la réorganisation de l'espace académique parisien, à la fin des années 1960, s'inscrivait dans un découpage de domaines de compétence et de références théoriques non exempt de luttes politiques, idéologiques et syndicales caractéristiques de cette période. Un premier corpus, constitué des arrêtés d'approbation des statuts, atteste d'une dénomination articulant « Université de Paris » + chiffre romain (voir tableau en annexe). Certaines dénominations sont accompagnées d'une discipline (Paris I et II), d'un nom d'auteur (Paris V) ou d'un ancrage topologique (Sorbonne, Panthéon…). En avril 2010, la construction toponymique domine, même si deux universités, sur les treize étudiées, ne font plus référence ni à la ville de Paris, ni au numéro sur leurs sites web : « Université Panthéon-Assas » et « Université Pierre et Marie Curie ». L' « Université Paris Descartes » et l' « Université Paris Diderot » ont conservé dans leur dénomination la référence à « Paris ». D'un point de vue diachronique, l'ancrage topologique du nom caractérise les dénominations des six universités dites parisiennes (pourtant situées à l'extérieur de Paris) créées après 1968 (corpus : arrêtés d'approbation des statuts). Elles illustrent la logique dominante dans la construction des dénominations académiques, à savoir une construction morphosyntaxique articulant une logique toponymique (ancrage territorial) à un numéro : – « Université de Paris-Vincennes, Paris-VIII », en référence au bois de Vincennes, son lieu de création, parfois encore appelée « ex-Vincennes » par allusion à la période symbolique d'effervescence intellectuelle liée à sa création; – « Université de Paris-Dauphine, Paris-IX » en référence à la Porte Dauphine; – « Université de Paris-Nanterre, Paris-X », ville d'implantation de l'université; – « Université de Paris-Sud, Paris-XI », liée à la faculté des sciences d'Orsay, ville d'implantation, aussi désignée par « Université d'Orsay »; – « Université de Paris Val-de-Marne, Paris-XII », appelée aussi « Université de Créteil », ville nouvelle d'implantation de l'université, ou encore « Université Paris 12 Val-de-Marne »; – « Université Paris-Nord, Paris XIII », en référence à sa situation géographique. Si les dénominations académiques se sont principalement construites, dans le champ juridico-administratif, selon une logique toponymique, les noms en usage pour désigner un même établissement s'avèrent pluriels et constituent des traces de l'histoire de ces établissements ainsi que des relations que les locuteurs ont nouées ou nouent avec ces entités. L'usage du chiffre romain dans la dénomination était dominant jusqu'au milieu des années 1980. Il a été majoritairement remplacé par un chiffre arabe sur les documents de communication (affiches, courriers…). Six universités (Paris II, V, VI, IX, X et XII) ne font plus référence à un chiffre sur leurs supports de communication, signe d'une rupture par rapport aux logiques antérieures (corpus : sites web). Le passage, dans les années 1990, du chiffre romain au chiffre arabe coïncide avec la prise en compte de stratégies de communication et la multiplication de discours d'accompagnement marqués par la rhétorique de la « modernité » attendue dans le supérieur. Nous avons examiné les adresses des sites web (URL) des établissements étudiés, ainsi que la place du nom dans la composition graphique de la page d'accueil (avril 2010; voir Barats, à paraître). La syntaxe des URL indique une construction comparable à celle qui caractérise la dénomination dans le champ juridico-administratif, à savoir : www.univ-paris + chiffre arabe.fr, et ce, indépendamment des changements de nom. Il n'y a cependant pas de norme commune aux treize universités, à l'inverse d'autres pays qui indiquent dans leur URL, par les lettres « edu » ou « ac », l'appartenance au champ éducatif ou académique du site (États-Unis, Grande-Bretagne, Belgique). C'est la place stratégique du nom dans le site (bandeau supérieur + logo) qui inscrit le site dans le champ académique. Seule l'université Paris IV a gardé le chiffre romain dans ses documents de communication et sur son site : elle a changé de nom en 2007 au profit d' « Université Paris Sorbonne - Paris IV ». « Signe volumineux » pour Roland Barthes, le nom propre témoigne d'une « épaisseur sémantique » dont le feuilleté sémique produit une « hypersémanticité » (Barthes, 1967, p. 122). Le choix des noms propres fonde ainsi le récit chez Proust (ibid., p. 128). Il forme un système : « tenir le système des noms, c'était pour Proust […] tenir les significations essentielles du livre ». Cette hypermotivation du signe ne s'observe pas uniquement dans le champ de la littérature, où le choix du nom propre fait l'objet de toutes les attentions. C'est également le cas lorsqu'il s'agit de dénommer une institution et de construire par ce biais son image : les traces de cette hypermotivation circulent alors non plus dans l'imaginaire d'un auteur et de ses lecteurs par le biais des désignations romanesques, mais dans l'espace social au moyen de supports de communication comme le papier à en-tête, les affiches, les sites web et les logotypes qui mettent en scène le nom et son « épaisseur sémantique ». Dans le champ académique, le choix du chiffre romain contribue ainsi au « feuilleté sémique » qu'évoque le nom : il est en effet porteur de références symboliques (le latin) et historiques (histoire médiévale de l ' Universitas et du « quartier latin »). Trois établissements sur les treize étudiés ont associé le nom administratif historique (constitué par « Université Paris + chiffre romain puis chiffre arabe ») au patronyme de personnalités françaises internationalement reconnues (Descartes, Diderot, Pierre et Marie Curie). Cette référence à des personnalités incarnant le « génie » intellectuel français est censée contribuer à construire une légitimité académique comparable au rôle joué par le chiffre romain ou le nom Sorbonne. Cependant, les contraintes médiatiques ou les effets des présentations en liste ne rendent pas compte de cette « épaisseur sémantique » en optant pour une dénomination que nous pourrions qualifier d'administrative, car liée aux relations entre les établissements et l'autorité de tutelle et caractérisée par « lieu + chiffre arabe ». La presse nationale et les dépêches d'agence illustrent ce choix de dénomination (corpus : Le Monde, Le Figaro, Libération, juillet 2008). Citons pour exemple une dépêche de l'AFP de juillet 2008, reprise dans la presse quotidienne nationale et qui utilisait « Paris + chiffre arabe » pour désigner les universités qui « passaient à l'autonomie » : PARIS (AFP, 23 juillet 2008) – La ministre de l'Enseignement supérieur, Valérie Pécresse, a arrêté mercredi la liste des 20 premières universités qui accéderont à l'autonomie au 1 er janvier 2009. […] 20 universités pilotes, sur les 85 existantes, vont devenir autonomes et pourront ainsi gérer leur budget elles -mêmes. Les 20 universités concernées sont Aix-Marseille 2, Cergy-Pontoise, Clermont-Ferrand 1, Corte, Limoges, Lyon 1, Marne-la-Vallée, Montpellier 1, Mulhouse, Nancy 1, Paris 5, Paris 6, Paris 7, La Rochelle, Saint-Étienne, Strasbourg 1, Strasbourg 2, Strasbourg 3, Toulouse 1 et l'université technologique de Troyes. Si le choix de cette structure de dénomination est lié à la présentation en liste, rappelons que les sites et les services de communication de ces universités utilisaient à la même date d'autres noms pour s'autodésigner. Il y a donc coexistence de différents noms pour une même université à un temps « t » : le nom diffusé et promu par l'université, le nom administratif ou le nom historique, les différents noms d'usage qui peuvent également varier en fonction du locuteur (sociographie d'acteurs et type d'interaction sociale), du lieu de discours (autorité de tutelle, presse, université) ou de la situation de communication (professionnelle, non professionnelle, etc.), ou bien encore en fonction de la période au cours de laquelle le locuteur a été en lien avec l'université (le nom comme trace d'une période de formation, par exemple). La pluralité de noms des universités est donc le fruit de cette sédimentation historique, des différentes politiques publiques et de la relation que le locuteur construit discursivement avec l'entité désignée, d'où la coexistence de plusieurs noms pour un même établissement, et ce, depuis leur création. Les différents noms en usage sont les traces de cette longue construction (référence à un lieu, à un auteur, à un chiffre, à une composante). L'université Paris XII, qui avait adopté comme signature : « Université Paris 12 - Val de Marne » (supprimant le chiffre romain), a changé de nom en octobre 2009 pour « Université Paris-Est Créteil Val de Marne » (supprimant toute référence au chiffre). Elle est cependant aussi désignée par « Université de Créteil » ou bien par les noms de ses composantes, comme « l'IUT Sénart-Fontainebleau » ou « l'IUT de Créteil-Vitry ». L'adhésion, en juillet 2007, au PRES (Pôle de recherche et d'enseignement supérieur) dénommé « Université Paris-Est » est présentée, en octobre 2009, comme l'une des raisons expliquant cette « évolution » de nom. Il est intéressant de noter que le courrier de la présidente de Paris XII, précédant le vote du conseil d'administration, réfute l'idée de « changement » : « Le nom ne devait pas “changer ”, mais évoluer. Il ne devait pas marquer un changement dans notre positionnement, nos valeurs collectives ou dans notre projet commun, mais une évolution positive nous permettant de mieux nous affirmer sur nos territoires et dans cet ensemble que nous avons rejoint. » Les logiques de regroupement liées aux PRES renforcent ainsi l'importance de la dénomination tout en contribuant à une multiplication des signatures. Entre 2007 et 2009, sept établissements, sur les treize étudiés, ont changé de nom et deux établissements ont examiné cette éventualité (Paris I et III). Le choix des nouvelles dénominations (corpus : sites web, avril 2010) indique une prise en compte de logiques de communication, voire de marque. L'université Paris IV a ainsi adopté en 2007 comme signature : « Université Paris Sorbonne - Paris IV », dans une logique de marque, comme nous l'étudierons ci-après. L'université Paris II a opté pour le lieu : « Panthéon-Assas ». Le nom « Université Panthéon-Assas » est associé sur le site web à un slogan : « Première université de Droit de France », référence explicite à la notion de palmarès et au discours dit de l'excellence. L'université Paris V a privilégié le choix d'un anthroponyme au rayonnement international et lié au champ académique : « Université Paris Descartes », comme les universités Paris VI et VII, respectivement « Université Pierre et Marie Curie » et « Université Diderot ». L'université Paris X a opté pour : « Université Paris Ouest Nanterre La Défense » afin de souligner sa proximité géographique avec le site de La Défense, un des principaux quartiers d'affaires de la région parisienne. Le changement de nom s'est accompagné d'un changement d'image : « Plus moderne, plus ambitieuse, plus dynamique, cette nouvelle image correspond aux nouveaux enjeux de l'université : un nom connu internationalement, une place de leader dans les sciences humaines et un enracinement territorial en développement. » Dans ce registre qui se veut communicationnel, il est intéressant de souligner que la prise en compte de logiques de communication s'est accompagnée d'une diffusion de sigles. Cinq universités (Paris V, VI, X, XII et XIII) ont ainsi adopté les sigles suivants : URD (pour « Université René Descartes », attesté dans de nombreux documents internes entre 2000 et 2007), UPMC (pour Université Pierre et Marie Curie, sigle qui figure depuis 2008 sur le site web et qui est à la base de son URL), UPX, UPEC et UP13 (sites web respectifs). Le nombre de sites (référence aux lieux) ou de composantes (référence aux anciennes facultés ou UFR), l'histoire des établissements et la structuration du supérieur français sont autant d'éléments qui expliquent la coprésence de plusieurs noms pour désigner une même entité. Or cette situation, amplifiée par les changements de nom, constitue un handicap dans le contexte de discours de l'excellence basés sur le rang occupé dans les classements internationaux. La médiatisation du classement dit de Shanghai, l'un des plus connus, a renforcé les préoccupations quant à la notoriété des établissements, à leur « compétitivité » en termes de rang obtenu, ce qui conduit à des regroupements. L'autorité de tutelle mène une politique d'incitation à travers différents dispositifs : PRES, fondations ou Plan Campus (janvier 2008). Ce dernier vise à rassembler plusieurs universités ou plusieurs PRES dans le but « de développer des pôles d'excellence de formation et de recherche ». Dix pôles universitaires d'excellence de niveau international sont escomptés. En juillet 2008, la ministre de l'Enseignement supérieur, Valérie Pécresse, a rendu publique la liste des universités et grandes écoles qui étaient retenues pour constituer ces Campus et bénéficier d'importants financements (6 milliards d'euros annoncés en 2008). Dans un contexte de concurrence entre établissements et/ou pôles, les noms administratifs adoptés par les différents regroupements contribuent à l'institutionnalisation et à la mise en mots des ensembles ainsi constitués. Dans cet ordre de discours, les noms des regroupements sont censés incarner la nouvelle entité, la faire exister en la nommant. Il n'est pas rare que ces associations entre établissements évoluent dans le temps. Ainsi, depuis 2006, les alliances et leurs noms témoignent de variations, soulignant les enjeux et les rapports de force liés à ces reconfigurations (en termes de disciplines, d'ancrage territorial et de domaines de recherche). Citons pour illustrer les principaux regroupements et leurs dénominations : – exemple de fondation : « Paris Universitas » (janvier 2007) entre l' École des hautes études en sciences sociales (EHESS), l' École normale supérieure (ENS), les universités Paris II, III, VI et IX. « Paris Universitas » souhaite, avec ce nom, réincarner l'historique Université de Paris; – exemples de PRES : en janvier 2006, PRES « Paris Centre Universités », regroupant les universités Paris I, V et VII. En octobre 2009, PRES « La Sorbonne », regroupant les universités Paris II, IV et VI. En février 2010, PRES « Université Paris Cité », regroupant les universités Paris III, V, VII, l' École des hautes études en santé publique, l'Institut national des langues et civilisations orientales, l'Institut de physique du globe de Paris, l'Institut d'études politiques de Paris et l'université Paris XIII (membre associé), et dont le premier conseil d'administration (31 mars 2010) a symboliquement et stratégiquement adopté comme nom d'usage : PRES « Sorbonne Paris Cité »; – Plan Campus, juillet 2008 : « Campus Condorcet Paris-Aubervilliers » (retenu en septembre 2009) entre l' École des hautes études en sciences sociales, l' École pratique des hautes études, les universités Paris I, VIII, XIII, l' École des Chartes, le CNRS et l'INED; « Paris Campus Quartier Latin » (dossier déposé en juillet 2008) entre les universités Paris II, III, IV et VI, l'ENS Ulm et le Collège de France; « Campus universitaire Paris-Centre » (dossier déposé en juillet 2008) entre les universités Paris V et VII, l'IEP de Paris, l'Observatoire de Paris et l'Institut de physique du globe de Paris. Une même université aux noms pluriels peut avoir rejoint plusieurs dispositifs (exemples : Paris I, II, III, V, VI…), ce qui conduit à une multiplication des signatures. Or, un des effets attendus de ces regroupements est de se voir attribuer plus de références, du fait de la logique bibliométrique, en fusionnant les signatures des contributions des chercheurs appartenant aux différents établissements et regroupés dans la nouvelle entité. Les signatures additionnées par Paris I, V et VII dans le cadre du PRES « Paris Centre Universités » avaient pour but affiché d'augmenter la place de ces établissements dans les classements internationaux et les chiffres générés par les moteurs de recherche. Une majorité d'établissements se préoccupent ainsi de leur notoriété et de leur « attractivité » au niveau national et international en veillant à l'affiliation et à la quantification correcte de leur signature. Le nom de l'établissement cristallise donc des enjeux en termes d'image mesurable et également de reconnaissance, dans une logique comptable de citation. Rappelons que seules les références strictement identiques peuvent être comptabilisées – donc cumulées – et ainsi garantir une position enviable dans les classements internationaux. Or, la succession de logiques de regroupement ne facilite pas la stabilisation des signatures et par voie de conséquence l'affiliation des références. Prenons l'exemple d'un établissement au nom pluriel : cette pluralité de dénominations pour une même entité conduit à un éclatement des références potentiellement attribuables, ce qui nuit à sa visibilité, les outils n'agrégeant pas systématiquement les différentes dénominations. L' « Université Paris Sud-11 » est aussi appelée « Orsay », « Paris-Sud », « Sceaux » … De plus, la présence ou l'absence du trait d'union au sein des dénominations peut également être source d'éclatement d'affiliation des références. Ainsi, dans le même but que celui des regroupements, les établissements qui ont changé de nom le justifient par la prise en compte d'enjeux de communication et d'internationalisation éducative. Par exemple, en novembre 2006, Jean-François Dhainaut, le président de « Paris V - René Descartes », a été à l'initiative du nouveau nom, « Université Paris Descartes », et a justifié ce changement dans un courrier électronique du 31 juillet 2007 en rappelant « l'identité, la visibilité et l'attractivité nationale et internationale de [l' ]établissement. Notre université poursuit ainsi sa démarche fédérative autour d'un “label commun” à toutes les entités qui la composent » (nous soulignons). Or, les changements de nom s'avèrent difficiles à imposer. Si les chercheurs sont sensibilisés à cette question, les contraintes de publication (feuille de style et charte graphique) et l'appartenance du chercheur à plusieurs structures peuvent participer à la non-affiliation de la référence. Par ailleurs, la prise en compte de l'enjeu d'affiliation par les chercheurs pose la question de leur appartenance institutionnelle et du rapport du chercheur à ces identités imposées ou revendiquées (laboratoire et/ou UFR et/ou université et/ou organisme de recherche…). Dans le cas de Paris V, l'élection d'un nouveau président en décembre 2007, Axel Kahn, a conduit à l'envoi par courrier électronique d'une note afin de demander aux chercheurs de l'établissement de signer leurs articles en reprenant le « label commun » prôné par son prédécesseur. Cette mobilisation quant à la signature institutionnelle des contributions scientifiques confirme la prise en compte d'enjeux de référencement – au cœur des questions liées à la compétitivité attendue du supérieur français – et leur difficile mise en pratique. Les classements internationaux sont explicitement évoqués dans cette note, ainsi que le « bon » référencement de l'établissement. Note du 1 er février 2008 à toutes les équipes de chercheurs et enseignants-chercheurs : Un usage croissant est fait des classements internationaux des établissements de recherche et d'enseignement supérieur. Le plus connu est celui de l'Université de Shanghai. Quels que soient l'analyse et le sentiment de chacun sur ces classements, ils jouent un rôle de plus en plus déterminant dans l'image des universités, et par conséquent leur attractivité, leur crédibilité, leur succès dans l'obtention de moyens auprès des instances nationales, européennes et internationales. […] Des moteurs de recherche de différents organismes allouent automatiquement les publications aux établissements des auteurs À CONDITION QUE L'AFFILIATION SOIT CORRECTE. » Une enquête effectuée dans le cadre d'un rapport sénatorial sur les classements internationaux dans le supérieur confirme l'importance accordée à ces classements. L'enquête, menée auprès de « 106 dirigeants d'établissement d'enseignement supérieur », présente le taux global de réponse (75 %) comme un signe d'intérêt porté aux classements. Ainsi, 69 % des répondants déclarent « connaître leur place dans le classement de Shanghai » et 83 % des répondants déclarent également « avoir pris des mesures concrètes destinées à améliorer leur rang dans les classements internationaux ». Les changements de nom sont une « des mesures concrètes destinées à améliorer son rang », comme l'attestent certains courriers ou notes internes. Si la stabilisation de la signature est la condition sine qua non du contrôle de la notoriété que nous qualifierons de « comptable », l'utilisation d'un nom prestigieux, devenu emblématique du champ académique, est également un moyen d'agir sur sa notoriété. Le cas de Paris est intéressant et mérite un examen attentif car parmi les treize universités étudiées, trois se partagent le nom Sorbonne (Paris I, III et IV) et deux PRES l'emploient dans leur nom : PRES « La Sorbonne » et PRES « Sorbonne Paris Cité ». L'intérêt pour l'usage du nom Sorbonne souligne le bénéfice attendu par son incontestable notoriété. Il indique également l'inscription de la dénomination académique dans le champ des marques. La Sorbonne est l'emblème du rayonnement académique de la capitale et de la France. À l'instar de Louvre, Sorbonne est un toponyme qui est devenu au fil du temps le symbole de l'excellence académique française. Les ouvrages de marketing citent ainsi le Louvre et la Sorbonne comme des exemples de noms d'institutions devenues des marques (Heilbrunn, 2007, p. 3) et répondant à deux fonctions essentielles : identification de l'origine (fonction de signature) et différenciation par rapport aux institutions concurrentes (ibid., p. 5.). L'un des emplois de « marque » est sémantiquement proche « d'un signe apposé intentionnellement », il renvoie également « aux armoiries, à l'ornement distinctif d'une dignité ». Cet « ensemble de valeurs manifeste le lien entre la marque et la signature ». Dans un contexte d'économie dite de la « connaissance », des signatures devenues des marques font l'objet de toutes les attentions de la part des pouvoirs publics. Ainsi, de nombreux groupes de travail ont été mis en place depuis 2007, principalement à l'initiative du ministère de l' Économie et des Finances, afin de recenser et de promouvoir des marques, appréhendées comme des actifs immatériels. Cet intérêt porté aux marques s'observe dans le champ académique autour de la marque « Paris Sorbonne », déposée par la Ville de Paris en 2007. Or, l'histoire des universités parisiennes explique que les bâtiments de la Sorbonne abritent à la fois le rectorat de l'académie [h] et des salles de cours ou de réunions de quatre établissements (Paris I, III, IV et V). Plusieurs universités se réclament donc de la Sorbonne. La constitution des PRES et le Plan Campus ont attisé les enjeux autour du nom Sorbonne et de l'utilisation de la marque. Cette situation a conduit l'adjoint au maire de Paris, chargé de l'innovation, de la recherche et des universités, à adresser une lettre, en juillet 2009, aux présidents des universités parisiennes afin de leur rappeler que « la Sorbonne est un des emblèmes de la vocation universitaire de la ville de Paris et un atout majeur pour l'ensemble des universités parisiennes. Le nom “Sorbonne” lui -même est un élément important du patrimoine immatériel de la capitale, un bien commun de notoriété mondiale pour tous les Parisiens ». La marque et les bâtiments étant la propriété de la ville de Paris, l'adjoint au Maire indique : « Les événements récents, relatés par la presse, me conduisent à vous demander, au nom du Maire de Paris, d'utiliser le nom “Sorbonne” de manière concertée entre établissements et avec notre accord de propriétaire du bâtiment et de la marque. » Ce rappel souligne les tensions suscitées par le feuilleté de signification lié au nom Sorbonne et dont de nombreux établissements souhaiteraient bénéficier. Les universités Paris I et Paris III ont conservé le nom Sorbonne dans leur nom officiel, mais il est accompagné pour Paris I de « Panthéon » et pour Paris III de « nouvelle ». Seule Paris IV s'identifie exclusivement par le nom Sorbonne. Le choix de son URL en [www.paris-sorbonne.fr ], proche de l'URL du rectorat, confirme l'enjeu accordé au nom Sorbonne et à la marque « Sorbonne ». Les sites web de plusieurs universités parisiennes, dans la partie consacrée à leur histoire, font ainsi référence à leur héritage vis-à-vis de la Sorbonne : Héritière à la fois de la Sorbonne et de la Faculté de droit du Panthéon, Paris 1 est l'une des universités de premier plan dans le domaine des sciences humaines et sociales comme dans celui du droit et de l'économie. (Site de Paris I) Héritière du Collège fondé en 1257 par Robert de Sorbon à l'emplacement de l'actuelle Sorbonne, puis de la Faculté des Lettres de l'Université de Paris, l'Université Paris-Sorbonne (Paris IV) a été créée par le décret du 23 décembre 1970, confirmé par le décret du 17 juillet 1984. (Site de Paris IV) La logique de marque, voire de label a ainsi conduit l' « Université Paris-Sorbonne, Paris IV » à ouvrir un campus à Abu Dhabi, « Paris-Sorbonne University Abu Dhabi », qui affiche le même logo que celui qui figure sur le site parisien (représentation de la chapelle de la Sorbonne). La mention « Abu Dhabi » figurant en bas du logo permet de distinguer les deux entités de la marque « Sorbonne ». Inauguré le 18 novembre 2006 par Gilles de Robien, alors ministre de l' Éducation nationale, ce campus est censé incarner le dynamisme des marques françaises à l'exportation. La résonance dans les champs politique, médiatique et académique de l'importance accordée aux classements internationaux, en particulier au classement de Shanghai, inscrit donc la question de la visibilité et de la notoriété des dénominations académiques au cœur des stratégies d'établissements dans le but affiché d'agir sur les logiques comptables d'affiliation. Cependant, indépendamment de la compétitivité attendue, des stratégies de communication et de la logique de marque, des pratiques discursives de signatures plurielles demeurent et expliquent la coprésence de plusieurs noms pour une même université, voire un PRES. La multiplication des dispositifs de regroupement ne favorise pas la stabilisation d'un nom, ce qui conduit à un certain brouillage quant à la visibilité attendue des universités françaises. La mobilisation reste cependant forte pour améliorer le classement des universités parisiennes et favoriser leur « notoriété », confirmant la diffusion d'un discours de l'excellence qui tend à s'imposer et à résumer l'excellence à des logiques quantitatives d'affiliation ou de marque .
La dénomination des universités est au cœur des préoccupations de l'enseignement supérieur, comme en témoignent les récents changements de noms dans le champ académique français. Les dénominations académiques s'avèrent plurielles: traces de l'histoire des établissements, des mutations et des réformes qui touchent au supérieur (regroupements d'établissements). Elles sont également au centre des logiques de référencement qui comptabilisent les signatures et contribuent à leur visibilité. C'est ce que cet article examine à partir d'une étude diachronique et synchronique des dénominations des treize universités d'Île-de-France.
linguistique_12-0208009_tei_615.xml
termith-545-linguistique
Nous nous intéressons ici aux formes d'usage différenciées des sigles et à leur rôle dans un ensemble de récits mémoriels d'habitants, professionnels, élus et/ou experts d'un territoire relevant de la Politique de la ville, les Minguettes (Vénissieux, Rhône). Dans ces entretiens, tous les enquêtés, quelles que soient leurs propriétés et leur trajectoire, recourent à des sigles. Du fait du dispositif méthodologique (recueil de récits d'expériences selon les logiques propres à chaque enquêté), les sigles sont sollicités en tant qu'ils font sens à la fois dans les pratiques des enquêtés et dans une situation de communication spécifique à double titre. Enquêtés dans le cadre d'une collecte de témoignages oraux, les locuteurs sont conduits à produire des énoncés qui tiennent compte des connaissances et ignorances probables de l'enquêteur et du public ultérieur potentiel. En outre, il s'agit, du moins pour certains d'entre eux, de présenter un territoire stigmatisé de longue date par les médias comme un espace identitaire, anthropologique (Augé, 1992). C'est dans ce contexte que sont évoqués mesures, organismes et dispositifs institutionnels successifs concernant les Minguettes, souvent désignés par des sigles qui s'imposent alors aux différents acteurs. Les sigles ont été repérés systématiquement dans le verbatim (voir tableau pour une catégorisation générale thématique). a) Occurrence (occ.) : utilisation du sigle dans l'entretien par un enquêté, quel que soit le nombre de mentions. b) Voir infra : pour l'enquêté « expert », les sigles relèvent d'un langage de spécialiste utilisé notamment dans son cadre professionnel (ATSEM dans le milieu enseignant, SDAU pour un architecte…). c) La partition entre « experts » et autre est difficile à effectuer. d) Beaucoup sont usagers des dispositifs évoqués, AFPA, CNFPT, ANPE… e) Essentiellement professionnels et/ou usagers. La description et l'analyse de leur mobilisation dans le contexte discursif qu'on a présenté permet d'étudier la manière dont ils interviennent au fil du propos, notre hypothèse étant qu'ils assument, d'une manière spécifique et différenciée selon les enquêtés et les types de sigles, le rôle d ' agents de transmission de cadres prédiscursifs collectifs (Paveau, 2008). L'analyse comparative de l'usage de ces sigles dont les thèmes et échelles sont variés permet de procéder à des comparaisons et à des contextualisations combinant plusieurs dimensions : contenu du sigle, logique de restitution (en particulier, volonté d'attester une expertise, d'affirmer sa légitimité à parler comme témoin et/ou expert et/ou professionnel), reconstitution d'une trajectoire personnelle (parcours biographique et professionnel, âge, résidence…). Plusieurs axes structurent et éclairent les manières et raisons de les mobiliser, notamment le fait que leur emploi est plus ou moins réflexif et critique; perçu comme légitimant; perçu comme indispensable – ce qui rejoint un axe global allant du sigle lexicalisé à la langue d'initiés (Percebois, 2001, p. 633 et 641). La lexicalisation des sigles n'est pas une propriété figée, mais varie pour un même sigle selon le contexte et l'usage. Les sigles lexicalisés se distinguent empiriquement des sigles spécialisés du fait qu'ils ne font pas l'objet d'une traduction ou d'hésitations dans le discours des enquêtés et/ou qu'ils ne s'inscrivent pas dans un lexique spécialisé. C'est l'usage de ces sigles qui est le plus largement partagé entre les différents enquêtés, quels que soient leur âge, leur sexe et leur trajectoire (15 % des sigles, 1/3 des occurrences). Les usages de RMI (7 occurrences) sont emblématiques du double passage de la qualification d'un dispositif technique à l'usage lexicalisé, et de la description à la stigmatisation. Lorsque les enquêtés le sollicitent dans le cadre de leurs activités professionnelles, le sigle intervient dans un contexte lexical spécialisé où d'autres dispositifs et termes techniques sont mentionnés (CCAS, CES, CAF, quotient familial…) : À Vénissieux, en tout cas sur les Minguettes, la plupart des familles que nous avons sont des familles monoparentales [… ], ces parents là ne travaillent pas, leur seul revenu c'est soit le RMI soit la prestation de la CAF […] 5,20 € par atelier c'est abordable pour toutes les familles dites défavorisées. Si on prend en compte le quotient familial, le tarif il sera, si on se réfère aux centres sociaux, il sera pour une garde d'un mercredi entre 15 et 30 [… ]. (1965. BTS comptabilité, directeur Maison de l'enfance) Les Brigades blanches c'est un dispositif financier général pour remettre à l'emploi exclusivement des bénéficiaires du RMI. Des assistantes sociales du Conseil Général ou du CCAS (Centre Communal d'Action Sociale) nous envoyaient des bénéficiaires du RMI pour qu'on leur propose un contrat de travail en CES à l'époque, Contrat Emploi Solidarité à mi-temps, et puis sur l'autre mi-temps on les accompagnait dans leurs démarches de logement, formation, recherche d'emploi et autres. (1972. DESS, ARRADEP puis OPAC) Dans le sens commun, il peut être mobilisé pour mettre en avant un changement de société, comme emblème (et peut-être vecteur) de ce changement : C'était quelqu'un qui très concrètement aujourd'hui aurait été orienté, serait au chômage, serait au RMI, et qui a pu – parce que c'était une autre époque – rentrer dans l'usine du papa. (1949, instituteur, activités associatives) Il peut servir à qualifier un groupe qui se voit ainsi disqualifié (a) ou au contraire dénoncé comme opérant l'agrégation d'individus dont les autres qualités sont ainsi niées (b) : (a) Ben moi, dans les dix dernières années, ce que j'ai vu arriver à l'école, c'est que de plus en plus de parents étaient sans travail, chômeurs ou au RMI parce que maintenant comme profession ils sont RMIstes. (1948. Institutrice aux Minguettes jusqu' à sa retraite en 2003) (b) Alors tu vas où quand tu as un centre social qui te dit « La poésie soyez sérieux, on a des Rmistes ». Justement nous c'est ça, les gens on leur donne des outils on leur donne du plaisir, ils vont connaître ils vont échanger. (1970. DEA Droit, responsable activités culturelles municipales) Les sigles lexicalisés désignent généralement des dispositifs innovants lors de leur création (ZUP, HLM, APL, ANPE, SMIC ou RMI; COURLY, Communauté Urbaine de Lyon, 11 occurences, appartient au vocabulaire commun local) et sont sollicités y compris lorsque le dispositif désigné n'existe plus – sans que leur signification dans le discours ne recoupe toujours les significations que ces sigles recouvrent initialement. ZUP, qui désigne une procédure d'urbanisme à l' œuvre entre 1959 et 1967, date de son remplacement par les ZAC, est entré dans le langage courant (Zupéen est signalé par le TLF) et fréquemment utilisé pour désigner le territoire des Minguettes. Le sollicitent sans plus de précisions spatiale ou temporelle vingt enquêtés, anciens résidents et/ou professionnels (instituteurs, animateurs…) résidant dans d'autres quartiers de Vénissieux, sans compter les opérationnels de la politique, qui situent cette dénomination dans l'historicité des mesures s'appliquant à l'espace des Minguettes. « La ZUP » est un toponyme qui « possède une situation située […] : la position historique et énonciative du sujet est un critère aussi important que la sédimentation mémorielle du toponyme lui -même » (Paveau, 2008). Percebois (2001, p. 630) note que « la siglaison permet […] un gain de temps dans l'oralisation des concepts. C'est une des figures de l'économie linguistique, la siglaison pouvant être présentée comme la recherche d'un moindre effort qui se paie toutefois en coût mémoriel ». Ce phénomène est attesté dans le corpus, dans le cas de sigles lexicalisés. Mais parfois, du fait que l'économie discursive de la restitution mémorielle varie selon la trajectoire des enquêtés, selon le type de sigle et/ou la légitimité des interlocuteurs dans les rapports et stratégies qui s'établissent au moment de l'entretien, l'usage des sigles se paie à la fois d'un coût cognitif et d'un coût mémoriel. Les sigles peuvent relever d'une langue d'initiés, là encore du fait non pas de leurs propriétés propres, mais du contexte dans lequel ils sont sollicités. En effet, tous les enquêtés sont susceptibles de recourir à de tels sigles relevant d'un domaine professionnel ou associatif spécifique. Dans ce cas, lorsque les sigles sont lexicalisés, leur usage peut être soit une reconnaissance de la compétence supposée de l'enquêteur, soit une volonté d'affirmer sa propre maîtrise, soit le signe que ces sigles font partie du vocabulaire usuel de l'enquêté, auquel l'enquêteur demandera alors souvent une traduction. L'emploi des sigles spécialisés s'accompagne parfois d'une proposition de traduction relevant de deux postures possibles : « montrer qu'on sait » (l'enquêteur est constitué en évaluateur de la connaissance et l'enquêté se place dans une posture d'évalué) et/ou informer l'enquêteur (alors positionné en apprenant), ce qui permet à l'analyste d'expliciter certains ressorts cognitifs de la situation de communication (Quéré, 1997; Paveau, 2008) et la négociation des rapports de pouvoir dans l'entretien. L'émergence de ce type de négociation est encore plus frappante dans un second cas, qui nous occupera plus longuement : les sigles ont appartenu dans la pratique passée et/ou sont censés appartenir à une langue d'initiés qui, pourtant, n'est pas maîtrisée par les enquêtés. Erreurs et hésitations dans l'épellation du sigle ou dans sa traduction sont nombreuses et concernent tous les enquêtés sollicitant ces sigles spécialisés qui, quelle que soit leur compétence verbale et leur connaissance des dispositifs, se trouvent, ainsi que les enquêteurs, dans une situation d'incertitude à un moment ou l'autre des entretiens : Il s'agissait d'une action sur le logement avec la mise en place de la PALULOS, la Prime à l'Amélioration du Logement euh Locatif et d'Usage Social, non d'Usage Locatif et d'Occupation Sociale, la PALULOS. » (1948, Paris. Arrive à Lyon à la fin des années soixante pour ses études de sociologie. Entre en 1981 à l'Agence d'urbanisme, où il est, depuis, chargé de mission) CEREF oui, C.E.R.E.F., mais il existe plus hein. […] Le système PAQUE, que Martine Aubry avait lancé. PAC, P.A.Q.U.E, comme Pâques mais sans le S, ça veut dire Promotion Qualification… oh je me souviens plus. (1941. Formation électronique avec l'AFPA, travail dans le secteur nucléaire puis animateur socioculturel aux Minguettes. Auteur d'un ouvrage sur cette expérience) Dans ces tentatives de traduction se joue alors pour les uns et les autres, dans l'interaction, la gestion du rapport au savoir et à ses normes ainsi que les modalités de restitution possibles des actions et situations passées dans un contexte où l'évolution permanente des dispositifs entraîne l'oubli des appellations antérieures et/ou la méconnaissance des appellations ultérieures : Le CIL [Comité interprofessionnel du logement] à l'époque je ne sais plus comment ça s'appelait après, c'est des choses qui sont loin de moi. (1944. Études d'infirmière puis d'assistante sociale, travaille aux Minguettes de 1978 à 1982. 1997-2005 : conseillère technique et responsable départementale à l'Inspection académique du Rhône) Alors moi je l'ai été donc au Conseil de… ce qu'on appelle le CCAS maintenant, c'est le truc Solidarité les services sociaux quoi, alors ça s'appelait encore Bureau d'aide sociale. (1932. CEP, formation d'infirmière psychiatrique. Exerce à Lyon. Retraitée résidente aux Minguettes) C'est particulièrement le cas pour les sigles de la catégorie « Politique de la ville », auxquels on peut rajouter les sigles de la catégorie « territoire et urbanisme » (voir tableau supra). Les dispositifs et organismes qu'ils recouvrent sont au cœur d'une partie des entretiens; ils sont pourtant ignorés ou très mal connus de la plupart des enquêtés qui, élus, experts, les sollicitent ou voudraient les solliciter. « Connaître ou ne pas connaître » est vécu comme un enjeu (reconnaissance de la compétence), en particulier pour les élus et professionnels en charge de la Politique de la ville. Les seconds apportent souvent des dossiers qu'ils consultent d'ailleurs peu souvent durant l'entretien. La nécessité perçue et non questionnée de recourir à ces sigles, l'effort de mémoire consenti pour tenter de les retrouver et de les utiliser (même si on ne les maîtrise pas), indiquent qu'il y a dans leur usage un rapport à la légitimation de soi et à la qualification du territoire (entendu comme une catégorie aux délimitations géographiques mais aussi politiques et symboliques) qui s'opère en référence à un savoir expert qui n'est pas remis en question malgré la « volatilité » de ces sigles, rarement thématisée en tant que telle. Deux élus et un chargé de mission disent à l'enquêteur, sur le mode de la connivence mais aussi de l'excuse : « Je n'ai pas révisé ». Au-delà du registre scolaire, ce propos désigne aussi en creux l'existence d'un savoir constitué, d'un « donné » clairement établi et délimité (le sigle a dans ce cas un rôle similaire à celui de l'apport de données chiffrées). La reconnaissance de ce « savoir » est un préalable, y compris à la critique des dispositifs. Une enquêtée exhibe ainsi sa maîtrise par la « récitation » de sigles pour poser ensuite que les dispositifs qu'ils recouvrent ne font pas sens ni ne résolvent les problèmes : Il y a aussi un peu un : je baisse les bras par rapport à la politique de la ville. C'est-à-dire que j'ai toujours connu la politique de la ville, j'ai toujours travaillé là-dedans puisque le quartier Darnaise depuis tout le temps il a été, et moi je connais tous les sigles, donc ça a été HVS : habitat vie sociale au départ, ensuite c'est passé DSQ, après c'est passé… enfin voilà. – C'est au niveau national là. – Ah oui, on est bien d'accord. Donc je connais tous… Et malheureusement au jour d'aujourd'hui… Il y a des choses qui sont faites, et les quartiers n'ont peut-être pas explosé parce qu'il y avait ça. Mais quand même, sur le plan individuel des gens, ça n'a pas amélioré leur condition, au contraire. Les conditions sont pires que dans les années quatre-vingt, maintenant dans les quartiers. Des conditions de vie, hein, je parle ! (1962. Arrive enfant aux Minguettes. Maîtrise en sociologie. Directrice d'une Maison de quartier depuis 2000) Cet usage simultanément incertain et inévitable des sigles signale à la fois un coût mémoriel et un effort cognitif. Il met en lumière et permet d'analyser les modalités selon lesquelles les professionnels et experts sont placés dans une position discursive épineuse par le renouvellement permanent des dispositifs et de normalisation des catégories de pensée. Cela renvoie à une « domination par le changement » où « tout se fait sans apparat et sans affectation de grandeur. Le caractère technique des mesures rend difficile, voire d'ailleurs inutile, leur transmission à un large public. Rien, ou presque, ne vient assurer la cohérence d'ensemble si ce n'est précisément le cadre comptable et/ou juridictionnel général auquel les mesures particulières doivent s'ajuster » (Boltanski, 2009, p. 200). L'analyse du sigle en discours montre que loin d' être une entité figée, le sigle (chaque sigle) s'inscrit dans des configurations sociodiscursives particulières qui en conforment l'usage et dont il est souvent un révélateur privilégié. Son observation est précieuse notamment lorsque l'on s'intéresse aux processus mémoriels collectifs .
Dans un corpus de récits mémoriels d'habitants, professionnels et/ou élus d'un territoire relevant de la Politique de la ville, de nombreux sigles sont utilisés par les enquêtés. Selon les propriétés de ces derniers et la situation de communication, leur usage est plus ou moins naturalisé ou réflexif. Ils permettent ainsi d'observer l'économie des positions des enquêtés et d'analyser la construction, dans l'interaction, des différentes postures de «témoin légitime».
linguistique_12-0116615_tei_824.xml
termith-546-linguistique
Ce travail de réflexion est issu de deux constats : d'abord un besoin identifié des entreprises. En effet, les entreprises aujourd'hui ont besoin d'experts en communication interculturelle capables de comprendre et d'interpréter les causes éventuelles d'incompréhension entre deux partenaires commerciaux (Geoffroy 2001), donc de résoudre les conflits d'interprétation potentiels. Ensuite, la nécessité pour les étudiants de LEA de construire leur identité, entre BTS et école de commerce. Ce créneau semble pouvoir leur offrir un débouché spécifique à condition de les sensibiliser aux faits que la compétence linguistique dans la définition chomskienne (connaissance des règles de fonctionnement du langage) n'est pas nécessairement synonyme de compétence de communication et que cette dernière suppose des compétences socioculturelles et interculturelles. À défaut, le locuteur aura tendance à utiliser les références de sa propre culture pour analyser le message produit par son interlocuteur. Une formation adaptée devrait permettre aux étudiants d' être capables de reconnaître et analyser les différences culturelles développer le recul mettre en œuvre des capacités linguistiques et comportementale adaptées au contexte culturel de leur domaine d'expertise. Comment y parvenir ? Une image peu valorisante Dans l'organisation duelle de l'enseignement en France, sélectif et élitiste des grandes écoles, IUT et BTS, démocratique de masse à l'université, les étudiants de LEA appartiennent à la seconde catégorie. Les « bons » étudiants sont ceux qui sont capables de trouver du sens à leur apprentissage, de préciser ce qu'ils savent ou ne savent pas, d'établir leur propre progression, de considérer l'acquisition de savoirs comme une activité personnelle. Toutes choses qui semblent faire défaut à bon nombre d'étudiants de LEA. Livrés à eux -mêmes, le choix de la section s'est souvent fait « par défaut ». L'image de marque des étudiants de LEA est donc souvent une image en négatif d'étudiants de deuxième classe. Un faible investissement des enseignants Ces constatations ont pour corollaires le faible intérêt que manifestent les enseignants pour ce parent pauvre, et ils leur préfèrent ouvertement les filières « nobles », qui correspondent à leur domaine de recherche principal. Le nombre de maîtres de conférences et de Professeurs qui travaillent à titre permanent en LEA est significativement inférieur à celui des autres sections. Le travail de recherche y est – assez symboliquement d'ailleurs – quasi inexistant. Des résultats qui montrent une forte déperdition entre le nombre d'étudiants inscrits et les diplômés. Comme le montrent les tableaux en annexe 1, les résultats par année montrent un écart de 2/3 entre le nombre d'inscrits et le nombre de diplômés en première année, et de la moitié sur les années suivantes. Une étude comparative des effectifs en première et quatrième année montre une déperdition de 75 %. Celle -ci ne semble pas être liée à l'origine sociale des étudiants, mais l'origine scolaire (voir annexe 2) paraît jouer un rôle dans la mesure où seuls demeurent représentés les étudiants des bacs ES, L et quelques S, les STT et STI ayant largement disparu. Ce qui a permis à une enseignante de dire que les étudiants « viennent échouer en LEA » L'organisation du dispositif à l'université de Nantes se fait autour de CM : TD : TP Ces appellations varient en fonction des effectifs qui composent les groupes : 18 pour les TP, 45 pour les TD et plus pour les CM en amphithéâtre. Elle reflète une vision transmissive, hiérarchisée et descendante de l'enseignement où les enseignants en poste à l'université, légitimement détenteur d'un savoir dans leur domaine, pensent pouvoir le transmettre aux étudiants du haut de leur chaire, et s'étonnent de constater qu'il n'en est rien. Ils déplorent alors la baisse du niveau, et l'ouverture de l'université à des étudiants qui « n'ont rien à y faire » [sic ]. La question qui se pose à l'examen du contexte est de savoir que proposer pour que ceux qui ne peuvent pas suivre dans les conditions traditionnelles puissent compenser les insuffisances du système. Or, on rencontre de la part d'une partie des personnes impliquées à l'université une résistance au changement qui fait que toute tentative de modification est un sujet d'inquiétude. Cependant, les institutions en général sont moins contraignantes qu'elles le paraissent. Il s'agit bien de prendre en compte ces données, et de savoir comment s'en accommoder, comment réaliser au mieux une organisation en cohérence avec les théories didactiques du moment dans le contexte offert. Le positionnement théorique sur lequel les propositions de formation ont été fondées n'a rien de révolutionnaire. Il est appuyé sur des conceptions de l'apprentissage aujourd'hui largement reconnues : il n'est pas possible de transférer les savoirs de la bouche du maître vers l'élève réceptacle : le savoir est construit par l'apprenant au cours d'interactions sujet/ savoir (Piaget), et d'interactions sociales (Vygotsky, Bruner). Le rôle des tâches dans l'apprentissage est de favoriser les interactions. Il est crucial qu'elles soient de nature à susciter l'intérêt, l'implication et la motivation des apprenants car sans motivation l'apprentissage ne peut avoir lieu. Dans la construction des dispositifs, il était nécessaire d'assurer la cohérence des contenus et des objectifs. Ainsi, dans le cadre de formation professionnelle concernant les étudiants de LEA option Commerce International, il s'avère utile de développer les compétences pragmatiques des étudiants,de leur permettre d'acquérir un langage adapté au contexte socioculturel (Byram) et à la communauté discursive (Hymes), etde les sensibiliser à l'importance des liens entre langage et culture s'ils souhaitent atteindre une véritable compétence de communication. Les premières tentatives pour mettre en place un dispositif différent ont fait apparaître un conflit entre le savoir didactique et l'organisation institutionnelle. H. Stern nous rappelle qu'il existe trois niveaux d'organisation : celui des sciences de fondement de la didactique celui des concepts de l'enseignement des langues associant théorie et pratique celui de la pratique entre méthodologie et objectif d'une part et organisation (planification et administration) d'autre part. Dans les situations d'apprentissage, les trois niveaux sont en interaction. Et dans le cas que nous étudions, il y a conflit entre savoir didactique et pratique pédagogique. Il s'agit d'un conflit épistémologique, comme le montre le tableau 1, issu de la rencontre de deux postures, celle de l'université comme institution et celle du chercheur. Il ne s'agit pas de condamner une ou l'autre de ces postures. Celle de l'institution, descendante et autoritaire, présente l'avantage de fournir un cadre identifiable et rassurant. Elle offre le confort d'un paradigme unifié auquel il est possible de se référer. Elle permet également de prendre des décisions rapides et de faire face aux situations d'urgence. Elle manque en revanche de flexibilité, ne réussit pas à considérer un problème sous ses diverses facettes puisque la vérité est unique, qu'il n'existe qu'une voie vers la solution et qu'elle refuse d'accepter la diversité. Celle de la recherche que nous voulons mettre en place présente l'inconvénient de la lenteur propre à une démarche qui part des problèmes de terrain, où les compétences de chacun sont prises en compte à chaque niveau et où le recours à l'expert – qui ne menace personne - est systématique en cas de besoin. Comme elle admet que la vérité est plurielle, cette approche peut être déstabilisante et donc inconfortable pour ceux qui ont besoin de stabilité et de sécurité. Elle présuppose que tout être humain a les moyens psychologiques et cognitifs nécessaires pour fonctionner en autonomie, ce qui n'est pas certain. Comment utiliser l'heure de cours magistral qui se trouve dans « la maquette » et prendre ainsi en compte cette contrainte de l'institution ? Nous avons décidé d'en faire une phase de sensibilisation et d'input. Nous y avons assuré la présentation, l'explication et l'illustration des concepts. Nous avons choisi des exemples montrant l'importance du concept dans l'entreprise d'aujourd'hui, pour ensuite présenter, expliquer et illustrer les outils nécessaires à l'analyse des différences interculturelles. Les heures de travaux dirigés et de travaux pratiques ont été consacrées à une phase de mise en œuvre autour de tâches. L'objectif était de permettre la construction de savoirs et savoir-faire complexes autour de la réalisation d'une tâche d'une part, et de mettre en œuvre des capacités linguistiques et comportementale adaptées au contexte culturel du domaine d'expertise des étudiants. Sur le modèle de la grande simulation, le travail proposé visait à intégrer différentes capacités. La dimension interculturelle était intégrée dans l'ensemble du travail (étude du pays à l'export, correspondance, adaptation du produit, campagne de communication, etc.). Une description complète du dispositif figure en annexes 3 et 4. Dans ces conditions, un transfert était-il possible ? Il nous semblait que oui dans la mesure où La nature de la tâche était en étroite relation avec les intérêts des étudiants offrait une exposition longue et variée aux différents aspects du langage de spécialité dont ils avaient besoin nécessitait de s'approprier des compétences liées à leur domaine d'étude : l'anglais des affaires présentait suffisamment de variété et répondait assez à leurs préoccupations pour susciter une réelle motivation, et l'investissement personnel nécessaire à l'apprentissage. Le travail en groupes de quatre répondait à deux objectifs : contribuer à développer une aptitude au travail en équipe nécessaire en entreprise, offrir la possibilité d'interactions et de négociations pour faciliter la mise en place de compétences. L'évaluation mettait en œuvre un savoir-faire utile à développer dans la perspective de leur future carrière dans la mesure où elle consistait en une présentation orale de leur travail devant un jury de deux personnes. Nous avons voulu mesurer l'impact du dispositif sur les étudiants. Pour cela, nous avons proposé deux évaluations portant sur les différents éléments du dispositif d'enseignement/apprentissage, mais également sur leur degré de satisfaction par rapport au soutien pédagogique offert, à leur progression, à la charge de travail, et à la manière dont l'évaluation était conduite. Un espace était proposé pour des commentaires, ce dont la plupart ne se sont pas privé. Nous avions demandé aux étudiants de donner à chaque rubrique une note chiffrée de 0 à 5, selon leur indice de satisfaction, de pas satisfait du tout à très satisfait. (Voir annexe 5) Les questionnaires ont été distribués aux étudiants de maîtrise en amphithéâtre à mi-parcours de la formation. 59 étudiants y ont répondu, sur une centaine qui assistent au cours régulièrement. Comme le montre le tableau 2, la culture des étudiants s'est heurtée à celle de l'enseignant. Les réactions des étudiants montrent comment une même approche peut produire des effets différents en fonction du contexte. Lorsque la relation pédagogique a pu être construite, la consultation des étudiants se fait avec franchise et respect. Dans le cas considéré ici, on a donné l'occasion à des personnes qui se sentent opprimées d'opprimer à leur tour, ce qu'ils ont fait sans ménagement, comme le montre les éléments entourés et suivis de points d'interrogation, les remarques ironiques ou sarcastiques, les expressions du type « il est inadmissible de… », un ton que l'on retrouve même dans les appréciations positives : « continuez ! » ou bien : « l'initiative de ce projet est très honorable ». L'évaluation a permis de mettre en évidence le jeu des représentations des étudiants, fortement influencées par ce qu'ils connaissent déjà. Ce qui se rapproche le plus du cours sur l'interculturel proposé, c'est le cours de civilisation et c'est avec celui -ci qu'ils le confondent, sans voir que l'objectif du cours est de leur donner des outils d'analyse, de présenter des concepts permettant de comprendre ce qui ne va pas dans une interaction interculturelle, en somme d'acquérir une expertise et de permettre le transfert de compétences, comme c'est le rôle de l'université. Il s'agit pour eux de réfléchir, et d'agir en autonomie. Une nouvelle évaluation a été proposée en fin de parcours. Les questionnaires ont été distribués à la fin de l'examen de traduction. Malgré cela – en effet, nous avions ainsi accès à la totalité des effectifs – nous n'avons obtenu cette fois que onze réponses qui montraient de l'intérêt pour la tâche proposée et le lien avec l'ensemble de la formation et les objectifs professionnels mais critiquait la charge de travail. Ce chiffre donne une idée de l'implication des étudiants, et de leur motivation en ce qui concerne l'organisation des dispositifs d'enseignement/ apprentissage. Le point fort de ce dispositif a été s'assurer l'implication des étudiants dans les activités proposées. Ils se sont pour une majorité fortement motivé pour les mener à bien et ont fourni un travail considérable et mesurable, ce qui confirme que lorsque les étudiants se voient confier ce type de tâches, ils produisent. Les problèmes rencontrés sont liés aux difficultés qu'ils ont à comprendre ce qu'on leur demande. Elles tiennent au fait que ce qui est demandé est éloigné de leur expérience universitaire. D'autre part, l'efficacité du travail sur la langue a besoin d' être améliorée. Les étudiants semblent avoir du mal à venir trouver leur enseignant pour du conseil. Il conviendra donc de tirer les enseignements de la pratique et de développer le dialogue avec les enseignants intervenant et avec les étudiants et pour cela développer des outils qui le permettent comme des fiches navettes entre étudiants, enseignants et lecteurs. Dans ma thèse en 1999, j'écrivais que l'évolution des pratiques est conditionnée par La reconnaissance de la diversité comme richesse. Une approche plus modeste de la relation entre le développement de l'instruction et le progrès de la société. La conviction qu'élever le niveau global de l'enseignement n'implique pas qu'on doive abandonner les faibles La préparation des différents participants. L'habitude intégrée des interventions de personnes extérieures à l'établissement, du travail en équipe, et d'une conception moins réductrice de l'acte d'enseigner. Une petite équipe de réflexion s'est mise en place à l'université. Un groupe de travail LEA va naître au GERAS. Ces travaux permettront peut-être l'initialisation d'un changement. Cette expérience menée en maîtrise LEA à l'université de Nantes se situe dans la continuité de l'approche mise en place par Jean-Paul Narcy-Combes à l'université de Technologie de Compiègne et en cohérence avec la façon dont j'ai moi -même toujours travaillé avec les apprenants de quelque origine qu'elle soit. Elle met en évidence le fait que le transfert d'un contexte à un autre (public et conditions de travail) produit des résultats différents, d'où l'importance d'une authentique pratique par rapport à un savoir savant
Les entreprises aujourd'hui ont besoin d'experts en communication interculturelle capables de comprendre et d'interpréter les causes éventuelles d'incompréhension entre deux partenaires et de résoudre les conflits d'interprétation potentiels. Ce créneau semble pouvoir offrir un débouché aux étudiants de LEA à condition de les sensibiliser aux faits que la compétence linguistique n'est pas nécessairement synonyme de compétence de communication et que cette dernière suppose des compétences socioculturelles et interculturelles. Une formation adaptée devrait permettre aux étudiants d'être capables de reconnaître et analyser les différences culturelles, de développer le recul et de mettre en oeuvre des capacités linguistiques et comportementale adaptées au contexte culturel de leur domaine d'expertise.
linguistique_524-04-11625_tei_612.xml
termith-547-linguistique
L'histoire de l'Argentine est liée, depuis le milieu du 20 e siècle, au péronisme : toutes les générations qui se sont succédé véhiculent le mythe du général Juan Domingo Perón et de son épouse Evita. Tant pour les détracteurs du péronisme que pour ses plus fervents adeptes, le parti péroniste reste vivant dans la mémoire d'une classe politique argentine qui se dispute encore l'héritage de ce couple mythique. L'Argentine est ainsi le cadre de l'hégémonie du Parti justicialiste, héritier du parti fondé par Perón, qui reste une référence de la vie politique de ce pays et le cadre de ses mutations. Malgré les innombrables études qu'a suscitées ce phénomène atypique depuis son émergence sur la scène politique argentine, il est nécessaire de s'interroger sur Néstor Kirchner, président « le moins bien élu de l'histoire argentine » (Sigal, 1999, p. 34), qui symbolise l'arrivée d'un homme nouveau, doté de peu de charisme, mais issu du Parti justicialiste. Un bref rappel de la campagne électorale de 2003 permet de comprendre les conditions d'accès de Néstor Kirchner à la présidence de la République argentine. Le Congrès du Parti justicialiste décrète l'annulation de l'élection primaire et permet ainsi aux trois candidats principaux de se présenter directement et séparément à l'élection présidentielle, sans revendiquer cependant le nom du Parti justicialiste. Ainsi, les trois candidats péronistes à la présidence doivent-ils former de nouveaux partis politiques. Carlos Menem crée le Front de la loyauté, Néstor Kirchner le Front pour la victoire et Adolfo Rodríguez Saá le Front national et populaire. Le but de cette manœuvre originale est d'éviter que Menem ne devienne le candidat officiel du péronisme, ce qui lui garantirait alors la présidence du pays. À l'élection présidentielle du 27 avril 2003, après le premier tour et selon les calculs officiels, Carlos Menem arrive en tête, suivi par Néstor Kirchner puis par Ricardo Lopez Murphy, Elisa Carrió et Adolfo Rodríguez Saá : Source : ministère de l'Intérieur de la République argentine (Direction nationale électorale). Le second tour doit donc voir s'affronter Carlos Menem et Néstor Kirchner. Mais, dans les jours qui précèdent les élections, prévues le 18 mai, une majorité d'électeurs manifestent leur intention de voter pour Néstor Kirchner, les sondages lui donnant 80 % des suffrages. Menem décide alors, de façon surprenante, d'abandonner la compétition. Kirchner n'a donc pas bénéficié d'une franche victoire, puisque c'est la puissance du discours antimenemista qui a finalement déterminé le résultat de la lutte électorale; le scrutin du 27 avril est plus un plébiscite contre Menem que l'expression du soutien des Argentins à Kirchner, qui devient ainsi président « par défaut » (Quattrocchi-Woisson, 2007, p. 16). Il convient donc de s'interroger sur cet homme nouveau sans charisme et sur sa capacité à réconcilier l'Argentine, à unifier le Parti justicialiste fortement fragmenté et à réduire l'opposition entre péronistes et non-péronistes qui divise le pays depuis l'apparition du général Juan Domingo Perón sur la scène politique, en 1943. Une analyse des discours de Néstor Kirchner peut-elle expliquer la rapide ascension de ce dernier, et l'entrée de l'Argentine dans un processus de consolidation démocratique durant les quatre années de gestion de ce gouvernement ? L'étude de ses allocutions devant l'Assemblée nationale peut nous aider à comprendre les choix idéologiques de ce président, à identifier les représentations sociales qu'il a mobilisées et à montrer comment il s'inscrit dans le contexte du « virage à gauche » qui caractérise aujourd'hui l'Amérique latine. De plus, ses discours peuvent s'analyser sous l'angle de l'héritage péroniste, mais aussi de l'appartenance à la génération des années soixante-dix. Cet « anti-Menem » s'est posé comme une alternative au « fantôme du passé » et ses discours lui ont permis de transformer son image d'homme politique non charismatique en celle de leader providentiel. Je me propose donc d'étudier les discours annuels de Néstor Kirchner durant son mandat présidentiel, de 2003 à 2007, entre tradition péroniste, identité des années soixante-dix et nouvelles formes de politique. Tout d'abord, je m'intéresserai au caractère d'outsider de ce président qui a cherché à se démarquer, d'une part, de la classe politique qui s'était discréditée aux yeux de l'ensemble de la population, et d'autre part, de Carlos Menem et de ce que l'on a coutume d'appeler la « fête ménémiste ». Puis je m'attacherai à montrer les changements qu'a incarnés Néstor Kirchner par rapport au péronisme, tout en se revendiquant de ce courant politique. Le corpus de cette étude est composé des cinq discours prononcés par Néstor Kirchner devant le Congrès de la Nation argentine, ces discours annuels où le président parle à la Nation étant le principal rituel de la démocratie argentine. Le tableau regroupe chaque discours selon la partition date. L'intégralité du corpus contient 68 014 occurrences, 9 243 formes et 4 828 hapax. Source : élaboration propre à partir du logiciel Lexico 3. Le premier est son discours d'investiture; les quatre autres ont une valeur de discours bilan car, comme l'indique Néstor Kirchner : « Notre loi fondamentale établit cela comme l'occasion pour le président de rendre compte devant l'Assemblée législative de l'état de la Nation. C'est de cela qu'il s'agit. Prendre note des problèmes que la Nation doit affronter, revoir ce qui a été accompli et marquer la route que nous devons suivre. » Répartis chronologiquement de 2003 à 2007, ces cinq discours présentent une taille croissante; le premier discours contient 5 775 occurrences, le second 9 891, le troisième 13 058, le quatrième 18 770, et le dernier 20 520 : Une analyse lexicométrique des discours permet de mettre en évidence les contrastes entre les différents présidents qui se sont succédé depuis la transition vers la démocratie – et tout particulièrement entre Carlos Menem et la figure politique de Néstor Kirchner. Pour ce faire, j'utiliserai les résultats de l'analyse des discours de Néstor Kirchner obtenus grâce à l'utilisation du logiciel Lexico3 afin de les comparer aux résultats de Victor Armony en ce qui concerne les autres présidents. L'analyse des discours de Néstor Kirchner permettra en outre d'établir quelles sont les idéologies dominantes et les représentations sociales mises en valeur par ce président et d'établir une corrélation avec les mythes fondateurs du pays. Néstor Kirchner s'est posé en nouvel arrivant, en outsider : n'évoquant presque jamais son histoire politique au cours des vingt-cinq dernières années, ni son expérience comme gouverneur de Santa Cruz, il semble avoir été, en quelque sorte, politiquement absent jusqu' à son élection. Ce « président par défaut » ne peut pas être étudié uniquement comme un acteur politique imprévu propulsé par une crise économique, politique et sociale profonde. Depuis la transition à la démocratie, tous les présidents ont suscité de grands espoirs. L'exemple de Carlos Menem est particulièrement révélateur, ses promesses irréalisables ayant entrainé une désillusion et un désenchantement de la population. Au contraire, Néstor Kirchner est le premier président à avoir réussi à inverser cette tendance; en effet, de président possédant un faible charisme et un manque de légitimité, il gagne l'adhésion des Argentins a posteriori. L'exemple le plus révélateur du contraste entre Néstor Kirchner et les différents présidents péronistes argentins qui se sont succédé depuis la transition vers la démocratie en 1983, est l'usage des références à Juan Domingo Perón, au péronisme historique. Carlos Menem mentionna dix-neuf fois Perón dans les onze messages qu'il prononça devant l'Assemblée nationale; Adolfo Rodríguez Saá fit, lui aussi, référence au général durant son discours d'investiture; Eduardo Duhalde se référa au couple Perón et Evita dans le premier et le dernier des trois discours qu'il a prononcés devant le Congrès (Armony, 2003). En revanche, Kirchner ne mentionna même pas ce couple mythique le jour de son investiture; de plus, il ne fit aucune référence au président sortant, Eduardo Duhalde, ni à la date symbolique du 17 octobre 1945, « l'évènement du siècle » selon Georges Béarn. D'ailleurs, la presse n'a pas manqué de signaler ce fait (Granovsky, 2003). Durant sa première année à la Casa rosada, il mentionna cinq fois le nom de Perón contre cent soixante-et-une fois celui de Menem, et dans l'intégralité du corpus étudié, les termes péroniste, péronisme, Evita ou Eva sont totalement absents, tandis que Perón n'est présent que deux fois, et uniquement dans son dernier discours du 1 er mars 2007. Cela est caractéristique du gouvernement Kirchner, qui a tout d'abord tenté de se distancier du Parti justicialiste en élaborant une politique de la « transversalité », afin de se construire un espace politique propre, le kirchnérisme. Les valeurs mobilisées furent, elles aussi, distinctes. Le président Alfonsín mit en avant la démocratie dans ses discours, Menem la stabilité, De la Rúa la réforme et Duhalde, la récupération. Alors que les résultats lexicométriques de l'étude du corpus de Néstor Kirchner indiquent qu'il insista sur des termes à connotation sociale, tels que salud (« santé »; 51), educación (« éducation »; 56), pobreza (« pauvreté »; 51), vivienda (« logement »; 23). Ces termes sont surreprésentés dans son discours d'investiture et sous-représentés pendant les deux dernières années de son mandat, soulignant ainsi un tournant de sa politique en 2005 avec la victoire du kirchnérisme aux élections de mi-mandat et la consolidation de son pouvoir après la mise en œuvre de politiques sociales. Les références de Néstor Kirchner à la rénovation nécessaire du pays introduisent aussi une rupture par rapport à la classe dirigeante traditionnelle : il convient, dit-il, de « réussir à sortir de l'enfer duquel nous venons » (2006, 124 e SC). Notons que les mots infierno (« enfer »; 8) et purgatorio (« purgatoire »; 3) reviennent à plusieurs reprises dans le corpus. Si ce sont des termes issus du lexique religieux, l'utilisation de ce type de métaphores est un dispositif isolé dans les discours de Kirchner. Ce vocabulaire symbolise une distanciation vis-à-vis des gouvernements précédents et se situe dans la promesse de changement faite par ce candidat; lors de son investiture, le 25 mai 2003, le nouveau président annonça un programme de modifications profondes dans la vie du pays : Par mandat populaire, par compréhension historique et par décision politique, celle -ci est l'opportunité de la transformation, du changement culturel et moral que l'heure nous demande. Changement, c'est le nom du futur. […] Il faudra beaucoup de travail et d'effort pluriel, diversifié et transversal aux alignements partisans. Il faut réconcilier la politique, les institutions et le gouvernement avec la société. […] Il vient de s'achever en Argentine une façon de faire la politique et de mettre en cause l' État. (2003, 121 e SC) En ce sens, il a réussi à se démarquer de la classe dirigeante discréditée et rejetée à travers le slogan « Qu'ils s'en aillent tous ! ». Ce thème est récurrent tout au long du corpus, ne serait -ce que par l'utilisation des marqueurs de temps : il fait des parallèles entre hoy (« aujourd'hui »; 76), ahora (« maintenant »; 19) et le subsstantif et adjectif pasado (« passé »; 40). Il insiste sur le bilan positif de sa gestion gouvernementale en la comparant à celles de ses prédécesseurs, coupables d'avoir fait sombrer le pays dans le chaos. Dans ses discours, Néstor Kirchner cherche à se distancier des gouvernements précédents : Par-dessus le marché, la culture politique argentine a fini par installer la fausse vision selon laquelle on peut cohabiter avec les problèmes quasi indéfiniment, sans les assumer, sans les affronter et, ce qui est pire, sans les résoudre. (2004, 122 e SC) Ce n'est pas nous qui avons entrainé l'Argentine dans la récession. (2007, 125 e SC) Jamais ils ne verront en moi un président renonçant, claudiquant ou s'échappant en hélicoptère, sans lutter, depuis la route que m'a donnée le peuple argentin, pour défendre les intérêts de la patrie. (Ibid.) De cette manière, il marque une claire rupture avec tous les gouvernements précédents; la référence à De la Rúa est évidente, lui qui a fui par le toit de la Casa Rosada en hélicoptère, au pire moment de la crise de décembre 2001. Néstor Kirchner se veut l'incarnation du changement et d'un nouveau projet de société, mettant fin à la corruption, à l'impunité, aux violations des droits de l'homme et aux maux de la société argentine que les gouvernements précédents n'ont pas voulu ou réussi à résoudre : « Changement profond signifiera tirer un trait sur l'Argentine qui abrita l'impunité, les génocides, les voleurs et les corrompus, condamnant à la misère et à la marginalité des millions de nos compatriotes. » (2004, 122 e SC) La référence aux années de la dictature, mais aussi à la « fête ménémiste », est ici implicite. Kirchner mène donc un combat contre « l'ancienne politique », ce qui est une façon de s'approprier le rejet des partis exprimés par les classes moyennes. La principale rupture incarnée par Néstor Kirchner réside dans son opposition au ménémisme; ainsi, dans son discours d'investiture, il annonce, faisant clairement référence aux gouvernements successifs de Carlos Menem : « L'époque des annonces grandiloquentes est révolue, ainsi que celle des grands projets suivis uniquement par la frustration liée à l'absence de résultats et à ses conséquences : la désillusion constante, le désespoir permanent. » (2003, 121 e SC) En effet, on trouve des critiques du ménémisme dans l'ensemble du corpus de Kirchner. Celui -ci se donne comme objectif d'établir une nette distinction entre son gouvernement et ceux des deux mandats de Carlos Menem (1989-1999), et ce d'autant plus que Menem et lui sont issus du Parti justicialiste. Cependant, Carlos Menem a donné une orientation imprévue au péronisme, qu'il voulait moderniser de fond en comble, l'associant étroitement au néolibéralisme; et c'est l'orthodoxie libérale qui fut appliquée après concertation avec les experts du Fond monétaire international (FMI), sur une toile de fond de corruption généralisée. Cela peut expliquer en partie pourquoi Kirchner ne se revendique pas clairement du péronisme et de son leader historique, Juan Domingo Perón. Il dresse un sombre portrait de la décennie 1990, particulièrement au plan économique : Nous devons revenir à la planification et à l'exécution d' œuvre publique en Argentine pour démentir le bien-fondé du discours du néolibéralisme [… ], le caractère non viable de ce vieux modèle. (2003, 121 e SC) Après la décennie des années quatre-vingt-dix, où l'Argentine était exhibée comme le bon élève du Consensus de Washington [. ..] (2005, 123 e SC) Kirchner s'oppose aussi à Menem en ce qui concerne la défense des droits de l'homme, qui constitue un des axes principaux de sa propre politique, comme il l'indique dans un de ses discours : La défense des droits de l'homme occupe une place centrale dans le nouvel agenda de la République argentine. Nous sommes les enfants des mères et des grands-mères de la place de Mai, c'est pour cela que nous tenons à appuyer de manière permanente la consolidation du système de protection des droits de l'homme ainsi que les procès et la condamnation de ceux qui les violent. Néstor Kirchner veut faire de son gouvernement le symbole de la mémoire et de la justice. C'est ce que l'on peut appeler « la recomposition morale de la société argentine » (Quattrocchi-Woisson, p. 24) par une politique mémorielle en rupture avec celle de Carlos Menem : « Gardant en mémoire ce qui nous est arrivé, sans nous ancrer pour autant dans le passé, la recherche de la vérité et de la justice et la fin de l'impunité sont quelques-uns des plus précieux étendards de notre société et de notre gouvernement. » (Kirchner, 2005, 123 e SC) Les traits anti-Menem de Néstor Kirchner sont encore accentués dans la comparaison de l'utilisation du terme destin dans les discours de Carlos Menem et dans ceux de Néstor Kirchner. Carlos Menem fut le président qui utilisa le plus ce terme : la phrase « Argentine, vis et réalise ton destin ! » (Armony, 2003) est probablement la plus emblématique de la rhétorique grandiloquente de cet ex-président. Alors que Kirchner l'utilisa, par exemple, dans son discours annuel de 2006, dans un sens beaucoup plus modéré : « conduire notre patrie vers un destin meilleur ». De plus, une expression typique de ce président, « construire le pays que nous méritons », nous montre bien la visée constructiviste et volontariste de ce gouvernement et le fait que plusieurs Argentine ont existé et sont possibles dans le futur. Cette idée, sous-jacente dans son slogan pour la campagne présidentielle de 2003 : « Pour un pays sérieux, pour un pays normal », implique le choix d'une Argentine différente et incarne l'exigence de retour à la normalité exprimée par les Argentins. À la différence de Carlos Menem qui voulait séduire le peuple, comme le montre son célèbre slogan : « Suivez -moi, je ne vous tromperai pas », Néstor Kirchner, parvenu au pouvoir grâce à des circonstances fortuites et emblème d'un vote de refus contre Menem, cherche à convaincre son électorat, ce qui explique probablement la bonne réception de ses discours dans l'opinion publique. Néstor Kirchner se revendique donc comme un justicialiste, mais décalé par rapport à ce qu'était devenu le ménémisme, qui s'éloignait de plus en plus du péronisme historique. Cette franche opposition à Carlos Menem lui a permis de récupérer le soutien d'une partie des Argentins, qui continuent à se reconnaitre dans une culture politique commune, fortement marquée par l'empreinte du Parti justicialiste. En effet, si le président Kirchner a voulu d'emblée incarner le changement et la rénovation du pays, il a tout de même mobilisé des symboles péronistes. Toutefois, ceux -ci furent novateurs. Il a revendiqué pour seul passé son appartenance à la « génération décimée », celle des jeunes mobilisés dans les années soixante-dix et persécutés par la dictature : « Nous faisons partie de cette nouvelle génération d'Argentins » (2003, 121 e SC). Il a aussi annoncé, lors de son discours d'investiture : « Je fais partie d'une génération décimée, châtiée, avec des absences douloureuses, je me suis incorporé à la lutte politique avec des valeurs et des convictions qui ne vont pas rester en dehors de la Maison du gouvernement. […] J'ai rêvé toute ma vie de changer en bien notre pays. Et je viens le faire sans rancune, mais avec mémoire. » (Ibid.) Cela se comprend de par la trajectoire personnelle de Néstor Kirchner. En effet, pendant ses études de droit à l'université de La Plata, il était membre de la Jeunesse universitaire péroniste, courant de gauche qui soutenait les Montoneros dans les années antérieures au coup d' État militaire. De plus, Kirchner a intégré la colonne universitaire qui est allée à la rencontre de Juan Domingo Perón à l'aéroport d'Ezeiza, lors de son retour après plus de dix-sept années d'exil. Retracer les grandes lignes de cette manifestation, élément majeur de cette décennie, peut contribuer à expliquer en partie pourquoi Néstor Kirchner a le sentiment d'appartenir à la génération des années soixante-dix. La mobilisation pour le retour de Perón a été un succès, mais le 20 juin 1973 va être un désastre pour les militants de la Tendance révolutionnaire de La Plata. À Ezeiza, près de l'aéroport international de Buenos Aires, une foule de deux millions de personnes, sans doute le plus grand rassemblement de masse de l'histoire argentine, attend son arrivée. De la tribune d'où il doit prononcer un discours, des tireurs embusqués et fortement armés ouvrent le feu sur la foule, faisant au moins trois morts et trois cent soixante-cinq blessés. Les évènements d'Ezeiza marquent la fin d'un chapitre de l'histoire du péronisme. Si le 17 octobre 1945 peut être considéré comme l'acte fondateur du péronisme, le massacre du 20 juin 1973 marque l'entrée en scène du péronisme tardif et droitier. Le « vieux » Perón tint le discours d'un conservateur, Ezeiza signant le début d'une attaque systématique contre la gauche péroniste. L'analyse du vocabulaire est aussi révélatrice de ce nouveau positionnement. Le terme generación (« génération ») revient 33 fois dans le corpus; le terme cambio (« changement ») est encore plus présent, puisqu'il est utilisé 86 fois : Source : élaboration propre à partir du logiciel Lexico 3. Le fait que ces différents termes soient surreprésentés les deux premières années de son mandat montre, encore une fois, qu'après les élections de 2005, il apparait comme un leader consolidé et ne cherche donc plus à s'imposer comme l'homme du changement, mais, au contraire, tente de consolider son pouvoir autour du péronisme, à travers le kirchnérisme. D'ailleurs, dans certains discours, Néstor Kirchner indique que son projet doit être considéré comme la continuité de ceux des grands hommes de l'Argentine. Dans un de ses discours de campagne pour les élections législatives de 2005, il a appelé les jeunes générations à « reconstruire le pays dont rêvaient San Martín, le général Perón et l'inoubliable, la guide spirituelle que sera toujours Eva Perón ». Mais, ici encore, il reprend l'héritage des années soixante-dix et celui, symbolique, d'Evita qui, bien au-delà des conflits péronistes ou antipéronistes, se transforma d'emblème en mythe. S'il est vrai que Kirchner est un péroniste, ce qui veut dire qu'il partage avec bien des Argentins une identité qui va au-delà d'une simple appartenance partisane ou d'une prise de position idéologique, l'identité qu'il revendique est celle des jeunes péronistes qui, trente ans auparavant, a été porteuse d'un projet de justice sociale et la cible de choix de l'extrême droite. La revendication de son appartenance aux années soixante-dix a permis à Néstor Kirchner de constituer une union à forte valeur symbolique. Ainsi, le président a réussi à incarner à la fois le représentant d'une « nouvelle génération » et l'héritier d'une mémoire politique et sociale que le ménémisme avait délaissée. Ce « président le moins bien élu de toute l'histoire argentine » a su traduire dans ses discours – et dans ses actes – les espoirs de la population, et notamment ceux des classes moyennes qui s'étaient révoltées durant le cacerolazo de 2001. Kirchner annonce, dès son investiture, la fin des promesses utopiques de la démocratie et de la résolution dans l'heure des problèmes de la société : « Le peuple argentin doit savoir que nous ne proposons pas de choisir un chemin facile de sortie de crise, en nous déchargeant de nos échéances sur le prochain gouvernement. » (2004, 122 e SC) Mais il s'attache aussi à répondre aux aspirations des citoyens et, contrairement à ses prédécesseurs, Carlos Menem et Fernando De la Rúa, Néstor Kirchner négocie avec les créanciers étrangers du pays, cible fréquente de la gauche en Amérique latine, avec une fermeté sans précédent. C'est lors de la session du Congrès de 2005 que Kirchner annonce que l'Argentine a honoré sa dette, réalisant ainsi l'objectif le plus important depuis son arrivée au pouvoir : « La République argentine, avec les exceptionnelles caractéristiques que nous avons signalées, a pu concrétiser avec succès le plus gigantesque échange de dette en cessation de paiements de l'histoire mondiale. » (2005, 123 e SC) Ce gouvernement a été favorisé par la situation de crise globale du pays, ce qui a eu pour conséquence que ses premières mesures ont été perçues par la population comme une sorte de « récupération de la politique » (Svampa, 2006, p. 11). Hormis la force qu'il a tirée de l'opposition au gouvernement de Carlos Menem, les annonces anticorruption, par exemple, ont eu un effet bénéfique en montrant à la population que le gouvernement ne se souciait pas que des puissants et ont créé les conditions propices à la naissance d'un enthousiasme citoyen pour les discours et les actions du gouvernement. Dans tout le pays, les mobilisations pour les droits de l'homme connaissaient un large soutien, tout comme les dénonciations de corruption. Les discours présidentiels ont accrédité un sentiment de justice et réveillé l'espérance de réformes qui renforceraient l' État de droit. Kirchner a aussi accordé une importance centrale à la citoyenneté, à la mobilisation de l'ensemble des citoyens et de la société civile : « Nous travaillons inlassablement pour parvenir à ce que l'exercice du légitime droit citoyen à s'exprimer librement au sujet des problèmes les plus variés puisse se réaliser dans le respect des lois et des droits des autres citoyens. » (2005, 123 e SC) De plus, Néstor Kirchner est parvenu à transformer l'économie en un acteur de la consolidation démocratique de l'Argentine. Sans entrer dans les détails de la politique économique du gouvernement, on peut d'ores et déjà remarquer une tendance générale caractéristique de tous les discours politiques : après plusieurs années de gouvernement, des résultats économiques favorables et un pouvoir consolidé, la réalité – ou son interprétation – devient un facteur de légitimité. Dans le discours annuel de Néstor Kirchner devant le Congrès le 1 er mars 2006, on remarque que les termes les plus employés ont une valeur économique crecimiento (« croissance »; 39), recuperación (« récupération »; 25), economía; (« économie »; 12) : L'économie argentine est entrée dans un processus de croissance durable. Ce qui fut interprété par les analystes comme une simple récupération temporaire peut déjà et sans aucun doute être considéré comme le commencement d'une nouvelle étape dans le mode de fonctionnement de l'économie du pays. (2006, 124 e SC) Cela contribue à mettre en valeur la formidable reprise économique de l'Argentine depuis le commencement de l'année 2002 et a suscité chez la plupart des Argentins de vifs espoirs, qui ont contribué, sans aucun doute, à l'image positive de Néstor Kirchner. Cette brève analyse de la portée rhétorique des termes utilisés montre leur adéquation avec l'opinion publique, relayée par les enquêtes d'opinion. L'Argentine est entrée dans ce que Bernard Manin a appelé la « démocratie du public » (Manin, 1991), où l'opinion publique est devenue un acteur central de la vie politique. L'auto-identification politique du président, sous-jacente dans ses discours, mérite aussi une attention particulière du fait de la complexité du péronisme. Le Parti justicialiste est difficile à identifier selon le clivage droite/gauche car, à l'intérieur de ce mouvement, des péronistes de droite et de gauche cohabitent. Selon Pierre Ostiguy (2005), le système de partis argentin est donc formé d'un double éventail politique, péroniste et non péroniste; chacun s'étend de l'extrême gauche à l'extrême droite en passant par le centre. Il y a ainsi deux types de gauche en Argentine, l'une non péroniste (familière en Europe) et l'autre péroniste, et c'est en fait à l'intérieur du Parti justicialiste que le clivage droite/gauche est particulièrement efficient. La dualité de la vie politique argentine s'exprime davantage par l'opposition péronisme/antipéronisme, relevant de l'affectif et de la culture politique. Avec l'accession à la présidence de Néstor Kirchner, le péronisme de gauche parvient au pouvoir; sur le sujet de la dette par exemple, Kirchner a déclaré en péroniste de gauche : « Il ne s'agit pas de ne pas s'acquitter de la dette. Mais nous ne pouvons pas non plus la payer aux dépens des Argentins, de leur accès à un logement digne, à un travail, à l'éducation de leurs enfants ou de leur santé. » (2003, 121 e SC) Nous retrouvons ici les thèmes propres à la gauche politique que sont l'éducation, la santé, une vie digne dans le respect de la justice sociale. S'il existe une différence notable de discours politique entre les différents gouvernements de gauche quant à la position face à la mondialisation et à l'interprétation des règles et institutions démocratiques (Paramio, 2007), la seule coïncidence explicite est l'importance accordée à la politique sociale et la recherche d'un modèle économique capable non seulement de produire de la croissance, mais de générer des emplois, d'améliorer l'éducation et la santé, de réduire la pauvreté et l'indigence. Ces termes (salud, vivienda, educación) sont surreprésentés durant le discours d'investiture de Kirchner (voir graphique 2); dès le début de son mandat, il a voulu incarner des valeurs de gauche. La sous-représentation de ces mêmes termes en 2007 n'est pas contradictoire avec son positionnement à gauche de l'échiquier politique, mais peut s'expliquer par le fait que Néstor Kirchner a présenté un bilan positif de sa gestion gouvernementale et a cherché à mobiliser son électorat en faveur de son épouse, Cristina Fernández de Kirchner. Le thème phare du péronisme historique, la justice sociale, apparait aussi comme un défi majeur pour le gouvernement de Néstor Kirchner : « Nous voulons récupérer les valeurs de la solidarité et de la justice sociale qui nous permettront de changer notre réalité pour avancer vers la construction d'une société plus équilibrée et plus juste. » (2003, 121 e SC) Source : élaboration propre à partir du logiciel Lexico 3. Le thème de la transversalité fut également l'un des symboles du premier kirchnérisme. En effet, devant l'impossibilité de contrôler le Parti justicialiste pendant les premières années de son gouvernement, Néstor Kirchner a initié le projet de la transversalité, qui a rendu possible le ralliement au nouveau gouvernement de personnalités provenant de diverses traditions politiques, notamment de l'ancienne gauche péroniste des années soixante-dix, de la gauche indépendante modérée, des dirigeants de la « rénovation péroniste », du Frente Grande et du Frepaso : « Nous pensons le monde en argentin, depuis un modèle propre. Ce projet national que nous voulons convoque tout le monde, chacun des Argentins, au-dessus et en dehors des alignements partisans, à participer à la refondation de la Nation. » (Kirchner, 25 mai 2003) Un des objectifs de cette politique de la transversalité est de transformer en profondeur le Parti justicialiste, promouvant un « virage à gauche » de l'appareil partisan en regroupant des secteurs issus de la gauche péroniste, mais aussi non péroniste. Si la transversalité a été une pratique fréquente dans l'histoire du péronisme, puisqu'il a toujours cherché à incorporer de nouveaux éléments pour maintenir sa puissance, dans ce cas, elle représentait une innovation : il s'agissait d'une alliance de centre-gauche, alors que le ménémisme avait incorporé des forces de droite; de plus, il ne s'agissait pas d'assimiler de nouvelles forces au péronisme, mais de se constituer des bases d'appui hors du parti. La politique étrangère de ce gouvernement est aussi révélatrice d'un changement profond, Néstor Kirchner accordant une place importante, dans chacun de ses discours, à l'intégration régionale : « Dans nos priorités se trouve le renforcement, l'amplification et l'approfondissement du Mercosur et la constitution de la Communauté sud-américaine. Le régionalisme est la manière grâce à laquelle nous pourrons accroitre nos possibilités au niveau international. » (2005, 123 e SC) D'ailleurs, dès sa prise de pouvoir, le nouveau président s'est rendu à Brasilia et à Santiago du Chili, où il a obtenu le soutien des présidents Luiz Inácio Lula da Silva et Ricardo Lagos, pour parvenir à une reprise économique, avec une base sociale de centre-gauche. Sans remettre en cause la pertinence du concept de « virage à gauche » qui caractériserait aujourd'hui l'Amérique latine, il est clair que Néstor Kirchner s'inscrit dans ce nouveau contexte (Fregosi, 2006). Les caractéristiques des nouveaux gouvernements de gauche en Amérique latine ont déjà commencé à être débattues dans les cercles académiques, et l'idée de deux types de gauche est soutenue. L'une, institutionnelle et démocratique, proche de la social-démocratie européenne, est représentée par la Concertación chilienne mais aussi par Lula, et l'autre, appelée par certains « populiste », est plus proche de la lignée historique des régimes dits « nationaux-populaires » où l'image charismatique du leader a un poids important, ainsi que les discours nationalistes et anti-impérialistes (Natanson, 2007). Selon ces analyses, Chavez et Morales en sont les représentants, tandis que Kirchner occupe une place intermédiaire entre ces deux types de gauche. Si Kirchner se démarque de la tradition doctrinaire du péronisme en introduisant un discours de centre-gauche, il correspond en même temps à la personnalisation traditionnelle du péronisme et de la vie politique argentine. L'analyse des allocutions présidentielles de Néstor Kircher nous montre les ruptures et les continuités que ce président a incarnées tant par rapport au péronisme historique qu' à la classe politique traditionnelle. Ce gouvernement correspond à un nouveau retour du péronisme sur la scène politique argentine, qui fut très différent des précédents. La force du kirchnérisme s'est située, dans un premier temps, dans son opposition au ménémisme. Si la politique de Carlos Menem s'inscrivait dans la vague néolibérale qui domina l'Amérique latine dans les années quatre-vingt-dix, le kirchnérisme en est une réponse inversée. Le gouvernement de Kirchner symbolise l'arrivée du projet de la génération des années soixante-dix à l'intérieur du péronisme et au gouvernement, mais adapté à la conjoncture actuelle. Avec Néstor Kirchner, ce sont les rêves de la jeunesse péroniste qui occupent la place centrale. En 2007, à la fin du mandat de Néstor Kirchner, l'Argentine parait être sortie de la crise, son gouvernement ayant réintroduit un processus de consolidation démocratique. En quatre ans de gestion, Néstor Kirchner est parvenu à reconstruire l'autorité et la légitimité gouvernementales, violemment remises en cause lors des grandes manifestations de rue et émeutes de décembre 2001. Il a revalorisé la classe politique dans son ensemble, d'une part par la force de ses discours et, d'autre part, par celle de ses actions. Néstor Kirchner a donc réussi à « pacifier » le conflit social argentin (Marra, 2007) en créant une nouvelle scène politique. Il a réalisé, du moins en partie, ce qu'il avait proposé durant sa campagne électorale, à la différence de Carlos Menem. La réalité est proche des promesses faites par ce candidat méconnu. Cet anti-Menem représente une phase de consolidation démocratique pour l'Argentine, tandis que Menem incarnait la fragilisation de la démocratie. Si les opinions, la trajectoire et les politiques de Néstor Kirchner ont été, dans un certain sens, synonymes de changement et d'innovation, se présentant en rupture par rapport à l'héritage péroniste, Néstor Kirchner s'inscrit aussi dans la continuité de ce mouvement historique. Le courant péroniste kirchnériste a monopolisé, ces dernières années, les préférences électorales des Argentins, et la figure de Kirchner a généré une certaine cohésion politique, permettant au Parti justicialiste d'assurer la gouvernabilité de la société argentine. De leader non charismatique, Néstor Kirchner apparait aujourd'hui comme un homme politique providentiel, le « sauveur » de la classe politique argentine, entre rupture et continuité par rapport à l'héritage péroniste. Membre de la jeunesse des années soixante-dix qui accompagne le retour définitif de Juan Domingo Perón et représentant de la dernière génération ayant connu le général en vie, l'ex-président occupe depuis le 22 mai 2008 la direction du parti et va mettre en œuvre un processus de profonds changements au sein du Parti justicialiste. L'avenir de Néstor Kirchner et du Parti justicialiste est encore incertain, et l'analyse de l'impact du leadership de Kirchner sur la forme du parti devra être l'objet d'une étude postérieure plus approfondie, ainsi que le gouvernement de son épouse, Cristina Fernández de Kirchner, élue dès le premier tour lors de l'élection présidentielle du 28 octobre 2007 .
L'étude des discours de Néstor Kirchner permet d'identifier les représentations sociales qu'il a mobilisées, et de montrer comment il s'inscrit dans le contexte du « virage à gauche » qui singularise aujourd'hui l'Amérique latine. Ses allocutions devant l'Assemblée nationale peuvent s'analyser sous l'angle de l'héritage péroniste, et particulièrement de l'imaginaire de la génération des années soixante-dix, et lui ont permis de transformer son image d'homme politique non charismatique en celle d'un leader providentiel.
linguistique_12-0063660_tei_505.xml
termith-548-linguistique
La revue Variety se présente comme une publication éclectique consacrée aux nouveautés dans le domaine du divertissement. Au-delà du pouvoir évocateur de son nom, sa souplesse éditoriale est attestée dès ses origines comme dans ses abondantes archives ainsi que dans ses éditions hebdomadaires et quotidiennes les plus récentes. Revue corporatiste et spécialisée, Variety œuvre depuis sa création à publier toute information utile aux professionnels du spectacle et notamment du cinéma. Revue grand public, elle veille également à couvrir l'actualité qui présente le plus d'attrait pour le lecteur de base, dont les intérêts n'ont cessé de se diversifier. En première analyse, ces différents paramètres sont révélateurs de la distance qui sépare plusieurs lectorats dans le temps et dans l'espace socioprofessionnel et culturel du monde du spectacle. Cependant, l'étude des évolutions de Variety tout au long de son histoire démontre que l'éclectisme de la revue favorise un positionnement éditorial équilibré et fédérateur entre des intérêts économiques et artistiques divergents. Ceci se vérifie ponctuellement en période de grève dans l'industrie du cinéma; la revue maintient aussi ce type de positionnement face à l'opposition structurelle entre les majors et le secteur indépendant, ou encore à l'égard de compromis commerciaux et artistiques, dont résulte par exemple la notion de genre cinématographique. À partir des enjeux phonologiques et sémantiques d'une manchette historique, à laquelle le slanguage doit la célébrité, il apparaît que cet argot constitue un ressort essentiel à la souplesse éditoriale de Variety. Il établit un lien sociolinguistique entre les nombreux lecteurs de la revue. Il parvient également à capter différents types de discours dans un faisceau qui balaye plusieurs domaines d'intérêts et de compétences, dont il peut à la suite enrichir la terminologie. Après avoir situé la fonction éditoriale du slanguage dans l'histoire de la revue et le contexte économique et artistique de l'industrie du divertissement, notre étude se resserre autour d'une typologie de règles lexicogéniques applicables au slanguage. Il en ressort que les créations lexicales de cet argot promeuvent une forme d'exclusivité journalistique relayée par le discours écrit, exclusivité qu'elles contribuent cependant à mettre en scène et à centrer virtuellement autour de la voix et du dialogue. Le slanguage présente donc une forte dimension phatique et visuelle. Certaines de ses créations lexicales donnent également lieu à la formation d'une terminologie de type néologique. Qu'elle soit de forme ou de sens, cette néologie, en évolution constante, détourne tout phénomène de déterminologisation et stimule une métaphorisation constante du discours. En dernière analyse, cette métaphorisation paraît instaurer une distance critique à l'égard de discours formatés sur des pratiques professionnelles et commerciales, ou à l'égard d'une tendance au métadiscours dans le discours critique lui -même. Cette mise à distance doit encore être nuancée. Elle reste le fait d'une néologie en clin d' œil, à mi-chemin entre humour et ironie. Elle participe d'un effet de brouillage discursif en établissant une proximité complice entre la revue et ses lecteurs dans toute leur diversité. La ligne éditoriale de la revue s'est définie dans le but de fédérer un très large lectorat. Revue corporatiste et spécialisée, mais également grand public, Variety se caractérise par son éclectisme. L'objet de cette première partie est de présenter le projet fondateur de la revue et de suivre ses évolutions. Celles -ci ont été conditionnées par les mutations de l'industrie du divertissement et par l'évolution des goûts du public depuis plus d'un siècle, dans un contexte de concurrence propre au secteur de la presse généraliste et spécialisée. Revue plus que centenaire, Variety offre un matériau riche et abondant pour saisir ces différents enjeux dans une perspective historique qui couvre l'actualité du divertissement, depuis l'essor du cinéma jusqu'au développement des nouvelles technologies de l'information. Lorsque Sime Silverman (1873-1933) lance le premier numéro de Variety à New York, le 16 décembre 1905, il peut compter sur le soutien de la scène new-yorkaise. Variety se présente comme une revue corporatiste en étroite proximité avec le monde professionnel du spectacle, mais dont l'objectif est aussi de fournir un relais médiatique novateur entre les spectacles de Broadway, du off Broadway – et même du off off Broadway – et les non-professionnels. En effet, la presse généraliste tenant le grand public trop à distance de l'extrême variété des productions à l'affiche (Stoddart 1941 : 122-173), Variety couvre donc à ses débuts toute l'actualité théâtrale, en s'adressant à un lectorat varié de professionnels et de spectateurs avertis ou non. L'éclectisme de Variety est ainsi un trait distinctif de la revue dès sa création. Elle ouvre aussi très rapidement ses colonnes à des spectacles plus populaires que le théâtre : les cirques, les fêtes foraines et les cabarets. La ligne éditoriale de Variety rapproche, d'une part, ces différents styles de spectacles tenus à distance les uns des autres, souvent par le mépris ou l'ignorance dans le reste de la presse. D'autre part, au-delà de toute limite corporatiste, Variety a aussi pour vocation d'informer le grand public des nouveautés parmi les plus petits spectacles et les moins onéreux. Cet éclectisme s'est affirmé tout au long de l'histoire de la revue, notamment à partir de l'apparition d'une nouvelle forme de divertissement populaire : le cinéma. Variety a prêté une grande attention à l'essor du cinéma, un nouveau genre de divertissement ouvert à un très large public, qu'il soit citadin ou non, cinéphile ou moins averti (Scott 2005 : 11-35). La revue s'est très tôt positionnée pour devenir une publication incontournable dans la presse spécialisée du secteur, au fur et à mesure que le cinéma a consolidé son double statut de secteur économique majeur et d'activité artistique à part entière. The Hollywood Reporter a été le premier concurrent direct de Variety dans le secteur. Cette revue rivale a été créée le 3 septembre 1930, laissant à Variety une certaine avance pour établir sa notoriété. Dès 1933, Sime Silvermana néanmoins répondu à cette concurrence en délocalisant une partie de ses bureaux à Los Angeles. Cette délocalisation partielle appuyait les nouveaux choix éditoriaux de Variety. Grâce à elle, les journalistes de la revue qui étaient installés à Los Angeles pouvaient couvrir l'actualité cinématographique aussi rapidement que les équipes californiennes du Hollywood Reporter, soit quasiment en temps réel. La concurrence entre Variety et The Hollywood Reporter a dès lors pris la forme d'une course à l'exclusivité. Sime Silverman a mis en œuvre tous les moyens possibles pour rendre sa revue toujours plus réactive à l'actualité et pour obtenir les derniers scoops. L'implantation californienne de Variety a donc, avant tout, été conditionnée par les impératifs d'un rythme de parution adaptée à celui de l'actualité des derniers films à l'affiche. Elle a permis la publication d'une édition quotidienne produite à Los Angeles, à l'instar du Hollywood Reporter et pour ainsi mieux rivaliser avec ce nouveau concurrent. L'édition californienne de Variety paraît sous le titre de Daily Variety, afin que les lecteurs la distinguent clairement de l'édition hebdomadaire new-yorkaise qui conserve le titre original Variety. Celle -ci a, depuis cette époque, traité en priorité de l'actualité théâtrale, plus spontanément associée à la scène new-yorkaise et à la côte est des États-Unis. Quant à l'actualité cinématographique, elle y est couverte globalement et sous la forme de recensions régulières des productions les plus marquantes. La marque distinctive de Daily Variety est, en revanche, de fournir des critiques immédiatement dès les premières, c'est-à-dire en moyenne deux semaines plus tôt que l'hebdomadaire publié à New York. L'éclectisme et la spécialisation de Variety témoignent à l'évidence d'une ligne éditoriale souple. Cette souplesse nécessite une grande réactivité de la part de la revue face aux mutations de l'industrie du divertissement, face à la concurrence dans le secteur de la presse, et face aux évolutions des intérêts du public et donc de son lectorat. Cette réactivité a caractérisé les évolutions éditoriales de la revue depuis plus d'un siècle. Aux deux éditions historiques se sont régulièrement ajoutées de nouvelles éditions, qu'elles soient hebdomadaires ou quotidiennes. Elles ont été rendues nécessaires par la diversification de l'industrie du divertissement, depuis l'apparition de la télévision jusqu' à celle des jeux vidéo et des nouvelles technologies (Scott 2005 : 35-61). Tout en maintenant une proximité étroite avec le cinéma, la ligne éditoriale de Variety n'a donc eu de cesse de se diversifier sur le fond et dans la forme. Une édition en ligne est créée en 1998. Son lancement enregistre un retard d' à peine trois ans sur l'édition en ligne du Hollywood Reporter, qui a été inaugurée fin 1995. Revue corporatiste, spécialisée et grand public, Variety se doit de refléter une grande diversité de points de vue et d'intérêts. Son positionnement éditorial en cas de grève d'une part présente un intérêt particulier pour juger de sa souplesse à l'égard des corporatismes. D'autre part, en dehors des situations de crise, il est intéressant d'examiner comment la revue se positionne face aux intérêts économiques des majors et, conjointement, la façon dont elle évalue l'intérêt artistique du cinéma de genre hollywoodien. Ce positionnement dépend en grande partie du rapport de distance et de proximité que la revue établit en parallèle avec le secteur indépendant, situé en marge du marché et proposant une alternative esthétique aux productions commerciales. De ce rapport dépend plus largement l'éclectisme de la couverture de Variety, destinée à refléter l'activité du secteur cinématographique dans son ensemble et à adhérer aux goûts du public cinéphile dans toute sa diversité. L'étude d'une manchette peut servir de test pour vérifier l'imbrication de ces paramètres au niveau du discours. Au cœur des débats qui animent Hollywood en période de grève se trouve une problématique récurrente dans l'histoire de l'industrie du divertissement. Elle rapproche et oppose les intérêts composites d'une industrie tentaculaire, aujourd'hui mondialisée grâce aux nouvelles technologies, et les intérêts corporatistes et sectoriels de chacune de ses composantes (Scott 2005 : 138-159). Cette divergence d'intérêts se manifeste autour d'un conflit, ouvert ou latent, qui oppose les impératifs économiques d'une production de masse à des revendications d'ordre artistique. La dernière grève des scénaristes, qui a secoué Hollywood en 2007-08, est un exemple emblématique de la manière dont ce conflit peut se manifester dans toute son amplitude. La couverture de ces récents événements par Variety peut donc, en premier lieu, servir de test à la souplesse de la ligne éditoriale de la revue. Face à des intérêts industriels divergents, exacerbés en cas de grève, Variety témoigne d'une couverture contrastée. Comme lors du mouvement de 1988, Variety a amplement relayé les évolutions du conflit de 2007-08. Variety s'est fait l'écho fidèle des deux groupes professionnels en conflit. Elle a relayé les revendications de la Writers Guild of America (WGA), qui demandait l'obtention d'un pourcentage plus élevé de droits d'auteurs sur la vente de produits dérivés. Ces revendications nécessitaient la remise à plat des accords précédemment conclus entre ce syndicat des scénaristes et Alliance of Motion Picture and Television Producers (AMPTP), le puissant syndicat des producteurs, auquel Variety a aussi régulièrement ouvert ses colonnes. Variety a également couvert les réactions des spectateurs confrontés à l'absence de tout nouveau programme télévisé. Sa couverture du conflit a ainsi reflété un triple équilibre qui correspondait parfaitement aux trois dimensions du mouvement, généralement présenté comme un bras de fer entre scénaristes et producteurs. Or, le public était bien, lui aussi, au cœur du conflit. Ses réactions étaient utilisées, tour à tour, par le syndicat des scénaristes et par celui des producteurs pour faire pression sur le camp adverse. L'enjeu corporatiste du conflit recouvrait en effet un enjeu commercial lié à l'intérêt des spectateurs pour les rediffusions, et donc au fléchissement des taux d'audience en l'absence de tout nouveau programme. Variety a donc su, pendant toute cette période, maintenir une forme d'équidistance éditoriale entre les intérêts divergents de ces trois parties. Elle a démontré, en d'autres termes, la souplesse de sa ligne éditoriale, et elle n'a pas failli au principe d'éclectisme qui la caractérise depuis sa création. En dehors de ces situations de crise, la couverture que la revue consacre respectivement aux productions des majors et à celles du secteur indépendant peut, en second lieu, servir de test, dans la durée cette fois, à son positionnement face aux intérêts économiques et artistiques souvent divergents de ces deux secteurs. Sur ce point, les colonnes de Variety reflètent tout à la fois une grande proximité éditoriale avec les dernières stratégies commerciales de l'industrie hollywoodienne, par l'intérêt qu'elle leur porte, et une distance critique par rapport aux moyens que cette industrie utilise pour mettre en œuvre ces stratégies, notamment leur traduction artistique à l'écran. En raison même de la proximité éditoriale que Variety chercheà entretenir à l'égard des dernières créations, la revue doit en effet garder une distance critique à l'égard des productions hollywoodiennes les plus formatées et donc les moins créatives. Le secteur indépendant offre alors à la revue une grande diversité de productions, dont elle couvre régulièrement l'actualité afin de promouvoir la rupture esthétique que ce secteur représente face à Hollywood (Amiel & Couté 2003 : 31-34). Cette configuration de l'industrie cinématographique, qui le plus souvent oppose les impératifs économiques d'une production de masse aux revendications artistiques d'un secteur situé en marge des forces du marché, a déjà été observée en cas de grèves. Elle est a priori un obstacle à l'équidistance éditoriale que la revue cherche à maintenir entre plusieurs parties. Or, la revue surmonte cet obstacle par un équilibrage éditorial constant. Le triple équilibre opéré lors de grèves n'est ainsi qu'un aspect d'un équilibrage éditorial qui se vérifie dans la durée et à de multiples niveaux. Dans le cas présent du positionnement de Variety à l'égard des majors et du secteur indépendant, un équilibrage qualitatif est repérable entre les colonnes consacrées aux productions à gros budget et celles, plus épisodiques mais de ce fait plus remarquées, que Variety consacre aux productions indépendantes américaines et étrangères. Variety a contribué, par exemple, à promouvoir la carrière de Steven Soderbergh jusqu' à la Palme d'Or au Festival de Cannes,depuis le festival du film de Sundance, quelques mois plus tôt, lorsqu'un journaliste de la revue s'est enthousiasmé pour le film Sex, Lies and Videotape (1989). Variety a également fait bon accueil au film Reservoir Dogs (1992) pour lequel Quentin Tarantino a été sélectionné à Sundance, avant qu'il ne remporte lui aussi une Palme d'Or à Cannes pour Pulp Fiction (1994). Un autre aspect de cet équilibrage qualitatif, garant de l'équidistance éditoriale de Variety entre majors et secteur indépendant, se vérifie au niveau du positionnement de la revue à l'égard du cinéma de genre. Celui -ci cristallise à lui seul les tensions d'un compromis entre production de masse et une stylisation esthétique propre aux lois du genre, définies par ce qui fait recette au box-office : une forme de poétique donc, mais à vocation industrielle et commerciale (Amiel & Couté 2003 : 15-19). La souplesse éditoriale de Variety permet à la revue d'adhérer à ce compromis et même de le conforter par le grand nombre de colonnes qu'elle consacre au cinéma de genre. Cependant, si l'actualité de ce type de films est amplement couverte sur le plan quantitatif, la revue publie régulièrement des articles plus incisifs qui posent ouvertement les limites du compromis sur lequel repose la notion même de genre cinématographique. Le poids éditorial de ces articles est d'autant plus grand qu'ils sont moins représentatifs de la revue et donc plus remarqués. C'est ainsi que peut s'opérer un équilibrage également qualitatif. Ce type d'équilibrage permet à Variety de toucher un lectorat dont l'intérêt pour le cinéma dépasse les limites des productions hollywoodiennes. Pour illustrer le positionnement de Variety entre ces intérêts et ces revendications apparemment inconciliables, sa manchette la plus célèbre, Sticks Nix Hick Pix, peut servir d'exemple. Elle porte sur le lancement d'un genre nouveau pour les films hollywoodiens de série B : le genre rural et provincial. Ce nouveau genre cinématographique dépeint la vie dans les campagnes. Son cœur de cible est l'Amérique profonde. Sur le plan phonologique, les quatre monosyllabes de cette accroche constituent, par paronomase, un raccourci discursif jubilatoire, en saisissant par un trait d'humour les limites génériques de ce type de production. Ces quatre monosyllabes ont suscité de nombreux commentaires lors de leur parution à la une le 17 juillet 1935. Cette seule manchette a suffi pour établir la célébrité du headlinese, une sous-catégorie du slanguage quand il est utilisé dans les gros titres. Aujourd'hui encore, la formule fait l'objet de fréquentes citations et de nombreux commentaires dans les ouvrages consacrés aux genres cinématographiques. Rick Altman, par exemple, considère la parution de cette manchette comme une date marquante dans l'histoire du cinéma de genre, telle qu'il est perçu par la presse, les critiques et le public. Il y voit plus encore un raccourci discursif inégalé, souvent repris dans le discours universitaire, en raison de sa capacité à fixer, dans une seule formule, les limites esthétiques et commerciales du cinéma de genre hollywoodien dans son ensemble (Altman 1999 : 22-41). À partir de ces remarques sur l'histoire de Variety, il s'agit maintenant d'évaluer dans quelle mesure le slanguage participe, au niveau du discours, à la souplesse éditoriale et à l'éclectisme de la revue. Nous distinguons, d'une part, les procédés morphosémantiques qui confèrent aux créations lexicales du slanguage leur longévité discursive, dont atteste aujourd'hui encore une manchette comme Sticks Nix Hick Pix. Cette longévité ne doit pas cependant être envisagée comme un obstacle à la capacité de renouvellement propre à ces créations. Ces dernières ont évolué au rythme des transformations de l'industrie du cinéma et des évolutions du discours spécialisé propre à ce secteur. Il s'agit, d'autre part, d'évaluer la capacité du slanguage à migrer d'un registre de langue à l'autre, d'un type de discours à l'autre, et d'une communauté sociolinguistique à l'autre, comme l'atteste, par exemple, leur intégration dans le discours critique et universitaire. Le mot slanguage, créé par Variety à la suite du succès rencontré par la manchette Sticks Nix Hick Pix, résume à lui seul tous ces enjeux. Il donne à comprendre et à imaginer la plasticité d'une langue argotique, qui procède par raccourcis, mélanges et compositions. Ce premier aperçu est développé dans la suite de notre étude au travers d'une typologie des règles lexicogéniques (Tournier 1987 : 16-19) caractéristiques de cet argot : lexicalisation de logos, de formes graphiques, d'onomatopées, d'initiales et autres abréviations. Cette typologie est assortie d'une analyse du discours et des pratiques langagières d'une communauté socioprofessionnelle et socioculturelle disparate, mais que le slanguage tend à fédérer. Le slanguage peut superposer message visuel, souvent d'origine industrielle et publicitaire, et discours. De nombreux logos et formes graphiques sont lexicalisés et intégrés dans un titre ou dans le corps d'un article : the Lion, Lion ou Leo en référence à Leo the Lion, le logo légendaire de la Metro-Goldwyn-Mayer; the Peacock en référence au paon de la NBC. Toutes ces créations lexicales témoignent d'une familiarité de ton qui se démarque du respect que suscitent généralement ces institutions. Elles connotent une forme de proximité entre ces institutions, la revue et les lecteurs. Il en résulte un triple rapprochement qui reflète une communauté d'intérêts, tout en estompant les rapports inégaux entre les éléments qui la constituent. Ce triple rapprochement confirme la valeur strictement argotique de ces créations, puisque l'argot se définit notamment comme un dialecte social réduit au lexique, de caractère parasite (dans la mesure où il ne fait que doubler, avec des valeurs affectives différentes, un vocabulaire existant), employé dans une couche déterminée de la société qui se veut en opposition avec les autres. (Dubois et al. 2001 : 48) Peut être ici mentionnée une autre création lexicale qui relève aussi de la constitution d'un bestiaire investi d'une forte dimension affective : Mouse, the Mouse ou Mouse House, pour désigner les studios Disney. À la différence des exemples précédents, la lexicalisation procède dans ce cas précis de la forme graphique associée à un personnage familier, petit par la taille mais assez emblématique pour incarner toute la puissance économique d'un conglomérat. Cette familiarité de ton est donc à l'origine de nombreuses créations du slanguage. Elle participe d'un registre de langue familier. Elle donne lieu de surcroît à des mots inédits qui justifient, à plus d'un titre, leur appellation de mots argotiques du fait de leur caractère non normatif, destiné à établir une distance avec la langue courante dans le cadre d'un rapprochement d'ordre sociolinguistique autour de leur emploi. L'effet de paronomase issu de la diphtongaison dans Mouse House est loin d' être un cas isolé dans le slanguage. Celui -ci tend très fréquemment à jouer sur les sonorités, souvent pour réduire l'écart graphie / phonie. C'est le cas pour la lexicalisation d'onomatopées ou de sons qui pourraient, par exemple, exprimer l'enthousiasme. Whammo s'utilise comme adjectif, ou adverbe, pour qualifier un film rencontrant un très vif succès auprès du public : Men in Black is doing whammo overseas. Ce jeu sur les sonorités préside également à la lexicalisation d'abréviations sous forme d'initiales dont la graphie est déformée : a new ayem show pour a new a.m. show, to emcee the Oscars pour to m.c. the Oscars. La distance se creuse alors entre deux signifiants, l'un connu et l'autre inédit, mais toujours dans le but de réduire l'écart graphie / phonie. Ayem évoque graphiquement le bâillement d'un téléspectateur encore endormi devant une émission matinale. Quant au redoublement du e dans emcee, il marque l'allongement du son [i :] pour rendre au plus près toute la solennité et l'emphase du rôle de maître de cérémonie lors de la soirée des Oscars. L'effet est insolite; il semble se prêter à la réalisation graphique d'un son ou d'un style d'élocution. La lexicalisation de ces initiales peut alors concourir à une mise en scène du quotidien du lecteur, tout comme des fastes d'Hollywood dont semble nous parvenir un écho prolongé sur le papier. L'interprétation que le lecteur en fait au niveau du discours pourra être d'ordre humoristique, voire ironique, à l'égard d'un format télévisuel ou d'un grand événement commercial, artistique et médiatique. À l'opposé de cette lexicalisation presque explicative, le slanguage peut recourir à la lexicalisation d'initiales dont l'effet est d'estomper le signifiant. L'écart signifiant / signifié semble du coup en être accru. D'une part, l'assemblage graphique de ces initiales est sans précédent. D'autre part, il réunit par siglaison les initiales d'au moins trois éléments constituant une locution, et la forme siglée résultante se prête très difficilement à une réalisation de type phonologique, car le nombre de consonnes compromet toute prononciation syllabique. Citons par exemple : Her o.t.t. performance marred the otherwise riveting film. O.t.t. est ici la forme siglée de la locution over the top. Un effet similaire est produit dans la phrase suivante : The outlook for long term B.O. is n.s.g. L'effet insolite vient dans ce cas de la siglaison n.s.g., telle qu'elle est renforcée par contraste avec la forme siglée très connue B.O. pour box-office. Le lecteur de Variety comprend not so good. L'accroissement de l'écart signifiant / signifié est ici destiné à rapprocher les lecteurs qui connaissent le code pour le réduire. Notons que ces formes siglées inédites sont le plus souvent adjectivées, ce qui contribue à un rapprochement syntaxique étroit avec un substantif auquel la locution d'origine ne serait pas nécessairement associée. Au niveau sémantique, elles véhiculent donc un jugement de valeur que seuls les initiés au slanguage, et par extension au monde du cinéma, semblent être capables de comprendre et de vraiment apprécier. Seraient tenus à distance tous ceux qui ne maîtriseraient pas le code pour les interpréter. Toutefois, ces formes siglées prennent rapidement à la lecture la forme de rébus dont l'élucidation repose avant tout sur l'inférence. Leur encodage présente un intérêt essentiellement ludique. Plus que d'exclure une partie des lecteurs, il a pour but principal de stimuler leur imagination. Ces formes siglées sont à rapprocher d'un autre type d'abréviations qui relève quant à lui de la troncation. L'écart signifiant / signifié est moins insolite, puisque l'effet d'estompe provoqué par ces troncations n'est que transitoire avant que la graphie du mot usuel ne réapparaisse dans son intégralité. La première remarque que suggèrent ces exemples (cf. tableau 1) est que ces troncations sont d'origine phonétique et procèdent donc par apocope : l'élision se fait sur les dernières syllabes non accentuées du mot sauf exception toon, et ce pour des raisons évidentes d'homophonies ambiguës (car). La seconde est que les bisyllabiques sont moins fréquemment apocopés que les autres polysyllabiques. Enfin, ces troncations par apocopes participent d'un discours oral et confirment le caractère argotique du slanguage. L'emploi de la plupart des créations lexicales rencontrées précédemment reste exclusif de Variety. Il relève de l'hapax et constitue finalement une marque de fabrique par le ton inimitable qu'elles confèrent à la revue. Même si son origine n'est pas mentionnée, quelques lignes suffisent pour reconnaître un article de Variety. Le slanguage s'élabore donc à partir de créations lexicales dont l'exclusivité redouble, au niveau du discours, l'exclusivité journalistique dont un article est porteur. Cependant, cette exclusivité ne vaut, dans les deux cas, que si elle est partagée par le plus grand nombre de lecteurs. Le slanguage contribue ainsi à la synthèse de la confidentialité qui conditionne la création d'un scoop et de la révélation publique qui en confirme le succès médiatique. Il exclut les lecteurs qui n'en connaissent pas les codes, mais sans que ceux -ci soient totalement hermétiques pour des raisons commerciales évidentes. Au contraire, toutes les abréviations du slanguage tirent en l'occurrence leur intérêt éditorial de la production d'un discours simplifié, au plus proche du discours oral. Or, cette proximité, caractéristique d'un registre familier, favorise l'échange et permet qu'un dialogue virtuel se noue entre la revue et ses lecteurs, autour de références investies d'une valeur affective. Le slanguage est, en d'autres termes, un vecteur pour que la voix du critique passe par le discours écrit et que s'opère cet échange reposant sur l'anticipation des réactions du lecteur à chacune de ces références. Le ton de la revue est donné par le grain de cette voix virtuelle que le slanguage parvient à rendre présente, par réduction de l'écart graphie / phonie, et réussit à mettre en scène dans un réseau de références affectives, par jeu sur l'écart signifiant / signifié. Ce double processus donne au discours une forte dimension phatique et visuelle. Celle -ci en fait également un argot vococentrique, dont le succès auprès des cinéphiles notamment n'est pas une surprise : le slanguage permet de réaliser lexicalement une mise en scène du discours et de reproduire le centrage autour de la voix et du dialogue caractéristique de la narration cinématographique. L'emploi des créations lexicales propres au slanguage peut pourtant dépasser le champ strictement journalistique, et s'ouvrir à celui des professionnels et des spécialistes du cinéma et des médias dans leur ensemble. Leur emploi dans les discours spécialisés peut investir ces créations argotiques d'une valeur terminologique à part entière. Il justifie également à leur sujet l'appellation de néologismes. Le passage que ces créations lexicales peuvent effectuer du lexique potentiel à la frange spécialisée du lexique réel (Tournier 2004 : 16) indique qu'elles se sont intégrées à un modèle de communication déterminé mais extrinsèque à la revue. Certaines créations propres au slanguage donnent ainsi lieu à une terminologie néologique qui a su s'imposer. Elles peuvent être répertoriées dans des glossaires, dictionnaires et encyclopédies spécialisés. Si nous considérons que la valeur terminologique d'un néologisme se fonde sur sa reconnaissance dans les dictionnaires, entendus comme corpus d'exclusion (Sablayrolles 2008), cette intégration est bien la marque, d'une part, de leur institutionnalisation terminologique. Les termes spécialisés issus du slanguage correspondent, d'autre part, aux deux types de créations néologiques généralement recensées : la néologie de forme et la néologie de sens. Nous observons cependant que la néologie propre au slanguage est souvent appelée à dépasser les conventions terminologiques des discours spécialisés. La néologie de forme se définit comme l'opération qui « consiste à dénoter une réalité nouvelle […] et à fabriquer pour ce faire de nouvelles unités lexicales » (Dubois et al. 2001 : 322). Ces nouvelles unités peuvent être créées par composition (Tournier 2004 : 91-98). Or, les nombreuses abréviations du slanguage permettent aisément le télescopage de plusieurs mots, ainsi abrégés, et la création de mots-valises comme biopic (cf. tableau 1). Le mot slanguage lui -même relève à l'évidence de la même opération. Si ces néologismes ne sont pas créés de toutes pièces, leur morphologie néanmoins complexe résulte de l'amalgame d'unités lexicales tronquées (Tournier 2004 : 96-98). Au niveau sémantique, ils suppléent aux carences de la langue là où aucun terme n'existe, par exemple pour désigner l'émergence d'un genre ou d'une forme dramatique. Outre biopic, citons deux autres exemples : dramedy pour dramatic comedy, ou encore sitcom pour situation comedy. Ces mots-valises ont été rapidement intégrés au discours des professionnels et des observateurs des médias, et à la langue courante – souvent bien au-delà du monde anglophone. Ces néologismes de forme ne relèvent donc ni d'un discours spécialisé, ni d'un discours de vulgarisation au sens strict. En revanche, l'emploi généralisé de sitcom, par exemple, prouve à quel point la souplesse morphologique et sémantique du slanguage lui permet, en sa qualité même d'argot, de franchir la distance qui sépare plusieurs registres de langue et de s'intégrer facilement à différents types de discours dans des langues diverses. Sans qu'ils soient des mots-valises – ils résultent de la seule composition par juxtaposition d'unités lexicales pleinement restituées (Tournier 1987 : 22) – d'autres mots composés issus du slanguage ont rencontré un grand succès, à l'exemple de soap opera. Il serait difficile de trouver pour cette forme dramatique un terme plus approprié, alors qu'il rapproche à lui seul le pathos quasi opératique des feuilletons télévisés (opera) et la référence commerciale à leurs premiers sponsors liés à l'industrie du savon et de la lessive (soap). Le succès de ce néologisme se mesure également à l'usage généralisé de sa forme abrégée (soap), une troncation qui témoigne de son emploi dans le discours oral et donc de sa pleine adoption par le grand public. Avec plus ou moins de succès, le slanguage est également à l'origine de mots-valises ou de mots composés comme telefilm, telepic ou cliffhanger. Qu'elle prenne la forme de mots-valises, de mots composés, voire de mots composés ensuite abrégés, cette néologie s'élabore en conformité avec les structures lexicales de la langue courante. Il s'agit là d'une autre différence qui les dissocie, sur le plan morphologique, des créations lexicales à partir de logos, de formes graphiques, d'onomatopées et d'abréviations. La néologie issue du slanguage constitue donc un exemple représentatif des rapports de distance et de proximité que cet argot entretient, dans son ensemble, avec la langue courante. Il s'en écarte par ses créations lexicales impropres, mais un nombre suffisant d'entre elles présente une morphologie assez proche de la langue courante pour qu'elles deviennent des néologismes avérés, et que ceux -ci s'intègrent à leur tour à la langue courante au terme d'un processus intralinguistique nourri d'apports réciproques entre plusieurs types de discours. Ce processus peut même acquérir à la suite une forme de fluidité également interlinguistique, dont les termes franglais sitcom ou soap sont quelques-unes des manifestations. L'efficacité ludique et séduisante des amalgames, opérés dans les mots-valises, et la clarté morphologique des mots composés, par seule juxtaposition, contribuent à réduire la distance entre la zone sûre du lexique réel et sa frange spécialisée. Ceci explique sûrement, d'une part, la rapidité avec laquelle la terminologie néologique ainsi créée est également adoptée par le grand public. D'autre part, les termes soap opera et cliffhanger introduisent une autre forme de néologie fondée sur sa valeur métaphorique. Elle est remarquable, quant à elle, en raison de sa capacité à frapper les imaginations, au-delà même des barrières d'ordre sociolinguistique et linguistique. Mots composés inédits, ils sont de fait des néologismes de forme. Ils témoignent également d'une néologie de sens qui favorise leur réalisation dans un spectre discursif et linguistique élargi. Ce type de néologie se définit, plus précisément, comme l'opération qui « consiste à employer un signifiant existant déjà dans la langue considérée en lui conférant un contenu qu'il n'avait pas jusqu'alors » (Dubois et al. 2001 : 322). Dans le slanguage, ce réemploi de signifiants existants anticipe plus particulièrement la réalisation visuelle de ce qu'ils connotent dans l'imaginaire du lecteur. Nous retrouvons là la forte dimension phatique et visuelle du slanguage; elle confère souvent à ces néologismes la prégnance d'un plan cinématographique dans l'esprit et la mémoire. Alors qu'il connote parfaitement la peur du vide et l'irrésolution d'une situation extrême, cliffhanger aura peu de mal à s'imposer comme le néologisme qui désigne la chute d'un épisode de série télévisée. Le message visuel qu'un néologisme comme cliffhanger véhicule s'inscrit donc dans l'esprit du lecteur, ici comme un plan en plongée sur lequel l'image se serait arrêtée, tout autant qu'il s'inscrit dans la trame signifiante du discours. Ceci explique sûrement l'usage généralisé de ces termes, au-delà du discours localisé qui a contribué à leur apparition. Cette généralisation explique toutefois que, pour la plupart d'entre eux, la force du message visuel se soit progressivement estompée pour donner lieu à une métaphore figée, en quelque sorte réduite à un plan fixe, ou à un simple cliché au sens stylistique et photographique du terme. La démétaphorisation du néologisme est alors coextensive d'un phénomène de déterminologisation : le terme d'origine métaphorique devient mot en faisant son entrée dans la langue courante et en perdant, à la suite, sa valeur métaphorique première (Meyer & Mackintosch 2000). L'inventivité du slanguage se mesure alors en diachronie à sa créativité néologique et donc à sa capacité de renouvellement terminologique, souvent par métaphores interposées. Elle joue sur une néologie de forme et de sens, particulièrement lorsque la proximité créée entre le lecteur et un néologisme devenu très courant tend à figer la métaphore. La valeur métaphorique du nouveau néologisme crée alors un effet de surprise, devenu nécessaire afin de produire un changement de point de vue. Ce changement permet à la métaphore de retrouver toute sa vivacité. La souplesse sémantique du slanguage lui permet en effet de créer une néologie en mouvement, qui suscite un flux d'images proche de la narration cinématographique. Ainsi l'usure du néologisme métaphorique soap opera donne lieu à la création par suffixation d'un néologisme synonyme, sudser. Celui -ci gagne en intensité visuelle, puisqu'il évoque une forme de plan rapproché sur la mousse de l'eau de lessive (suds). Sont ainsi remétaphorisées l'origine commerciale de ce type de programme et l'effusion de sentiments propre à cette forme dramatique. Le néologisme sudser ne fait assurément pas l'objet d'une entrée dans un dictionnaire. Le slanguage reste un argot dont l'inventivité n'a donc pas pour vocation de produire une néologie institutionnalisée dans les discours terminologiques de type métalinguistique. Il est remarquable que ces créations lexicales argotiques s'intègrent dans les discours spécialisés, mais il est peut-être plus remarquable encore qu'un argot soit capable de produire une néologie en mouvement qu'aucune forme de discours ne puisse figer. Le slanguage en tire sa spécificité sociolinguistique et son statut même d'argot, au-delà de toute limite imposée. L'évolution presque environnementaliste vers le néologisme ozoner (tableau 2) pour désigner un cinéma en plein air, réduit la distance entre plusieurs domaines de compétences et entre les discours spécialisés qui leur sont associés. Il s'agit bien sûr d'un clin d' œil anodin, mais il marque au passage la proximité que Variety cherche à entretenir avec les nombreuses préoccupations de son très large lectorat, quelles qu'elles soient. Le terme « clin d' œil » pourrait en quelque sorte définir, à lui seul, la plupart de ces néologismes fortement métaphoriques. Ils partagent la vivacité d'un regard amusé qui soulignerait au lecteur un bon mot. La fonction de ces néologismes est donc phatique, et leur potentiel métaphorique confère au discours une dimension visuelle, dont l'intensité est surtout calculée pour attirer l' œil et l'attention du lecteur sur un gros titre, ou sur un bon mot au détour d'une phrase. Cette forme de néologie en clin d' œil peut ainsi résulter d'un déplacement métaphorique, par similitude entre deux éléments : le précipice et un ultime rebondissement, le gouvernail et la direction d'acteurs, un oiseau et un satellite, l'ozone et un cinéma en plein air. Ce déplacement peut aussi être d'origine métonymique, par l'établissement d'un rapport de contiguïté, déjà esquissé dans le terme ozoner. Il est plus surprenant encore que le rapport de contiguïté s'établisse uniformément par synecdoque (cf. tableau 3). Il en résulte un rapprochement du tout vers la partie. Comme par un effet de zoom métonymique, ce rapprochement semble alors réduire la distance socioprofessionnelle et socioculturelle qui opposerait le mode de fonctionnement propre à l'organisation verticale d'une industrie (signature de contrats avec un producteur, travail des scénaristes, tournage, campagne de publicité) aux réalités quotidiennes du lecteur de base, alors qu'il ramène chaque étape de cette organisation à des objets ou des produits d'usage courant (de l'encre, un stylo, un objectif). Cet effet de zoom peut également concourir à réduire la distance élitiste qui sépare ordinairement les productions indépendantes et le grand public, parce qu'il associe le cinéma d'art et d'essai (art films) à un centre culturel ouvert à tout public (arthouse). Il est cependant à noter que ces rapprochements ne sont pas nécessairement le fait d'un discours de vulgarisation. Le terme arthouse, par exemple, a été rapidement intégré à la terminologie critique des discours spécialisés et, au-delà, à la langue courante (King 2005 : 13-17). La typologie des règles lexicogéniques que nous venons d'établir témoigne de la grande inventivité du slanguage, tant au niveau morphologique que sémantique. Cependant, depuis la lexicalisation de logos, d'onomatopées, d'initiales et autres abréviations jusqu' à la création de néologismes de forme et de sens, chacun de ces procédés concourt prioritairement à une superposition de discours dont résulte un brouillage discursif. C'est de ce brouillage que le slanguage tire sa véritable légitimité éditoriale, puisqu'il confère au discours la capacité d'estomper des divergences d'intérêts (au sens économique, corporatiste et socioculturel). Cette capacité permet à la revue de se démarquer de tout discours formaté, et ainsi de conserver l'adhésion de ses divers lectorats. Nous examinons dans cette dernière partie, la manière dont la néologie propre au slanguage, notamment par suffixation (Tournier 2004 : 45-50), contribue à estomper, sur le mode péjoratif, les excès d'un discours de type publicitaire ou toute tendance abusive au métadiscours critique. Un néologisme comme praisery (cf. tableau 3) atteste à la fois d'une néologie de forme, par suffixation, et de sens, du fait qu'il ramène le rôle d'une entreprise en relations publiques à une forme de faire-valoir (to praise), à moins que, par métaphore interposée, il n'évoque aussi une pépinière de talents et de célébrités à partir d'un jeu sur l'homophonie de l'affixe entre praisery et nursery. La pointe de ce néologisme en clin d' œil n'a rien de très appuyée, mais elle n'en demeure pas moins ironique. Praisery constitue donc un exemple de métaphorisation péjorative à l'égard des stratégies de communication, fondées notamment sur la médiatisation propre aux nouvelles formes du star system (Bourget 2005 : 145). Il traduit très bien l'équidistance éditoriale de Variety entre les intérêts des milieux professionnels, soucieux de l'image, et les intérêts du lecteur de base, qui ne doit pas être dupé par ces stratégies. Il en résulte un brouillage discursif qui permet à la revue d'opérer un équilibrage entre des intérêts divergents, et ainsi de maintenir sa ligne éditoriale. Sur le plan morphologique, le néologisme praisery constitue également un bon exemple de la manière dont la néologie dans le slanguage repose sur la suffixation. Une nouvelle caractéristique du slanguage émerge en effet : toute néologie de forme par suffixation tend à être péjorative. Le néologisme ozoner connote, comme en écho aux enjeux économiques de la distribution des films dans différentes catégories de salles, le détournement des questions écologiques à des fins commerciales dans le discours publicitaire. A flop peut également devenir the year's floppola pour désigner l'échec le plus cuisant de l'année. La suffixation se prête ici à la création d'un néologisme de forme dont la valeur superlative est aberrante. Elle redouble, au niveau morphologique, la particularité, au niveau sémantique, d'une production dont l'échec inattendu s'inscrit comme une aberration dans la logique du discours publicitaire qui annonçait un immense succès commercial. Il en résulte une réduction de l'écart signifiant / signifié, par la proximité redondante créée entre morphème et lexème. D'une part, le slanguage peut donc procéder par suffixation dans tout contexte qui se prête à la dérision – l'échec d'un film à gros budget et du discours publicitaire qui en a conduit la promotion, par exemple. D'autre part, la suffixation permet au slanguage de pasticher un type de discours critique dans lequel les néologismes suffixés marqueraient une prise de distance au niveau sémantique avec un référent, au point que celui -ci disparaîtrait comme objet du discours au fur et à mesure des suffixations et de l'élargissement incontrôlé du champ dérivationnel (Tournier 2004 : 48-49). Ce type de discours tendrait à une forme de métadiscours, caractérisée par une néologie de forme réduite à quelques suffixes. Le slanguage peut ainsi pasticher cette tendance au métadiscours par la création de termes creux, réduits à un seul suffixe, et signifiant une forme de disproportion : to hypo pour accroître au-delà de toute commune mesure, ou encore hype pour toute tendance à l'hyperbole, y compris dans le cadre de campagnes promotionnelles. Il n'est pas indifférent que ces deux exemples relèvent à la fois du discours critique, qui emprunte souvent à une terminologie d'origine grecque, et du discours de la publicité et des relations publiques. Au niveau sémantique, ce rapprochement entre deux types de discours bien distincts prend pour appui une tendance à l'autonymie dans les deux cas : ressassement théorique d'un côté, et matraquage médiatique de l'autre. L'équidistance éditoriale caractéristique de la revue participe alors à un équilibrage entre dérision et subordination à l'égard de ces deux types de discours. D'une part, Variety est aussi un véhicule publicitaire, notamment lors de la saison des Academy Awards au travers de ses encarts, For Your Consideration, destinés à promouvoir certaines productions auprès des membres du jury et, incidemment, auprès du grand public. D'autre part, la revue est également lue par les spécialistes du cinéma et des médias. Elle peut même contribuer à la constitution d'une terminologie néologique largement répandue. En revanche, le slanguage permet aussi à la revue d'éviter par une néologie en clin d' œil un formatage discursif excessif, qu'il soit fondé sur le discours publicitaire ou sur une tendance au métadiscours critique. Le traitement du cinéma de genre dans la revue peut, de nouveau, servir d'exemple pour illustrer ce formatage discursif dans les deux cas. Issue d'une stratégie industrielle et commerciale hollywoodienne, telle qu'elle est relayée par le discours formaté des médias, la notion de genre peut scléroser la production cinématographique et le discours critique autour d'un nombre restreint de modèles narratifs et d'enjeux esthétiques, alors que la notion même de genre est hybride et évolutive (Bourget 2005 : 11-12). Or, le slanguage contribue à sa manière à renouveler par dérision la terminologie en la matière. Outre la suffixation, un autre procédé consiste à substituer à un terme générique déjà existant (thriller, film noir, western) une création lexicale dont la portée critique semble être contredite par son origine populaire ou faussement relevée (whodunit, suspenser, horse opera). Cette volonté de renouveler la notion de genre au cinéma peut également passer par la création d'un autre type de néologie pseudo-générique. Celle -ci désigne des genres cinématographiques étrangers, mais elle joue également sur les clichés nationaux de manière politiquement incorrecte. Cette néologie connote ainsi une distance par rapport à un cinéma de genre réduit aux seuls genres américains. Cependant, il n'en résulte qu'une proximité apparente avec ces genres cinématographiques étrangers, du fait de la connotation péjorative des néologismes ainsi créés. Par exemple, les chopsockies sont les films d'arts martiaux, par jeu sur la valeur onomatopéique de chop, mais aussi sur le cliché des chopsticks comme emblèmes du cinéma asiatique. La superposition de discours auquel le slanguage participe permet à la revue, ici encore, d'éviter tout positionnement tranché et de se concilier l'adhésion du plus grand nombre de lecteurs, qu'ils soient américains ou étrangers, par un brouillage discursif qui oscille entre humour et ironie, complicité et exclusion. Dans tous ces exemples, nous avons pu observer la capacité du slanguage à toujours faire varier les indices de distance et de proximité entre plusieurs types de discours, et ainsi à se frayer un chemin entre plusieurs positionnements tranchés, et qui seraient donc intenables au regard de la ligne éditoriale éclectique que la revue s'est tracée. La souplesse morphologique et sémantique de cet argot témoigne en effet d'une grande inventivité phonologique, graphique et métaphorique, qui favorise un brouillage discursif à l'égard de tout discours formaté et contribue ainsi à la souplesse éditoriale de la revue. Grâce au slanguage, Variety s'adapte et peut donner lieu à une variété de discours et s'assurer l'adhésion d'un lectorat le plus large possible. Cette variété justifierait à elle seule le titre de la revue. Elle explique également la diversité des exploitations de Variety auprès des professionnels, du public et des chercheurs. Par fidélité au projet fondateur de Sime Silverman, les colonnes de la revue sont ainsi restées ouvertes à une grande variété de productions, de points de vue et de lectorats .
Variety se définit comme une publication corporatiste, spécialisée et grand public. L'article se concentre sur la manière dont le slanguage, l'argot journalistique utilisé dans la revue, contribue au niveau du discours à l'établissement d'une ligne éditoriale éclectique, destinée à consolider l'adhésion d'un vaste lectorat. Cet éclectisme est tout d'abord mis à l'épreuve du positionnement de Variety face aux intérêts respectifs de l'industrie hollywoodienne et du secteur indépendant. La fonction éditoriale du slanguage est alors resituée dans l'histoire de la revue telle qu'elle reflète les évolutions de l'industrie du divertissement, leurs enjeux économiques et artistiques, et la création concomitante d'une terminologie appropriée. L'article inclut une typologie de règles lexicogéniques qui contribuent à la formation de néologismes dont l'emploi dans des contextes variés estompe les limites préétablies entre plusieurs types de discours. Cet effet de brouillage discursif, renforcé par de fréquents déplacements métaphoriques, confère au slanguage une forte dimension phatique et visuelle. Il assure un équilibrage éditorial entre le matraquage publicitaire et les excès du métadiscours critique.
linguistique_11-0263178_tei_490.xml
termith-549-linguistique
Une première difficulté, qui tient à sa diversité d'emploi, se présente lorsqu'on veut définir le terme populiste. Dans l'usage courant, celui -ci a perdu de sa spécificité : il est souvent employé comme un équivalent de démagogique, de poujadiste, parfois de raciste ou même de fasciste – amalgames qui ne ­peuvent apporter de grande lumière sur son sens. Lorsque les sujets parlants sont des acteurs politiques, on observe que populiste est employé aussi bien par la droite que par la gauche pour stigmatiser le parti adverse ou pour se défendre contre la stigmatisation. La plupart du temps, pour la droite, la gauche est populiste en ce qu'elle manipule les classes ouvrières et populaires; pour la gauche, la droite est populiste parce qu'elle manipule les classes moyennes et populaires (peu politisées) par des discours qui cherchent à susciter l'émotion la plus primitive : la peur. Autrement dit, dans les deux cas, le populiste c'est l'autre, qui pour s'exprimer emploierait une rhétorique simpliste et essentialisante. Mais les politiques ne sont pas les seuls à stigmatiser l'autre. Les économistes, par exemple, se plaignent de ce que le personnel politique ne parle pas suffisamment des problèmes économiques, et donnent à cela deux types de raison : l'ignorance (les politiques, disent les uns, ignorent les vrais problèmes économiques et ne disposent pas d'une formation adéquate en ce domaine) ou l'absence de courage (les politiques, selon d'autres, n'osent pas proposer de mesures impopulaires). Cela conduit les ­économistes à qualifier certains politiques de populistes au motif que ceux -ci ­préfèrent ne parler que de questions de société à forte teneur émotionnelle : immigration, violence et insécurité, etc. Enfin, pour ajouter à cette diversité d'emplois et de sens, certaines personnalités politiques vont jusqu' à revendiquer la qualification de populiste en attribuant à ce mot un sens positif : « Si être populiste, c'est reconnaître au peuple la faculté d'opinion, le droit de l'exprimer et l'écouter [sic ], alors, oui, car du même coup, c'est être démocrate. » Un rapide parcours historique des différentes tentatives de théorisation s'impose, car celles -ci évoluent entre les anathèmes des juristes et des psychologues néo-darwiniens du 19e siècle (pour qui le populisme est une sorte de nationalisme dénaturé, voire l'antichambre du totalitarisme) et les positionnements modernes, selon lesquels le populisme doit être intégré dans la démocratie comme un type de gouvernement : « Lorsque les masses populaires sont exclues longtemps de l'arène politique, […] le populisme, loin d' être un obstacle, est une garantie de démocratie, car il évite que celle -ci se transforme en pure gestion. » (Dorna, 2006, p. 5) Historiquement, c'est vers la fin du 19e siècle qu'apparaissent un mouvement socialiste progressiste en Russie et, de façon parallèle, un mouvement rural conduit par les fermiers de l'Ouest et du Sud des États-Unis d'Amérique. Ils s'accompagnent l'un et l'autre d'un discours critique envers le capitalisme. Se développent alors des mouvements plus revendicatifs et violents, tous taxés de populisme par l'historiographie : le populisme provincial du Sud des États-Unis des années vingt et trente, dressant les petits commerçants et les paysans des villages contre les grands centres urbains et pratiquant une intolérance anti-intellectualiste, xénophobe et antisémite dont témoigne l'activité du Ku Klux Klan; le populisme raciste et fascisant de l'Allemagne nazie des années trente et quarante, instauré par l'appareil d' État; enfin, le maccarthysme anti-intellectualiste et anti-élitiste des années cinquante, qui marque le début de la guerre froide (Taguieff, 2002, chap. 2). C'est pourtant à propos des régimes politiques qui naissent en Amérique latine à partir des années cinquante qu'est le plus souvent employée l'expression régime populiste : le péronisme de Juan Domingo Perón en Argentine, le gétulisme de Getulio Vargas au Brésil, plus tard le caudillisme de Carlos Menem en Argentine, le populisme dit « libéral » de Fernando Collor de Mello au Brésil (1989-1992), celui d'Alberto Fujimori au Pérou (1990-2000), et maintenant celui, dit « socialiste », de Hugo Chávez au Venezuela. Ces régimes se font jour dans un contexte de modernisation et d'enrichissement des classes supérieures qui permet que soient tenus deux types de discours : l'un, à la fois paternaliste et anticapitaliste, à l'adresse de la classe ouvrière et de la classe moyenne (cas du justicialisme argentin défendant les droits du travailleur); l'autre, autoritaire, à l'adresse des diverses couches de la société, du prolétariat à l'armée, contre l'impérialisme des États-Unis (le chavisme fustigeant le « diable » américain). Il s'agit là de populismes qui ont pour points communs d' être nationaux et populaires. Parallèlement, en France, se développent diverses figures du populisme. Le poujadisme, dans les années cinquante, diffuse un discours xénophobe et anti-intellectualiste à l'adresse des artisans et des petits commerçants. Puis, après les Trente Glorieuses, à partir de la fin des années quatre-vingt, le terme populisme revient en usage. Ce populisme est qualifié de « national-populaire » pour ce qui concerne les discours de Jean-Marie Le Pen réclamant la « préférence nationale », et plus tard, de « libéral-populaire » s'agissant des discours de Bernard Tapie qui vante l'entreprise et l'emploi des jeunes. On pourrait même qualifier de populisme « hybride » les déclarations d'hommes politiques qui empruntent à divers courants idéologiques, comme le fit Nicolas Sarkozy, lors de la campagne électorale de 2007, en maniant alternativement un discours de libéralisme économique à l'adresse du patronat, des entreprises, des professions libérales, et un discours prenant pour thème la protection des plus faibles, à l'adresse des classes populaires. Ces différentes figures du populisme montrent que l'on ne peut proposer de celui -ci une définition unique, car les contextes historiques et politiques l'infléchissent de différentes façons. Il y aurait des populismes classistes, voire ethnicistes; des populismes nationalistes, plus ou moins autoritaires, jouant sur l'identité nationale et la ségrégation; des populismes néolibéraux; des populismes de circonstance s'exprimant dans les campagnes électorales à l'aide d'expressions démagogiques, afin de séduire les masses populaires. En Amérique latine, malgré l'impression d'homogénéité civilisationnelle que certains, depuis l'Europe, peuvent avoir de ce continent, les traditions culturelles et politiques sont diverses. Comme le souligne Gabriel Vommaro dans son introduction à La « carte rouge » de l'Amérique latine, c'est à des populismes qu'on a affaire dans les années quarante-cinquante avec Perón en Argentine et Vargas au Brésil; dans les années soixante/soixante-dix, ce sont les mouvements d'une gauche marxiste révolutionnaire qui dominent d'après le modèle cubain; les années soixante-dix/quatre-vingt connaissent des dictatures militaires, en Amérique du Sud et centrale; et, entre les années quatre-vingt-dix et deux mille, se sont installés des régimes d'un socialisme ici démocratique (Chili), là indigéniste (Mexique, Bolivie, Équateur), là encore populiste (Chávez) ou populaire (Lula) (Vommaro, 2008, p. 7-19). Malgré cette diversité, il est possible, du moins au regard des discours qui sont produits par les grands leaders populistes, de trouver quelques points communs. Tout d'abord, on remarquera que le populisme naît toujours dans une situation de crise sociale, celle -ci pouvant différer selon les pays ou les époques : crise économique, comme en Amérique latine et en Europe occidentale (France, Autriche, Pays-Bas); crise identitaire et morale (cas des sociétés qui refusent la multiculturalité au nom d'une identité propre); crise de changement de régime politique, comme dans de nombreux pays de l'Est après la chute du mur de Berlin, lesquels doivent s'ajuster à l'économie de marché et découvrent l'ultranationalisme. On observe ensuite, dans tous les cas, la présence d'un chef charismatique. Celui -ci construit son leadership sur des images différentes selon les cultures. Il n'a pas à proprement parler de programme politique, mais promet de rompre avec les pratiques du passé, d'en finir avec la corruption et de rendre son pouvoir au peuple. On constate également l'absence d'homogénéité du populisme sur le plan idéologique. Si l'on reprend les qualificatifs précédemment énumérés, on perçoit la diversité des positionnements. En Amérique latine par exemple, le populisme de Perón fut de type autoritaire, voir fascisant pour certains, mais s'appuya sur la classe ouvrière et sur l'armée; Alberto Fujimori pratiqua un populisme de corruption, tout en déclarant vouloir en finir avec celle -ci et en faisant arrêter Abimael Guzman, le chef du Sentier lumineux; le populisme de Chavez, au Venezuela, est fortement anti-américain, pro-cubain et socialiste, tout en imposant de façon autoritaire des commissions de gestion économique et des conseils communaux; celui de Lula, plus souple, ménage la chèvre (l'aide aux populations des favelas) et le chou (l'économie de marché). En France, le général Boulanger a pris la tête d'une opposition nationaliste et antiparlementariste, laquelle avait flatté les revanchards de la guerre de 1870, les bonapartistes et les monarchistes tout en ayant le soutien de Gambetta, un homme de gauche, et de Rochefort, un ancien communard. Ce ne fut pas le cas de Pierre Poujade qui s'appuya plutôt sur les artisans, les commerçants, les agriculteurs et les élus locaux de divers bords. Quant à Jean-Marie Le Pen, s'il s'inscrit pour une part dans la tradition des nationalistes monarchistes et des libéraux de droite dont on trouve les échos dans le Groupement de recherche et d'études pour la civilisation européenne (GRECE), son idéologie est davantage d'extrême droite, antisémite et xénophobe. Cette absence d'homogénéité idéologique devrait nous inciter à la prudence quant à la catégorisation du populisme. Le pouvoir d'influence des mots ne réside pas seulement dans la force du projet d'idéalité sociale dont ils sont porteurs, mais dans leur écho aux systèmes d'attente des citoyens, lesquels sont sensibles aux valeurs, mais aussi au charisme des personnalités politiques et à l'émotion situationnelle. Ce n'est pas l'énonciation qui est au service des mots et des idées comme s'ils la précédaient; ce sont les mots et les idées qui prennent corps et sens à travers leur mise en énonciation. Et donc, pour pouvoir juger du populisme d'un discours, il faut l'analyser dans le contexte socio-historique où il apparaît et dans la situation de communication qui engendre un certain processus énonciatif. Il s'ensuit qu'il ne faut pas perdre de vue ce que sont les conditions de mise en scène du discours politique, afin d'éviter d'attribuer ce qui relève de celui -ci en général au discours populiste en particulier. L'espace de circulation de la parole politique, on le sait, met en présence une instance politique et une instance citoyenne, qui entrent en relation par le biais d'une instance de médiation. L'instance politique, en position de conquête ou d'exercice du pouvoir, est toute tendue vers un « agir sur l'autre » à des fins d'adhésion de cet autre à ses promesses ou à son action. C'est en raison de cette obligation que le sujet politique est conduit à jouer de stratégies discursives diverses : construction d'images de lui -même, de façon à se rendre, d'une part, crédible aux yeux de l'instance citoyenne (ethos de crédibilité), d'autre part attractif (ethos d'identification) (Charaudeau, 2005); présentation des valeurs, de sorte que le citoyen adhère à celles -ci avec enthousiasme. Il en résulte que le discours politique est un lieu de vérité piégée, de « faire semblant », où ce qui compte n'est pas tant la vérité de cette parole lancée publiquement, que sa force de persuasion, sa véracité. Il est soumis à des conditions qui exigent que les valeurs soient présentées selon un scénario dramatisant susceptible de toucher l'affect du public, soit pour le faire adhérer au projet que l'on défend, soit pour le dissuader de suivre un projet adverse. Scénario triadique qui se compose de trois moments discursifs : 1) prouver que la société se trouve dans une situation sociale jugée désastreuse, et que le citoyen en est la première victime; 2) déterminer la source du mal et son responsable – l'adversaire; 3) annoncer enfin quelle solution peut être trouvée, et qui peut en être le porteur. Si le populisme est une « attitude politique consistant à se réclamer du peuple, de ses aspirations profondes, de sa défense contre les divers torts qui lui sont faits », comme le propose le dictionnaire Larousse, on ne voit guère de différence avec ce qui définit le discours politique en général. Il participe des stratégies persuasives de tout discours politique, qui consistent à capter son public au nom de valeurs symboliques en touchant raison et passion. Dans ces conditions, le discours populiste peut être envisagé comme un simple avatar du contrat politique, comme une stratégie de manipulation, dans la mesure où il manie les mêmes catégories que celui -ci. Mais il les manie dans l'excès, un excès qui joue sur l'émotion au détriment de la raison politique et porte la dramatisation du scénario à son extrême : exacerbation de la crise, dénonciation de coupables, exaltation de valeurs et apparition d'un Sauveur. Le populiste a besoin que les classes populaires soient disponibles, c'est-à-dire dans un état de forte insatisfaction. Pour ce faire, il tente d'exploiter leur ressentiment. Comment s'y prend -t-il ? – Parle -t-il de la situation économique en insistant sur les charges sociales qui accablent les entreprises, sur la précarité dans laquelle vivent les travailleurs, sur la disparité entre riches et pauvres ou l'appauvrissement général de la nation ? – Parle -t-il de la décadence morale de celle -ci, de la perte des repères identitaires (particulièrement dans le cas de l'identité nationale), de la régression du civisme et donc du relâchement du lien social ? – Dépeint-il les citoyens en victimes effectives ou potentielles ? Insiste -t-il sur les déclassés, les sans-grades, les « petits » qui souffrent de l'insécurité en raison du manque de protection policière et du manque d'autorité de la justice ? Bref, comment le populiste s'y prend -t-il pour créer de l'angoisse dans la communauté sociale ? La source du mal est souvent désignée de façon floue : le coupable ne doit pas être parfaitement identifié, de manière à laisser planer l'impression qu'il n'est pas visible et conduit ses affaires en sous-main, ce qui permet de suggérer l'existence de complots. Le discours populiste doit faire croire à la population que tout serait simple, si ne s'opposaient à ses aspirations des « machines », un « système » abstrait qui bloquent la société. Comment ces derniers sont-ils décrits ? – S'agit-il des diverses formes de représentation politique et médiatique : l' « establishment », la « classe politique », les « élites froides et calculatrices », isolées dans leur « tour d'ivoire », parfois corrompues, toujours manquant de courage ? – Est -ce l' État qui aurait perdu toute autorité ? D'une manière générale, sont -ce les institutions politiques, la bureaucratie, les technocrates qui confisquent le pouvoir par leur action administrative, comme le déclare en France Jean-Marie Le Pen : L'établissement, qu'il s'agit de renverser par une révolution de salut public, désigne la classe dirigeante qui impose aujourd'hui son pouvoir. Les droits de l'homme sont des tables de la Loi. Il a ses évangiles selon Saint Freud et saint Marx. Il a son clergé, son architecte et ses maçons. Son lieu de culte, le Panthéon républicain, ses rites, il prêche la morale. La source du mal peut aussi être représentée par des personnes ou des groupes qui apparaissent comme des adversaires à combattre, en tant qu'ils appartiennent à un parti, une idéologie : les marxistes, les socialistes, les capitalistes, les fascistes et autres groupes partisans jugés porteurs d'une idéologie contraire à la sienne propre. Comment sont-ils décrits ? – Comme des lobbies (le lobby « antiraciste » ou celui « des droits de l'homme »), des mafias (« ce parti mafieux, qui pratique l'exclusion »), des groupes d'intérêts (« ceux du capitalisme anonyme, ceux des transferts financiers massifs de la spéculation, ceux des grandes multinationales… »), ou des oligarchies (« une oligarchie internationale et cosmopolite… ») ? C'est là un « ennemi intérieur ». Pour Hugo Chávez, comme pour beaucoup de leaders populistes, l'ennemi intérieur est « l'oligarchie ». – Mais il existe aussi un ennemi extérieur, souvent présenté comme une entité abstraite afin de provoquer la peur face à une menace réelle ou potentielle, dans une présence-absence de force occulte. En France, depuis quelques décennies, c'est l'immigration qui en tient lieu : « [Les immigrés] vont nous ruiner, nous envahir, nous submerger, coucher avec nos femmes et nos fils »; « La présence massive d'immigrés dans de nombreuses cités HLM conduit à une grande détérioration des conditions de vie des Français ». Il est rare que le discours populiste ne joue pas sur la xénophobie, suggérant menace et conflit des civilisations, et l'on se demandera quel est le groupe étranger voué à ce rôle de bouc émissaire. Elvira Arnoux, dans son analyse du discours de Hugo Chávez, montre par exemple comment celui -ci satanise la figure de l'empire des États-Unis, transformant l'ennemi extérieur en ennemi intérieur : El Diablo está en casa, pues. El Diablo, el propio Diablo está en casa. Ayer vino el Diablo aquí, ayer estuvo el Diablo aquí, en este mismo lugar. [… ]. El señor presidente de los Estados Unidos, a quien yo llamo « el diablo », vino aquí hablando como dueño del mundo. Que cet ennemi soit interne ou externe, le discours populiste le décrit de façon imprécise, comme une bête cachée, tapie dans l'ombre : le thème du complot est présent dans presque tous les discours populistes. C'est qu'il s'agit, en fin de compte, de trouver un bouc émissaire en stigmatisant la source du mal, en dénonçant un coupable pour orienter contre lui la violence, déclencher le désir de sa destruction qui aboutira à la réparation du mal. Est -ce l'immigré, l'étranger, le Juif, l'Arabe ou les élites, l' État, l'Administration, ce vrai coupable que l'on offre en lieu et place du peuple innocent ? Le discours populiste, à l'exemple du discours politique en général, se doit de proposer un projet d' « idéalité sociale » dans lequel sont mises en exergue des valeurs censées représenter ce qui unit fondamentalement les membres d'une communauté sociale. Mais sa spécificité consiste en ce que ces valeurs ­puisent dans l'histoire et les traditions du pays pour en dégager ce qui s'y trouve de plus authentique, de plus vrai, de plus pur, afin de reconstruire une identité perdue. Il se met ainsi sur le terrain du symbolique, de ce qui fait la noblesse du politique, idéalité sociale devant réparer le mal existant. Il s'agit donc de voir comment ce discours tire parti des caractéristiques historiques, identitaires et culturelles propres à chaque pays : – Est -ce en invoquant l'identité nationale ? La thématique de la nation est souvent exploitée pour mettre en évidence le fondement de l'identité collective, voire le mythe de la nation organique et l'indépendance économique comme droit à disposer de ses propres ressources, contre l'exploiteur privé ou étranger. – Parfois, l'identité nationale est confondue avec une identité communautaire : on déclare que celle -ci est originaire, et qu'il faut se la réapproprier pour sortir du ressentiment (Angenot, 2006) dans lequel les ennemis intérieurs et extérieurs ont plongé le peuple. C'est à cette occasion qu'apparaît l'idéologie discriminatoire du populiste, comme le montre cette déclaration de Jean-Marie Le Pen : « Oui, nous sommes en faveur de la préférence nationale car nous sommes pour la vie contre la mort, pour la liberté contre l'esclavage, pour l'existence contre la disparition. » – Mais ce qui peut apparaître aussi, c'est une idéologie naturaliste, au sens où elle fonde le culturel sur la nature : « Nous sommes des créatures vivantes. […] Nous faisons partie de la nature, nous obéissons à ses lois. Les grandes lois des espèces gouvernent aussi les hommes malgré leur intelligence et parfois leur vanité. Si nous violons ces lois naturelles, la nature ne tardera pas à prendre sa revanche sur nous. Nous avons besoin de sécurité. Et pour cela nous avons besoin comme les animaux d'un territoire qui nous l'assure. » – Dans d'autres contextes, c'est au contraire à une vaste communauté historique qu'il est fait appel. Hugo Chávez exalte par exemple en ces termes une identité et une communauté sud-américaines : Requerimos un proyecto nacional suramericano, no nacional, no nacional venezolano, no nacional argentino, no nacional brasileño, no nacional boliviano o uruguayo o ecuatoriano, sino nacional suramaricano. C'est pourquoi il est souvent fait appel à des valeurs de filiation et d'hérédité : « Nous croyons que la France occupe une place singulière en Europe et dans le Monde, car notre peuple résulte de la fusion unique en soi des vertus romaines, germaniques et celtes »; ou bien encore : « Il s'agit là de notre terre, de nos paysages, certes, tels qu'ils ont été donnés par le Créateur mais tels qu'ils ont été défendus, conservés et embellis par ceux qui ont peuplé ce territoire depuis des millénaires et dont nous sommes les fils ». Des analystes du discours latino-américain ont également repéré diverses filiations à travers les références auxquelles il est fait recours : référence à la tradition bolivarienne et à l' « árbol de las tres raíces » chez Hugo Chávez (Medina, 2010), référence aux mouvements de libération chez Evo Morales citant le « Che » (Delfour, 2009). Et comme le populiste prétend rendre au peuple son pouvoir de décision, son discours promet une rédemption par la libération du joug qu'imposent les élites et les appareils administrativo-politiques. Il appelle donc au rétablissement de la souveraineté populaire par une action directe, immédiate, court-­circuitant les institutions, illusion d'une promesse à laquelle font écho les mots d'ordre revendicatifs tels que : maintenant, ahora. Nier la dimension ­temporelle est une caractéristique du discours révolutionnaire mais aussi du discours populiste : c'est faire croire que « tout est possible tout de suite », que le miracle du changement est réalisable, et c'est une façon de mobiliser l'espoir. Il faut également relever les mesures que propose le populiste pour mettre fin à la crise. Généralement, ces mesures sont vagues, car il s'agit moins d'élaborer une solution pragmatique que de mettre en avant des actions qui renvoient, elles -mêmes, aux valeurs défendues par ailleurs. Par exemple, en France, on évoque souvent des mesures de coercition policière plus ou moins musclée pour régler les problèmes d'insécurité (reconduites à la frontière des immigrés clandestins, moyens accrus pour la police, lois augmentant les peines de justice, maisons fermées pour les jeunes, etc.). Afin de régler les problèmes économiques, on propose des baisses d'impôts pour les particuliers, des allègements de charges sociales pour les entreprises, des revalorisations de salaires pour les travailleurs, sans que ces mesures fassent l'objet d'un calcul budgétaire. Il s'agit donc d'analyser ces propositions en se demandant à quelle idéologie ou doctrine elles renvoient. Tout homme ou femme politique doit se présenter comme différent des autres ou de ses prédécesseurs, doit faire montre d'énergie, de force de conviction et de sincérité. Mais il doit aussi être capable de séduire les foules, et cela ne peut se faire, malgré tous les conseillers en marketing politique, qu'en laissant s'exprimer ce qui se trouve au fond de sa personnalité, ce quelque chose d'irrationnel qu'on appelle charisme. En quoi l'acteur populiste se différencie -t-il de l'acteur politique non populiste ? Quelles sont les spécificités de son discours, dans la façon de construire son image, de défendre certaines valeurs et d'interpeller le peuple ? Voici quelques-unes des stratégies observables : – Le représentant du peuple. Le leader populiste se déclare « le vrai peuple » et appelle ses concitoyens à se manifester dans un élan collectif, à se dépasser pour se fondre dans une âme collective, à reporter leur désir de salut sur un personnage hors du commun. Il y faut de la fascination et de la transcendance, car le lien entre le chef et le peuple doit être d'ordre sentimental plus qu'idéologique. Cette façon de se poser comme le représentant direct du peuple manifeste quelque chose comme le désir d'obtenir une légitimité plébiscitaire, résultat d'un face à face direct entre le leader et les masses. Il convient donc de chercher dans les discours des populistes comment ils jouent de cette proximité et de cette représentation. Témoin ce propos de Hugo Chavez, emblématique de l'appropriation du peuple dans la figure du leader : « Porque Chávez no es Chávez. Chávez es el pueblo venezolano. Vuelvo a recordar al gran Gaitán cuando dijo […] : “Yo no soy yo, yo soy un pueblo ”. » (Arnoux, 2008, p. 46). – Un ethos d'authenticité. Le populiste dit (ou laisse entendre) : « Je suis tel que vous me voyez », « Je fais ce que je dis », « Je n'ai rien à cacher ». Il s'agit d'établir un rapport de confiance aveugle. Silvio Berlusconi en 1994 et Nicolas Sarkozy en 2007 lançaient à qui voulait l'entendre « Faites -moi confiance ! » pour le premier, « Tout est possible ! », pour le second, les deux ajoutant « Ma réussite le prouve ». On pourrait se demander comment Juan Perón et Carlos Menem en Argentine, Fernando Collor au Brésil, Alberto Fujimori au Pérou et Hugo Chavez au Venezuela ont construit cet ethos d'authenticité. – Un ethos de puissance. Le populiste dit : « Rien ne peut s'opposer à ma volonté ». Il doit montrer non seulement son énergie, mais encore une force et une puissance capables de renverser le monde et d'entraîner les foules. C'est à cette fin (mais c'est aussi affaire de tempérament) que son comportement oratoire se caractérise par des « coups de gueule », des formules chocs, le maniement de l'ironie ou les dérapages verbaux. Toutes choses dont est coutumier le populiste français Jean-Marie Le Pen : dérapage négationniste à propos des chambres à gaz, « point de détail de l'histoire de la deuxième guerre mondiale »; jeux de mots insultants et provocateurs tels que le fameux « Durafour crématoire » lancé pendant l'université d'été du Front national en 1988. Ici aussi, il convient d'étudier la façon dont des leaders comme Chavez ­construisent cet ethos de puissance qui n'a d'autre but que de fasciner l'auditoire. Cependant, le populiste doit montrer que cette volonté de puissance n'est pas au service d'une ambition personnelle mais au service de l'intérêt général, du bien du peuple. Aussi se pose -t-il comme le garant de l'identité recouvrée : soit sauveur de l'identité nationale (il se fait souverainiste), soit défenseur de l'identité des classes populaires (il se fait paternaliste). Et comme il entretient l'idée que des forces adverses s'opposent à la construction de son projet populaire, il se pose en vengeur appelant à la haine de ces ennemis dont on a parlé plus haut (il faut par exemple « faire payer les riches »). Il déclare donc sa volonté de rompre avec les pratiques politiques du passé : celles d'une classe politique jugée laxiste, parfois corrompue, en tout cas distante du peuple, voire indifférente et incapable de l'écouter. Le populiste, lui, se veut à l'écoute du peuple et se déclare proche de lui. L ' ethos dépend de la manière dont chaque culture se représente ce que sont l'authenticité, la sincérité, la puissance. Les conceptions que certains Français se font de l'authenticité ou de la puissance pourraient paraître ridicules à des Latino-Américains, et inversement. Pour séduire une partie du peuple, emporter son enthousiasme et faire en sorte qu'il s'identifie au leader, ces images ­doivent faire écho aux systèmes d'attente prégnants dans une société. Il convient donc de les analyser en fonction des imaginaires sociaux. C'est en tout cas une condition de l'analyse comparative et du repérage de ce qu'il existe de différent ou de ressemblant entre les diverses façons de déployer le discours populiste. En tout état de cause, il est une constante de ce discours, au-delà des différences : le vrai populiste doit apparaître sous une figure de chef charismatique. Tantôt, et selon les références culturelles, il se présente comme conducteur ou berger, en tout cas comme guide du peuple; tantôt, de façon plus guerrière, comme un chevalier blanc sans peur et sans reproche prêt à pourfendre les forces du mal. Dans ces différents cas on retrouve, sous-jacente, la figure du prophète, porteur d'un message, medium entre une voix de l'au-delà et le peuple. C'est inspiré par cette voix qu'il annonce des menaces, des catastrophes potentielles ou l'avènement d'un bien-être futur. C'est pourquoi on peut dire que le populiste, même quand il ne se rattache pas à une pensée religieuse, se présente comme une sorte de Sauveur biblique, capable aussi bien de répandre ses foudres sur les méchants que de conduire vers le bonheur suprême (un paradis, un Âge d'or, des « lendemains qui chantent »). Son discours se structure selon l'ordre narratif d'un récit en trois temps : stigmatisation d'un mal, puis processus de purification, et enfin transformation radicale, immédiate – miraculeuse – de la société. Il n'est donc pas étonnant que dans certains pays, le populisme aille de pair avec le succès des sectes pentecôtistes et évangéliques. Cette similitude entre l'homme providentiel et le prophète, Hugo Chávez l'a bien comprise; il convertit en prophète Simon Bolivar, héros de la libération des Amériques du Sud, et s'en fait le représentant : Simón Bolívar, el Libertador de Suramérica y líder inspirador de la revolución [… ], un día soñó, en su delirio por la justicia, haber subido a la cumbre del Chimborazo. Y allá, sobre las nieves perpetuas del espinazo de los Andes, recibió un mandato del señor tiempo, anciano sabio y de larga barba : « Anda y di la verdad a los hombres ». Hoy he venido aquí, como portaestandarte de aquel sueño bolivariano, para clamar junto a ustedes : « ¡ Digamos la verdad a los hombres ! » Voilà une version païenne de la Bible. À considérer le populisme du point de vue du discours qu'il met en scène dans l'espace public, on voit qu'il remplit une triple fonction d'illégitimation des adversaires, de relégitimation du peuple et de légitimation de l'acteur politique qui en est le porteur. On voit aussi qu'il utilise, mais dans la dérive, des stratégies discursives qui sont celles de tout discours politique. C'est pourquoi, selon l'hypothèse énoncée en introduction, on dira que le populisme n'est pas étranger à la démocratie : c'est le principe même du débat public visant à constituer une représentation majoritaire qui ouvre le champ au discours populiste comme moyen de séduction des masses. Il n'est donc pas un régime politique mais une stratégie de conquête ou d'exercice du pouvoir sur fond de démocratie, stratégie qui joue sur un mécanisme de fascination comme « fusion du soi avec un tout exaltant qui cristallise un idéal » (Dorna, 2006, p. 5). C'est pourquoi on ne souscrira pas à ce mot de Jacques Julliard : « Le populisme, c'est le peuple sans la démocratie » (1997, p. 232). Le populisme s'inscrit dans la parole démocratique, même s'il n'en est pas l'honneur. En cela, d'ailleurs, il se distingue du fascisme auquel il a parfois été assimilé, bien que l'on constate que celui -ci recourt à du discours populiste. Le fascisme est un concept de société, un projet d'humanité, qui s'accompagne de la théorisation d'un nationalisme à la fois populaire, socialiste (on pense au « national-socialisme »), autoritaire et purificateur. D'où son ambiguïté, car si, en Europe, il a croisé des mouvements ou des opinions d'extrême droite (boulangisme, antidreyfusisme, poujadisme, lepénisme en France; ethnonationalisme en Italie et en Allemagne), il est plutôt prolétarien en Amérique latine, se réclamant d'une idéologie de gauche, même lorsqu'il s'appuie sur l'armée. Voilà encore une comparaison intéressante à étudier. On terminera en lançant quelques pistes de réflexion sur la place que prend le populisme dans nos sociétés modernes (ou postmodernes selon certains), à l'heure de la mondialisation. La référence sera ici européenne : cela devrait permettre de procéder à des comparaisons avec le monde latino-américain, car l'histoire des peuples européens et latino-américains n'est pas la même, la composition de leurs sociétés est fort différente et leurs visions du monde sont distinctes. On entend de plus en plus, en Europe et particulièrement en France, un discours, tenu par la droite classique, qui prône la fin des oppositions partisanes et déclare que les clivages politiques sont dépassés. C'est le discours du « ni droite, ni gauche », au nom d'un nécessaire pragmatisme en politique : « Je ne suis pas un idéologue, je suis un pragmatiste ». Le pragmatisme serait la seule attitude possible pour résoudre les crises du monde moderne. Mais comme il faut ­entretenir des antagonismes dans une société afin de donner l'impression de jouer le jeu de la parole démocratique, s'opère parallèlement un glissement vers un autre antagonisme susceptible de rassembler les masses populaires autour de notions vagues ou de catégories abstraites : non plus le socialisme contre le conservatisme, mais la solidarité sociale contre le profit privatisé, le libéralisme politique contre l'ultralibéralisme économique, le mondialisme contre le communautarisme (quand ce n'est pas le communautarisme contre le mondialisme). Le point commun à ces oppositions est un discours « anti-système ». Cela s'accompagne parfois de pratiques dites d'ouverture politique, qui consistent, lorsqu'il ne s'agit pas de gouvernements de coalition ou de cohabitation, à faire appel à des personnalités de partis opposés pour leur confier des responsabilités au plus haut niveau. Cette attitude relève d'un populisme soft, mais on pourrait aussi la qualifier de populisme cynique, car il est évident que ce qui caractérise la démocratie, c'est l'existence de projets de société opposés, et que si de tels projets disparaissent, on entre dans une nouvelle ère de totalitarisme. La fin du rêve d'une société égalitaire, marquée par la chute du mur de Berlin combinée à l'explosion de mouvements de migration du Sud vers le Nord et de l'Est vers l'Ouest, a provoqué dans la plupart des pays européens occidentaux une crise identitaire – du moins, un imaginaire social de désidentification de la conscience nationale, d'interrogation sur la spécificité culturelle (« Qu'est -ce qu' être Français ? ») et de mise en danger de la filiation par l'ouverture des frontières, laquelle entraînerait immigration massive, mixité sociale, rupture de la transmission culturelle et linguistique. Ce processus crée un imaginaire flou, entretenu par les médias et dans lequel puisent des hommes politiques de bords différents pour en tirer des scénarios catastrophistes. Face à ce désarroi identitaire apparaît un discours prônant discipline et autorité. On commence par mettre en avant l'insécurité des individus, puis on promet, complémentairement, la fin du laxisme politique et la mise en œuvre d'une politique de sécurité dans tous les secteurs de la société. Dans les dernières campagnes électorales de la plupart des pays européens, les thèmes de la sécurité et de l'autorité ont dominé ceux de la surveillance démocratique et de l'injustice. Ce fut en tout cas l'une des raisons du succès de Nicolas Sarkozy, lors de la présidentielle de 2007 en France. Face à une Ségolène Royal qui, tout en se voulant ferme sur le chapitre de la discipline, renvoyait la solution des problèmes à une participation démocratique, le candidat de la droite se parait d'une image de contempteur du laxisme et de chevalier blanc, prêt à pourfendre les voyous et autres fauteurs de trouble pour défendre l'ordre et l'autorité (Charaudeau, 2005, p. 86-88). Ce thème est peut-être plus caractéristique du populisme des pays riches, car il faut qu'existe un système économique de protection de la population (sécurité sociale) et de prise en charge des exclus du monde du travail (indemnisation des chômeurs, assistance aux handicapés). Un certain discours populiste s'emploie alors à monter le peuple travailleur contre le peuple assisté, stratégie parfaitement représentée par l'un des slogans de Nicolas Sarkozy : « Travailler plus pour gagner plus ». C'est un moyen de créer le ressentiment d'une partie de la population contre l'autre, et de conforter, d'une part, ceux qui se trouvent du côté du pouvoir (le grand patronat), ainsi qu'une partie importante de la classe moyenne (petits patrons, commerçants, artisans), et d'autre part, paradoxalement, une partie de la classe populaire provenant du monde ouvrier (laquelle a toujours valorisé le travail), ainsi que les immigrés qui cherchent du travail à quelque condition que ce soit. Ce populisme -là trouble les habituels clivages partisans, car sociologiquement, il se produit un mouvement d'adhésion (fût-il ponctuel) à ces promesses de la part de secteurs de la population favorables à des partis politiques opposés. Il entretient un fort antagonisme entre les partisans du « travail à tout prix » et les partisans du « travail juste », ôtant à la gauche l'exclusivité du parti des travailleurs. Au-delà des différences propres à chaque contexte culturel, la constante du discours populiste est bien cette illusion de rendre au peuple sa souveraineté perdue et, conséquemment, son identité nationale, illusion dont la version la plus cynique est illustrée par cette déclaration de Mussolini : « La démocratie, c'est le gouvernement qui cherche à donner au peuple l'illusion d' être souverain » (cité par Taguieff, 2002, p. 19). Or on remarque, depuis un certain temps, une tendance des partis classiques de droite comme de gauche à développer de plus en plus une stratégie discursive de proximité en se déclarant à l'écoute du peuple, en appelant à davantage de participation citoyenne, et cela sur fond de discrédit de la classe politique et des élites jugées distantes et indifférentes aux souffrances du peuple – image entretenue d'ailleurs par les médias et divers commentateurs. On pourrait parler ici d'un populisme de circonstance, qui se met à l'écoute de la demande sociale. On se trouve ainsi face à une contradiction : un discours de proximité et d'illusion souverainiste serait signe de populisme, mais ces tentatives pourraient être aussi bien la marque d'une prise de conscience de la montée de nouvelles formes de contre-pouvoir, qui se construisent en dehors du jeu classique des partis et syndicats. Il serait alors légitime de prôner un rapprochement entre les citoyens et les organes de décision par de nouvelles formes de participation citoyenne, contre une sorte d'aristocratie élective critiquée depuis la démocratie athénienne. Dès lors, quelle éthique dans ce discours ? D'un tel point de vue, le discours populiste serait-il acceptable ? C'est une vaste question qui ne sera pas tranchée ici. On soulignera seulement que, si on ne peut accepter l'exaltation de certaines valeurs qui, loin de grandir le peuple, le renvoient à ses propres réactions de peur et de xénophobie, on ne peut se cacher non plus que la dure loi de la raison majoritaire sur laquelle se fonde la démocratie entraîne certains responsables politiques à jouer sur des effets populistes, sans que leur politique soit à proprement parler de cette nature. Reste à voir comment un tel discours varie selon les contextes sociopolitiques, et quelle place il occupe dans chaque espace public .
Cet article envisage le populisme du point de vue du discours, car c'est à travers celui-ci que se construisent les opinions publiques. Après avoir observé l'emploi du terme populiste dans l'usage courant et chez les acteurs politiques, on établit un bref état des différentes explications qui circulent à propos du populisme pour en percevoir les points communs et les différences. C'est alors qu'est proposé, en matière d'outil d'analyse, un questionnement permettant de mettre en lumière les caractéristiques de ce type de discours: sur fond de crise sociale, comment est décrite la source du mal, comment sont exaltées les valeurs défendues par le politique, quelles images le populiste construit de lui-même. Ce questionnement permet d'aboutir à une réflexion sur le rapport entre populisme et démocratie.
linguistique_12-0301504_tei_818.xml
termith-550-linguistique
Le discours journalistique est souvent considéré comme un cas limite du discours de spécialité. En effet, quand on pense au grand reportage, ce sont des noms comme Joseph Kessel ou Albert Londres qui viennent à l'esprit, des noms qu'on associe plutôt à une grande tradition littéraire. On sait également que Balzac et Zola ont frayé avec le journalisme. Mais depuis la seconde moitié du XX e siècle, le journalisme tourne le dos à cet héritage pour aller voir du côté de la vulgarisation : il emprunte donc largement aux discours spécialisés sans pour autant verser dans leur jargon. De plus, ce n'est pas l'écriture journalistique à proprement parler, mais bien plus le genre de discours et ses spécificités qui sont le centre d'intérêt de cette étude. La terminologie de Maingueneau (2007) a été choisie pour parler de la presse écrite comme type de discours et de l'article (ou news en anglais) comme genre de discours. Le genre de discours met en œuvre des dispositifs et des fonctions qui, comme il en sera question plus tard, varient d'une communauté culturelle et linguistique à une autre. Ces variations sont particulièrement notables dans le domaine de la polyphonie : citations au discours direct ou indirect, rapport de certitude à des discours tiers, mémoire collective, implicites culturels, etc. (Maingueneau 2007 : 110-121). Sophie Moirand généralise ce constat dans des termes très imagés : Le texte journalistique devient alors une mosaïque de voix, constituée d'une pluralité de fils intertextuels, et le fil horizontal du discours apparaît, dans sa matérialité même, fracturé par des marques de cette hétérogénéité [… ]. (2007 : 85) C'est dans cette perspective que l'approche comparativiste – ici entre l'anglais et le français – paraît toute désignée pour mettre en relief des phénomènes qui passeraient inaperçus au sein d'une seule langue. On tentera donc de répondre à la question suivante : la polyphonie du discours journalistique se traduit-elle différemment dans la presse quotidienne francophone et anglophone ? Pour ce faire, il sera nécessaire de présenter la méthode (l'analyse de contenu et l'analyse de discours) et le corpus de ce travail (constitué à la fois d'une sélection d'articles de presse et des discours officiels d'où les journalistes tirent la majeure partie de leurs informations) avant d'aborder les deux axes d'analyse : la polyphonie et les pratiques journalistiques. Dans la partie portant sur la polyphonie sont d'abord examinés les rapports qu'entretiennent les articles avec leurs sources principales (appelés « discours-source » dans le corpus), puis les traces d'une mémoire collective occidentale en lien avec le terrorisme islamiste et enfin les grandes lignes du cadre d'interprétation qui domine les différents articles du corpus. La seconde partie explore au contraire les différences de représentation qui peuvent apparaître dans les articles du corpus en raison premièrement des particularités sociales, historiques ou politiques de chaque nation; deuxièmement des formations et des pratiques journalistiques divergeant d'un pays à l'autre; troisièmement des interprétations nationales de l'événement terroriste. Une réflexion sur l'exploitation possible des résultats obtenus est amorcée en guise de conclusion. Travaillant dans le domaine des médias, il semble impossible de se cantonner à des outils traditionnellement utilisés en analyse littéraire ou en critique de la traduction. C'est pourquoi des instruments adaptés au discours médiatique ont été empruntés aux sciences de la communication : l'analyse de contenu et l'analyse de discours. L'analyse de contenu, méthode exclusivement quantitative, permet de concrétiser ou de vérifier les intuitions du chercheur. Bardin (1977) et de Bonville (2000) proposent de procéder à une « lecture flottante » – phase préparatrice pendant laquelle on repère les grandes tendances du corpus. Le chercheur établit ensuite des catégories d'analyse (grammaticales, thématiques et sémantiques) dont il comptabilise les occurrences. À titre d'exemple, on a calculé la fréquence d'apparition du substantif « terroriste » ou des formes verbales au conditionnel selon le pays, le type de journal, la date, etc. La liste complète des catégories et des sous-catégories est disponible en annexe 1. Le choix des catégories dépend non seulement du chercheur, mais surtout de sa problématique de travail. Ainsi, deux chercheurs peuvent aborder un même corpus sous des angles complètement différents. En revanche, la subjectivité des catégories est limitée par son applicabilité : En l'occurrence, pour être objectif, le procédé analytique doit être conçu de telle manière que des chercheurs qui répéteraient l'analyse dans les mêmes conditions parviendraient à des résultats semblables. (de Bonville 2000 : 11) L'analyse de contenu est un travail quasi statistique, qui a porté dans la présente étude sur un nombre de textes plus élevé que l'analyse de discours (environ une centaine) pour assurer une certaine vérifiabilité des résultats. Selon de Bonville, cette méthode se distingue de l'analyse de discours pour la raison suivante : L'analyse de contenu exploite des systèmes catégoriels spécifiques parce qu'elle aborde le texte à un niveau de généralité auquel les concepts linguistiques ne sont pas opérants; [. .. ]. (de Bonville 2000 : 31) Enfin, les résultats de l'analyse de contenu ont surtout servi de base pour développer les hypothèses qui sous-tendent l'analyse de discours. Cette analyse de discours est d'ailleurs un peu particulière, puisqu'elle a été réalisée en parallèle sur des textes en deux langues différentes. Les textes n'ont pas été pris un par un, « en soi », mais dans leur globalité et leurs ressemblances, car il ne s'agit pas de dégager la structure de chaque article, mais de voir quels fils intertextuels se tissent entre eux. Dans ce but, les réflexions de Maingueneau (2007) sur la polyphonie, le concept de paradigme désignationnel (Moirand 2007) et l'analyse de la mise en mots du terrorisme par Koren (1996) entre autres sont mis à contribution pour cerner les particularités du corpus. Pour clore cette présentation des outils, il est certes important de préciser que les indices trouvés grâce à ces deux méthodes d'analyse livrent des informations sur les conditions de production (par les journalistes) et de réception (par les lecteurs) des différents articles du corpus, mais que ce travail se limite à une analyse du message (excluant par conséquent toute étude consacrée à la production ou à la réception). Il serait donc illusoire, voire épistémologiquement incorrect, de prétendre tirer de ces observations des conclusions fiables sur les auteurs ou sur les destinataires. Les deux instruments d'analyse présentés en partie 1.1. ont été appliqués à un corpus non traditionnel, c'est-à-dire composé de « two or more monolingual corpora built up on the basis of similar design criteria » (Kenny 2001 : 52). Contrairement aux pratiques communes en traductologie, il ne s'agit pas d'un corpus « parallèle », c'est-à-dire constitué de textes-source et de leurs traductions (Kenny 2001). L'auteur de cette typologie émet d'ailleurs de forts doutes quant à l'utilité des corpus comparables bilingues (ou multilingues) : […] based on the erroneous assumption that there is a natural way of saying anything in any language and that all we need to do is to find out how to say something naturally in La and Lb. (Kenny 2001 : 52) C'est pourtant l'approche qu'ont retenue les chercheurs du CEDISCOR, qui procèdent à une analyse de discours en plusieurs langues sur un genre tel que l'interview. Néanmoins, comment mieux étudier la mise en pratique de genres textuels que par l'observation comparative de textes rédigés par des auteurs connaissant intimement les règles implicites ou explicites de ce genre dans leur langue et leur culture ? Le corpus de l'étude est unifié par des critères thématiques, linguistiques, médiatiques et temporels. Il englobe des articles qui couvrent un événement médiatique bien précis : le présumé complot terroriste d'août 2006 qui avait probablement pour cible des avions de ligne assurant la liaison entre Londres et les États-Unis. Cet événement a pour caractéristique principale le fait assez surprenant qu'il n'a pas eu lieu puisque les présumés terroristes ont été arrêtés avant même de monter à bord des avions visés. De plus, la législation britannique protégeant les personnes inculpées (Contempt of Court, cf.partie 3.2.), les journalistes n'ont pas eu accès aux dossiers des suspects. Leurs sources d'information se résument donc presque exclusivement à des déclarations officielles. La sélection des quotidiens impliquait d'inclure aussi bien des journaux de référence que des journaux populaires. La recherche porte sur plusieurs pays anglophones et francophones, c'est pourquoi les titres suivants ont été retenus : l ' International Herald Tribune pour les États-Unis; The Guardian et The Sun pour le Royaume-Uni, Le Monde en France; et en Suisse romande, le quotidien populaire Le Matin, dont on ne trouve plus d'équivalent français en termes de diffusion. Certes, d'autres titres étaient inclus dans l'analyse de contenu (cf. annexe 2), parmi eux : Libération, Le Figaro, Le Temps, La Tribune de Genève. Toutefois, pour rendre le corpus utilisable pour une analyse de discours, il a fallu le circonscrire à des limites temporelles précises. Seuls ont été pris en compte les articles parus entre l'annonce de la nouvelle (le 10 août 2006 pour les premiers) et le 15 août, soit un total de 46 articles (cf. annexe 4). En effet, les occurrences dans la presse deviennent plus sporadiques après la date-butoir du 15 août (cf. annexe 2). Les conférences de presse et autres discours évoqués précédemment ont été insérés dans le corpus pour des raisons simples : c'est presque exclusivement dans ces discours, abondamment relayés par les agences de presse, que les journalistes ont recueilli les informations nécessaires à la rédaction de leurs articles. Tous ces discours ont été prononcés le 10 août 2006 par les personnalités suivantes : Michael Chertoff (Secrétaire d' État à la sécurité intérieure des États-Unis), Alberto Gonzales (Attorney General des États-Unis), John Reid (Secrétaire d' État à l'Intérieur du Royaume-Uni), Robert Mueller (directeur du FBI), Paul Stephenson (Commissaire adjoint de la Police métropolitaine de Londres, New Scotland Yard) et Peter Clarke (assistant du Commissaire adjoint, chef de l'unité antiterroriste). Ils servent d'une part de textes témoin par rapport au contenu des articles du corpus et d'autre part de point de repère pour suivre le cheminement de l'information. Il n'est pas inutile de se demander comment chaque journal (ou journaliste) a repris cette information et l'a représentée. Cet événement crée une situation toute particulière puisqu'une des variables habituelles – les sources – devient dans le contexte du corpus une donnée fixe. Les outils présentés ci-avant ont tout d'abord permis d'entrer de plain-pied dans la problématique de la polyphonie avec un regard porté particulièrement sur les similitudes de traitement de l'information dans les articles du corpus. Dans un premier temps, on peut se demander dans quelle mesure la spécificité des sources réduit la distance interculturelle qui aurait pu séparer ces textes. Ensuite se pose la question d'un imaginaire occidental qui pourrait être partagé par les journaux de notre corpus, puis du cadrage induit par ces valeurs partagées. En premier lieu, l'uniformité des sources crée une importante proximité en matière de références. Il est donc très peu étonnant que les catégories d'acteurs citées le plus souvent soient les hommes politiques (qu'ils soient britanniques ou américains) et les professionnels des services de renseignement. Les hommes politiques jouissent en général d'une forte autorité institutionnelle : désignés par le peuple pour assumer une mission démocratique, leur parole officielle est difficile à mettre en doute. On connaît certes un certain nombre d'affaires où la classe politique a menti au peuple; néanmoins, les déclarations officielles restent une source à laquelle on accorde du crédit. Cette catégorie d'acteurs est complétée par les porte-parole des services secrets. Même si l'on peut supposer une certaine collusion avec le monde politique, les services secrets bénéficient d'une double source de légitimité, non seulement par qu'ils sont très proches de l'enquête, mais encore parce qu'ils font l'objet d'une véritable légende (si l'on pense au nombre de séries, de films et de livres dont ils sont le thème principal). Il n'est nullement surprenant que les sources non identifiées arrivent en troisième position dans le corpus étant donné la sensibilité du sujet. Pour rappel, des lois sur la protection des informations antiterroristes sont entrées en vigueur récemment dans les pays concernés (que ce soit le Patriot Act aux États-Unis, les différents Terrorism Acts au Royaume-Uni ou la Loi relative à la lutte contre le terrorisme en France). Le phénomène semble toutefois avoir un écho dans les pratiques de la presse en général si l'on en croit les mots de Richard Keeble (2007 : 58) : « the culture of anonymous sourcing will spread ». Cette tendance générale serait donc amplifiée dans le cas particulier de ce corpus. La figure médiatique de l' « expert » se détache également d'après l'analyse des citations. Figure d'habitude incontournable dans tous les types de médias, il apparaît en fait assez peu dans les articles du corpus, toutes langues et tous supports confondus. Ici en effet, les spécialistes du terrorisme s'effacent derrière les enquêteurs. La « mosaïque des voix » (Moirand 2007 : 85) qui résonnent dans ces textes est assez homogène, étant donné la faible variété des sources. Il importe d'abord dans cette partie d'en repérer les points communs pour mieux observer, plus tard, des différences induites par d'autres variables. Autre similitude découlant de la particularité des sources : le recours à la narration. Si l'on résume la tâche du journaliste aux six W exposés dans la plupart des manuels, on le place face à une situation inextricable à cause du lourd secret qui entoure l'enquête et de l'absence de sources de première main. En effet, on ignore ce qui aurait pu se passer et l'envergure d'éventuels dégâts (What ?). On ne peut que spéculer sur l'identité des présumés terroristes puisqu'aucune information officielle n'est délivrée à ce sujet (Who ?). Les cibles potentielles restent tout aussi spéculatives puisque les porte-parole des services secrets ou des gouvernements ne souhaitent pas indiquer le nom des compagnies aériennes visées (Where ?). La question du « quand » (When ?) est une donnée complètement ignorée. Le « pourquoi » (Why ?) est résolu grâce au cadre du terrorisme. Pour terminer, les moyens que les terroristes prévoyaient d'utiliser (hoW ?) sont évoqués de manière on ne peut plus elliptique dans les discours-source. Le matériau informationnel à disposition est peu abondant. Face à ce « non-fait » monté en événement médiatique, les journalistes n'ont guère d'autre choix que de combler les vides laissés par les discours officiels. C'est pourquoi ils puisent dans la palette des ressources linguistiques telles que les constructions hypothétiques et conditionnelles – des ressources qui peuvent varier selon la langue et la position du journal. En deuxième lieu, l'hypothèse d'une mémoire partagée par le monde occidental – dans le cas du corpus – s'appuie essentiellement sur un spécialiste en communication (Dayan 2006) et sur une théoricienne de l'analyse de discours (Moirand 2007) : Les médias […] contribuent eux -mêmes à construire des liens entre ces faits de société et à tisser des fils interdiscursifs entre les dires des différentes communautés concernées par ces événements. (2007 : 2) Dans le cadre de la présente étude, cette phrase peut être comprise de la façon suivante : le terrorisme islamiste étant principalement représenté comme un risque pour le monde occidental, des « fils interdiscursifs » sont tendus entre les communautés culturelles et linguistiques menacées (ou se sentant menacées) par des attentats. Pour être encore plus précis, il est possible de faire appel à la notion de « moment discursif » introduite aussi par Sophie Moirand (2007 : 4), c'est-à-dire un événement d'une ampleur médiatique telle qu'il a des répercussions à long terme sur des discours ultérieurs et à propos d'autres événements. Dans le corpus par exemple, c'est la date du 11 septembre 2001 qui se répète comme un leitmotiv. Le 11 septembre semble être plus qu'une date : il entraîne avec lui tout un cadre interprétatif. Daniel Dayan va également dans ce sens quand il parle de cet attentat meurtrier dans les mots suivants : Il s'agit de souligner qu'il constitue non pas l'événement mais son prélude; qu'il est le premier acte d'une dramaturgie qui va s'étendre sur plusieurs mois, voire sur plusieurs années. (2006 : 7) Le moment discursif devient donc une référence qui tient lieu d'explication, qui permet d'économiser tout un discours sur les origines et les conséquences d'une situation. Le concept de « famille d'événements » (Moirand 2007 : 7) est étroitement lié à celui de moment discursif : « Cet événement semblait en revanche s'inscrire dans une suite d'événements de même type, une même ‘ famille ' […] ». Sur la base de ce cadre théorique, on peut comprendre le 11 septembre comme l'événement fondateur d'une famille qu'on pourrait nommer « terrorisme islamiste ». On lit alors le complot d'août 2006 à la lumière des attentats du 11 septembre et de ceux qui les ont suivis. La famille d'événements contient non seulement des éléments descriptifs (par exemple la méthode des attentats-suicides, la référence à la religion), mais encore des éléments explicatifs (par exemple l'embrigadement idéologique des terroristes, le lien à une organisation secrète mondiale, etc.). En d'autres termes, les attentats déjoués d'août 2006 n'auraient pas pu être traités de la même manière sans les précédents médiatiques que sont entre autres les attentats du 11 septembre à New York, du 11 mars 2003 à Madrid ou du 7 juillet 2005 à Londres. Néanmoins, si la référence est omniprésente dans tous les articles, elle l'est semble -t-il à différents degrés. Les autres événements de la même famille sont souvent évoqués en termes comparatifs. Les journalistes les situent parfois simplement dans un rapport temporel (un an, cinq ans après, par exemple). Ils comparent aussi l'ampleur qu'auraient pu prendre les tentatives d'attentats sur des avions transatlantiques (« cela aurait été pire que le 11 septembre 2001 » [Mde 11-8-06 ], « the atrocities, which would have eclipsed 9/11 [. ..] » [Sun 11-8-06]), les méthodes utilisées (« US security officials believe their plot was a direct copy of the Bojinka operation in the mid-90s to bring down 12 western airlines simultaneously over the Pacific Ocean. » [Guard 11-8-06 : 1 ]) ou font appel à d'anciennes interprétations (« Leur profil serait donc similaire à celui des auteurs des attentats du 7 juillet 2005. » [Mde 12-8-06]). De surcroît, dans les articles du corpus, on assiste à la constitution de ce que Moirand appelle un « paradigme désignationnel », c'est-à-dire l' « ensemble des syntagmes qui renvoient à un concept dans un discours donné » (2007 : 23). Ici, la tentative d'attentats est désignée principalement par les termes de « plot » ou de « conspiracy » dans les discours-source, puis transcrite en français par les synonymes « complot » et « conspiration ». Il est difficile de ne pas penser aux théories du complot en circulation dans les médias, ces schémas simplificateurs qui réduisent une situation complexe à un nombre déterminé d'acteurs et d'enjeux : « Le schéma explicatif rassurant consiste à désigner les responsables de tous nos maux » (Taguieff 2006 : 19). En effet, en définissant cette tentative d'attentats comme un complot islamiste, les auteurs des articles désignent al-Qaïda comme le grand coupable et tentent de résoudre de manière simpliste un problème en réalité infiniment plus complexe. En dernier lieu, la notion de cadrage (ou framing en anglais) aide à approfondir la réflexion entamée sur la construction d'une mémoire partagée par plusieurs communautés culturelles et linguistiques qui sont (ou se sentent) confrontées à une même menace. David Weaver présente d'ailleurs une définition du framing lancée par son père fondateur, Entman, en 1993 : « to promote a particular problem definition, causal interpretation, moral evaluation, and/or treatment recommendation for the item described » (cité par Weaver 2007 : 143). Si l'on considère les caractéristiques, ou sèmes, de la famille d'événements dans laquelle s'inscrivent les attentats déjoués de Londres, on peut d'abord dégager une même cible : l'Occident, c'est-à-dire le lectorat-cible des quotidiens. Ensuite, le lieu de l'attentat a beau être impossible à prévoir, c'est souvent le même : les avions. En plein processus de mondialisation, c'est un moyen de transport que tout le monde pourrait utiliser. On peut repérer un autre sème fortement symbolique, l' « ennemi intérieur », pour faire allusion à un concept bien connu de McCarthy. Dans les articles du corpus, à peu d'exceptions près, les suspects sont représentés comme des Pakistanais de nationalité britannique et comme des immigrés bien intégrés : Le profil des terroristes présumés : tous sont des citoyens britanniques [… ]. Tous sont âgés de 17 à 35 ans, avec une moyenne d' âge de 25 ans. Ils portent des patronymes à consonance d'Asie du Sud [… ]. [Fig 11-8-06] These people were born and brought up in the United Kingdom. Some of them may have parents who were immigrants from Pakistan. [IHT, 11-8-06] “Oliver is a just an ordinary family man who is expecting a new baby, " said a relative. [Guard 11-8-06 : 2] En revanche, les discours-source n'évoquent nullement cet aspect des choses, puisqu'ils se refusent à livrer l'identité des personnes arrêtées. Il paraît difficile d'expliquer cette ressemblance entre les différents quotidiens autrement que par la diffusion d'une rumeur qui correspondrait en tous points à un manque à combler dans l'imaginaire collectif. Cette idée diffuse de « l'ennemi est parmi nous » s'accorde d'ailleurs parfaitement avec les images véhiculées par les mots « complot » et « conspiration » : un groupe secret infiltré dans les sociétés occidentales chercherait à leur nuire par une subtile organisation. Cette représentation collective peut éventuellement rencontrer un écho dans les peurs du public. Le cadrage de l'événement dans la perspective de la guerre contre le terrorisme et des attaques du 11 septembre implique forcément une désignation des coupables. D'après Roselyne Koren (1996 : 197), dans le cas d'une crise médiatique, c'est l'étape qui suit l'exposition des faits. Le public supporte difficilement le vide, l'absence de coupable. Pourtant, les accusations ne sont pas toujours directes. Pour Koren, la simple utilisation d'un mot peut être accusatrice : « L'argumentation implicite, inscrite dans les dénominations, criminalise le plus souvent le ‘ terroriste ' […] » (1996 : 206). Le mot revient effectivement dans les articles de toutes les zones culturelles étudiées. Dans les textes examinés, les références à des militants islamistes, voire à l'islam, sont nombreuses. L'accusation n'est pas toujours lancée, mais le contexte peut être favorable à des associations d'idées qui ne seraient pas suggérées explicitement par les auteurs. Par exemple, quand un journaliste aborde les problèmes que pose la communauté musulmane en Grande-Bretagne en marge de son article sur les tentatives d'attentats, il ne fait que juxtaposer des éléments sans lien apparent, mais l'esprit du lecteur peut les mettre en relation par paresse. De même, dans l'évocation vague de l'origine ethnique des suspects, on retrouve l'une des plus grandes communautés d'immigrants du Royaume-Uni : les Pakistanais. La pointe est lancée et elle correspond probablement aux attentes d'un public britannique. D'une manière générale encore, le stéréotype est complété par la nationalité britannique qu'on attribue aux présumés terroristes. Le portrait-robot dressé est d'une simplicité déconcertante et ne correspond pas tout à fait à la complexité de la situation. En fin de compte, cette étude comparative dévoile une quantité de similitudes dans la représentation de l'événement terroriste, notamment en raison de sources de seconde main très limitées et d'une mémoire collective fortement influencée par les images et les discours qui ont suivi le 11 septembre dans les pays occidentaux. Ces résultats fournissent déjà quelques pistes pour approfondir les éventuelles divergences de la mise en récit journalistique. Si l'analyse de contenu laissait déjà deviner quelques différences, l'analyse de discours les a confirmées. La plupart du temps des disparités se cachent en effet derrière une homogénéité de surface. Le cadre théorique, qui emprunte des éléments à l'histoire et à la géopolitique, à l'enseignement du journalisme et un peu à la linguistique, suggère différentes hypothèses. Selon Maurice Halbwachs (1950), les individus peuvent avoir des réactions et des comportements différents selon le groupe national dans lequel ils ont vécu et selon l'histoire de ce groupe national. Partant de cette affirmation, il semble pertinent de rassembler quelques informations sur l'histoire des groupes nationaux étudiés. Il est sans doute préférable d'annoncer que cet aperçu extrêmement bref n'a aucune aspiration de nature historique et qu'il vise simplement à résumer dans leurs plus grandes lignes quelques événements qui ont pu traumatiser les pays où sont basés les quotidiens de notre corpus. La lecture d'un ouvrage de psychologie comparée (Rachman 1990) suggère de commencer ce survol à la Seconde Guerre mondiale. Rachman compare en effet les réactions de plusieurs peuples européens face aux bombardements de l'armée allemande, et parmi eux, des Britanniques et des Français. Au début de la guerre, les bombardements sur les villes françaises ont créé un mouvement de panique dans la population, qui s'est retrouvée sur les routes de France avec ses possessions. Nombreux sont justement ceux qui ont péri pendant cet exode. Lors des bombardements de Londres par l'aviation allemande, en revanche, Rachman rapporte qu'on a observé dans la population un calme extraordinaire et des réactions tout à fait mesurées. Sans verser dans la psychologie des peuples, on peut postuler que cet épisode historique a laissé des traces dans l'inconscient collectif des deux pays et tester l'hypothèse d'une réaction plus pondérée dans la presse britannique. Pour terminer avec cette période, on peut simplement ajouter que la Suisse aussi bien que les États-Unis n'ont pas subi d'attaque directe de leur territoire. Les expériences de ces pays avec le terrorisme avant la date du 11 septembre 2001 sont elles aussi extrêmement variées. Tandis que la France était aux prises avec les nationalismes basque et corse, la Grande-Bretagne était confrontée à un conflit grave avec l'IRA en Irlande du Nord. La France a également été frappée en 1995 par une vague d'attentats islamistes dans le métro et le TGV. En 1993, les États-Unis ont subi un attentat mineur au World Trade Center attribué à des extrémistes islamistes (six morts, mais un millier de blessés), puis l'attentat d'Oklahoma City en 1995, un attentat revendiqué par l'extrême droite américaine. Pour un certain nombre d'auteurs, le 11 septembre 2001 a marqué une réelle rupture. D'après Wagner-Pacifici, les attentats de New York sont un événement totalement inédit, car les Américains vivaient « dans l'illusion d'une perpétuelle innocence politique » (2006 : 213). Elle écrit qu'ils ont vécu cette attaque comme la perte de leur invulnérabilité territoriale. Elle ajoute encore que l'opinion publique a été profondément marquée par la nature imprévue des armes et des cibles. Le traumatisme est d'autant plus fort que sa charge symbolique est lourde. Peu après, on a parlé d'un seul attentat manqué visant la France : une tentative de faire exploser en vol un avion reliant Paris à Miami en décembre 2001. Le Royaume-Uni, en revanche, a été à plusieurs reprises la cible de terroristes, avec un attentat meurtrier dans le métro londonien en juillet 2005, puis des tentatives d'attentat en 2006 et en 2007. Il va de soi que l'on ne considérera pas une tentative d'attentat de la même manière si l'on a été marqué dans sa chair par une attaque terroriste. Cela explique peut-être pourquoi les Britanniques font nettement plus de références au 7 juillet 2005 dans leurs articles, et des références assez allusives, qui devraient être explicitées lors d'une traduction vers le français. Bien que sommaire, ce résumé du passé traumatique des pays étudiés ne peut être clos sans une précision : malgré l'importance qu'accordent les sociétés occidentales au terrorisme islamiste, ce sont avant tout les peuples du Proche-Orient, du Moyen-Orient et du Maghreb qui en souffrent et déplorent le plus de victimes. Après ces brèves considérations géopolitiques se posent des questions plus pratiques, liées à l'enseignement et à la pratique de la presse dans les pays pris en compte dans le corpus. Bien entendu, les différences qui pourraient être repérées à ce niveau ne seraient pas des réponses aux résultats de l'analyse, mais plutôt des indices pour orienter la recherche. Des comparaisons ont été menées au niveau macrostructurel (fonctionnement de la presse dans son ensemble), puis au niveau microstructurel (pratique de l'écriture, et notamment des genres journalistiques). Toutes les remarques lues dans des ouvrages généraux (tels que Glaser 1998, Bertrand 1995 et Bertrand 1998) reviennent sur l'opposition théorique entre facts et comments, qui ne serait pas appliquée de manière aussi claire dans la presse francophone qu'anglophone. Si l'on se penche plus précisément sur l'article (ou news), genre étudié dans ce travail, par le biais de manuels de journalisme, on découvre que cette distinction macrostructurelle se retrouve à un niveau inférieur, puisqu'il est admis en France que l'article, bien que genre informatif par excellence, puisse contenir un commentaire du journaliste. Les ouvrages généralistes consultés laissaient également entendre que le droit des médias anglais était plus strict qu'en France, en Suisse et aux États-Unis. Cette remarque a été corroborée par une conférence de presse donnée le 11 août 2006 par le Secrétaire d' État américain à la sécurité intérieure justifiant son refus de divulguer certaines informations à la presse : « […] because of the rules that govern legal proceedings in Britain, I think we ought to withhold reaching a final conclusion until we've got all the evidence in ». Selon Bertrand (1998) par exemple, la Libel Law britannique est une des lois sur la diffamation les plus strictes du monde occidental, ce qui implique que les journalistes font en sorte de pouvoir prouver tout ce qu'ils avancent. Une autre loi, Contempt of Court, protège les parties en présence dans un procès : ses conditions d'application sont si sévères qu'il devient illégal de faire paraître des informations sur l'accusé ou sur les circonstances de l'affaire en cause qui ne seraient pas avérées par la Cour (Glaser 1998 : 110). Considérant ces deux lois, on peut poser l'hypothèse que la presse britannique sera bien plus réticente à divulguer des informations sur les présumés terroristes que la presse américaine, française ou suisse. Dans le cas d'une attaque terroriste, d'autres lois entrent en jeu, notamment Official Secrets Act qui s'applique aux renseignements ayant trait aux forces armées, aux services secrets et aux affaires étrangères (Glaser 1998 : 110). De plus, parallèlement au Patriot Act voté après les attentats de New York aux États-Unis, le Royaume-Uni a adopté des Terrorism Acts successifs (notamment en 2000 et en 2006). Bertrand évalue l'influence du droit des médias en Grande-Bretagne dans les termes suivants : Il existe une obsession du secret plus forte que dans le reste de l'Europe, due pour une part à l'absence de séparation des pouvoirs exécutif et législatif. Elle est aggravée par une tradition journalistique de respect pour les autorités. (Bertrand 1998 : 108) Ces remarques comparatives peuvent aiguiller la réflexion vers l'hypothèse que les journalistes britanniques seront enclins à utiliser plus de précautions oratoires que leurs homologues. D'ailleurs, les résultats de l'analyse de contenu (cf. tableau 4 en annexe 5) soulignent proportionnellement plus de marques de modalité dans The Guardian que dans les autres journaux (The Sun étant un quotidien populaire, il ne peut être comparé dans les mêmes termes sans prendre en compte une variable supplémentaire). Les catégories définies tentent de couvrir les différentes possibilités grammaticales d'expression de l'hypothèse. Sont regroupés sous « adjectifs, adverbes, substantifs et verbes hypothétiques » les termes de ces classes grammaticales exprimant une incertitude du locuteur par rapport à l'énoncé. Contrairement à ce qu'affirment certaines grammaires (Thomson & Martinet 2005), le conditionnel n'existe pas en anglais : « il n'existe pas de marqueur verbal équivalent en anglais » (Celle 2006 : 3). Il est donc impossible de comparer les sous-catégories de la modalité une à une. La valeur dite « conditionnelle » (Adamczewski 1982 : 162) s'exprime donc principalement par les modaux au prétérit. Par conséquent, en anglais, les résultats pour la sous-catégorie « conditionnel » sont nuls tandis que ceux pour les auxiliaires modaux sont largement supérieurs (cf. annexe 5). Néanmoins, le but de ce travail n'est pas d'ouvrir la polémique sur la question du conditionnel en anglais. La sous-catégorie « auxiliaires modaux » renvoie aux modal verbs anglais et à leurs équivalents français (pouvoir et devoir). Quant aux « constructions hypothétiques », elles englobent les subordonnées hypothétiques ou les inversions verbe-sujet suivies du prétérit modal en anglais et du subjectif en français. Une des hypothèses posées se vérifie donc : le quotidien britannique de référence The Guardian est le journal où l'on retrouve le plus d'expressions hypothétiques. L'analyse de contenu montre également que l ' International Herald Tribune et The Guardian devancent largement leurs homologues francophones en termes de discours rapporté (qu'il soit direct ou indirect), avec des fréquences respectivement de 18 ‰ et 12 ‰. À titre indicatif, Le Monde reste loin derrière avec 8 ‰ de discours rapporté. La présentation du cadre de réflexion qui soutient les hypothèses de ce travail amène finalement à présenter une partie des résultats finaux. Comme l'affirme Esquenazi (2002 : 36), des médias ancrés dans des territoires culturels et linguistiques différents ne peuvent que représenter la réalité à travers le prisme des valeurs et des attentes qui sont liées à ces territoires. Pour cet auteur, il paraît évident que les divergences existant entre deux journaux francophones dans des sociétés radicalement différentes (comme Le Figaro en France et El Watan en Algérie) seront plus grandes qu'entre des journaux en langues différentes dans des sociétés où le mode de vie est plus proche (par exemple entre la Suisse et l'Allemagne). Si l'on aborde les résultats par groupe thématique, on arrive à quelques remarques particulières. L'objectif des attentats, par exemple, reste assez implicite dans la presse britannique. On peut supposer que la couverture médiatique la plus immédiate a été réalisée par la radio et la télévision, préparant ainsi le terrain de la presse écrite, qui n'avait alors plus besoin de contextualiser une nouvelle largement répandue. En France ou en Suisse romande en revanche – et cela peut ouvrir quelques pistes pour la traduction –, l'événement n'a pas été aussi médiatisé qu'outre-Manche, ce qui exige de le situer mieux géographiquement. Les États-Unis, pour leur part, orientent plus le discours sur la menace pour le monde entier. En ce qui concerne le cadrage, les journaux britanniques établissent souvent des liens avec le problème de l'islamisme extrémiste dans leur pays. La France et la Suisse romande renvoient plutôt au contexte du terrorisme et d'al-Qaïda, étant moins concernées par cette question de société. L ' International Herald Tribune fait plus allusion à l'Afghanistan, au Pakistan et aux groupes terroristes dans ses articles. Peut-être cette différence s'explique -t-elle par des raisons politiques. Le discours sécuritaire, quant à lui, fait l'objet d'implications bien tranchées dans les différents journaux. Le Monde, par exemple, fait état de nouvelles technologies toutes plus fantasques les unes que les autres, qui devraient, à l'avenir, améliorer les contrôles de sécurité dans les aéroports. Face à ce discours technique, on trouve les listes d'objets interdits à bord publiées par l ' International Herald Tribune, des listes qui rivalisent d'exhaustivité entre elles. En Grande-Bretagne en revanche, on parle relativement peu des mesures prises ou envisagées. Enfin, les quotidiens de chaque pays représentent différemment les arrestations des suspects. Dans les journaux francophones, on joue plus sur la légende qui auréole les services secrets. Les États-Unis et le Royaume-Uni ne peuvent réagir avec une telle distance narrative étant donné que les deux pays ont apparemment mené l'enquête conjointement. Si The Guardian et The Sun dévoilent l'enquête dans sa globalité, avec une rétrospective de ses étapes et une projection sur ses suites, l ' International Herald Tribune met plus l'accent sur la collaboration réussie entre les deux partenaires. En guise de conclusion, il semble nécessaire de rappeler que les informations historiques, géopolitiques, journalistiques ou juridiques évoquées dans cette partie ne sont pas des réponses aux résultats exposés, mais bien au contraire le départ de pistes de réflexion qui mènent à ces résultats, brièvement présentés. Cet aperçu des résultats est certes bref, mais il n'y a pas le lieu ici d'entrer dans les détails de l'analyse de discours. Cette étude nourrit plutôt l'ambition d'esquisser quelques lignes directrices utiles au transfert interlinguistique et interculturel comme la question des genres de discours et de leurs variations dans plusieurs communautés linguistico-culturelles différentes : This means, for example, that the form and genre of the TT [target text] must be guided by what is functionally suitable in the TT culture, rather than by merely copying the ST [source text] profile. (Munday 2001 : 77) L'analyse comparative ou contrastive revêt une importance toute particulière dans ce cadre. Pour rappel, la présente étude ne se place pas dans la perspective de traduire des mots, ni même des ensembles de mots, mais des conventions textuelles, d'où l'utilité d'un corpus comparable bilingue ou multilingue. En effet, on ne cherche pas à déterminer les particularités de la « langue » des traducteurs (ce que vise Baker avec les corpus parallèles), mais à étudier l'usage de la langue par des locuteurs natifs pour en tirer des conclusions utiles à la traduction. Cette approche, qui met en scène le texte comme construction sociolinguistique au carrefour entre un genre et une culture, montre en réalité que peu de différences sont liées au système linguistique uniquement. Qu'en est-il de la polyphonie dans le cas du corpus analysé ? Tout d'abord, la forte homogénéité des sources transmises par les agences de presse et citées dans les journaux provoque d'inévitables ressemblances entre les articles : les journalistes ont probablement tous eu accès à des informations très similaires. Ainsi, malgré la marge d'incertitude inhérente à l'événement du corpus, les mêmes faits se retrouvent à quelques différences près dans tous les articles. Ensuite, la notion de polyphonie développée dans cet article englobe également la mémoire collective médiatique et, en l'occurrence, les références à une même « famille d'événement » : le terrorisme islamiste post-11 septembre 2001. Les analogies avec des événements de cette famille, et plus particulièrement avec le 11 septembre considéré par certains auteurs comme l'élément déclencheur de ce moment discursif, sont nombreuses dans tous les articles. Enfin, on observe dans tous les articles un cadre d'interprétation clairement occidental avec un Occident laïque posé en victime d'un islam extrémiste. Dans cette opposition binaire, le terroriste apparaît de manière assez uniforme sous les traits d'un jeune musulman issu de la deuxième génération. De même, le grand responsable est présenté comme al-Qaïda ou l'un des groupes radicaux qui y serait rattaché par des liens assez flous. Sous cette homogénéité de surface se cachent par ailleurs un grand nombre de spécificités ou d'implicites socioculturels qu'il est nécessaire de connaître pour pouvoir passer d'une communauté linguistico-culturelle à une autre. Premièrement, les quatre pays étudiés n'ont pas vécu les mêmes événements traumatiques, notamment en ce qui concerne les attentats terroristes. Il n'est donc pas étonnant que les allusions aux attentats meurtriers de Londres en 2005 soient plus nombreuses dans la presse britannique, par exemple. Deuxièmement, les pratiques professionnelles du journalisme varient sensiblement entre la tradition anglo-saxonne et la tradition française. La distinction qui serait opérée dans la presse anglophone entre articles de faits et de commentaire n'existerait pas aussi clairement dans la presse de tradition française. À l'échelle de l'article, il est notable que les journaux en français s'autorisent plus d'hypothèses ou de projections dans l'avenir que leurs équivalents en anglais. Troisièmement, le droit des médias peut venir compléter l'étude des pratiques journalistiques. Le fait que le droit des médias qui régit les affaires judiciaires est bien plus strict en Grande-Bretagne n'est pas sans répercussions sur l'écriture journalistique. L'analyse du corpus montre dans l'ensemble que les quotidiens britanniques taisent parfois des informations non vérifiées et qu'ils ont recours à plus de procédés de modalisation que les autres journaux du corpus. En matière de modalité, seules quelques différences sont dues à la non-équivalence des temps et des modes entre les deux langues. Finalement, malgré bon nombre de traits communs entre les articles du corpus, la polyphonie est gérée de manière différente dans chaque medium. Ce n'est toutefois pas la langue qui est porteuse des différences les plus flagrantes. La représentation discursive d'un même événement sera bien plus influencée par l'emploi d'un genre de discours (et donc également des pratiques professionnelles qui s'y rattachent) ainsi que par la politique, l'histoire et les préoccupations actuelles d'un pays .
Le discours journalistique est le lieu privilégié de la polyphonie et de l'expression culturelle. La présente communication se propose d'explorer les traces laissées par un genre spécialisé (l'article de presse) et par des imaginaires collectifs dans la presse francophone et anglophone. Un corpus bilingue est soumis à une analyse de contenu, puis à une analyse de discours. Ensuite est examiné le rapport dialogique qu'entretiennent les articles avec leurs sources. Dans le cas de ce corpus, l'homogénéité et le nombre limité de sources induit d'incontournables similitudes dans le contenu des articles. On part en outre du postulat que la mémoire collective (occidentale) du terrorisme construite par les médias rapproche les discours journalistiques de différents pays. Par ailleurs, il est important de se demander dans quelle mesure les différences entre l'histoire, le contexte sociopolitique et les pratiques journalistiques de chaque pays peuvent influencer la représentation d'un même événement. S'appuyant sur un corpus comparable bilingue (donc sans traductions), la méthode comparative permet d'étudier les pratiques textuelles communes à un type de discours précis, ou spécifiques à une communauté culturelle.
linguistique_11-0409491_tei_781.xml
termith-551-linguistique
Le Val d'Aoste (désormais VDA) est une région européenne dans laquelle une réflexion sur l'éducation bilingue italien-français et diverses expérimentations sont en cours depuis plus de 30 ans. Cette réflexion et ces expérimentations confrontent les acteurs avec plusieurs dimensions de l'altérité : celles d'une langue tout d'abord, dans laquelle ils ne se sentent pas forcément à l'aise. Mais aussi, et peut-être surtout, celles de nouveaux discours tenus par des formateurs d'enseignants, locaux et étrangers, qui tentent de (ré)former des enseignants, en invoquant de nouvelles théories et de nouveaux concepts, plus en phase avec les caractéristiques sociolinguistiques du monde actuel, marqué par l'accroissement des flux pendulaires ou migratoires qui augmente la mobilité linguistique des populations et donc le plurilinguisme. Dans cette contribution, nous nous proposons de passer en revue les actions de formation entreprises au VDA dans le cadre de la mise en place de cette éducation bilingue-plurilingue, articulée autour du bilinguisme scolaire initial italien-français, mais intégrant dans sa perspective tous les apprentissages linguistiques réalisés à l'école, au sein de ce qu'on appelle désormais la didactique intégrée des langues (DIL). Nous rappellerons tout d'abord le contexte, puis nous présenterons quelques actions entreprises pour la formation des enseignants des disciplines non linguistiques et celle des enseignants de langues avant de dresser un bilan de quelque quinze ans de formation continue des enseignants du secondaire du premier degré et d'apporter quelques commentaires sur les apports et les limites d'une telle entreprise pour faire advenir une innovation non seulement curriculaire mais également didactique. La situation sociolinguistique d'une région reflète à la fois son histoire et les caractéristiques sociétales d'une époque donnée. Le VDA n'échappe pas à la règle. Le français et l'italien sont langues officielles depuis qu'une loi constitutionnelle de 1948 a accordé à la Région un statut spécial d'autonomie. Mais ce bilinguisme officiel occulte une situation sociolinguistique plus complexe. Le répertoire du VDA est, en effet, multilingue : à côté de l'italien (nettement majoritaire) et du français, il accueille des langues régionales, plus ou moins endogènes (le francoprovençal, le walser et le piémontais diversement diffusés sur son territoire) et des langues allogènes (dialectes italiens – surtout vénitien et calabrais – fruit de l'immigration interne ainsi que des langues d'immigration plus récente, en provenance surtout du Maghreb et des pays de l'Est). Dans ce contexte de multilinguisme territorial diffus et de bi-/plurilinguisme des répertoires individuels (Fondation Chanoux, 2003), les compétences en langue française – qui, avec l'italien, caractérisent le bilinguisme officiel régional et justifient le statut d'autonomie de la Région – sont construites par et à l'école, au sein d'une éducation bi-/plurilingue précoce généralisée, institutionnalisée en 1984 déjà pour l'école maternelle (Assuied et al., 1994), suivie par l'école primaire en 1988 et l'école secondaire du premier degré en 1993-1994. Le modèle adopté pour tout le curriculum s'appuie sur un rejet de certains principes binaires classiques tels que « une langue = une école », « une langue = une personne », « une langue = une discipline ». Il prévoit en effet une utilisation de l'italien et du français dans toutes les disciplines et dans toutes les activités didactiques. L'éducation bi-/plurilingue (désormais EBP) au VDA se fonde donc sur les compétences des enseignants à enseigner dans deux langues. L'italien et le français sont parallèlement enseignés comme matières scolaires en un nombre égal d'heures. À ce bilinguisme scolaire initial s'ajoute l'anglais, à partir de la première année de l'école primaire comme au niveau national. Bien qu'échelonnées dans le temps, les innovations bilingues de l'école maternelle, du primaire et du secondaire ont suivi un cheminement similaire : elles ont débuté par des expérimentations accompagnées d'initiatives de formation, de suivi didactique et méthodologique dispensé par des enseignants-formateurs détachés de l'enseignement, et de mise à disposition et/ou création de matériel didactique. La généralisation a eu lieu dans un deuxième temps avec l'adaptation des programmes de l' État à la réalité socioculturelle locale, telle qu'elle est prévue par le Statut d'autonomie. 25 ans après le début de l'innovation bilingue, le processus n'a pas encore pleinement abouti : reste à réformer l'école secondaire du deuxième degré où des expériences d'EBP sont cependant déjà menées dans différents établissements. Notons encore que l'Université de la Vallée d'Aoste a été instituée en 2000, bien après la mise en place de cette innovation, et n'a donc pu assurer une formation initiale adéquate prenant en compte les acquis de la recherche sur la didactique du bi-/plurilinguisme. Dans ce cadre sociolinguistique et institutionnel complexe, la formation continue des enseignants fait face à des défis importants, tant les changements induits par l'innovation sont majeurs. Les enseignants sont ainsi poussés vers différents types de mobilité. Tout d'abord, c'est la plus évidente, une mobilité « linguistique » pour les enseignants des disciplines (dites) non linguistiques. Il s'agit pour ces derniers d'apprendre à faire en français ce qu'ils savent faire en italien. Mais aussi de transformer leur enseignement disciplinaire pour qu'il s'adapte au cadre d'une éducation bilingue généralisée. L'innovation implique aussi une mobilité « professionnelle » pour les enseignants de français. Il s'agit pour eux de réorienter leur façon d'enseigner la langue en fonction du cadre de l'EBP. Une mobilité du même type est demandée à l'ensemble des enseignants, puisqu'il s'agit d'instaurer un travail coopératif sur diverses dimensions du curriculum telles que l'interdisciplinarité, le travail commun sur la langue comme élément transversal, la révision globale de leur façon d'enseigner dans une optique socio-constructiviste, etc. Si, de par les changements qu'elle implique, toute innovation est confrontée à des phénomènes de résistance, l'innovation bilingue, qui consiste à introduire une langue certes officielle mais minoritaire sur le territoire et surtout objet de représentations et d'affects très différents selon les individus, se heurte à un type particulier de résistance. La langue n'est pas un instrument neutre : elle véhicule identité, sentiment d'appartenance, adhésion à des valeurs communautaires, affectivité… Du même coup et à contrario, elle peut tout aussi bien véhiculer étrangeté, sentiment d'exclusion, rejet de ces mêmes valeurs communautaires, hostilité… Tout dépend du vécu individuel face à la question linguistique, qui, à son tour, est fortement marqué par les origines, la biographie, les besoins, les croyances, les convictions et les expériences, y compris scolaires, de chacun (Cavalli et alii, 2003). Le choix d'opter pour l'obligation faite à tout enseignant en service d'assurer un enseignement bilingue est un défi qui comporte des avantages certains dans une société qui valorise la mobilité linguistique dans le contexte plurilingue européen. À long terme, les compétences plurilingues de l'ensemble du corps enseignant, voire de toute la société valdôtaine, constituent un avantage pour tout le monde. Mais il faut reconnaitre que ce changement participe d'une influence sociale, idéologique, qui rencontre des résistances tout aussi idéologiques, alimentées de surcroit par un sentiment d'insécurité linguistique typique des francophonies périphériques (Francard, 1993), notamment lorsqu'elles sont en contact avec d'autres langues (De Pietro et Matthey, 1993). Notre contribution à ce volume est une présentation des projets de formation ayant concerné les enseignants de l'école secondaire du premier degré. Elle se veut une illustration des difficultés à mettre en place de nouvelles pratiques, linguistiques, disciplinaires et plus largement professionnelles. La formation en français préalable des enseignants valdôtains s'arrêtait généralement au niveau du bac. Leur compétence était le résultat, pour la plupart de ceux qui ont été scolarisés avant les réformes bilingues, d'un enseignement scolaire renforcé du français, de par la parité horaire avec l'italien prévue par le statut d'autonomie et appliquée depuis 1948 dans tous les niveaux scolaires. De plus, tout enseignant non valdôtain voulant enseigner au VDA doit se soumettre à une épreuve de connaissance de la langue française. Par ailleurs, tous les enseignants, comme tous les autres fonctionnaires publics, perçoivent une prime de bilinguisme mensuelle. On peut donc considérer que les enseignants du VDA ont, pour la plupart, une bonne compétence en langue française, amplement suffisante pour aborder un enseignement bilingue de leur discipline. Mais les représentations qu'ils ont de leurs compétences posent problème. À l'insécurité linguistique ambiante, déjà soulignée, favorisée par des attitudes puristes qui mènent parfois à l'hypercorrection, il faut ajouter la persistance de représentations traditionnelles du bilinguisme, fondées sur un point de vue monolingue uniquement : un locuteur bilingue est l'équivalent de deux locuteurs monolingues. Ces représentations empêchent la construction d'une conception fonctionnelle d'un répertoire plurilingue, relativisant l'importance de la maitrise des structures et valorisant les compétences pragmatiques liées à l'alternance codique, à l'exploitation entière du répertoire, au passage rapide d'une langue à l'autre qui donne lieu parfois à la création de formes linguistiques hybrides. Ce discours relativisant l'importance de la maitrise évaluée à l'aune monolingue et pointant les absurdités du purisme et de l'hypercorrection se heurte à la conception que certains enseignants ont de l'enseignement et des langues. Un certain nombre d'entre eux expriment une forte perplexité quant à la possibilité d'enseigner leur discipline en français sans perte de temps, sans diminution des contenus disciplinaires enseignés et sans dommages cognitifs pour les apprenants. Face à ce problème, les finalités et les objectifs de la formation se sont précisés et (r)affinés au cours du temps. Au début, l'urgence était de rassurer les enseignants sur leurs compétences langagières tout en leur permettant de les raviver au moyen de formules attrayantes dont ils pouvaient percevoir l'utilité immédiate pour leur travail en classe. Dans une deuxième phase, il s'agissait à la fois de leur donner des occasions de perfectionner ces compétences tout en leur montrant que l'enseignement de leur discipline en français était possible avec les moyens linguistiques qu'ils possédaient. Dans la dernière phase de la formation, beaucoup plus ambitieuse, il s'agissait de les solliciter à revisiter l'enseignement de leur discipline et, en même temps, à construire des outils conceptuels et méthodologiques pour faire de l'EBP un moyen pour mieux enseigner et mieux (faire) apprendre. Nous détaillons ci-après ces trois phases. La première phase (triennale) avait donc comme objectif un perfectionnement linguistique centré sur les situations d'emploi liées à la classe et aux disciplines. Elle visait une première sensibilisation à la dimension langagière transversale de la langue et aux genres de discours, oraux et écrits, les plus utilisés dans les différentes disciplines. Sa philosophie rejoignait déjà à l'époque celle des travaux récents du Conseil de l'Europe consacrés au projet Langues de scolarisation, qui met l'accent sur language across the curriculum. Notons, par ailleurs, que cette dimension est déjà présente dans le concept d ' educazione linguistica depuis les programmes nationaux pour l'école secondaire du 1 er degré de 1979 (Costanzo, 2003), en tant que trasversalità linguistica. Au VDA, cette transversalité doit être étendue aux deux langues de scolarisation. Il s'agissait pour cela de : sensibiliser les enseignants à la dimension discursive de l'interaction pédagogique et de l'enseignement disciplinaire; perfectionner, dans ce cadre, leur compétence langagière dans au moins trois situations communicatives : l'interaction quotidienne en classe, les discours et les genres relatifs à la discipline enseignée, les situations d'enseignement interdisciplinaire ou de co-enseignement; leur fournir les premières occasions pour réutiliser et exercer à nouveau des compétences langagières bien présentes, mais épisodiquement sollicitées. Lesenseignants ont été réunis en deux groupes de disciplines présentant des affinités : celui des disciplines plus « littéraires » (histoire + géographie, éducation artistique, religion) et celui des disciplines « scientifiques » (mathématiques, sciences naturelles, éducation technique auxquelles ont été ajoutées l'éducation physique et l'éducation musicale). 60 heures de perfectionnement ont été dispensées, soit à Aoste même (formation assurée par une équipe mixte de formateurs travaillant au VDA et du CLA de Besançon), soit en France auprès de centres de formation (CIEP de Sèvres et CLA de Besançon). 85 % du corps enseignant (à l'exclusion des professeurs de langues) a été ainsi formé entre 1992 et 1995. Caractérisée par une focalisation plus poussée sur la discipline et une orientation plus opérationnelle et concrète, la deuxième phase, d'une durée de deux ans (1993-1995), avait pour buts, d'un côté, l'accroissement des compétences langagières en liaison beaucoup plus étroite avec la discipline enseignée et, de l'autre, la mise en confiance des enseignants ainsi qu'un encouragement au passage à l'acte en classe. L'accent était mis sur la langue de la discipline via une réflexion sur la didactique de la discipline. Pour stimuler également l'envie de réinvestir les acquis de la formation dans des activités en classe, des séquences didactiques en histoire, mathématiques, sciences naturelles et éducation technique étaient proposées, impliquant l'emploi de matériel et de documents en français. Cette formation a de nouveau impliqué le recours à des formateurs venus d'ailleurs, en l'occurrence des IUFM de Grenoble et de Chambéry. Elle a favorisé chez les participants la prise de conscience des différences entre les orientations épistémologiques des disciplines en Italie et en France, différences qui se reflètent dans les méthodologies et les stratégies d'enseignement comme dans la conception des manuels scolaires. Cette comparaison avec la façon dont la discipline qu'ils enseignent est interprétée et déclinée dans ses finalités, ses objectifs, ses activités et ses supports en France a permis aux enseignants d'interroger plus à fond l'orientation épistémologique de leur discipline en Italie et d'entrevoir des possibilités d'enrichissement et de diversification des perspectives disciplinaires. Au cours de la troisième phase (1995-2000), la formation a été assurée par l'UIT, et elle est devenue encore plus ambitieuse dans ses finalités. La mise en place des premières expériences bilingues s'était faite dans le cadre d'une pédagogie de projet, multi - et interdisciplinaire. La finalité du projet de l'UIT était de faire bouger quelque peu ce cadre, en réorientant la formation vers l'enseignement des disciplines mais dans les deux langues, et en intégrant à cette formation divers éléments : l'approche socio-constructiviste; la révision du cursus disciplinaire de trois disciplines (histoire, mathématiques et éducation artistique) à travers leur analyse et le repérage de leurs concepts structurants; la réflexion sur le rôle de l'enseignant de langue – française et italienne; la préparation de séquences didactiques stratégiques concernant les noyaux fondamentaux de chaque discipline. La méthodologie choisie a été celle de la recherche-action dans laquelle étaient engagés des enseignants-chercheurs et expérimentateurs volontaires des trois disciplines, auxquels ont été associés, dans un deuxième temps, des enseignants de français. Elle prévoyait des séances d'observation dans les classes, qui ont donné lieu à trois rapports de recherche et qui ont constitué le véritable moteur conceptuel de l'EBP (Py et Serra, 1996; Gajo et Serra, 1998 et 1999). Ce projet a réuni des sociolinguistes, des méthodologues et des enseignants. L'implication de ces derniers a été favorisée et a permis la construction de séquences disciplinaires qui représentent un point de départ pour tout enseignant devant s'impliquer dans l'EBP, mais, surtout, une élaboration conceptuelle et théorique approfondie des pratiques bilingues performantes, reposant sur les différentes ressources permises par différents types d'alternance codique. C'est ainsi qu'ont été mises en évidence les alternances « macro », objet de la planification des enseignants (quelle langue pour quels sujets à quels moments dans quels buts disciplinaires ?) ainsi que les modalités et stratégies pour une gestion efficace des alternances « micro », celles qui ont lieu dans l'interaction et dans le feu de l'action et qui, non planifiées, sont souvent la marque d'un besoin d'apprentissage (Cavalli, 2003 et Cavalli, 2008). En résumé, la formation a donc débuté par une formule assez générale destinée à l'ensemble des enseignants et s'est spécialisée au fur et à mesure, en fonction des besoins spécifiques des différents types d'enseignants. Cette spécialisation a eu comme corollaire des engagements de plus en plus forts de la part des participants… et a fini par ne concerner et toucher que des enseignants très motivés, alors que la majorité des enseignants n'ont plus eu l'occasion de prendre part à des formations spécifiquement ciblées sur l'EBP. Ainsi, malgré l'importante documentation fournie par les groupes de travail et l'UIT dans le cadre de cette recherche-action, les acquis de cette formation restent, pour l'instant, confinés dans un réseau restreint d'enseignants impliqués et favorables aux innovations proposées. Le projet est ainsi confronté au problème, non encore résolu, de la diffusion des acquis conceptuels et des pratiques innovantes. En 2000, un Centre de ressources territorial pour la didactique bilingue de l'histoire a été créé au sein d'une institution scolaire, de façon à déléguer aux établissements scolaires, dans le cadre de leur autonomie, la fonction de recherche jusqu'alors fortement assumée et orientée par l'Administration Régionale à travers l'UIT. Ce centre de ressources a fermé, après quelques années de formation d'équipes d'enseignants et de recherche-action dans les classes, en raison de problèmes d'organisation et de la difficulté à repérer des enseignants disponibles à assumer la double tâche de l'enseignement et de la gestion du centre. L'héritage de la recherche-action, qui demeure une dimension incontournable de l'EBP, continue cependant dans le projet Validation de Démarches d'Apprentissages Plurilingues. Des équipes d'enseignants-chercheurs analysent des cours bilingues de disciplines non linguistiques vidéo-enregistrés, afin de documenter et de mettre en exergue les traits constitutifs des « bonnes pratiques » de l'EBP. Ces vidéos-modèles devraient être mises à la disposition des enseignants sur la page web de l'IRRE-VDA consacrée à l'EBP (< www.irre-vda.org/ebp >). Alors que la réforme bilingue était initiée à l'école maternelle, les enseignants de langues du secondaire ont eu la possibilité de suivre une formation dans le domaine de la didactique intégrée des langues (dorénavant DIL) qui a prévu deux phases distinctes. La première, plutôt « classique » dans la formule et dans les thèmes abordés, a offert (entre 1984 et 1990) des activités de formation communes aux enseignants d'italien et de français, réalisées avec l'apport de formateurs et d'experts italiens et français sur des thématiques relatives à l'éducation linguistique. La formule utilisée avait une orientation de type essentiellement transmissif. Les interventions des experts et des formateurs italiens et français étaient complémentaires par rapport aux contenus et aux méthodologies utilisées. L'initiative était laissée aux participants d'assumer, d'interpréter et de traduire les suggestions méthodologiques proposées. S'adressant à un grand nombre d'enseignants, cette formation a favorisé la création d'un langage commun et d'un socle partagé de connaissances et de compétences. Le passage à la deuxième phase, qui a duré quatre ans (1990-1994), a coïncidé avec la première introduction dans le curriculum de la langue étrangère (l'anglais) au niveau de l'école secondaire du 1 er degré. La nouvelle formule, qui s'inspirait largement de la recherche-action, visait l'implication directe des participants dans l'expérimentation de formes diversifiées d'intégration des enseignements linguistiques à travers des projets, l'accent étant mis notamment sur le transfert des apports formatifs dans les pratiques de classe. Pour ce faire, les enseignants devaient s'inscrire par groupe de trois d'un même Conseil de classe (respectivement enseignant d'italien, de français et d'anglais). L'IRRSAE a eu recours à une équipe de formateurs-consultants dont la tâche était d'approfondir la réflexion théorique sur l'intégration des enseignements linguistiques et sur les méthodologies à appliquer pour sa réalisation, mais également de suivre dans leur expérimentation les groupes d'enseignants en fournissant un appui ponctuel (théorique, méthodologique et didactique), à partir des besoins de leurs projets. Cette formation a permis de créer des liens entre les enseignants-chercheurs et les formateurs-experts, ce qui a favorisé l'intégration entre théorie et pratique, réalisée sur le terrain. Le projet a été l'occasion de réunir un ensemble de réflexions, de savoirs et de savoir-faire qui a permis à la DIL de se concrétiser dans des pratiques s'intégrant à la réforme bilingue (Bertocchi et alii, 1998). Comme pour les formations destinées aux enseignants de disciplines non linguistiques, le passage à la recherche-action a entrainé une diminution des participants. La collaboration avec les professeurs d'anglais a eu comme conséquence positive de faire profiter les enseignants d'italien et de français de la présence de collègues plus jeunes et plus fraichement formés dans leur discipline : la confrontation à l'altérité (métissage des générations, des expériences, mais aussi et surtout des différentes formations) a contribué à l'enrichissement des perspectives et à ce recadrage épistémologique, didactique et méthodologique rendu nécessaire par l'innovation. L'introduction de l'anglais dans l'éventail des langues a fait « bouger » la place du français dans les représentations des enseignants : son statut de langue étrangère a été relativisé par rapport à celui de l'anglais. Le français leur est apparu comme une langue seconde, finalement davantage présente dans le paysage linguistique du VDA que l'anglais. Depuis ses débuts, la réforme bilingue a été accompagnée par l'action d'un groupe d'enseignants-formateurs (2 à 4 professeurs, selon les périodes, détachés de l'enseignement auprès de l'UIT) dont la tâche était de faciliter, sur demande explicite des établissements, la mise en place de pratiques didactiques bilingues à travers des activités de suivi des expériences, de soutien et de formation sur le terrain, ainsi que de recherche. Cette pratique s'est institutionnalisée dans un projet de formation ad hoc : celle de formateurs dans le cadre de l'éducation linguistique. Cette formation s'adressait de façon spécifique aux enseignants de langues. Le projet visait la formation d'acteurs pouvant favoriser une gestion efficace et consciente des aspects langagiers dans l'institution scolaire engagée dans l'EBP, en offrant aux enseignants des instruments théoriques, conceptuels et opérationnels dans ce domaine. Le projet de cinq ans s'est articulé en deux phases : une formation de trois ans (1994-1997) et deux ans de suivi sur le terrain (1998-1999). Ces enseignants-formateurs ont reçu une formation longue et exigeante pour travailler dans un contexte organisationnel et institutionnel… qui n'était malheureusement pas encore prêt à les accueillir et à les utiliser comme personnes ressources ! À nouveau, apparait une coupure assez nette entre un petit nombre d'acteurs engagés et soutenant la réforme, se formant pour parvenir à l'implanter en transformant le discours en actes, c'est-à-dire en nouvelles pratiques d'enseignement, et une réalité institutionnelle qui, si elle n'est pas caractérisée par une franche et ouverte opposition, souffre surement d'une certaine force d'inertie et d'un certain degré de résistance au changement. Au moment de la réforme, la formation des enseignants de français n'a pas été jugée prioritaire et l'action de l'IRRSAE s'est concentrée sur les enseignants des autres disciplines. Ce fut là une erreur stratégique. La sous-estimation des changements impliqués par la généralisation de l'EBP pour le statut et les pratiques professionnelles des enseignants spécialistes du français a engendré un certain nombre de tensions. En 1993, soit après deux ans d'expériences bilingues, l'IRRSAE a mené une enquête auprès de ces enseignants. Il s'agissait de prendre connaissance de leurs réactions par rapport au rôle qu'ils devraient jouer dans la généralisation de l'EBP (Cavalli, 1995, p. xvii). 68 % des enseignants de français de l'époque ont répondu au questionnaire qui leur était proposé. 59,5 % d'entre eux jugeaient fondamental de réfléchir à la nouvelle donne en matière d'enseignements linguistiques (DIL); une bonne moitié (51 %) considéraient qu'ils devaient mettre leurs compétences au service du Conseil de Classe; seuls 36,4 % estimaient que, dans l'enseignement de leur spécialité, ils devaient tenir compte du fait que la langue française n'était plus seulement une discipline scolaire mais également une langue mobilisée pour faire des apprentissages autres que linguistiques; 14,8 % étaient persuadés qu'aucun changement notable ne devrait se produire dans leur enseignement. En 1995, une semaine de stage est organisée par l'IRRSAE autour du rôle du professeur de français dans l'innovation bilingue. Suivant le modèle des formations proposées en VDA, elle prévoit des apports théoriques, mais aussi des confrontations avec les expériences réalisées dans les degrés inférieurs (école primaire et école maternelle) et dans d'autres contextes à l'étranger. Les échanges qui ont eu lieu durant cette semaine étaient l'occasion de mesurer à quel point le choix initial de ne pas impliquer les professeurs de français dans la formation continue avait provoqué chez eux du ressentiment et un sentiment d'exclusion. Derrière les oppositions plus ou moins directes à l'EBP et la mise en cause de l'efficacité de cette mesure pour l'acquisition du français par les élèves, c'est bien un sentiment de perte d'identité et d'exclusion qui s'est exprimé au cours de ce stage. Ce fut aussi l'occasion pour relever combien, malgré les formations passées, les représentations relatives à l'enseignement du français semblaient rester ancrées dans des modèles d'enseignement bien antérieurs à l'approche communicative, et très axés sur des conceptions traditionnelles de l'apprentissage, alliés à une attitude de soumission totale à la norme monolingue, à une vision négative de l'erreur, etc. Quand une innovation est aussi systémique que celle qui consiste à passer à une EBP, il est fondamental de n'exclure aucun des acteurs dans le processus de réflexion initial, sinon on court le risque de provoquer des réactions dans une catégorie d'enseignants qui, loin de faciliter le processus par la mise à disposition de leurs ressources linguistiques, risquent de l'entraver. Il est, par la suite, beaucoup plus difficile de les orienter vers des attitudes plus positives. La formation à l'EBP au VDA a été moins conçue comme un espace de transmission de savoirs constitués que comme une occasion de co-construction de savoirs et, surtout, de savoir-faire originaux adaptés au modèle d'EBP choisi, qui se fonde sur une didactisation de l'alternance codique. Nous pouvons faire état d'une grande quantité d'acquis théoriques et conceptuels ainsi que méthodologiques qui restent toutefois confinés dans de petits groupes d'enseignants motivés et bien informés. La recherche de formules de diffusion efficaces de ces acquis reste un défi à relever, d'autant plus ardu que l'autonomie des établissements, conçue plutôt pour donner davantage de libertés afin d'expérimenter de nouvelles formes de transmission scolaire des connaissances, pourrait paradoxalement amener un risque de fermeture aux innovations, surtout à propos de problématiques aussi « chaudes » politiquement et idéologiquement que l'EBP au VDA. Par ailleurs, l'IRRE considère qu'une certaine forme de mobilité du corps enseignant valdôtain est absolument indispensable non seulement pour une évolution positive de l'EBP, mais comme une condition de sa survie : une mobilité qui permette aux enseignants de « sortir », d'exporter leurs expériences et leurs expertises, de les confronter à d'autres comparables de façon à ce qu'ils ne se sentent pas isolés face à la tâche de réaliser l'EBP, mais qu'ils s'appuient sur des façons de faire mises en œuvres dans d'autres contextes. Tel a été le cheminement parcouru jusqu' à aujourd'hui dans les actions de formation continue à l'EBP du corps enseignant de l'école secondaire du premier degré. D'autres formations sont en cours à l'initiative de l'administration régionale, avec des collaborations françaises au niveau des institutions universitaires. Par ailleurs, d'autres problématiques liées à la DIL apparaissent, renouvelant les défis que la société elle -même pose à l'école plurilingue : l'accueil et la valorisation des (variétés de) langues et des cultures d'origine des apprenants, qu'ils proviennent d'autres régions de l'Italie ou d'un ailleurs plus ou moins éloigné; l'apprentissage par ces mêmes apprenants de l'italien L2 et du français L3, les deux langues de scolarisation nécessaires à la poursuite des études et à l'entrée dans le monde du travail au VDA; l'introduction à l'école du francoprovençal, en tant que langue patrimoniale; l'extension de l'EBP au niveau de l'école secondaire du deuxième degré. Dernièrement, la Région Autonome du VDA s'est engagée avec le Conseil de l'Europe dans le processus d'un Profil de politique linguistique éducative : le rapport final du Profil (Conseil de l'Europe, 2008) et le Rapport Régional (Decime et Vernetto, éds, 2007) donnent une description approfondie de ce qui précède, ainsi que les perspectives déjà largement entamées par certains projets lancés par diverses institutions (Université du VDA, USAS, IRRE-VDA, etc.). Le processus d'adaptation des programmes de l' État à la réalité socioculturelle du VDA (envisagé depuis longtemps et depuis longtemps retardé par les aléas de la politique nationale) pourrait constituer une première occasion de mettre en cohérence l'ensemble de l'EBP depuis l'école maternelle jusqu' à l'école secondaire du deuxième degré et de repenser, en même temps, toute la formation – initiale et continue – du corps enseignant. Une recherche participative, lancée et coordonnée par l'IRRE-VDA, a ouvert la voie en se basant sur l'outil du scénario curriculaire finalisé proposé et élaboré par Daniel Coste (2006), consultant du projet. Les différents scénarios envisagés mettent l'accent sur des profils d'apprenants différents, qui impliqueraient des formations diversifiées et adaptées des enseignants. Mais c'est de futur que l'on parle là. Et d'utopie sans doute encore pour le moment. La transformation des pratiques, puisqu'elle implique une confrontation à différentes sortes d'altérité, est un processus de longue haleine. Il apparait néanmoins impossible aujourd'hui de ne pas tenir compte de l'évolution générale des représentations linguistiques, qui confère à la vision monolingue du bilinguisme un aspect désuet, même si les différentes formes du plurilinguisme ne sont pas encore pleinement pensées et agies dans le cadre de l'institution scolaire, qui peine à s'adapter à la réalité contemporaine. Il nous semble que, dans le contexte d'accroissement de la mobilité qui entraine une confrontation permanente à l'altérité, le Val d'Aoste a une longueur d'avance dans la formation initiale et continue des enseignants en matière de didactique s des plurilinguismes .
Cette contribution est un récit. Le récit de la mise en place d’une école bilingue italien-français dans un contexte politique et socioéducatif, le Val d’Aoste, qui valorise le plurilinguisme, mais qui connait une question linguistique relativement « chaude » par rapport au statut du français au sein de l’école, et plus largement dans cette région, qui doit son statut d’autonomie au fait que le français y est aussi langue officielle à côté de l’italien. L’inventaire des actions de formation entreprises aux différents niveaux du système éducatif et pour les différents enseignants depuis les années 1980 permet de contempler avec un certain recul le chemin parcouru, mais aussi de mieux cerner les obstacles, les difficultés rencontrées dans la mise en place d’un projet aussi ambitieux : faire que tous les enseignants des disciplines non linguistiques se sentent suffisamment en sécurité pour alterner l’italien et le français dans leur enseignement, tout en ne dépossédant pas les professeurs de français langue étrangère de leur savoir de spécialistes.
linguistique_11-0353955_tei_532.xml
termith-552-linguistique
L'élection présidentielle de 2007 a vu apparaitre de nouvelles émissions politiques dans lesquelles la parole journalistique laisse place à la parole citoyenne. C'est le cas de « J'ai une question à vous poser » (TF1) dans laquelle un panel de Français, constitué par un institut de sondage, interroge directement les candidats. Un tel concept avait déjà été expérimenté, le 14 avril 2005, lors d'un débat entre Jacques Chirac et quatre-vingt-trois jeunes avant le référendum sur le Traité constitutionnel européen. Cependant, la parole profane n'avait ni l'exclusivité du débat – quatre animateurs interrogeaient également le Président – ni une réelle liberté d'expression : la parole citoyenne apparaissait encore largement « domestiquée » (Neveu, 1995, p. 153) par l'appareil médiatico-journalistique (faible pouvoir de relance, reformulation de la question par l'un des animateurs, etc.). Si les conditions de prise de parole restent relativement floues dans l'émission « J'ai une question à vous poser » – Patrick Poivre d'Arvor affirme sur un chat n'avoir opéré aucune sélection parmi les questions posées et n'avoir procédé qu' à des regroupements thématiques –, l'animateur s'est effacé au profit de la parole profane. Certes, la centaine d'invités présents n'ont pas pu tous s'exprimer. En revanche, ceux qui ont pris la parole ont pu interagir en bénéficiant d'un pouvoir de relance permettant la remise en cause des réponses apportées par les candidats. En ce sens, l'émission de TF1 se rapproche du modèle interactif des échanges politiques (Mouchon, 1995) : la relation directe et plus égalitaire entre citoyens et personnel politique. Ce regain égalitaire se traduit, selon nous, par une modification du statut des citoyens. Le profane n'est plus uniquement considéré comme témoin du monde, interrogé pour son vécu (Darras, 1994; Mouchon, 2001; Charaudeau, 2005), mais également invité comme acteur légitime de l'espace public. En acceptant de se confronter à la parole profane devant des millions de téléspectateurs, les personnalités politiques mettent en jeu leur image (c'est-à-dire leur « construit social identitaire » : Moliner, 1996; Deschamps et Moliner, 2008), bien davantage que dans un rapport classique – et, somme toute, plus attendu – entre le journaliste et l'homme politique. Même si les invités politiques maitrisent mieux que les citoyens les conditions de la prise de parole télévisée (Darras, 1994), ils sont ici confrontés aux préoccupations des simples citoyens qui leur reprochent d' être déconnectés de la vie quotidienne (Mouchon, 1995, 2001). Ainsi, au lendemain de sa prestation télévisée, José Luis Zapatero suscitait la polémique suite à une question sur le prix d'un café dont il ne connaissait pas la valeur. Si ces questions pécuniaires renvoient à un vécu, les profanes n'en sont pas moins capables d'élaborer des inférences plus générales à partir de ce même vécus : « For example, people do not need the mass media to alert them to many aspects of the economy. Personal experience usually informs people about pricing patterns at Christmas or about rising gas prices. These are obtrusive features of the economy. » (McCombs, Reynolds, 2002, p. 8) L'image d'un candidat est le produit d'un processus de co-construction (Deschamps, Moliner, 2008) qui implique des inférences de part et d'autre : les représentations que l'homme politique se fait de l'opinion – si tant est qu'il existe une seule « opinion publique » (Charaudeau, 2005) – et celles que l'opinion se fait de l'homme politique. Mais s'il est courant d'entendre dire que les personnalités politiques « travaillent leur image », rien ne permet d'affirmer que cette image, donnée à voir, sera correctement interprétée par les citoyens. Dès lors, les questions des citoyens véhiculent des représentations qui peuvent ne pas correspondre à ce que le candidat cherche à montrer de lui -même durant la campagne. La désaffection des programmes politiques a fait l'objet de nombreuses études : ce n'est pas le journalisme politique qui aurait changé, mais il y aurait un écart grandissant entre un certain idéal de la couverture médiatique de l'actualité politique et les formes actuelles du journalisme politique, c'est-à-dire un fossé entre l'offre médiatique et la demande des citoyens (Nadeau, Giasson, 2003). À côté des émissions politiques traditionnelles, les personnalités politiques peuvent rechercher la fréquentation d'émissions dont le cadre, le ton et le contenu apparaissent comme moins formels, rigides et solennels. Ce fut le cas de « Questions à domicile » (diffusée sur TF1 de 1986 à 1989), qui cherchait à se démarquer par une approche plus intimiste de l'homme politique (Le Grignou, Neveu, 1997). Plus récemment, les émissions d ' infotainment ont marqué une évolution notable : la politique s'intègre au divertissement dans une volonté de se rapprocher des « citoyens d'en bas » (Pino, Marchand, 2007). Dans cette perspective, nous nous sommes attachés à analyser les questions posées par les citoyens. Bien qu'ayant des compétences sociales et d'élocution différentes, les profanes interrogent sur un même plateau, et dans un laps de temps réduit, un candidat ou une candidate sur des sujets qu'ils ont (normalement) eux -mêmes choisis. Analysé comme une interaction, tout questionnement implique un jeu d'attentes et d'images réciproques qui pèse sur le choix des mots et des formules. Mais la parole citoyenne est-elle à même d'éviter les filtrages journalistiques qui conduisent fréquemment à adapter les questions à leurs cibles (Marchand, 2004) ? Les citoyens reproduisent-ils des biais de discrimination dans leur perception et interrogation du corps politique ou en génèrent-ils d'autres ? À partir de quelles caractéristiques (politiques, physiques, etc.) les citoyens se construisent-ils une image des candidats ? Plusieurs hypothèses peuvent être posées, qui font intervenir les caractéristiques des cibles des questions (sexe, parti politique, etc.), mais également celles des sources. Plus précisément : y a -t-il une distinction opérée entre les personnalités de gauche et celles de droite ? Entre les petits et les grands candidats (majorité / minorités parlementaires) ? Y a -t-il des thématiques et/ou des formulations propres aux genres qui discriminent les hommes et les femmes ? Une attention particulière est portée à cette dernière hypothèse : l'élection présidentielle de 2007 ayant, pour la première fois durant la Cinquième République, opposé – au second tour – un homme et une femme, nous nous demandons si la catégorisation sexuelle a pu discriminer les candidates. Nous nous référons ici à la division sexuelle de la société et aux représentations de genre qu'elle génère (Bourdieu, 1998; Ballmer-Cao, Mottier, Sgier, 2000; Achin, Lévêque, 2006). L'approche privilégiée relève de l'analyse statistique des données textuelles (Lebart et Salem, 1994). Nous avons transcrit les questions des citoyens dans les programmes « J'ai une question à vous poser » (TF1) et « À vous de Juger » (France 2). Dans son dispositif, le programme de France 2 se rapproche de l'émission politique traditionnelle, puisque seule une partie de l'émission est consacrée à la parole citoyenne. Pourtant, il nous a paru judicieux de l'analyser car ces émissions ont été diffusées pendant la même période, mais aussi parce que la journaliste a tenté d'instaurer, entre l'invité et le citoyen, un dialogue qui dépasse le simple cadre du modèle « question unique-réponse ». Le corpus se compose de huit émissions qui correspondent aux quatre principaux présidentiables : Nicolas Sarkozy et Ségolène Royal bénéficient chacun d'une émission entière; François Bayrou et Jean-Marie Le Pen d'une demi-émission. Le reste des émissions est partagé par les petits candidats : – TF1 : Nicolas Sarkozy (5 février) / Jean-Marie Le Pen puis, invités séparément, Marie-George Buffet, Philippe de Villiers et Olivier Besancenot (12 février); Ségolène Royal (19 février) / François Bayrou puis, séparément, Dominique Voynet, José Bové et Arlette Laguiller (26 février); – France 2 : Jean-Marie Le Pen puis, réunis simultanément, Dominique Voynet, Olivier Besancenot et Nicolas Dupont-Aignan (8 février) / François Bayrou puis, simultanément, Marie-George Buffet, José Bové et Philippe de Villiers (15 février) / Nicolas Sarkozy (8 mars) / Ségolène Royal (15 mars). Nous avons conservé, lors de la transcription, les particules discursives (bon, voilà, etc.) et les hésitations telles que les phrases inachevées. La transcription correspond donc à ce qui a été dit et entendu lors des émissions. Pour l'analyse, dix variables ont été définies pour décrire chaque question. Elles concernent le sexe des interlocuteurs (masculin/féminin), le nom du candidat interrogé, son appartenance politique, le statut de cette appartenance (distinction entre candidats des principales formations et candidats des formations marginales), la chaine de diffusion. Certaines variables, enfin, croisent deux des variables précédentes (candidat et chaine de diffusion; sexe du citoyen et nom du candidat; etc.). Nos résultats reposent sur une analyse lexicométrique du corpus réalisée à partir des logiciels Alceste et Lexico3. Un tableau lexical est construit, croisant l'ensemble des formes lexicales du corpus et, tantôt l'ensemble des variables utilisées (Lexico3), tantôt le corpus segmenté en unités de contexte (Alceste), unités qui peuvent correspondre à une ou plusieurs phrases. La classification hiérarchique descendante (Alceste) est une procédure qui permet de définir des classes statistiquement homogènes à partir du vocabulaire (Reinert, 1990). Pour éviter des artefacts, notamment de genre grammatical, les formes lexicales sont réduites à leur racine pour les substantifs (notée racine+) et à l'infinitif pour les verbes (noté racine+er). Quant au calcul des spécificités (Lexico3), il s'agit d'observer la distribution des formes lexicales selon les différentes partitions correspondant aux variables décrites plus haut : plus la distribution d'une forme lexicale se distingue d'une distribution aléatoire, plus cette forme est dite spécifique de la modalité de variable étudiée. Le corpus compte 278 questions, les trois-quarts provenant de l'émission de TF1 (207 questions). 115 questions ont été posées par des femmes et 163 par des hommes. Les questions se répartissent comme suit. Le corpus compte 38 822 occurrences qui représentent 4 398 formes distinctes. La classification hiérarchique nous permet de distinguer, à partir des 839 unités de contextes, deux grands profils lexicaux : la classe n° 1 (36,59 % du corpus) et la classe n° 2 (63,41 % du corpus). Nombreuses sont les références à l'argent, qu'il s'agisse de rentrées ou de dépenses financières (euro+, salaire+, smic, augment+er, pa+yer, argent, allocat+ion, aide+, loyer+, retraite+, achat+, cotis+er, bénéfici+er, compt+er, gagn+er, financ+er, charge+) et à l'univers professionnel (salarié+, travail, embauch+er, entreprise+, main+, emploi+, cdi, heure+, œuvre, anpe, patron, chômeur). Pour déterminer les facteurs qui expliquent ce lexique, nous calculons une corrélation entre la classe et les modalités de variables codées dans le corpus. Le facteur principal de la classe 1 est une modalité croisant le sexe des deux interlocuteurs (s2=ff) : il s'agit surtout d'échanges femme-femme. Dans une moindre mesure, d'autres modalités sont corrélées avec ce lexique : le candidat (can=vobedu), le sexe du candidat (cansex=f), le sexe de l'intervenant (sex=f) et le sexe de l'intervenant croisé avec le candidat (sexcan= fvobedu; sexcan=froyal; sexcan=fbuffet). Les segments répétés caractéristiques de cette première classe (j'ai, je suis, on est, pouvoir + achat) montrent qu'il s'agit souvent pour les femmes de raconter leur situation personnelle et les difficultés financières qu'elles rencontrent. Les formes euro+ et mois renvoient généralement au montant de leur revenu mensuel. La classe n° 1 correspond donc à des questions impliquant fortement les femmes, qu'il s'agisse de la personne qui interroge ou de la personne interrogée, et concernent avant tout des références financières et professionnelles : Bonsoir Madame, donc vous avez fait une proposition du SMIC à 1 500 euros et je voudrais savoir déjà comment vous allez le financer parce que, bon, y a beaucoup de salaires qui sont un petit peu au-dessus et donc ces salaires vont devenir, être payés au smic alors que souvent sont occupés par des gens qualifiés et donc voilà, je voulais savoir comment vous comptez financer ce, cette mise en place [. .. ]. (Question posée par une femme à Ségolène Royal) La seconde classe renvoie à l'élection (présid+ent, République+, présidenti+el, candidat+, propos+er, élu+) et à la gestion de l'interlocution (vous, sujet+, question+, êtes, Monsieur, votre, savoir+, avez, et les segments je vouloir, je vouloir.savoir+). D'autres thèmes apparaissent également tels que la France, l'Europe et la sécurité (France, agricult, quartier+, nationa+l, Europe, sécurité+, éducat+ion, français, européens). Cette seconde classe regroupe des thèmes qui dépendent du contexte électoral et de la nature de l'élection : s'agissant d'élire un nouveau président, la question politique occupe une large place dans les questions des citoyens, qu'il s'agisse des références à la campagne en cours, des orientations politiques envisagées ou des considérations nationales et extra-nationales. Bonsoir Monsieur Bayrou, j'ai une question à vous poser sur l'Europe. Êtes -vous favorable à l'élargissement de l'Union européenne à l'Est notamment, la Turquie et l'Ukraine ? (Question posée par un homme) C'est à nouveau le sexe du candidat, mais masculin ici (cansex=m), qui est le facteur le plus corrélé avec ce lexique. On note également d'autres modalités : l'appartenance politique (pol=d), le média (m=tf1) et le sexe de l'intervenant (sex=m). Il s'agit surtout de questions adressées aux candidats masculins et d'échanges homme-homme (s2=mm). Cette classification lexicale permet de lever une possible ambigüité, liée à la double appartenance des candidats (groupe politique / groupe sexuel) : dans cette élection, les femmes étaient majoritairement situées à gauche de l'échiquier politique et les hommes à droite. Les résultats rendent plus saillante une distinction selon le sexe et invalident les autres hypothèses (impliquant le statut des formations politiques). Un calcul des spécificités lexicales permet de distinguer, à partir de la variable « sexe du candidat », les caractéristiques des questions adressées aux hommes de celles posées aux femmes. La première observation, sur le tableau des spécificités, concerne l'utilisation du segment président de la République (24 occurrences), qui est spécifique aux questions adressées aux hommes et significativement absent de celles posées aux femmes. Cette différence vaut également pour les formes si vous êtes élu (13 occurrences sur 14) et président (35 occurrences sur 41). Bien que les femmes convoitent la même fonction, seuls les hommes sont explicitement et fréquemment projetés dans le statut présidentiel. Cet évincement discursif est d'autant plus intéressant qu'il ne concerne pas les candidats de partis minoritaires mais plutôt l'ensemble des candidates, qu'elles représentent des partis minoritaires ou majoritaires. Cependant, la candidature de Ségolène Royal est mieux prise en compte que celle des autres candidates au regard de la distribution de la forme élue : 6 occurrences sur 9 renvoient à la candidate PS, sans que cela apparaisse pour autant comme une spécificité. Marie-George Buffet se voit même une fois interrogée sur la victoire de Ségolène Royal : « Voilà, madame Buffet bonjour, je voulais savoir si madame Ségolène Royal est élue à l'issue du deuxième tour [. ..] ». Sur les 22 occurrences de la forme élu, 21 correspondent à des questions adressées aux hommes. Au-delà du statut présidentiel, les femmes sont également exclues des activités présidentielles. En effet, chargé de diriger le pays au travers d'une orientation politique et de représenter la nation sur le plan international, le futur président est censé être confronté à ces sujets. Or, ces univers de référence – gouvernance et international – distinguent nettement les hommes des femmes. En lien avec le contexte électoral, nous avons rassemblé dans un groupe de formes, nommé « politique », l'ensemble des références à l'univers électoral : campagne, candidat, candidats, candidature, candidatures, électeur, électoral, électoraux, électeurs, élection, élections, mesure, mesures, politicienne, politiciens, politique, politiques, présidence, présidentielle, présidentielles, programme, programmes, projets, promesses, proposer, proposerez, proposez, proposition, propositions. Ce groupe de formes n'est pas spécifique aux questions posées aux hommes, mais il apparait significativement absent de celles posées aux femmes. L'accession des femmes aux hautes fonctions est d'autant moins prise en compte que la question de la gouvernance est réservée aux hommes. Le groupe de formes « gouvernance » renvoie à l'organisation du pouvoir (assemblée, gouvernement, gouvernements, gouverner, légiférer, législation, législatives, loi, lois, ministère, ministères, ministérielle, ministériels, ministre, parlementaires). Les candidats sont non seulement projetés dans la fonction présidentielle mais également interrogés sur les pratiques du pouvoir qu'elle implique. Si ce groupe de formes n'est pas significativement absent des questions posées aux femmes, en réalité seule Ségolène Royal est interrogée sur ce sujet, étant plus à même que les autres candidates d'arriver au second tour de l'élection. Dans cette logique discriminatoire, les candidats de partis minoritaires, hommes et femmes confondus, ne sont pas considérés comme des présidentiables puisque la question de la gouvernance se concentre exclusivement autour de quatre personnalités : Nicolas Sarkozy, Jean-Marie Le Pen, Ségolène Royal et surtout François Bayrou, placé en position de « troisième homme » par les sondages. Les hommes sont également bien plus confrontés aux questions européennes et internationales. Le groupe de formes « Europe » (Europe, européen, européenne, européennes et européens) est significativement présent dans les questions adressées aux hommes, qu'il s'agisse de références à la Constitution européenne et des suites à donner au processus et à l'organisation de l'Union européenne. De nouveau, cette thématique vise les quatre principaux présidentiables, même si pour le candidat d'extrême droite, la question européenne est abordée en partie sous l'angle de l'immigration. Le groupe de formes « international » regroupe l'ensemble des références aux pays étrangers, européens ou non (Afrique, Allemagne, américain, américaine, anglais, Angleterre, Arafat, Blair, chiites, Chine, Françafrique, Hongrie, international, internationale, internationaux, Irak, Iran, iranienne, Irlande, Israël, israélien, israélo, Jérusalem, kurdes, Liban, mexicains, Mexique, mondial, Palestine, palestinien, Pologne, Roumanie, sunnites, Turquie, Ukraine, unis). À la différence des femmes, les hommes sont souvent invités à s'exprimer sur l'international (mondialisation économique, conflits, diplomatie). José Bové et Nicolas Sarkozy sont les candidats les plus interrogés à ce sujet, alors que Marie-George Buffet, Arlette Laguiller et surtout Ségolène Royal n'y sont pas confrontées. Amenés à s'expliquer plus fréquemment que les femmes sur les questions politiques et sur leur vision extranationale (Europe et questions internationales), les hommes discourent donc sur leur future fonction de chef d' État dans la mesure où, bien plus que tout autre élu, le président représente son pays au niveau international. Les femmes sont invitées à s'exprimer sur trois thématiques : l'enseignement, l'entreprise et l'argent, tandis que les questions adressées aux hommes n'y font pas référence (spécificités négatives). Le groupe de formes « enseignement » regroupe aussi bien les lieux, les acteurs et les activités liées à l'enseignement : collège, collèges, diplômée, diplômés, école, écoles, élèves, enseignant, enseignants, enseigner, enseignement, études, étudiant, étudiants, étudier, lycée, lycéennes, lycées, prof, professeur, professeurs, rentrée, scolaire, universitaire, université, universités. Dominique Voynet mais surtout François Bayrou (7 questions) et Ségolène Royal (9 questions), qui ont tous deux occupé des fonctions ministérielles liées à l'enseignement, sont les plus interrogés sur ce sujet alors que José Bové, Jean-Marie Le Pen et Nicolas Sarkozy (2 questions) y sont moins confrontés. Outre l'enseignement, l'entreprise apparait comme l'univers référentiel qui distingue le plus les femmes des hommes. Le groupe de formes « entreprise » (chef, chefs, entrepreneur, entrepreneurs, entreprennent, entreprise, entreprises, patron, patrons, pme, salariés, sociétés, tpe) est significativement évité dans les questions posées aux hommes (MM. Bayrou, Le Pen et Sarkozy) et surtout spécifique aux candidates Arlette Laguiller et Ségolène Royal. Le thème de l'entreprise, analysé en contexte, est fortement lié à celui de la fiscalité et à l'appartenance politique des candidates : sur les huit questions uniquement consacrées à l'entreprise sur lesquelles Ségolène Royal doit s'exprimer, six concernent la lourdeur fiscale qui freine, selon les intervenants, le développement des entreprises. Concernant le groupe de formes « finance » (finance, financée, financement, financer, financier, financièrement, financières, financiers, moyens), il s'agit surtout de questions sur la concrétisation financière des mesures prônées par les candidates : Comment financer le projet ? Où trouver l'argent ? Qui taxer ? Ségolène Royal est la plus questionnée sur ce sujet, et ce thème se discute essentiellement entre femmes (spécificité négative pour les échanges homme-homme et pour François Bayrou) : Bonsoir Madame Royal, donc moi j'avais une question plus générale en fait, parmi toutes vos propositions, comment vous comptez financer, qui va payer sans creuser davantage la dette ? (Question posée par une femme) En corollaire, la fiscalité (charges, cotisations, fiscal, fiscales, fiscalité, impôt, impôts, taxe, taxé, taxer, taxés, taxes) est une thématique qui touche les femmes, notamment Marie-George Buffet, et concerne essentiellement les échanges femme-femme. Les thèmes de l'entreprise et de la finance (fiscalité comprise) développés par les intervenants apparaissent comme une réaction aux mesures sociales proposées par les candidates. En ce sens, l'appartenance politique des candidates, toutes situées à gauche de l'échiquier politique, explique en partie un tel résultat. Qu'il s'agisse de la fiscalité ou de la compatibilité entre les mesures sociales avancées et la situation financière de la France (dette de l' État. ..), les candidates doivent faire face aux préoccupations comptables des Français. Mais la préoccupation pécuniaire concerne également la question du pouvoir d'achat, thème mis en avant lors de la campagne présidentielle. Si le segment pouvoir d'achat (10 occurrences) ne discrimine pas les invités politiques, il se décline par connotation au travers d'autres formes, spécifiques aux femmes : augmentation, augmenter, coût+, l'argent, retraites, revaloriser, smic. Les formes augmenter, charges, l'argent, retraites, smic, taxe+, 1 500 sont des spécificités des questions femme-femme. L'analyse des spécificités en fonction cette fois -ci du sexe des intervenants montre que les femmes abordent plus volontiers les thématiques de l'enseignement et de l'argent. En rapport avec leur statut de mère de famille, la question de l'enseignement est fortement significative, la forme scolaire (20 occurrences) étant à elle seule uniquement abordée par les femmes (soutien scolaire, carte scolaire et allocation de rentrée scolaire). La thématique pécuniaire apparait de nouveau fortement marquée par le genre, puisque les femmes y font souvent référence. Si le groupe de formes « fiscalité » ne discrimine pas les intervenants, certaines formes qui le composent apparaissent en revanche spécifiques au discours féminin – c'est le cas de la forme charges ou des groupes taxe+ (taxe, taxé, taxes, taxés, taxer) et « finance ». La préoccupation pécuniaire liée au pouvoir d'achat est renforcée par les références aux allocations (allocation, allocations) et à l'emploi de la forme euros (28 occurrences féminines sur 45 au total), dans un discours chiffré mais surtout pragmatique où l'expérience individuelle et les revenus perçus sont mis en exergue : Vous parlez de la France de demain, la France de demain elle fait partie des, elle est dans les écoles et au niveau de l'inégalité sociale des cours, au niveau des cours de soutien scolaire. Aujourd'hui, en terminale, si on a besoin de cours de soutien scolaire, il faut avoir de, des moyens, il faut avoir les moyens de pouvoir les assumer et, en fait, à 26 euros l'heure de cours en terminale, on a besoin de, si on veut deux heures de cours de maths par semaine, ça fait 50 euros par semaine, on multiplie ça par, ça va faire du 200 euros par mois, il y a une inégalité, personne ne peut, c'est pas offert à tout le monde. Que comptez -vous faire pour ça, vous parlez d'égalité des chances pour tout le monde, elle est où dans, elle est où aujourd'hui en France ? [. ..] J'ai pas eu de réponse à ma question [. ..] Sur le soutien [. ..] Et sur les conditions de travail de la femme ? (Question posée par une femme à Ségolène Royal) Malgré le cas de Jean-Marie Le Pen, qui polarise en partie la question européenne sous l'angle de l'immigration, les références à la fonction présidentielle et à l'international (Europe comprise) ne relèvent pas de l'appartenance politique. Les deux classes mises en avant (gouvernance / diplomatie; enseignement / sphère économique) sont avant tout expliquées par les sexes respectifs des interlocuteurs : l'univers électoral et diplomatique concerne les questions adressées aux hommes alors que l'enseignement et la sphère économique (argent, fiscalité, entreprises) polarisent les questions posées aux femmes. Perçues avant tout au travers de leur catégorie sexuelle, les femmes sont interrogées sur des sujets distincts de ceux des hommes et qui renvoient à des thématiques particulières. En lien avec la vision phallo-narcissique de la société (Bourdieu, 1998; Goffman, 2002) et le contexte électoral (campagne présidentielle), il s'avère que les sujets auxquels sont confrontées les candidates les discriminent dans leur accession à la fonction présidentielle. Les femmes interrogées ne sont pas considérées comme leurs pairs masculins, c'est-à-dire comme des candidats présidentiables. Conformément au postulat de Bourdieu (1998), les questions des citoyens s'avèrent ici être des questions de genre : la domination masculine ne cesse de renouveler ses formes. Ce n'est pas tant leur statut de personnalité politique qui est remis en cause, quoi qu'elles soient tout de même soumises à des représentations genrées (Derville et Pionchon, 2005; Sourd, 2005), que leur prétention à accéder à la plus haute fonction politique. Et on ne peut s'empêcher d'observer que cet effet est le plus fort lorsque le questionneur et le questionné sont du même sexe : les situations dans lesquelles, soit les femmes interrogent des femmes, soit les hommes interrogent des hommes, sont celles qui marquent le plus cette discrimination générique. Tout semble se passer comme si l'identification générique avait supplanté l'identification politique. Ce résultat confirme : – La distinction qui peut exister entre les images que les personnalités politiques souhaitent émettre et celles qui sont construites par les citoyens. À l'inverse des hommes, les femmes doivent faire face à une discrimination sexuelle : cela implique le recours à des représentations genrées, recouvrant des normes et stéréotypes de genre encore persistants, de la part de ceux et celles qui les interrogent. – La prégnance du genre dans l'accession des femmes au pouvoir. Malgré leur émancipation dans les sphères publiques et politiques, les femmes subissent toujours la division sexuelle de la société (Ballmer-Cao, Mottier, Sgier, 2000; Achin, Lévêque, 2006). Elles demeurent encore exclues des politiques publiques traditionnellement masculines (politique étrangère, internationale, etc.) et restent cantonnées aux affaires publiques liées à l' État-Providence et au social .
L'analyse lexicométrique des questions de profanes dans les émissions politiques de la campagne présidentielle de 2007 permet de mettre en avant les représentations convoquées par les citoyens pour juger les candidat(e)s. L'identification générique supplante l'identification politique: a contrario des hommes, les femmes politiques ne sont pas considérées comme de véritables présidentiables.
linguistique_11-0392163_tei_811.xml
termith-553-linguistique
Au cours de nos vies, nous nous présentons sans cesse aux autres avec une variété incroyable de moyens et dans une gamme infinie de situations. Que ce soit au travail, dans la vie de tous les jours, en famille ou avec les amis, nous accomplissons nos identités dans et par cet outil puissant, créateur de réalités qu'est la présentation de soi. Pensons par exemple aux pratiques de coming out et aux façons dont nous dévoilons notre identité sexuelle aux autres. Quels mots, quelles tournures utiliser ? Et encore, faut-il le dire à tout le monde ? Au cercle intime de la famille ? Aux collègues de travail ? Et surtout, quand ? Attendre qu'on nous pose la question ? Profiter d'un moment propice pour les confidences ? Ou l'annoncer d'une façon plus ou moins abrupte ? Des problèmes bien connus par la communauté LGBTQ mais aussi des questions cruciales pour une étude sociolinguistique, interactionnelle des pratiques identitaires. Dans ce cadre, l'identité s'accomplit dans et par le langage qui devient l'outil et l'espace au sein desquels nous construisons nos vies, nous nous positionnons dans le monde, nous agissons avec les autres en mobilisant des dispositifs catégoriels et les formes linguistiques les plus appropriées pour le contexte en cours. Selon Judith Butler (2005 : 51) la présentation de soi contient deux caractéristiques principales : d'une part, elle constitue un effort pour communiquer de l'information sur soi; d'autre part, elle recrée et met à nouveau en place les présomptions tacites de la communication et des relations qui structurent la manière de nous constituer en tant que sujets dans le monde. Ainsi, la présentation de soi recrée les conditions mêmes de l'interlocution et du rapport à l'autre tout en s'inscrivant dans une histoire qui nous dépasse mais qui rend possible ce que nous faisons avec le langage. De ce fait, nous apprenons tout le temps à construire des présentations qui soient les plus pertinentes pour la situation et les interlocuteurs avec lesquels nous interagissons. Les mots que nous choisissons et qui vont donner de la chair à nos présentations ne nous appartiennent pas complètement, ils nous échappent en quelque sorte. Combien de fois avons -nous éprouvé un sentiment d'inadéquation par rapport aux catégories (femme, homme, sociolinguiste, mère, père, fille, fils…) censées nous constituer en tant que sujets ? Cependant, c'est dans cette tension que nous réussissons à accomplir nos identités tout en jouant, en rejouant ou en déjouant le répertoire des catégories transmises dans nos cultures et dans nos sociétés (Butler, 2005). Goffman qui a été un des sociologues les plus influents du siècle passé dans le domaine des interactions sociales définit la présentation de soi en jouant sur un rapport dialectique entre l ' « expression » que nous véhiculons avec nos présentations et l ' « impression » que les autres en retirent : […] j'examinerai ici de quelle façon une personne, dans les situations les plus banales, se présente elle -même et présente son activité aux autres, par quels moyens elle oriente et gouverne l'impression qu'elle produit sur eux, et quelles sortes de choses elle peut ou ne peut pas se permettre au cours de sa représentation. (Goffman, 1973 : 9) Ainsi, la présentation de soi est une pratique interactionnelle : elle s'adresse aux autres et elle est pensée pour un auditoire et un contexte précis. Dans ce cadre, des auteurs s'inscrivant dans l'analyse de discours y ont vu un trait constitutif de toute interaction sociale par le fait que toute prise de parole implique toujours une présentation de soi, autrement dit, un ethos (Amossy, 2010 : 7). D'autres chercheurs ont souligné plutôt la dimension thématique (Traverso, 1998 : 194) ou plus strictement interactionnelle en focalisant leur attention moins sur les thèmes introduits par le locuteur que par la façon dont l'interlocuteur va reconnaitre dans le compte-rendu effectué par le locuteur un format reconnaissable en tant que « présentation de soi » (Antaki et al., 2005). Dans cette perspective, la présentation de soi est identifiable par des patterns interactionnels et peut être définie comme un ensemble de méthodes mobilisées par les participants pour se présenter aux autres en mobilisant des ressources linguistiques, des dispositifs catégoriels, des formats interactionnels pertinents pour la situation en cours. Voici, dans l'extrait ci-dessous, un exemple tiré d'un tour de table précédant une conférence d'un spécialiste sur la parenté et organisé par une association parisienne de parents et futurs parents gays et lesbiens : 1. TDTGOD 254-261 1 Va voilà 2 (3) 3 JY donc jean-yves/ je suis le parent social d'un petit 4 garçon de deux ans et demi/ qui est né en maternité 5 pour autrui… avec Hubert avec qui je vis depuis 6 seize ans/ xxx depuis très longtemps pour ne pas 7 dire trop longtemps 8 Va (( rire)) 9 H bonsoir/ hélène/ à : : l'APGL depuis décembre/ <donc c'e::st 10 tout. Dans cet exemple, la présentation de soi de JY (l. 3-7) est encadrée par la prise de parole (l. 1) et le rire de VA (l. 8), l'animatrice du tour de table. JY prend le tour après un lieu de transition de parole possible (voir la pause l. 2) et en suivant l'ordre des participants disposés autour de la table. Le « voilà » de l'animatrice (l. 1) est appréhendé comme une ressource clôturant la présentation précédente et ouvrant le champ à une nouvelle, la sienne. La présentation de JY (l. 3-7) mobilise plusieurs dispositifs catégoriels : le nom propre, le statut parental et de couple. Ces dispositifs sont construits dans le temps pendant lequel il garde la parole malgré de nombreux points de transition de parole possibles (voir l'intonation montante, la micro-pause l. 5). Après le rire de l'animatrice (l. 8), la participante assise juste à côté de lui prend la parole (l. 9) et de fait reconnait la présentation de JY comme étant close. Ce court extrait et l'analyse que nous avons proposée nous permettent de dresser une sorte de bilan autour des dimensions que l'on peut étudier dans une approche multidimensionnelle de la présentation de soi : la dimension langagière : quelles ressources verbales (et non verbales) mobilise -t-on pour se présenter à son auditoire ? la dimension catégorielle : quels dispositifs identitaires choisit-on pour se présenter d'une façon adéquate par rapport à la situation et aux interlocuteurs ? la dimension séquentielle : dans quel environnement interactionnel la présentation de soi est-elle censée émerger ? la dimension temporelle : de quelle façon la présentation des participants change -t-elle au cours de l'enquête et de leur vie ? Et enfin, la dimension réflexive : comment les présentations des participants, qu'elles soient au présent ou projetées dans un futur hypothétique (« quand je serai X / si je deviens X » …), contribuent-elles à la construction d'un désir et d'un projet de vie ? En prolongeant les travaux que nous avons consacrés à une approche multidimensionnelle de la présentation de soi (Greco, 2010, 2006, sous presse, à paraitre), nous nous concentrerons dans ce texte sur la dimension réflexive de la présentation de soi tout en faisant référence à la dimension catégorielle et séquentielle. Le cadre théorique des analyses présentées dans ce texte renvoie à une conception praxéologique du langage conçu en tant que mode d'action, collectivement accompli et historiquement ancré. Cette vision puise ses racines au sein de l'anthropologie linguistique (Duranti, 1997) mobilisant les approches interactionnelles d'inspiration conversationnelle (Sacks, 1992; Sacks, Schegloff et Jefferson, 1974) et les méthodologies ethnographiques. Les analyses présentées dans ce texte souligneront ainsi le placement séquentiel de la présentation de soi ainsi que sa dimension catégorielle à partir d'un objet dont les coordonnées théoriques et analytiques croisent tant l'ethnométhodologie que l'anthropologie linguistique et les études de genre. Les données présentées dans cet article sont issues d'une recherche de terrain que j'ai menée dans une association de parents et de futurs parents gays et lesbiens en région parisienne. Pendant la durée de ce terrain (trois ans), j'ai eu la possibilité d'observer, de participer à et d'enregistrer un bon nombre d'activités proposées par l'association : des groupes de parole, des échanges sur la mailing list de l'association, des rencontres organisées par l'association et adressées à ses membres, des cafés politiques, des manifestations et des entretiens avec les adhérents. De ce fait, mon dispositif ethnographique s'est assez vite caractérisé par une multitude d'activités proposées par l'association ayant lieu dans des espaces divers et variés. Le choix de travailler sur la présentation de soi et sur ses multiples dimensions m'a amené à mettre en place un dispositif ethnograhique multi-sites (Marcus, 1995) me permettant de suivre les activités des membres de l'association dans plusieurs endroits différents en jonglant à la fois avec l'identité de « participant » et d ' « observateur » selon les moments, les contextes et les interlocuteurs rencontrés au fil de mon enquête (Greco, 2010). Lors du terrain, j'ai été impressionné par le rôle que jouait le langage dans la construction d'un projet parental. La construction d'une famille s'imbriquait ainsi avec une sorte de « planification linguistique » autour des termes de parenté choisis pour désigner et nommer les parents biologiques et sociaux. De ce fait, un certain nombre de questions étaient débattues lors des rencontres : comment appeler la compagne ou le compagnon du parent biologique ? Maman, papa ? Ou bien, fallait-il trouver un autre terme plus adéquat pour signifier la position de parent social (vs biologique) vis-à-vis de l'enfant ? Et encore, comment l'enfant allait-il se débrouiller avec ses pairs en parlant de sa famille ? J'ai deux mamans ? ou j'ai une mère et une marraine ? Souvent ces problèmes faisaient l'objet d'importantes discussions lors des groupes de parole, des échanges sur le net ou des réunions entre membres de l'association. Souvent, dans le cadre de ces discussions, les participants avaient aussi la tendance à se projeter dans le futur en imaginant des discussions soit entre parents et enfant, soit entre enfants eu égard à leurs configurations parentales. C'est autour de cet aspect que je voudrais recentrer les analyses contenues dans ce texte. Après avoir présenté un cas exemplaire de présentation de soi projetée au futur (§ 3), je me pencherai sur d'autres extraits en me focalisant sur la temporalité et l'intertextualité des évènements rapportés ainsi que sur la dimension morale de ces présentations (§ 4). Enfin, je terminerai avec un retour réflexif sur ma propre présentation au cours de l'enquête (§ 5), ce qui me permettra par la suite de dresser un bilan conclusif (§ 6) sur les questions débattues dans ce texte. Les données utilisées dans cet article sont issues d'un corpus assez hétéroclite composé d'interactions au sein d'un groupe de parole, d'un tour de table organisés par les membres de l'association et d'échanges ayant lieu dans la mailing list de l'association. Les analyses présentées dans ce texte ne prétendent ni dresser des généralisations sur la dimension réflexive de la présentation de soi ni proposer un modèle qui rendrait compte des contraintes contextuelles sur la configuration linguistique et interactionnelle de la présentation de soi. Dans ce cadre, l'objectif que je poursuis est double. D'une part, je souhaite poser des jalons pour l'étude de la dimension réflexive de présentation de soi. D'autre part, je contribue avec ce travail à la mise en place d'une approche multidimensionnelle des pratiques identitaires. Dans cet extrait, Hilary, l'animatrice d'un groupe de parole thématique « futurs parents », imagine la façon dont l'enfant d'un couple homoparental pourra parler de sa famille au futur : 2. GDP34-78jeux-billes 1 H il y jouera avec son discours i - se trouve un discours 2 l'enfant mais ça nous on maitrisera pas forcément. 3 I hum hum 4 H on lui donnera des billes pour s'exprimer sur nous la 5 façon : °(donc, dont)° comment on va lui dire mais 6 [après] 7 E [hum] 8 H lui/ pou - pou - parl - rapport à ses copains i - 9 s'débrouillera hein : [i -] fera i - & 10 E [hum] 11 H & f'ra/ i - f'ra :/ 12 I i - f'ra avec 13 H [i - f'ra avec] (( plusieurs tours omis)) 23 H [parce que/ l'enfant i - va s'dire/] 24 j'ai pas d'père mais alors j'ai deux mamans/ ou : j'ai 25 une marraine/ 26 [ah bon] t'as une marraine/ euh : ben moi aussi j'ai 27 E [°ouais hum°] 28 H une marraine euh : ah ouais mais moi j'ai une marraine. La dimension indexicale des interactions imaginées entre l'enfant et son environnement social sont soulignées à plusieurs reprises par Hilary (« il jouera avec son discours » l. 1, « il se débrouillera » l. 9, « il fera avec » l. 9-13) et ratifiées aussi par les autres participants. Ensuite, l'animatrice reprend la parole et met en scène un dialogue entre l'enfant et ses pairs (l. 23-28). Ce dialogue est préfacé par la ressource « parce que » (l. 23) ayant une portée aussi bien rétrospective que prospective (« i - va s'dire » l. 23). De ce fait, ce qui va suivre sera présenté comme une sorte d'illustration imagée de l'hypothèse énoncée plus haut. Ainsi, la façon dont on imagine l'enfant interagir avec ses pairs à propos de sa configuration familiale est à la fois présentée sous l'angle du jeu (23-28) et dans sa dimension improvisationnelle (l. 1-13). À ce propos, Hilary « anime » (Goffman, 1981) les voix des enfants en interaction sous le mode d'un jeu dans lequel les participants prennent la parole dans une sorte de défi touchant à leurs configurations parentales : « j'ai pas de père mais j'ai deux mamans ou une marraine », « ah t'as une marraine ben moi aussi j'ai une marraine » (l. 24-28). Dans cet extrait, le choix du terme de parenté pour désigner le parent social est situé dans un réseau intersubjectif de relations entre l'enfant et ses pairs. C'est dans ce sens que l'intersubjectivité en tant que prise en compte de l'autre, avant même que cette rencontre puisse avoir lieu (Duranti, 2010 : 9), acquiert ici tout son sens et c'est pourquoi je me tournerai vers l'analyse d'un ensemble d'extraits illustrant le phénomène de la projection au futur dans la présentation de soi. La présentation de soi est toujours ancrée dans un passé qui la rend possible tout en étant orientée vers un présent et un futur envisageables. Ce point a été souligné à plusieurs reprises par plusieurs chercheurs qui ont théorisé la relation entre pratiques sociales et contexte. Dans ce cadre, Bourdieu (1980 : 89) offre avec la notion d ' habitus une théorie des pratiques conçues en termes de tension agentive entre un dépôt d'expériences passées et les dispositions à l'action pour (et dans) le futur. Ainsi, les pratiques, tout en étant situées dans un contexte qui les précède, sont constitutives d'autres contextes possibles et imaginables (Heritage, 1984; Ochs, 1992). Cet aspect a été souligné par deux anthropologues du langage ayant travaillé sur les narrations entre pairs ou en famille. Ainsi, Elinor Ochs (1994), en s'inspirant d'Heidegger et de Ricœur, a montré clairement comment les narrations ont la capacité de faire face au passé et de se projeter vers le futur en rendant ainsi nos vies cohérentes. M. H. Goodwin (1990), de son côté, a également montré comment les récits dits d ' « instigation » entre gamines projetaient dans le futur des réactions vis-à-vis de la partie offensante (1990 : 277). C'est dans la capacité de faire l'expérience des autres en tant que co-participants de nos interactions passées et futures que l'intersubjectivité se construit (Schütz, 1932 : 9). Dans ce cadre, la prise en compte de l'autre peut avoir un effet configurant sur l'accomplissement des pratiques et sur le choix d'un dispositif catégoriel comme dans l'extrait suivant : 3. Faire-partMailinglist Bonjour, Notre petit bonhomme pousse bien et le grand rendez -vous approche… Dans deux mois, nous serons une famille ! Il est temps de penser aux faire-parts ! ! Nous voudrions quelque chose d'assez clair sur notre situation particulière (2 mamans, IAD) notamment pour la famille et les amis. En même temps, nous allons devoir annoncer la nouvelle à des relations de travail avec lesquelles nous n'avons pas forcément envie de rentrer dans les détails… Devons -nous faire deux versions ? La prise en compte de plusieurs types d'interlocuteurs (famille et amis, relations de travail) configure la façon dont le couple de femmes se présentera aux autres tout en montrant un lien entre catégories et pratiques. Dans l'extrait suivant, Hilary pose des questions à un couple de femmes sur la façon dont elles parleront du donneur à l'enfant : 4. GDP-8-30-donneurc'estpasunpère 1 H [est ce que vous allez parler du donneur/ 2 I bon il nous a parlé de père\ je lui ai dit non il 3 aura pas de pè:re dans un sens/ langage/ langagier/ il 4 aura deux mè:res/ (1) par contre il aura pas un pè:re/ 5 par contre il aura des o:ncles des parents/.. euh des 6 parrains/ qui remplaceront/ = 7 H =est -ce que le donneur le donneur n'est pas un père/ 8.. 9 N [non] 10 I [no:n/] le donneur en fait c'est quelqu'un qui nous a 11 donné l'autorisation qui a donné la graine pour qu'on 12 puisse construire e - un couple eh une famille\. Les réponses d'Isa et de Nathalie s'insèrent au sein de deux paires adjacentes question-réponse (l. 1-6 et l. 7-12). Dans la première paire, suite à une question fermée sur le donneur (l. 1), Isa répond d'une façon quelque peu complexe. Au lieu de répondre par une réponse attendue d'un point de vue morphosyntaxique (oui/non), elle réplique en mettant en scène une conversation que les deux femmes ont eue avec un psychologue en Belgique (l. 2). Dans cette scène, elle reproduit une réponse au discours rapporté (l. 2-3) suite au thème du « père » initié par le médecin (l. 2). Au cours de cette réponse, nous assistons à un jeu catégoriel assez intéressant. L'impossibilité langagière d'un père (l. 2-3 « il aura pas de pè :re dans un sens/ langage/ langagier/ ») est justifiée avec la présence de « deux mères » et la présence d'un environnement social masculin qui remplaceront la figure du père (l. 4-6). Ensuite, Hilary reprend la parole pour poser une question sur l'équivalence ontologique possible entre « donneur » et « père » (l. 7). Suite à une micro pause (l. 8) les deux femmes se sélectionnent d'une façon simultanée (l. 9-10). Alors que Nathalie répond avec une réponse attendue (l. 9 « non ») suite à une question fermée, Isa développe sa réponse (l. 10-12) en mobilisant une narration autour du donneur et de la « graine », que j'ai entendue maintes fois lors de ma participation aux activités proposées par l'association, et qui est censée expliquer la figure du donneur auprès des enfants. Ce qui est en jeu dans les procédés de dénomination et de catégorisation du donneur est moins la présentation de soi que la présentation d'un autre absent. Cependant, la présentation du donneur aura des effets sur la présentation de soi de l'enfant. C'est la façon dont les parents ou les géniteurs sont nommés en tant que « père », « mère » etc. qui va donner une place à l'enfant dans le réseau de sa sociabilité. C'est enfin dans ce réseau à la fois parental et nominal que l'enfant pourra se présenter aussi bien en tant que « je suis fils de » mais aussi par inférence grâce au syntagme « mon père », « mes mères », « mon parrain », « mes oncles ». Dans l'extrait suivant, le groupe de parole est à nouveau focalisé sur la dénomination du donneur (l. 1-3) : 5. GDP-58-74 -il va dire 1 H mais ce qu'il y a c'est que quand on dit ton père ton 2 père par exemple l'enfant tu peux lui dire ton père ou 3 le donneur tu vas lui dire le donneur/ le géniteur/ 4 E mhm 5 I je lui dirai qu'il a un papa biologique comme tous 6 les enfants/ qu'il est normal/ il a un papa 7 biologique/ 8 H parce que nous 9 I par contre il a pas de papa social pa(r)ce que son 10 papa c'est sa mère/. À ce propos, plusieurs choix sont proposés par Hilary : « ton père », « le donneur », « le géniteur » (l. 2-3) et insérés dans un cadre dialogique avec l'enfant (« tu peux lui dire » l. 2, « tu vas lui dire » l. 3). Suite aux propositions d'Hilary, Isa formule sa réponse en deux parties. D'une part (l. 5-7), elle construit sa réponse sous forme de discours rapporté avec l'enfant (« je lui dirai » l. 5) en mobilisant la catégorie ad hoc « papa biologique » suivie d'un account moral au présent (« il est normal » l. 6). D'autre part, elle reformule sous un angle inédit les paires standardisées catégorielles (Sacks, 1972) père/papa – mère/maman (l. 9-10). Dans ce cadre, la présence d'un donneur catégorisé ici comme un « papa biologique » rend impossible l'appellation du donneur en tant que « papa » et sa catégorisation en tant que « papa social » étant cette fonction remplie par la mère (l. 9-10). Il est intéressant aussi de remarquer que la reconfiguration des dispositifs parentaux (l. 9-10) comme la catégorisation ad hoc (« papa biologique ») et l ' account précédents sur la normalité se font dans le temps de la conversation au présent et échappent à la projection au futur. Ainsi, d'un point de vue séquentiel et temporel, on peut assister à l'émergence d'un pattern qui prendrait les formes suivantes : Mise en contexte de la situation avec éventuellement une question (l. 1-3); Réponse au futur au discours rapporté (l. 5-6); Account au présent (l. 6-7, l. 9-10). Ce modèle se répète plus loin dans la même conversation où un autre participant (E) en écho à la question posée par Hilary (l. 1-3) prend la parole pour exprimer son avis : 2) Réponse au futur avec discours rapporté : 5bis. GDP-232-273-donneur-géniteur 17 E le gamin quand il s'ra à l'école quand j'lui dirai alors 18 alors bon puisque [c'est vous on parle de vous] euh : où 19 N [hum hum hum hum] 20 E est où est ta mère ben ma mere elle travaille donc et 21 toi [par exemple] et ton père/ ah ah mon père euh bah& 22 N [hum hum hum] 23 E j'ai pas d'père donc oublie que j ' j ' 3) Account au présent : 24 E c'est pour ça qu'moi j'pense qu'i - est préférable 25 enfin c'est mon opinion euh : [en tout cas]dans ma& 26 N [hum hum] 27 E &démarche de dire il a un père ou il a une mère en 28 fait. euh : c'est ce père habite en Belgique en (( ça continue)). Un trait commun à ces extraits est aussi la façon dont le futur est temporellement imaginé et construit dans les récits des participantes. Si l'on s'attarde à nouveau sur quelques fragments des extraits analysés, on se rend compte que la façon dont les participantes projettent au futur une configuration parentale avec l'enfant (extrait 4), ou des conversations avec les enfants (extrait 5) ou encore en animant la voix de l'enfant avec ses pairs (extrait 5bis) prend les allures d'un évènement accompli, presque passé. C'est en effet, une des caractéristiques que Schütz avait remarquée à propos de ce qu'il appelle le futur past tense. En s'appuyant sur une des figures mythologiques grecques Tiresias et sur la façon dont on produisait des prédictions au futur comme si elles avaient déjà eu lieu (Schütz, 1964 : 278-279), Schütz théorise une modalité pratique de construction au futur au carrefour entre la prophétie et le travail historiographique. Le travail temporel accompli par les participantes est de ce point de vue tout à fait intéressant car tout en projetant une action au futur, elles présentent l'action comme si elle avait déjà eu lieu une fois qu'elle est rapportée à d'autres interlocuteurs dans le temps de la conversation. C'est dans cette imbrication entre passé, futur et présent que nos interactions ont lieu et que des liens se construisent entre les participantes dans un cadre irréductiblement intersubjectif. Toute expérience ethnographique ne peut faire l'économie d'une présentation de soi du chercheur mobilisant devant ses interlocuteurs des dispositifs identitaires relevant de l' « intime » et du « personnel ». Il y a tout un courant de l'anthropologie féministe, gay, lesbienne, queer (Lewin et Leap, 1996, 2009; Lewin, 2005) qui n'a cessé depuis des années de s'interroger sur la façon dont les identités du chercheur (femme, noire, lesbienne, trans, gay…) configurent les relations avec les personnes rencontrées sur le terrain ainsi que les objets d'étude mêmes. Lors de mon terrain à l'APGL, j'ai été plusieurs fois confronté à mon identité d'homme, de gay, de père, lors des interactions avec les participants. Lors de mon arrivée au sein du groupe de parole, une des conditions qui m'ont été posées par l'animatrice était celle de me questionner sur mon identité de père potentiel et de m'engager ainsi avec les autres participants dans une discussion le plus possible « symétrique ». Au fur et à mesure que ma participation au sein du groupe se faisait importante, il devenait de plus en plus difficile de contrôler les frontières entre « observation » et « participation », « personnel » et « scientifique ». Jusqu'au jour où j'ai reçu un courriel dans lequel on me proposait de devenir père d'un enfant et de m'engager ainsi dans un projet de co-parentalité avec un couple de femmes. Suite à cette requête pour le moins inattendue, j'ai répondu en leur disant que je n'étais pas encore prêt et que mon projet n'était pas encore défini. Suite à cet évènement, j'en avais parlé aux autres membres du groupe jusqu' à ce que cela devienne un topic du groupe de parole grâce à une question de l'animatrice (l. 1-2) : 6. GDP-termoimême65-120 1 H et toi ça t'a interpellé sur (2) –fin °-fin° 2 parentalité potentielle/ 3 (2) 4 I x[xxxpour] 5 L [ben j'y ai pensé]je me suis fait un peu un film 6 (1) 7 H °mhm mhm° 8 L je me suis fait u ::n … un scénario/ 9 H °((rire))° 10 E x[xx] 11 L [bon] je vais les voi[r 12 E [sur un banc public et 13 plutôt le gamin dans le bac à sable 14 L (( rire))non mais je me suis dit je (veux; vais) les 15 voir non et puis finalement… bon 16 I là c'est 17 L j'ai répondu NON. Dans cet extrait, suite à la question d'Hilary (l. 1-2), j'enchaine avec une narration (l. 5-11) au sein de laquelle après avoir répondu à la question de l'animatrice (« ben j'y ai pensé » l. 5), j'imagine le début d'une scène au futur proche (« je vais les voir » l. 11) dont les éléments seront introduits grâce à l'intervention d'un autre participant (l. 12-13) au moyen d'un procédé de co-construction syntaxique. Ensuite, je reprends la parole (l. 14) pour répondre à la fois à la question initiale de l'animatrice (l. 14) et au mail que j'avais reçu par les deux femmes (l. 17). La catégorisation dans ce cas n'est pas explicite comme dans les extraits précédents. Elle est inférée à la fois par la question d'Hilary (l. 1-2) et par ma réponse. Ce que l'on peut inférer au niveau catégoriel, c'est à la fois le dispositif de « père » (ou plutôt de « pas père ») mais aussi celui de « participant à l'interaction » au même titre que les autres. Ce que l'on peut relever est un paradoxe catégoriel : alors que ma participation dans le groupe se fait de plus en plus intense grâce à des prises de parole importantes et à des liens de plus en plus forts avec les autres membres du groupe, mon questionnement sur une paternité éventuelle arrive à son terme avec un déplacement identitaire qui me situe définitivement en dehors de la catégorie « père » (l. 17). D'un pont de vue théorique, les analyses présentées dans ce texte offrent des pistes intéressantes aussi bien pour l'étude des pratiques identitaires en contexte que pour l'analyse de la dimension temporelle et réflexive de la présentation de soi. Dans ce cadre, cet article apporte une dimension analytique et empirique aux débats théoriques émergeant au sein des études de genre et identifiant dans le langage un outil de construction identitaire important. De plus, grâce à l'analyse de l'intersection entre dimension interactionnelle, catégorielle et temporelle (voire réflexive) de la présentation de soi, cet article se propose comme un espace de dialogue entre approches séquentielles, catégorielles et linguistiques. D'un point de vue méthodologique, la prise en compte des trajectoires identitaires accomplies par le chercheur au sein de la communauté d'accueil permet de passer de l'observation participante à l'observation de sa participation (Tedlock, 1991; Greco, 2010) en l'intégrant ainsi dans l'analyse et en en faisant un objet d'étude. D'un point de vue strictement analytique, les analyses proposées dans cet article permettent de dresser un bilan provisoire autour de trois aspects dans la présentation de soi en contexte homoparental : l'aspect réflexif : la nomination et la catégorisation des liens parentaux deviennent constitutives de la façon dont les liens sociaux sont conçus et sont mis en scène par les participants en interaction. Ainsi, un lien de parenté futur ne peut être pensé et imaginé sans une réflexion et une négociation autour des termes de parenté choisis pour désigner et nommer les parents biologiques et sociaux; l'aspect intersubjectif : la présentation de soi passe par un réseau d'intersubjectivité assez complexe dans lequel on rend compte de la place du parent social ou du donneur par rapport à l'enfant et aux personnes s'occupant de son éducation. Dans ce cadre, ce qui est souligné par les participants c'est la prise en compte d'interactions à venir, projetées dans un futur, plus ou moins proche, désiré. La façon dont les interactants se projettent dans le futur nous éclaire aussi sur l'ancrage temporel des actions et sur les modes de constitution de l'intersubjectivité; l'aspect séquentiel : l'analyse séquentielle et catégorielle de la dimension réflexive de la présentation de soi permet de montrer comment la mise en scène aussi bien des dialogues avec l'enfant que des interactions dans lesquelles on anime la voix de l'enfant en train d'échanger avec d'autres participants s'insère dans un réseau séquentiel et temporel : mise en contexte de la situation avec éventuellement une question-réponse au futur au discours rapporté - account au présent .
À partir d'une ethnographie multi-sites menée dans une association de parents et de futurs parents gay et lesbiens, j'analyserai les modalités discursives de présentation de soi. Mon attention se focalisera sur la façon dont les participants, tout en imaginant au futur une présentation de soi en tant que père ou mère de X, mettent en scène un réseau intersubjectif au sein duquel des dialogues entre les parents, les enfants et les proches ont lieu. Ce point me permettra de souligner la dimension réflexive entre désir d'enfant et pratiques langagières et de conclure avec un retour réflexif sur mon statut d'observateur participant au sein de l'enquête.
linguistique_12-0328640_tei_790.xml
termith-554-linguistique
L'analyse syntaxique de la suite “V dans GN” a permis la mise au jour d'au moins trois types de constructions verbales introduites par la préposition dans (Vaguer 2004a) : 1. Les constructions à verbe prédicatif qui comportent un verbe à complément prépositionnel, le verbe sous-catégorisant la préposition dans. Dans l'énoncé Elle s'engouffre dans le métro, le groupe prépositionnel dans le métro est identifié comme argument du verbe; 2. Les constructions nominales prédicatives (constructions attributives et constructions à verbe support). La préposition dans n'introduit pas, dans ces constructions, un complément mais fait partie du verbe support, sorte d'auxiliaire du groupe nominal qui comporte un nom prédicatif. Le groupe prépositionnel dans GN équivaut à un verbe apparenté au nom du GN. Ainsi Elle s'abîme dans le chagrin équivaut à Elle se chagrine précisé par une sorte d'intensité; 3. Les constructions verbales figées telles que tomber dans les pommes, pédaler dans la semoule, être dans les nuages, avoir le compas dans l' œil, avoir un chat dans la gorge… que nous allons caractériser dans cet article. En effet, si l'application des critères syntaxiques (de suppression et de déplacements notamment) permet de mettre en évidence des structures dans lesquelles le verbe vient sous‑catégoriser la préposition dans, elle ne permet pas, en retour, de distinguer les différentes constructions verbales que nous venons d'inventorier : il faut, pour ce faire, avoir recours à d'autres propriétés (Vaguer 2004a) qu'il reste à délimiter pour les constructions verbales figées. Quels sont les critères qui permettent de conclure que pédaler dans la semoule doit entrer dans le paradigme des constructions verbales figées plutôt que dans celui des constructions à verbe prédicatif (dans la semoule serait alors analysé comme un argument du verbe pédaler) ? Nous rappelons dans un premier temps les critères syntaxiques qui permettent d'identifier les constructions verbales figées et de les différencier des constructions à verbe ou nom prédicatifs. Ensuite nous centrerons notre analyse sur l'étude lexicale et sémantique de constructions verbales figées en dans afin d'avancer dans la caractérisation de la préposition d'une part et de la construction dans son ensemble d'autre part. En guise de conclusion, nous aimerions évoquer quelles implications peut avoir le figement sur des activités telles que la traduction, l'enseignement, le traitement automatique. Pour les constructions à verbe prédicatif, les critères de suppression et de déplacements du GP peuvent se suffire puisque l'objectif est d'identifier le GP soit comme un argument, soit comme un ajout. Le GP argument est un complément (au sens formel du terme) obligatoire, i.e. sa suppression est soit syntaxiquement impossible (la phrase devient agrammaticale comme en (1b.)), soit syntaxiquement possible (la phrase reste grammaticale) mais le verbe change de sens au point qu'il s'agit d'un autre emploi, comme l'illustre l'exemple (2). Le recours aux critères de déplacement permet de trancher dans les cas où celui de la suppression reste ambigu. Ainsi, le GP argument se trouve‑t‑il caractérisé par une mobilité restreinte, notamment en positions pré‑V fini (3) et post‑V fini (4), positions réservées à l'ajout (Bonami 1999) : 1. a. Je vais dans Paris. b. *Je vais. 2. a. Théo va vivre dans Bordeaux. b. #Théo va vivre. 3. a. La Grammaire générale est enracinée dans une pratique pédagogique. b. *La Grammaire générale dans une pratique pédagogique est enracinée. 4. a. Mon écriture est ancrée dans la métaphysique. b. *Mon écriture est dans la métaphysique ancrée. Dans les constructions nominales prédicatives, si la suppression et le déplacement du GP sont impossibles (5), ce n'est pas en soi parce que le GP est argument mais parce que le nom contenu dans le GP est prédicatif. Le verbe est alors à identifier comme un verbe support, ou verbe « allégé », qui n'existe que par l'item lexicalement plein qui l'a sélectionné (Vaguer 2004b). 5. a. Zef s'absorbe dans la rêverie. b. *Zef s'absorbe. c. *Dans la rêverie, Zef s'absorbe. d. *Zef, dans la rêverie, s'absorbe. Il faut donc avoir recours à d'autres critères pour établir formellement l'analyse. Le premier critère est celui de la nominalisation, qui permet de mettre en évidence le caractère prédicatif d'un élément. Ainsi en (6) désespoir est un nom prédicatif et sombrer dans un verbe support effacé au cours de l'application de la nominalisation sans atteinte à l'intégrité sémantique, alors qu'en (7) c'est plonger qui est prédicatif (on peut le nominaliser) : 6. a. L'enfant sombra dans le désespoir. b. Le désespoir de l'enfant. 7. a. Toine a plongé dans la piscine. b. Le plongeon de Toine dans la piscine. c. # La piscine de Toine. Le second critère est celui de la complémentation du nom prédicatif. Dans une construction à verbe support, le nom prédicatif n'admet pas de complément de la forme de N hum (Giry‑Schneider 1986 : 51) comme l'illustre (8b). Le possessif son réfère nécessairement à Jenny (il ne peut s'agir du silence de quelqu'un d'autre); autrement dit, on ne peut substituer au déterminant possessif un complément de type de Nat : 8. a. Elle ne voulait pas laisser Jenny se murer à nouveau dans son silence. b. *Jenny se mure dans le silence de Nat. Une fois établies les propriétés syntaxiques des constructions à verbe prédicatif et des constructions nominales prédicatives, comment identifier celles à associer aux constructions verbales figées ? La difficulté – et non des moindres – est que ces constructions, du fait de leur figement, bloquent une bonne partie des transformations que nous venons d'utiliser en constructions dites « libres »; autrement dit, une construction est d'autant plus figée qu'elle a moins de propriétés transformationnelles (M. Gross 1982 & 1986; G. Gross 1996 : 12; S. Mejri 1997 : 42-43). Mais comment faire alors pour distinguer les constructions verbales figées (David pédale dans la semoule, Antoine est dans la lune) des constructions à verbe prédicatif (Dany croque dans une pomme, Nini s'engouffre dans le métro) qui, elles aussi, ne tolèrent pas toutes les transformations, comme l'illustre l'application des tests d'extraction, de détachement et de pronominalisation : Il faut donc trouver d'autres critères permettant de distinguer ces deux types de constructions (constructions à verbe prédicatif vs constructions verbales figées), non encore mentionnés pour la caractérisation des constructions à verbe prédicatif, ni pour celle des constructions nominales prédicatives. Les critères de la relativation, de l'interrogation et de l'insertion d'un modifieur s'avèrent être pertinents pour la caractérisation des constructions verbales figées. En effet, à l'inverse des constructions à verbe prédicatif, celles -ci les interdisent : On dispose donc de critères syntaxiques pour distinguer les trois types de constructions verbales de type “V dans GN” : la suppression et les déplacements peuvent se suffire pour la caractérisation des constructions à verbes prédicatifs; ajoutés à ces critères, ceux de complémentation en de N hum et de nominalisation viennent caractériser les constructions nominales prédicatives; enfin les critères de la relativation, de la question et de l'interdiction du modifieur semblent être pertinents pour identifier les constructions verbales figées. Autrement dit, on constate une échelle dans l'application des transformations : lorsque la plupart des critères (autres que ceux de suppression et de déplacements) sont applicables, on a affaire à des constructions à verbe prédicatif; en revanche lorsque ces critères ne peuvent être appliqués on a plutôt affaire à des constructions verbales figées. Vérifions maintenant la pertinence du critère distributionnel : l'impossibilité de commutation pour les constructions verbales figées de type pédaler dans la semoule, être dans la lune. L'identification distributionnelle des constructions verbales figées est incontournable car comme le soulignent M. Gross, mais aussi D. Leeman (1998) et avant elle J. Dubois (1969), « il est devenu nécessaire de considérer les distributions comme des propriétés classificatoires » puisqu'elles apportent des informations non négligeables sur les contraintes qui affectent les éléments du cotexte : tous les types de déterminants, de noms, de verbes, de prépositions ne sont pas commutables dans ces constructions verbales figées. L'étude distributionnelle va permettre de mettre en évidence le degré de figement de nos constructions verbales en dans. En effet, une séquence peut être soit totalement figée (aucune variation paradigmatique ne peut être opérée sur sa structure), soit partiellement figée (seul un sous-ensemble de la séquence peut faire l'objet d'un figement). Ce principe suffit pour M. Gross (1986 : 40) à définir des expressions figées puisque selon lui « lorsque deux éléments d'une construction sont fixes l'un par rapport à l'autre alors la construction est figée ». Les noms qui se trouvent en position sujet des constructions verbales figées renvoient de façon explicite ou implicite à des noms humains. Ce faisant, il peut être intéressant d'observer quel statut la construction verbale va donner à son sujet (agent, patient…). Pédaler dans la semoule suppose normalement une « action » – caractérisée par un procès dynamique (David est en train de pédaler dans la semoule) et un verbe d'accomplissement (David pédale dans la semoule pendant des heures), cependant la reprise en le faire est problématique : Ce qui rejoint l'intuition qu'en fait pédaler dans la semoule est un état dans lequel se trouve un patient (plutôt qu'une action qu'accomplit un agent) : l'expression figée n'a pas le même type d'interprétation sémantique que l'expression libre. Du point de vue aspectuel, l'expression figée relève de l'état. Les constructions verbales figées en dans dénotent pour la plupart une situation où le référent du sujet est soit dans une mauvaise situation (patauger dans la semoule, être pris dans l'engrenage, se mettre dans de beaux draps, rester le bec dans l'eau), soit rencontre un problème (avoir des fourmis dans les jambes, avoir le moral dans les chaussettes, avoir l'estomac dans les talons, avoir un chat dans la gorge, être mal dans ses baskets, ne pas être dans son assiette),soit disparaît (être dans (la lune + les nuages + le cirage), tomber dans les pommes),soit est l'auteur d'une action présentée plus ou moins comme répréhensible (commencer par mettre le pied dans la porte, mettre les pieds dans le plat, charrier dans les bégonias, ne pas avoir les yeux dans sa poche, mettre des bâtons dans les roues, ruer dans les brancards…). On retrouve là les caractéristiques que l'on a mises en évidence pour les constructions à verbe prédicatif (Vaguer 2004a). La préposition dans prédispose à ce type d'emploi axiologiquement marqué négativement (76 %), ce qui s'observe au peu d'exemples connotés de façon positive (21 %) : se sentir comme un poisson dans l'eau, avoir le compas dans l' œil, caresser quelqu'un dans le sens du poil, en avoir dans (la tête + le ventre + les tripes). La préposition confère donc à l'expression une affinité particulière avec cette connotation négative. Pédaler dans la semoule ne semble pas être entièrement figé du point de vue du N 1 puisque l'on peut avoir des noms tels que semoule, yaourt, choucroute, couscous, cancoillotte… Le paradigme présente toutefois des restrictions puisque tous les noms d'aliments ne sont pas possibles. On ne peut avoir en effet ? ? pédaler dans la pomme; le complément ne peut donc être décrit en terme de classes d'objets, ce qui va poser un problème lors du traitement automatique. Les noms qui entrent dans ce paradigme ne font pas perdre toutefois son sens à la construction verbale qui signifie toujours « patauger, perdre ses moyens » alors même que l'on ne pourrait pas les substituer, en tant que noms synonymes, dans d'autres distributions. Ainsi que l'a remarqué M. Gross : « ces phrases sont synonymes alors que le sens de chacun des mots ne permet pas de le prédire et que dans d'autres distributions cette synonymie ne s'observe pas ». Donc, si ces noms sont substituables dans la construction, c'est qu'il y a quelque chose dans leur identité formelle et/ou sémantique qui les rapproche. D'un point de vue référentialiste, il s'agit d'aliments perçus comme massiques (semoule, yaourt…) et qui renvoient tous à une substance molle, sur laquelle on ne peut prendre appui (mais en fait, ils n'ont pas ce sens dans l'expression elle-même)… En tout état de cause, les N 1 peuvent varier mais le sens de la construction reste le même (« patauger, perdre ses moyens »). C'est pourquoi on peut parler de figement sémantique mais seulement d'un semi-figement du point de vue lexical. Si l'on tente une généralisation sur l'ensemble des N 1 apparaissant dans les constructions verbales figées en dans de notre corpus, on est en présence de noms qui s'éloignent de l'interprétation « concrète » une fois inscrits dans une expression (semi -) figée : si Max rue dans les brancards, il ne s'agit pas de « brancards » comme on dirait Les brancards de la charrette – et d'ailleurs la personne ne « rue » pas non plus comme on dirait que le cheval rue et met son cavalier à terre. Si d'un point de vue référentialiste, ces noms réfèrent soit à des animaux associés à des parties du corps (avoir un chat dans la gorge, avoir des fourmis dans les jambes, avoir des grenouilles dans le ventre…), soit à des N - hum en combinaison ou non avec des parties du corps (avoir le compas dans l' œil, avoir la tête dans un étau, être taillé dans un bâton de sucette, ne pas être dans son assiette, tomber dans le panneau…) mais aussi à des aliments (ça mettra du beurre dans les épinards, rouler quelqu'un dans la farine, tomber dans les pommes, pédaler dans la semoule…), ils n'ont pas leur acception dans l'expression figée. Il s'agit plutôt de référer à une qualité (l'exactitude, la précision) dans avoir le compas dans l' œil; de même pour avoir la tête dans un étau où étau ne réfère pas à « un étau » en tant qu'objet mais plutôt à la souffrance, la douleur, etc. L'ensemble de ces observations fait problème pour la description lexicale du sens et la polysémie : (i) ou bien on avance que le sens de compas est « instrument de mesure », donc « dénote/réfère à un objet concret »; dans ce cas, on parlera de sens figuré, métaphorique et autre pour avoir un compas dans l' œil (ou dans faire/être fait au compas) – il y aurait en somme deux noms compas, l'un de sens concret, l'autre de sens abstrait; (ii) ou bien on avance que le sens de compas est quelque chose (à construire) qui associe « instrument de mesure » et « précision » (autrement dit un objet concret doté de propriétés); (iii) ou bien il y a une identité unitaire (en langue) qui s'actualise de telle ou telle manière (ou des deux manières) en discours : (Le maître d'école) Prenez vos compas (objet) (D'une jeune fille) Elle est faite au compas (qualité) (Ambigu) Cela a été mesuré au compas (i.e. avec l'instrument ou très rigoureusement) La détermination est également figée dans pédaler dans la semoule. On ne peut avoir Paul pédale dans (la + *sa + *ma + *une + *cette) semoule. Seul le générique est possible et l'on constate qu'il en va de même (i.e. le déterminant est incommutable) dans plus de 80 % des constructions verbales figées. L'article présente alors le référent comme connu, on pourrait dire qu'il confirme le deuxième choix de description lexicale exposé supra : ainsi dans pédaler dans la semoule, on sait de quelle « semoule » il s'agit : ce n'est pas de la semoule de blé dur, mais une multitude de petites difficultés dans lesquelles on se perd. Que ce soit dans pédaler dans la semoule ou dans les autres constructions verbales évoquées ici, le verbe est figé (on ne peut lui substituer un autre paradigme verbal : *remuer, *tourner dans la semoule). La plupart des constructions sont bâties autour des verbes être et avoir mais on trouve également des verbes de mouvement (pédaler, baigner, rouler, tomber, caresser, envoyer, mettre, charrier, rentrer, remuer, renvoyer). Là encore, on retrouve des spécificités des constructions verbales en dans en général puisque la préposition peut soit dénoter une « coïncidence partielle » (dans marque que la coïncidence s'établit entre le N 0 et le N 1 au terme du procès dénoté par le verbe : par exemple on peut dire qu'une personne est dans les pommes après y être « tombée »); soit une « coïncidence totale » (dans marque la coïncidence entre N 0 et N 1 tout le temps du procès : Léo est dans les vapes = : Léo est dans cet état rêveur tout le temps que va durer le procès). L'examen des propriétés distributionnelles (pas ou peu de sélection), sémantiques (non compositionnalité donc opacité) et syntaxiques (interdiction de transformations) conduit à considérer pédaler dans la semoule comme une construction verbale très contrainte donc figée et on parlera ici de locution verbale. En effet, du point de vue distributionnel, le verbe, la préposition et le déterminant sont figés, le N 1 est contraint lexicalement (il appartient à une sous-classe du paradigme de N aliment). Du point de vue sémantique, on peut dire dans un premier temps que l'assemblage verbe-complémentn'est pas compositionnel c'est-à-dire que l'on ne peut interpréter littéralement la suite de mots même si l'on connaît le sens de tous les mots qui le composent comme dans La moutarde lui monte au nez, Les carottes sont cuites, rire dans sa barbe, raconter des salades… On parle alors d' « opacité sémantique » (pour reprendre les termes de G. Gross, 1996 : 11) pour caractériser les constructions figées. En effet, de ce point de vue on ne peut associer à pédaler dans la semoule un sens compositionnel puisque ni le sens du verbe pédaler ni celui du substantif semoule ni celui de leur produit ne permettent d'aboutir au sens opaque dénoté par pédaler dans la semoule. Autrement dit, pédaler dans la semoule ne signifie pas d'un point de vue compositionnel que Richard Virenque est « ensemoulé », comme on a être embourbé, la suite a donc bien un sens opaque « se démener vainement sans avancer » (GDEL). Mais on ne peut opposer sens compositionnel / sens non compositionnel que si l'on considère un sens littéral, premier, concret (qui serait le « vrai » sens, le sens « clair »), auquel s'oppose un sens « figuré », second, dérivé, abstrait (qui n'est plus le « vrai » sens : on parle d' « opacité sémantique », comme si la communication était brouillée, faussée, altérée…) : compas désigne un instrument concret, bien clair; dans avoir un compas dans l' œil, on n'a pas l'instrument concret dans l' œil, donc c'est opaque. Mais si l'on admet que compas a pour signifié un sens X susceptible de se réaliser par la valeur « instrument de mesure » et/ou « qualité de précision » dans les discours, il n'y a plus de raison de parler de compositionnalité ou de non compositionnalité : compas a la première valeur dans Prenez vos compas et la seconde dans Elle est faite au compas (le sens de compas est « en composition » aussi bien avec prendre qu'avec faire; simplement, ce n'est pas la même compositionnalité parce que les mots du voisinage ne sont pas les mêmes); le mot fille n'a pas non plus le même sens dans Elle vient d'accoucher d'une fille et Elle est la fille d'Einstein : est -ce que l'on va dire que le sens est non compositionnel dans un cas ou dans l'autre, ou parler d'opacité sémantique ? Du point de vue syntaxique, le fait qu'aucune transformation n'est possible/ qu'aucune des propriétés du complément ne se vérifie, amène à conclure que le verbe pédaler n'a pas d'argument – si c'est par ces transformations ou propriétés que l'on définit le statut d'argument : pronominalisation : *David y pédale. suppression : #David pédale. déplacement : *Dans la choucroute, David pédale. question : ? ? Dans quoi David pédale -t-il ? – Dans la choucroute. Cependant si on regarde le figement de pédaler dans la semoule sous l'angle de l' « identité » de la préposition dans, on a envie de dire que la séparation entre figement et non figement n'existe pas puisque dans instaure une coïncidence entre le sujet et le procès qui s'observe pour toutes les constructions que nous avons examinées, constructions à verbe prédicatif et constructions nominales prédicatives comprises. Car la préposition dans employée avec pédaler dans la semoule ,ou avec d'autres expressions comme tomber dans les pommes, etc., va ici de pair avec une interprétation « calculable » sans qu'il soit nécessaire de passer par un sens propre opposé à un sens figuré. Il suffit pour cela de se placer à l'intérieur d'un domaine abstrait et/ou psychologique qui relève des interprétations aspectuelles associées au procès : valeur durative pour pédaler, inchoative pour tomber dans les pommes, etc. Si nous reconnaissons l'existence de constructions verbales figées en dans pour le français, une des questions qui vient à l'esprit lorsque l'on se préoccupe de traitement automatique de données est de savoir comment ces constructions sont appréhendées par les machines : quelles analyses vont être proposées par des analyseurs syntaxiques ? dans le cadre de la traduction automatique, quelle traduction proposer ? de même du point de vue de l'enseignement, comment expliquer et faire assimiler ce type de construction ? Cela est d'autant plus préoccupant dans une perspective informatique que les locutions verbales ont la même construction de surface (V dans GN) que les constructions à verbe prédicatif ou que les constructions nominales prédicatives. Comment expliquer aux machines que l'on est bien en présence non pas d'un même type de construction mais de trois types de constructions puisqu'elles n'ont pas le même comportement syntaxique ? Comment lever cette ambiguïté ? Un élément de réponse pourrait être donné par une description distributionnelle fine : « la séparation des sens au moyen des propriétés syntaxiques [mais surtout distributionnelles] qui s'associent à chacun des sens, constitue le seul moyen de désambiguïser dont disposent les “machines” » (Lamiroy, 1998 : 12). Autrement dit, chaque emploi doit être décrit de manière appropriée de façon à pouvoir proposer des traductions pertinentes. Ce type d'étude a donc son utilité dans le domaine de la traduction. On sait quel va être le problème de la traduction des locutions verbales figées par les logiciels de traduction automatique (T.A.) qui sont focalisés, pour la plupart, sur la traduction mot à mot : on peut envisager d'améliorer, d'affiner les analyseurs syntaxiques du fait que ce n'est pas une traduction mot à mot qu'il faut entreprendre puisqu'il existe une locution verbale propre dans chaque langue. Par exemple, pédaler dans la semoule en anglais se dit to be all at sea, to be at a complete loss, to get nowhere. Il s'agit donc de répertorier l'ensemble de ces expressions et leur équivalent dans les différentes langues afin d'améliorer les traductions et d'introduire une règle que l'on peut qualifier de « cotextuelle ». Déterminer que ce qui se trouve dans le contexte gauche ou droit de pédaler, tomber, avoir un chat, avoir des fourmis… va se trouver déterminant pour désambiguïser l'emploi de ces verbes du « sens propre » au « sens figuré » mais aussi pour traduire et permettre l'apprentissage de la langue. Prendre en compte ce type d'information linguistique peut permettre d'affiner toutes les analyses et leurs applications, notamment en traduction. Si on a une même forme verbale en français pour le « sens propre » et le « sens figuré » – pédaler dans (le vide + la semoule), tomber dans (le vide + les pommes), avoir un chat (dans la maison + la gorge), avoir des fourmis dans (la maison + les jambes) – ce n'est le cas ni en espagnol ni en anglais, ce qui peut provoquer des erreurs de traduction comme celles que l'on propose en (13), (14), (15) et (16). On observe un décalage dans les traductions proposées par deux logiciels de T.A. (Systran, Reverso) accessibles par Internet. En effet, Reverso est un traducteur qui intègre l'existence de ces formes verbales puisqu'il propose pour tomber dans les pommes, avoir un chat dans la gorge, avoir des fourmis dans les jambes la traduction adéquate en anglais et prévoit l'ambiguïté, quand elle existe, en proposant deux formes correspondantes comme en (14b.). Mais il a des lacunes. Dans ces dictionnaires la locution pédaler dans la semoule n'est pas inventoriée, ce qui entraîne la proposition d'une traduction mot à mot erronée. Mêmes remarques d'ensemble pour l'espagnol. Pédaler dans la semoule, tomber dans les pommes sont traduits mot à mot. En revanche, les expressions avoir un chat dans la gorge, avoir des fourmis dans les jambes, elles, sont traduites correctement. Il y a donc encore un travail d'implémentation à affiner. En ce qui concerne Systran, ces locutions verbales ne sont pas du tout prises en charge : 13 a. Depuis quelques jours, il pédale dans la semoule. b. For some days, he(it) pedals in the semolina. (Reverso) For a few days, it has pedalled in the semolina. (Systran) c. Desde hace algunos días, pedalea en la sémola. (Reverso) Desde hace algunos días, pedalea en la sémola. (Systran) 14. a. Hier, Eugénie est tombée dans les pommes. b. Yesterday, Eugénie passed out (fell in the apples). (Reverso) Yesterday, Eugenie fell into apples. (Systran) c. Ayer, Eugenia se desplomó. (Reverso) Ayer, Eugénie cayó en las manzanas. (Systran) 15. a. J'ai un chat dans la gorge. b. I have a frog in the throat. (Reverso) I have a cat in the throat. (Systran) c. Tengo carraspera. (Reverso) Tengo un gato en la garganta. (Systran) 16. a. Il faut que je me lève, j'ai des fourmis dans les jambes. b. I have to get up, I have pins and needles in the legs. (Reverso) Is needed that I rises, I have ants in the legs. (Systran) c. Hace falta que me levante, siento hormigueo en las piernas. (Reverso) Es necesario que me levanto, yo tiene hormigas en las piernas. (Systran) Proposer un lexique bilingue des expressions figées peut permettre d'améliorer les analyseurs syntaxiques pour la reconnaissance de ce type de forme. Il est également nécessaire pour l'apprentissage d'une langue étrangère. Existe -t-il une structure équivalente en espagnol, en anglais ? Certaines structures sont propres à chaque langue. On doit les apprendre par cœur, on ne peut pas prévenir leur contexte. Il faut donc être en mesure de les répertorier. Pour un apprenant, « rien ne va de soi », il faut donc lui donner les moyens de comprendre ces constructions qui ne sont pas directement interprétables ni prédictibles (Verlinde et al. 2006). Certaines expressions ont une dimension culturelle qui n'est pas forcément traduisible. C'est pourquoi nous proposons pour chaque construction verbale figée en dans, un lexique-bilingue sur le principe suivant : Par cette étude des constructions verbales figées de type « V dans GN », on a pu d'une part confirmer leur caractérisation syntaxique, distributionnelle et sémantique, d'autre part examiner et esquisser des solutions pour rendre compte des subtilités de la langue dont tous les analyseurs syntaxiques qui se trouvent implémentés dans les logiciels de traduction ne rendent pas compte avec une précision suffisante. L'utilité d'établir des index multilingues en vue d'améliorer les analyseurs pour la traduction et l'apprentissage est évidente .
Si l’application des critères syntaxiques traditionnels permet d’identifier des structures dans lesquelles le verbe vient sous-catégoriser la préposition, elle ne permet pas, en retour, de distinguer les différents types de constructions verbales (construction à verbe ou nom prédicatifs, constructions verbales figées). Notre contribution vise d’une part à pallier ce manque en proposant les critères syntaxiques propres à l’identification de chaque construction verbale, d’autre part à avancer dans l’étude lexicale et sémantique des constructions verbales figées en « dans » telle que « pédaler dans la semoule », et enfin à mettre en avant les implications que peut avoir le figement sur des activités telles que la traduction, l’enseignement, le traitement automatique.
linguistique_11-0057863_tei_777.xml
termith-555-linguistique
Cette étude s'inscrit dans le prolongement de Pic et Furmaniak (2010). Les postulats de départ y sont donc identiques. Nous définissons les langues de spécialité comme les langues utilisées par certaines catégories socioprofessionnelles dans le cadre de leur pratique professionnelle et considérons, par ailleurs, que celles -ci sont traversées par des langues ou discours que l'on peut qualifier de transversaux et qui sont de deux ordres : d'une part, les genres (abstract, communication, recension, etc.) et, d'autre part, des discours définis par leur degré de spécialisation et qui s'organisent sur un continuum allant du plus spécialisé au plus vulgarisé. C'est à ces derniers que nous nous intéressons, notre objectif étant de déterminer si la grammaire reflète d'une manière ou d'une autre le degré de spécialisation, en d'autres termes, les présuppositions de l'auteur concernant la familiarité du lecteur avec le sujet traité. Cet article commence par un rappel des hypothèses et des résultats de Pic et Furmaniak (ibid.). Sur la base de ces premières conclusions, nous avons affiné notre méthodologie, qui est développée en deuxième partie. Dans la troisième partie, nous présentons la typologie sémantique retenue pour chaque marqueur ainsi que les résultats commentés de l'analyse de corpus. Enfin, nous concluons sur le bien-fondé de l'hypothèse d'une grammaire sensible au degré de spécialisation et proposons des pistes de recherche pour l'avenir. Pic et Furmaniak (ibid.) avançaient deux hypothèses. En premier lieu, nous supposions que le degré de spécialisation était susceptible d'induire un certain nombre de propriétés grammaticales indépendamment de la discipline. La seconde hypothèse était que si ces propriétés grammaticales sensibles au degré de spécialisation étaient avérées, elles concerneraient avant tout les marqueurs à dominante « (inter-)subjective », tandis que les différences inhérentes à la discipline toucheraient les marqueurs à dominante « référentielle ». L'opposition « référentiel » / « (inter-)subjectif » s'appuyait sur les théories fonctionnalistes du langage (Jakobson 1963; Hagège 1990; Halliday 1994). Un énoncé accomplit sa fonction référentielle en construisant une représentation du monde, tandis que sa fonction (inter-)subjective réside dans sa capacité à exprimer l'attitude de l'énonciateur et la prise en compte du co-énonciateur. Le bilan de cette première étude est apparu mitigé. Malgré quelques signes encourageants, aucun résultat n'a permis de confirmer de façon probante la première hypothèse, tandis que la seconde a été clairement infirmée; la raison principale étant que le postulat d'une opposition nette entre formes à dominante référentielle ou (inter-)subjective ne résiste pas à l'examen des données. La forte polysémie des marqueurs grammaticaux a en effet pour corollaire un haut degré de polyfonctionnalité. Il convient alors d'assouplir le postulat de départ en associant les fonctions non pas aux marqueurs spécifiques mais à leurs différents emplois. Par exemple, on associera la fonction (inter-)subjective non plus au marqueur must en général, mais aux emplois épistémiques de must. En outre, la fonction textuelle (qui relève de l'organisation et de la hiérarchisation de l'information) avait été ignorée. Il semble nécessaire, si l'on souhaite rendre compte de la complexité fonctionnelle des énoncés, de lui redonner toute sa place. Sur ces nouvelles bases, il est possible de reformuler l'hypothèse initiale ainsi : Les différences grammaticales entre langue spécialisée et langue vulgarisée devraient se manifester moins dans la fréquence de tel ou tel marqueur que dans la fréquence de telle ou telle de ses valeurs. On pourrait en particulier s'attendre à ce que les emplois relevant des fonctions (inter-)subjectives et textuelle marquées soient plus fréquents en langue vulgarisée qu'en langue spécialisée, quelle que soit la discipline. Pour vérifier cette hypothèse, il est nécessaire de couvrir un éventail assez large de catégories grammaticales (groupe nominal, groupe verbal et constructions) et, bien sûr, de sélectionner des marqueurs associés aux trois fonctions – référentielle, (inter-)subjective, textuelle. La difficulté principale réside dans le fait que cette vérification requiert une analyse qualitative fine du corpus, ce qui limite le nombre de marqueurs qu'il est matériellement possible d'étudier. En tenant compte de ces différentes contraintes, notre choix s'est porté sur les formes grammaticales les plus fréquentes, afin d'obtenir des résultats dont la pertinence statistique est optimale; à savoir, les modaux, les temps et le pluperfect, pour ce qui est du groupe verbal et des fonctions référentielle et (inter-)subjective, le couple this / that, pour le groupe nominal et les fonctions référentielle et textuelle, ainsi que la construction passive, pour illustrer la fonction textuelle. Il conviendra bien sûr d'associer à chaque emploi de ces marqueurs une fonction spécifique. Le second enseignement de notre recherche antérieure est que la taille réduite du corpus (100 000 mots) et sa trop grande homogénéité disciplinaire (histoire et philosophie) laissaient planer des doutes sur la validité des résultats obtenus. Le corpus a donc été étendu aux sciences dites « dures » en incluant un sous-corpus de mathématiques appliquées; en outre sa taille a été multipliée par six. L'architecture globale du corpus est la suivante : chaque discipline est divisée en deux sous-corpus de 100 000 mots composés respectivement de textes spécialisés (extraits de revues universitaires de pointe destinées aux experts de la discipline) et de textes vulgarisés (tirés de revues destinées au grand public ou aux experts d'autres disciplines). La méthode d'annotation, d'extraction et d'analyse des données est restée inchangée : l'annotation structurelle du corpus (fins de phrase, citations, exemples et formules) et les annotations sémantiques ont fait l'objet d'un traitement manuel, tandis que l'annotation des parties du discours a été réalisée par le logiciel CLAWS. Les recherches par marqueurs, par tags et par expressions régulières ont été effectuées via le logiciel AntConc. Nous présentons ici les résultats pour les marqueurs retenus. Pour chacun d'entre eux, la typologie sémantique utilisée est décrite brièvement mais précisément, car il nous paraît important de fonder les analyses sémantiques sur des critères préalablement définis et non sur des jugements purement intuitifs. Pour ce qui est du nombre d'emplois retenus, il s'agit à chaque fois de trouver un juste équilibre entre une description qualitative fine et la multiplication excessive des valeurs qui réduit inévitablement la significativité statistique des résultats. Nous examinons ensuite si la fréquence de ces marqueurs et de chacune de leurs valeurs est sensible au degré de spécialisation. Les premiers marqueurs étudiés, les modaux must, may et might ,relèvent du groupe verbal. La classification sémantique ci-après s'appuie sur Larreya (1984), Larreya et Rivière (2010), et Furmaniak (2004, 2005, 2006, 2010, 2011). On distinguera, pour must, quatre valeurs différentes : L ' obligation, illustrée par (1). Il s'agit de créer ou de décrire une contrainte affectant un agent potentiel explicité. (1) For this reason we must lay aside the policy of appeasing the traditional analysis of knowledge that focuses on truth and justification if we are to get at the true nature of what it is we love. (VP36) La nécessité, illustrée par (2). Une situation est nécessaire lorsqu'elle est jugée souhaitable ou qu'elle constitue une condition nécessaire à un autre événement sans idée de contrainte sur l'agent (qui est d'ailleurs souvent implicite). (2) There is some temptation to think that this issue could be avoided if only norms were algorithms that provide wholly definite instructions for each context and can specify exhaustivelywhat must be done in living up to them. (SP8) L ' implication, illustrée par (3). L'événement « impliqué » découle naturellement d'une situation donnée et/ou est jugé inévitable. Cette valeur exclut les idées de visée et de contrainte qui sont associées aux valeurs précédentes. (3) Since practical reason seeks to guide action it must be future oriented, rather than directed at particular acts that have been done and can be individuated. (SP8) La forte probabilité, illustrée par (4), qui correspond à un jugement émis par l'énonciateur en s'appuyant sur un raisonnement de type inférentiel. (4) Nor can one be surprised that there should have been such a phase seeing that, before the advent of even primitive technology, it must have been very natural for man to feel himself in the midst of a largely inimical set-up. (VP22) À l'instar de Larreya (1984), nous prenons le parti d'analyser may et might conjointement. Dans la mesure où la contribution sémantique du morphème passé de might peut être appréhendée sans difficulté (valeur de passé, d'irréel ou d'atténuation) et n'affecte pas le sens modal, on peut considérer qu'il s'agit du même marqueur. On distinguera quatre valeurs pour may/might. La permission, qui, dans notre corpus, prend la plupart du temps la forme d'une légitimité intellectuelle. La permission, constatée ou créée par l'énoncé, implique l'absence d'obstacle physique, moral ou intellectuel (Sweetser 1990) susceptible de s'opposer à l'accomplissement par l'agent explicite du procès dénoté par le groupe verbal. Dans le cas de la légitimité intellectuelle, il s'agit d'affirmer que le référent du sujet est en droit de dire ou de penser la proposition dénotée par la complétive parce que la raison, la logique ou tel ou tel argument le permettent. La valeur de légitimité intellectuelle est illustrée par (5). (5) A lack of proof, or indeed evidence in the conventional sense, it may be claimed, is just what is needed and maybe expected. (VP13) Le possible matériel, illustré par (6). Il s'agit ici d'un possible déterminé par les circonstances. S'y rattache le sporadique, illustré par(7),qui n'est pas autre chose qu'un possible matériel actualisé. (6) I would like to introduce Plato's next point with a simple remark about the relation between perception and what we might call our ' conceptual framework ' : a person may perceive a painting without knowing what paintings are. (VP32) (7) This view is found more explicitly in the work of Hick, who argues that the ‘ Ultimate Reality ', ‘ Ultimate ', ‘ Transcendent', or ‘ Real ' may be manifested in either personal or non-personal forms. (VP8) Le possible épistémique, illustré par (8). Si cette valeur peut paraître proche du possible matériel, elle s'en distingue par le fait que l'énonciateur ne se limite pas à constater l'existence d'une possibilité théorique ou actualisée mais fait un pari sur les chances de réalisation du procès dénoté. (8) For the most obvious third option is to suggest that the Big Bang might or must have had physical causes, albeit ones which human physicists, whose researches are necessarily confined with the (or perhaps it is only our) Universe may never be able to discover. (VP2) La concession, illustrée par (9, 10). Cette valeur est parfois présentée comme dérivée du possible épistémique (Sweetser 1990; Souesme 2009). Elle est cependant suffisamment originale sur les plans intersubjectif et argumentatif pour recevoir un traitement distinct. Il s'agit, dans tous les cas, de nier une proposition qui, dans la doxa, passe pour la conséquence logique d'une proposition concédée, c'est-à-dire dont la valeur de vérité est assertée, comme en (9), ou jugée possible, comme en (10). (9) Richard Dawkins may be the most famous living atheist, but his is not the only atheism. (VP15) (10) Puzzling philosophy may pass the time, but, as Samuel Beckett quipped, time would have passed anyway. (VP31) On considérera que relèvent de la méta-fonction (inter-)subjective les valeurs épistémiques des modaux (forte probabilité et possible épistémique) ainsi que la valeur de concession de may/might. Dans leurs autres emplois, ces modaux expriment clairement une modalité radicale, c'est-à-dire une modalité du faire (pouvoir-faire ou devoir-faire), et peuvent donc être rattachés à la méta-fonction référentielle, dans la mesure où il s'agit de décrire un état de fait, à savoir l'existence d'une nécessité ou d'une possibilité déterminée par des entités extra-linguistiques (des animés, des inanimés ou des circonstances). Le nécessaire et le possible radical possèdent certes des emplois intersubjectifs, que Nuyts (2001) nomme « performatifs », dans lesquels c'est l'énoncé lui -même qui constitue l'acte d'obligation ou de permission, comme en (11, 12). Cependant, dans nos corpus, les modaux radicaux sont invariablement constatifs (cf. [13, 14 ]) : les énoncés dans lesquels ils apparaissent décrivent une obligation préexistante et ne la créent pas. À ce titre, il est justifié d'analyser ces énoncés comme relevant de la méta-fonction référentielle. (11) You must go to bed now ! (12) You may go out tonight. (13) For this reason we must lay aside the policy of appeasing the traditional analysis of knowledge that focuses on truth and justification if we are to get at the true nature of what it is we love. (VP36) (14) It may be objected that ‘ possible ' is not vacuous since its negation is not, since we can say a round square is ‘ not possible '. (VP7) L'analyse du corpus fait apparaître que les différents emplois des modaux pourraient être sensibles au degré de spécialisation (voir tableau 1). En effet, on constate que les emplois épistémiques de must, may et might sont plus fréquents en discours vulgarisé qu'en discours spécialisé, quelle que soit la discipline. Ces emplois épistémiques représentent 39 % des emplois de must, may et might en philosophie vulgarisée, contre seulement 22 % des emplois de ces modaux en philosophie spécialisée. La différence est encore plus frappante en mathématiques, où les emplois épistémiques atteignent 59 % en discours vulgarisé alors qu'ils ne représentent que 12 % des emplois en discours spécialisé. La tendance est la même en histoire, même si l'écart entre vulgarisé et spécialisé est moins grand. Puisque l'épistémique est la valeur que nous avons liée à l'intersubjectivité, il semble légitime d'avancer que le discours vulgarisé marque – de façon attendue ? – une plus grande interaction entre lecteur et auteur que le discours spécialisé. Les emplois radicaux sont donc, quant à eux, logiquement plus fréquents dans le discours spécialisé que dans le discours vulgarisé, quelle que soit la discipline. Que révèlent des analyses qualitatives plus fines si nous considérons ces modaux indépendamment ? Les résultats pour must confirment les résultats globaux (voir tableau 2) : nous constatons davantage d'emplois épistémiques (c'est-à-dire le must de probabilité) en discours vulgarisé qu'en discours spécialisé. Mais aucune tendance ne semble clairement se dégager au niveau des emplois radicaux : on observe sensiblement la même distribution des valeurs radicales entre les deux types de discours. Par exemple, les valeurs d'obligation et d'implication sont quasi identiques entre la philosophie vulgarisée et la philosophie spécialisée. Les valeurs de nécessité et d'obligation sont aussi fréquentes en mathématiques spécialisées que vulgarisées. De façon purement quantitative, on trouve dans toutes les disciplines davantage de must en discours spécialisé qu'en discours vulgarisé. Cette prépondérance de must en discours spécialisé est liée à l'importance des valeurs radicales, référentielles, qui sont à mettre en rapport avec la discipline et non avec le degré de spécialisation. L'analyse des emplois du modal may/might confirme également les résultats globaux (voir tableau 3). Il ressort nettement que les emplois concessifs sont plus fréquents en discours vulgarisé qu'en discours spécialisé. En ce qui concerne les emplois épistémiques, le corpus historique ne se comporte pas comme les deux autres corpus, puisqu'on constate plus d'emplois épistémiques en discours spécialisé qu'en discours vulgarisé, ce qui va aussi à l'encontre des résultats globaux. Mais si nous regroupons épistémique et concession, comme nous le proposions plus haut, nous parvenons à des résultats conformes à l'hypothèse : l'épistémique est plus fréquent en discours vulgarisé qu'en discours spécialisé, quelle que soit la discipline. Tout comme nous l'avons noté pour must, nous trouvons aussi davantage de may/might en discours spécialisé qu'en discours vulgarisé. Cette prépondérance quantitative des modaux en discours spécialisé montre tout l'intérêt de l'analyse qualitative, car on pourrait hâtivement associer modaux et subjectivité pour conclure que le discours spécialisé est plus subjectif que le discours vulgarisé. Or nous avons vu que les emplois des modaux en discours spécialisé sont très majoritairement radicaux. L'hypothèse d'une grammaire de la vulgarisation est donc partiellement confirmée par l'analyse de ces modaux. Proportionnellement, les emplois épistémiques sont plus fréquents en discours vulgarisé – quelle que soit la discipline – bien qu'il faille relativiser la remarque puisque cette tendance ne conduit pas systématiquement à une prédominance de l'épistémique au sein du discours vulgarisé. Nous considérons à présent les temps grammaticaux (présent/passé) dans notre corpus afin de mettre au jour leur éventuelle sensibilité au degré de spécialisation. Ce qui apparaît immédiatement, et de façon attendue, est tout d'abord une différence marquée entre les disciplines, même si ce n'est pas celle qui nous intéresse prioritairement ici : l'histoire se démarque de la philosophie et des mathématiques. En effet, en discours spécialisé comme en discours vulgarisé, l'histoire s'écrit au passé, comme Trouillon (2009 : 17) le relevait après avoir vérifié la prédominance du prétérit dans son propre corpus d'histoire spécialisée. Au-delà de cette particularité de l'histoire, une tendance intéressante pour notre hypothèse se dégage, avec l'accroissement de l'emploi du temps grammatical passé quand on passe du discours spécialisé au discours vulgarisé. Cette tendance est vraie pour les trois disciplines, et particulièrement évidente en philosophie et en mathématiques, où le passé est deux à quatre fois plus utilisé en discours vulgarisé qu'en discours spécialisé. Cette différence grammaticale entre les deux types de discours est sans nul doute due au recours plus habituel et plus fréquent à la narration en discours vulgarisé, ce qui n'implique pas que toute forme de récit soit absente du discours spécialisé évidemment. Toutefois, ce genre de passages est très représentatif de la vulgarisation (Pic & Furmaniak 2011) : (15) Back in 1999, the astronomer John Webb, of the University of New South Wales, Sydney, and I decided to initiate an observational programme to try to test whether some of these constants were indeed varying very slowly. (VM55) Pour approfondir ces résultats et examiner leur adéquation avec l'hypothèse, nous proposons une analyse qualitative détaillée d'une conjugaison du passé : le pluperfect. La typologie sémantique de ses emplois que nous retenons ici est empruntée à Larreya et Rivière (2010) qui dégagent cinq valeurs principales : La valeur résultative, illustrée par (15). Les effets du procès accompli au moment repère passé (T - 1) sont considérés comme toujours visibles ou pertinents en T - 1. (16) He had never had occasion to confront it as what William James called a ‘ live option '. (VP2) La valeur de continuité, illustrée par (16). Le procès, typiquement statif, y est vu comme commencé avant T - 1 et toujours en cours à ce moment. (17) These Memoirs had been in the public domain for seven years when the publisher Henry Colburn announced that a new anonymous memoir was being prepared for print. (VH3) La valeur de passé antérieur, illustrée par (17). Il s'agit de situer le procès dans l'antériorité d'un autre procès sans idée de pertinence étendue au moment repère. (18) Marcus could not overcome a hankering for the more varied and interesting life that Dr. Smythson had provided for him while he was in his case. (VP4) La valeur d ' irréel, illustrée par (18). Il est ici fait référence à un procès localisé dans le passé mais non réalisé. (19) We all tend to think that had we been in charge of creation, frankly we would have done it better. (VP10) La valeur de backshifting ou concordance des temps. Cet emploi correspond aux cas où le pluperfect est utilisé dans des complétives dont le procès est antérieur à celui de la principale. (20) Finally, Brooke's opponents argued that he had misconceived the nature of Britain's civilizing power. (SH5) Au niveau quantitatif, la différence entre les disciplines est nette (nous trouvons beaucoup plus de pluperfect en histoire) mais cette différence se retrouve aussi entre vulgarisé et spécialisé, puisque le pluperfect prédomine en discours vulgarisé. Néanmoins, au niveau qualitatif, la faible fréquence de cette forme dans deux sous-corpus (mathématiques et philosophie) incite à une grande prudence concernant la proportion des différents emplois. Un trait intéressant se dégage néanmoins avec l'accroissement des emplois de l'irréel entre spécialisé et vulgarisé. Cette fréquence pourrait vouloir dire que l'augmentation du temps grammatical passé en discours vulgarisé pourrait être due en partie à une plus haute fréquence des emplois irréels – une hypothèse encore à vérifier. Quoi qu'il en soit, cette prédominance de l'irréel en discours vulgarisé va dans le sens de l'hypothèse puisque cet emploi se situe clairement du côté de l'intersubjectif. Comme pour le domaine verbal, il n'est pas possible, dans le cadre de cette étude, d'envisager la totalité des marqueurs du groupe nominal. Notre choix s'est donc porté sur deux marqueurs : les démonstratifs this/these et that/those. De par leur fonctionnement anaphorique (exophorique ou endophorique), ces démonstratifs relèvent à la fois de la méta-fonction référentielle et de la méta-fonction textuelle. Ils donnent en effet une extensité au référent (ils disent « lequel c'est » – cf. Joly & O'Kelly 1990 : 377) tout en codant le caractère acquis de la référence, avec les différences bien connues entre les deux démonstratifs (cf. l'opposition « clôture » / « non-clôture » de Lapaire & Rotgé 1991). Deux observations factuelles à la vue des résultats du corpus s'imposent rapidement : le couple this/these est plus fréquent que le couple that/those, quelle que soit la discipline et le degré de spécialisation. les démonstratifs sont plus fréquents en discours spécialisé qu'en discours vulgarisé, à l'exception des mathématiques, où la fréquence est similaire entre les deux types de discours. Nous ne sommes pas en mesure, à ce stade de notre recherche, d'expliquer les différences de fréquence entre this/these et that/those. Une étude qualitative fine des contextes d'apparition des deux démonstratifs reste à mener. Ces résultats quantitatifs sont à rapprocher des observations faites dans le cadre d'une étude sur le marquage de la subjectivité (cf. Pic & Furmaniak, à paraître) dans ce même corpus. Il en est ressorti que le discours spécialisé renvoie beaucoup plus souvent que le discours vulgarisé à l'auteur (via les pronoms de première personne) et à sa démarche (via des verbes comme show, present, explore, etc.). Or, l'examen du corpus montre que c'est justement pour référer aux entités de l'espace textuel que les démonstratifs this/these et that/those sont utilisés en priorité. En effet, une recherche des collocations fait apparaître que les noms les plus fréquemment associés à ces démonstratifs employés comme déterminants sont case, point, question, paper, thesis, reasons, words et notions. L'exemple (21) est particulièrement révélateur à cet égard, dans la mesure où la première occurrence du pronom this renvoie à un argument développé dans le co-texte gauche, tandis que le déterminant (this point) réfère à un moment précis de l'argumentation et de l'article. (21) Recognising this, I suggest, is the key to understanding how Schopenhauer's conception of aesthetic experience does in fact cohere with the fundamentals of his metaphysical scheme. But to make this plausible, I need first to defuse an objection that is bound to arise at this point. (SP14) Il semble donc que la sur-représentation des démonstratifs en discours spécialisé, tout comme la fréquence supérieure de pronoms de première personne et de prédicats méta-discursifs, s'explique par la plus grande tendance à l'autoréflexivité dans ce type de discours. À l'inverse, le discours vulgarisé est davantage orienté vers le lecteur : la prise en compte explicite du destinataire y est manifeste comme l'atteste la plus haute fréquence de you dans ce discours. Certes, une analyse qualitative pourrait se révéler utile pour distinguer différents emplois de you, mais même les emplois génériques, tout en ne renvoyant pas directement au destinataire, sont un moyen de l'inclure. Dans l'étude à paraître citée plus haut, nous avons procédé à l'analyse qualitative du pronom we, et il est apparu que l'emploi inclusif de we (I + you) était plus fréquent en discours vulgarisé qu'en discours spécialisé. Ces résultats laissent deviner que le you du discours vulgarisé fait majoritairement référence au lecteur. Cette construction est associée à la méta-fonction textuelle, puisqu'elle est avant tout un moyen de gérer l'information au sein de la phrase. En effet, le passif permet de thématiser un constituant de la phrase afin de l'instaurer ou de le maintenir comme topique (Huddleston & Pullum 2002). Ce trait est particulièrement clair en (22) où la diathèse passive est motivée par la thématisation de energy. (22) Flexible rackets therefore absorb more of the energy from impact, with more of the energy going into bending of the material. In comparison, stiff rackets are generally more powerful as less energy is lost in frame bending and consequent vibrations and more energy can be returned to the ball via the strings. (VM1) Cette construction a donc pour rôle majeur d'assurer la cohésion du texte en ordonnant information nouvelle et information donnée dans la phrase. Les résultats obtenus à l'étude du corpus sont assez inattendus, et vont à l'encontre des idées reçues concernant le passif, très souvent associé au discours spécialisé (du moins dans certaines disciplines) en raison de sa prétendue objectivité (cf., par exemple, Barber 1962; Tarone et al. 1981, 1998; Swales 1990; Hyland 2001; Shehzad 2007; Maniez 2011). Comme le souligne Rundblad (2008 : 24), « [t]he preference for passive voice is often explained as a desire to anonymise the author ». Or, si le passif est parfois effectivement utilisé pour effacer la présence de l'auteur, comme le montre l'exemple (23), notre corpus ne fait pas ressortir de réelle différence entre le discours vulgarisé et le discours spécialisé (ni d'ailleurs de différence majeure dans l'emploi du passif entre les trois disciplines). (23) But, despite the tone of injured innocence adopted, both Earle and Pym can be shown to have favoured relaxing the terms on which puritan clergy with conscientious scruples were admitted to the ministry. (SH6) Cette construction ne semble donc sensible ni au degré de spécialisation, ni à la discipline. Dans la mesure où le passif représente la méta-fonction textuelle, rien ne permet, dans l'état actuel de notre recherche, de postuler une différence à ce niveau entre discours spécialisé et discours vulgarisé. Peut-être d'autres constructions syntaxiques, comme le clivage ou le pseudo-clivage, seront-elles plus sensibles au degré de spécialisation des textes ? Cette analyse a permis de mettre au jour quelques éléments probants pour l'hypothèse d'une influence du degré de spécialisation sur la grammaire. Certains emplois relevant d'une fonction intersubjective sont plus fréquents en discours vulgarisé qu'en discours spécialisé : il s'agit des emplois épistémiques (au sens large) des modaux, des valeurs d'irréel des temps, du pronom you. Toutefois, d'autres différences, comme la fréquence supérieure de démonstratifs en discours spécialisé ou la sur-représentation du passé en discours vulgarisé, ne sauraient se satisfaire d'une explication en termes d'intersubjectivité. Ces phénomènes semblent en effet devoir être reliés à des facteurs pragmatico-rhétoriques plus complexes. Ils gagneraient ainsi à être mis en relation avec ce que Jean-Michel Adam (1992) appelle les « types séquentiels » et Carlota Smith (2003) « modes of discourse », c'est-à-dire avec les fonctions accomplies par les différents passages d'un texte, à savoir (minimalement) : la description, la narration, l'argumentation et l'explication. C'est dans cette direction que sera conduite la suite de cette recherche, puisque la prochaine étape consistera à délimiter et à coder l'ensemble des séquences du corpus. Il s'agira alors de déterminer l'influence du degré de spécialisation sur les modes de discours utilisés et, corollairement, l'incidence des modes de discours sur la grammaire. C'est donc dans la recherche d'un lien moins direct – mais plus prometteur – entre degré de spécialisation et grammaire que s'orientera ce projet dans l'avenir .
Cet article s'interroge sur la possible sensibilité de la grammaire anglaise au degré de spécialisation des textes. À cette fin, différents marqueurs représentatifs du GN, du GV et de la phrase complexe (modaux, temps grammaticaux, pluperfect, this/that, you et passif) sont étudiés dans un corpus pluridisciplinaire. L'hypothèse testée est que l'on peut rattacher chacune des différentes valeurs de ces marqueurs à une fonction (référentielle, intersubjective ou textuelle), et que les valeurs associées aux fonctions intersubjective et textuelle seront plus fréquentes en discours vulgarisé qu'en discours spécialisé. L'analyse quantitative et qualitative en corpus révèle des différences grammaticales non négligeables entre discours spécialisé et discours vulgarisé, dont la plupart corroborent l'hypothèse avancée. Néanmoins, certaines ne s'expliquent pas en termes de fonctions et de nouvelles pistes sont alors proposées.
linguistique_13-0046625_tei_493.xml
termith-556-linguistique
En près de 25 ans, l'étude des processus rédactionnels de textes a considérablement évolué. Les psycholinguistiques et/ou les psychologues du langage n'envisagent plus exactement leur objet d'étude dans les termes fixés par Hayes et Flower (1980). Durant ces années, les possibilités méthodologiques d'expérimentation ont été clairement amplifiées et renouvelées (pour une synthèse, cf. Olive, 2002; Piolat & Pélissier, 1998), accompagnant et provoquant de nouvelles délimitations du champ de recherche (pour une synthèse, cf. Alamargot & Chanquoy, 2002; Chanquoy & Alamargot, 2002). Dans le cadre de cet article, l'objectif est d'illustrer la place essentielle que la composante cognitive appelée « Mémoire de travail » a prise dans les modèles du rédacteur que celui -ci soit habile en écriture ou encore en apprentissage. Les quelques modèles auxquels il sera fait référence n'ont pas l'ambition de décrire exhaustivement le fonctionnement du rédacteur et ne constituent surtout pas des modèles « à suivre » ou « à apprendre » pour améliorer l'activité de production verbale écrite. Ces architectures cognitives circonscrivent la composition écrite de textes afin de favoriser l'élaboration d'heuristiques de recherche en psychologie cognitive et expérimentale. Elles sont, de ce fait, forcément limitées et limitatives. Les quelques éléments d'informations données ici sur les aspects fonctionnels de l'activité de rédaction des textes, ont donc comme simple mission d'informer, si nécessaire, linguistiques et didacticiens. Il s'agit de décrire, selon les termes de Garcia-Debanc et Fayol (2003), des lieux possibles de dialogue et de collaboration interdisciplinaires afin de pouvoir questionner la complexité de l'activité du rédacteur débutant ou non. Tout d'abord, le rôle de la mémoire de travail dans les activités complexes et leur apprentissage sera présenté. Puis l'évolution des modélisations de l'activité rédactionnelle et celle de son acquisition seront abordées afin de souligner les nouveaux enjeux théoriques en rédaction de textes. Place sera ensuite faite aux architectures cognitives récentes de la production écrite qui intègrent explicitement la mémoire de travail. Une rapide illustration de l'intérêt pour la recherche de ce renouveau des modèles rédactionnels sera, enfin, proposée. En langage quotidien, le terme de mémoire renvoie à une unique fonction de stockage mental de l'information. Les travaux de psychologie cognitive ont cependant mis en évidence une grande variété de représentations mentales et de processus. Avec le concept de mémoire à long terme, les psychologues font référence à des états mentaux stables concernant de vastes configurations d'informations alors qu'avec celui de mémoire à court terme, ils évoquent les états mentaux concernant le stockage très éphémère de quelques éléments. Avec celui de mémoire de travail, ils rendent compte d'un stockage temporaire mais non passif de l'information. Cette mémoire assurerait, en effet, plusieurs fonctions de contrôle (encore appelées fonctions exécutives) dans la prise en charge de situations nouvelles. De nombreux développements théoriques et expérimentaux sur ce thème concernent, à la fois, l'étude de la mémoire et de l'attention. Il en découle que les traitements de l'information sur lesquels les individus exercent un contrôle sont supposés nécessiter des ressources mentales (appelées également ressources attentionnelles). Aussi, le fonctionnement de la mémoire de travail est souvent comparé à celui d'un système de gestion de ressources mentales. Les quelques éléments laconiques qui viennent d' être donnés ne doivent pas laisser penser que dans ce dynamique et vaste champ de recherche de la psychologie cognitive, les points de vue sont consensuels; les modèles et contre modèles des processus mnésiques font rage (pour des synthèses, cf. Gaonac'h & Larigauderie, 2000). La conception de Baddeley (1990, 2000) a le mérite d' être très partagée et toujours source d'hypothèses fécondes de recherche alors que d'autres modèles sont encore très peu explorés. Baddeley (2000) rappelle avec malice que cela fait maintenant plus de 30 ans que sa conception de la mémoire de travail rend compte d'un nombre considérable de résultats expérimentaux et qu'elle reste à bien des égards pertinente pour expliquer certains aspects des traitements cognitifs. Par l'ajout de composants « cristallisés » (cf. Figure 1), cet auteur remanie son modèle princeps paru dès 1974, afin de rendre compte de la gestion en temps réel d'informations de formats différents et provenant de plusieurs sources. Ce modèle peut être rapidement décrit comme suit. Le système central de supervision, appelé aussi administrateur central, remplit différentes fonctions : inhibition des réponses automatiques ou d'informations devenues non pertinentes, activation d'informations dans la mémoire à long terme, planification d'activité et attribution de ressources. Il s'agit donc de la composante attentionnelle de la mémoire de travail coordonnant, sélectionnant et contrôlant les opérations de traitement. Sous la dépendance de ce système central, les composants spécialisés (appelés aussi systèmes esclaves) que sont la boucle phonologique et le calepin visuo-spatial, stockent très temporairement, pour le premier, des informations verbales et, pour le second, des informations visuelles et spatiales. Si l'individu souhaite maintenir dans les systèmes esclaves des informations ou si le système cognitif doit maintenir des informations utiles à un traitement automatique, il procède à leur rafraîchissement par autorépétition mentale dans la boucle phonologique. Toujours, sous le contrôle de l'administrateur central, le buffer épisodique, lui aussi à capacité limitée et temporaire, permet de fédérer en une représentation intégrée, des informations conceptuelles, sémantiques, visuo-spatiales, phonétiques en provenance de la mémoire à long terme et/ou des deux systèmes esclaves. Il constitue ainsi une interface majeure de gestion des informations entre les systèmes esclaves et la mémoire à long terme. Ces différents éléments gèrent des informations qualifiées de flexibles parce qu'en constante mutation, alors que la mémoire à long terme fournit des éléments d'information stables, qualifiés de cristallisées. Ainsi pour les psychologues de la cognition qui adhèrent à ce modèle, les individus disposent de structures de stockage temporaire de quelques informations (les systèmes esclaves), mais aussi d'unités de traitement (l'administrateur central et le buffer épisodique) qui concourent à la transformation de l'information. Comme le mettent en évidence d'abondantes expériences de laboratoire, les activités complexes comme la lecture-compréhension, la production écrite de textes, la résolution de problèmes, les activités mathématiques, l'apprentissage d'une seconde langue (etc.), sont sous la dépendance fonctionnelle d'une telle structure, que cette activité soit efficiente ou non (dysfonctionnement) et que l'individu soit ou non en situation d'apprentissage (pour une synthèse, cf. Gaonac'h & Fradet, 2003). Cette conception de la mémoire de travail paraît rendre équivalentes les notions de mémoire de travail et d'attention. Diverses propositions théoriques ont été avancées pour rendre compte de la gestion des ressources attentionnelles. Il s'agit de pouvoir analyser comment le système cognitif établit des priorités de traitements, ou encore instaure une certaine flexibilité dans ses plans de traitements. Baddeley (2000) rassemble dans le superviseur central et le buffer épisodique, la plupart des fonctions exécutives qui assurent cette flexibilité. Aussi, il ne semble vraiment pas opportun de distinguer, comme l'a fait Kellogg (1994; cf. section 3) dans son premier modèle de la rédaction de textes, un composant « Attention » et un composant « Mémoire de travail » pour renvoyer à ces fonctions de gestion des opérations cognitives. Elles seraient administrées par la mémoire de travail. De façon très générale, la gestion des ressources cognitives disponibles chez les individus peut être décrite comme suit. La mise en œuvre d'une activité complexe serait contrainte par la capacité limitée de ressources dont dispose l'individu. Cette capacité serait différente d'un individu à l'autre. Étant donnée cette limite, les individus ne peuvent conduire en parallèle qu'un nombre limité d'opérations car le coût de ces traitements ne peut dépasser les ressources attentionnelles disponibles. Pour rester dans le cadre imposé par la capacité et éviter toute « surcharge », il est efficace, via l'apprentissage, d'automatiser certains des traitements. Un traitement automatique est réalisé de façon involontaire, rapide et irrépressible, sans interférer avec d'autres traitements. Il n'implique pas le recours d'un contrôle conscient et donc une d'attention soutenue. Un traitement automatique ne mobilise pas ou peu l'administrateur central de la mémoire de travail et laisse « de la place » à d'autres traitements. En revanche, un traitement délibéré, plus lent à réaliser, est sous la dépendance fonctionnel de l'administrateur central. La réalisation de ce traitement est plus ou moins coûteuse selon sa nature. Cette gestion des ressources cognitives a été validée pour la compréhension de textes. Elle est aussi été repérée par McCutchen (1996) lors de l'apprentissage de la production de textes par des rédacteurs débutants. Par hypothèse, la maîtrise de la rédaction de texte correspondrait ainsi à la gestion coordonnée de traitements (peu coûteux quand ils peuvent être automatisés) et de traitements très demandeurs en ressources s'ils sont délibérés comme doivent l' être certaines opérations de planification et de révision de textes. Aussi, la mémoire de travail devrait jouer un rôle clé. Toutefois, avant de traiter ce point, une question préalable doit être posée : la capacité de la mémoire de travail évolue -t-elle en fonction du développement de l'enfant ? La réponse n'est pas simple et ne peut être limitée à l'affirmation d'un accroissement de la capacité de la mémoire de travail au fils des âges et de la pratique (pour une synthèse, cf. Gaonac'h & Larigauderie, 2000). Plusieurs déterminants de ce développement sont à l'étude : (1) accélération d'opérations fondamentales comme l'identification des éléments qui feront l'objet des traitements; (2) amélioration de processus stratégiques parmi lesquels la possibilité d'utiliser la répétition mentale dans la boucle phonologique; (3) amélioration des relations entre mémoire à court terme et mémoire de travail afin d'accroître le stock des connaissances disponibles pendant les traitements. Gaonac'h et Fradet (2003) rassemblent les travaux qui ont montré de manière plus spécifique comment les différents composants de la mémoire de travail (administrateur central, boucle phonologique, calepin visuo-spatial) étaient l'objet d'un développement, expliquant ainsi l'accroissement des performances dans différentes activités scolaires. Pour ce qui concerne le développement même de la production écrite verbale, le rôle de la mémoire de travail et de ses fonctions exécutives commence à être maintenant bien repéré (pour une synthèse, cf. Bourdin, 2002). Comme le mettent en évidence les modèles de l'activité rédactionnelle présentés ci-après (sections 2 et 3), la production verbale écrite est une activité complexe qui implique au moins trois niveaux de traitement qui mobilisent des connaissances diversifiées (cf. Figure 2 pour une typologie de ces différentes connaissances) et des processus, outils de transformation de l'information (cf. sections 2 et 3 pour un descriptif). Le rédacteur doit construire un ensemble de représentations pré-verbales regroupant les idées qu'il veut communiquer dans un contexte donné (niveau sémantique). Ce message doit faire l'objet de traitements afin d' être mis en langue (niveau linguistique). Ces représentations verbales sont elles -mêmes transformées pour être transcrites (niveau grapho-moteur). C'est la maîtrise fonctionnelle de chacun de ces niveaux mais aussi la gestion entre ces différents niveaux qui rendent l'acquisition de la rédaction de texte tellement complexe. En effet, les traitements impliqués par chacun de ces niveaux mobilisent d'importantes ressources attentionnelles en début d'apprentissage, condition même de l'acquisition. De plus, deux paramètres interviennent dans l'aptitude à les coordonner en temps réel : (1) l'efficience des traitements impliqués; (2) la capacité mnésique du rédacteur. Ce sont ces deux aspects qui doivent faire l'objet d'un apprentissage. Le jeune rédacteur, par l'entraînement, doit automatiser en priorité certains traitements comme l'exécution de lettres afin de pouvoir consacrer plus de ressources à des traitements non automatisables comme certaines opérations complexes de planification et de révision. Il doit aussi développer des procédures métacognitives de gestion de l'ensemble de son activité, procédures toujours exigeantes en ressources cognitives (cf. section 2.2.). Il est impossible ici de faire l'historique des différents modèles rédactionnels en psychologie (cf. Alamargot & Chanquoy, 2002; Piolat, 1990; Piolat & Roussey, 1992). Il est plutôt question d'évoquer succinctement les modèles qui ont clairement intégré la mémoire de travail dans leur architecture cognitive. Chemin faisant, les chercheurs ont alors étonnamment complexifié (Hayes, 1996) ou simplifié (Kellogg, 1996) le modèle princeps de Hayes et Flower (1980). Les cheminements intellectuels des psychologues ont pris des routes parfois orthogonales aboutissant à des bornages de processus déroutants, sinon inattendus, si l'on compare la publication, la même année, de deux modèles précédemment cités (cf. section 3). Hayes et Flower (1980) posent les premières définitions des différents processus rédactionnels disponibles chez le rédacteur adulte, définitions encore largement partagées par toute la communauté de chercheurs lorsqu'il s'agit de les évoquer rapidement. Le processus de planification permet de construire, au niveau conceptuel, un message pré-verbal correspondant aux idées que le rédacteur veut transmettre. Avec cet outil cognitif, le rédacteur récupère en mémoire à long terme des informations, les (re)-organise si besoin est, tout en élaborant des plans d'action. Le processus de traduction (encore appelé de mise en texte) lui permet de transformer les élaborations pré-verbales en un message verbal (encodage graphémique, orthographique, lexicale, syntaxique). Le processus de révision, outil de contrôle, favorise l'évaluation du texte produit (ou en cours d'élaboration) en le comparant à la représentation mentale concernant le texte souhaité. Il permet aussi d'examiner la formulation du texte en fonction des standards requis par les contraintes de la situation de communication. Sur un plan fonctionnel, ces différents composants sont actualisés autant de fois qu'il est nécessaire et selon la succession utile à chaque rédacteur. Cette mobilisation est d'ailleurs tellement différente selon les individus que Levy et Ransdell (1995) la qualifie de signature rédactionnelle. Le rôle programmatique de ce modèle a été très conséquent. Les chercheurs se sont, en effet, évertués à mieux connaître les différents sous processus en jeu et les types de connaissances disponibles en mémoire à long terme et mobilisées par ces processus. Hayes et Flower ont d'ailleurs intégré les acquis expérimentaux découlant de la voie ainsi ouverte, en spécifiant de façon très féconde les sous processus de révision (Flower, Hayes, Carey, Schriver, & Stratman, 1986) et ceux du processus de planification (pour des revues, voir Piolat, 1998, 1999). Ils ont alors statué avec une grande finesse sur les caractéristiques fonctionnelles de ces processus de traitement de l'information lorsque le rédacteur adulte planifie et contrôle ce qu'il écrit. Toutefois, aucun rôle fonctionnel n'a été alors accordé à la mémoire de travail. Seul le concept de capacité de stockage limitée est avancé, permettant de qualifier de surcharge soit la mobilisation d'un processus trop gourmand en ressources cognitives, soit la convocation de deux activités dont l'activation simultanée dépasse la capacité disponible du rédacteur. Les limites de ce modèle princeps sont maintenant bien connues (Chanquoy & Alarmargot, 2002). En termes de « chaînons manquants », Hayes et Flower et leur équipe de recherche, cantonnés à étudier les performances rédactionnelles des adultes chez lesquels l'activité graphique est fortement automatisée et donc très disponible, n'ont pas contribué à l'analyse des processus graphiques. Ils n'ont pas fait non plus de la mise en texte leur champ de recherche privilégié. Dans le même temps et grâce à des techniques de recherches en laboratoire très sophistiquées, Levelt (1986) a proposé un modèle de la production verbale orale capital pour comprendre comment les locuteurs réalisent la production d'énoncés. Les composants de son modèle sont les suivants. Outre le conceptualiseur qui assure la mise en place d'un message préverbal, le modèle comporte un formulateur qui procède à l'encodage grammatical et phonologique des éléments lexicaux sous forme de langage interne. Un articulateur prend en charge la réalisation physique de l'émission verbale. Ces composants sont coordonnés avec un système de compréhension du discours qui contrôle la production verbale orale. Sur le plan fonctionnel, ce contrôle qui peut être interne (c'est-à-dire avant l'émission verbale) ou externe (pendant et après l'émission verbale), ne peut être exercé que si le locuteur dispose de suffisamment de ressources. L'influence du modèle de Levelt (1986) dans le champ d'étude de la production verbale orale est considérable, champ pour lequel il a été conçu. Il a aussi été utilisé pour mieux appréhender la production verbale écrite dont certains aspects fonctionnels sont estimés communs avec l'oral (pour une synthèse, Fayol, 1997). Il a même fait l'objet d'une adaptation par van Wijk (1999) moyennant quelques modifications mineures (cf. Figure 3). Le modèle de van Wijk (1999) n'est pas inspiré par celui de Hayes et Flower (1980) même si le composant Processus conceptuels réunit des fonctions proches de la Planification et le composant Processus linguistiques englobe des fonctions proches de la Mise en texte. Mais, comme ce dernier, il ne fait pas référence explicitement à la mémoire de travail et à ses fonctions. Chronologiquement, ce sont les chercheurs soucieux de rendre compte de l'évolution de la maîtrise rédactionnelle qui ont relevé l'importance du rôle de la mémoire de travail, celle -ci pouvant en partie expliquer fonctionnellement les contraintes développementales comme cela a été brièvement exposé ci avant (section 1.2.). Deux contributions majeures peuvent être évoquées, celle de Scarmadalia et Bereiter (1991) et celle de Berninger et Swanson (1994). A partir de leurs observations, Scarmadalia et Bereiter (1991) décrivent deux stratégies d'utilisation des connaissances qui rendent compte des traitements opérés essentiellement lors de la planification par des rédacteurs novices et experts. La stratégie des connaissances racontées, principalement employée par les rédacteurs novices, consiste à récupérer une connaissance en mémoire à long terme et à la transcrire, le texte écrit servant de source d'activation pour la récupération de nouvelles connaissances qui sont à leur tour transcrites. Cette stratégie cyclique est guidée par les contraintes de la situation de production qui orientent la récupération des connaissances. Les textes ainsi produits sont des juxtapositions de phrases qui reflètent la structure des connaissances du rédacteur. Les rédacteurs plus experts ne se contentent pas d'une simple transcription de leurs connaissances. Ils les réorganisent pour les rendre compatibles avec les contraintes thématiques et rhétoriques imposées. Cette stratégie des connaissances transformées consiste ainsi dans la complexification du processus de planification. Acquise de façon progressive, elle serait disponible vers l' âge de 16 ans. Par la prise en compte de contraintes supplémentaires, les rédacteurs experts parviennent à rédiger des textes plus élaborés que ceux produits par les novices. De plus, par l'analyse qu'ils font de la situation de communication et par la réorganisation de leurs connaissances, les rédacteurs expérimentés acquièrent des compétences et des connaissances supplémentaires pendant qu'ils écrivent. Cet aspect épistémique de la stratégie des connaissances transformées constitue un point crucial de l'expertise rédactionnelle. Toutefois, celle -ci n'est pas la seule utilisée, les rédacteurs experts pouvant, dans des situations de productions familières, se contenter d'appliquer la stratégie des connaissances racontées. Plus focalisés sur les aspects stratégiques et dynamiques de l'activité que sur l'identification des processus rédactionnels, Scarmadalia et Bereiter (1991) ne décrivent pas ces stratégies rédactionnelles à partir du modèle de Hayes et Flower (1980). En revanche, ils notent que le passage de la première stratégie à la seconde dépend de l'augmentation avec l' âge des capacités de maintien et de traitement des informations en mémoire de travail. Tout en enrichissant le modèle de Hayes et Flower (1980), Berninger et Swanson (1994) proposent, quant à eux, trois phases de développement (en termes de niveau scolaire) qui montrent à la fois le décalage entre la possible mobilisation des différents processus rédactionnels (intra-phase et inter-phases) mais aussi le rôle crucial de la mémoire de travail dans la deuxième et troisième phases. Pour l'essentiel, dans la première phase (cf. Figure 4), le processus de traduction permet au rédacteur débutant (6-7 ans) d'assurer en premier lieu la transcription graphémique (qui occupe largement la capacité de la mémoire de travail) suivie de celle de la production de mots, de phrases, de paragraphes, de textes. Le rôle du processus de planification est restreint à l'enchaînement de phrases, celui du processus de révision à des corrections de surface (orthographe et ponctuation). Pour les niveaux scolaires intermédiaires (cf. Figure 5), sous l'effet de l' âge (8-10 ans) et de la pratique, l'automatisation de la transcription graphique et orthographique favorise le développement d'une planification plus globale du contenu. La mobilisation du processus de révision reste délicate mais permet de gérer des erreurs plus diversifiées concernant différents niveaux de traitements langagiers (mots, phrases, ensemble du texte). Ce n'est qu'au niveau du collège (11-12 ans; cf. Figure 6) que les processus déployés et mis en œuvre de façon efficace dans le cadre de la capacité de la mémoire de travail. La planification n'est pas encore suffisamment coordonnée avec les autres composants et ne le deviendra que plus tardivement (vers 16 ans). A partir de ce modèle développemental, il n'est plus possible de considérer qu'un rédacteur expérimenté est celui qui a automatisé l'ensemble des opérations qu'il doit réaliser afin que son système cognitif ne soit pas surchargé par des traitements trop coûteux mettant à mal sa capacité mnésique limitée en ressources attentionnelles. Une fois que certaines opérations sont automatisées, plusieurs solutions fonctionnelles sont disponibles : un enchaînement successif et non parallèle de traitements ou un rallongement momentané du temps de traitement. Ce que soulignent ces modèles, c'est que certains traitements rédactionnels délibérés sont obligatoirement coûteux et que dans des situations de production délicate (par exemple, un manque de connaissances thématiques ou une difficulté à structurer un ensemble d'informations argumentatives, etc.), un rédacteur expérimenté peut délibérément leur attribuer encore plus de ressources afin d' être efficace. Il a fallu attendre une quinzaine d'années pour que la mémoire de travail soit clairement intégrée dans les architectures des composants utiles à la rédaction de textes chez le rédacteur adulte. Ainsi, dans le même temps et dans le même ouvrage, Hayes (1996) et Kellogg (1996) redéfinissent le champ de recherche, proposant alors des directions de travail à partir d'un modèle de plus en plus complexifié et intégratif de l'ensemble des déterminants de l'activité pour le premier, et d'un modèle élagué, simplifié et restreint à l'activité rédactionnelle stricto sensus pour le second. Dans les deux cas, la mémoire de travail devient un composant majeur de l'activité. Par ailleurs, en écho au modèle de Flower et al. (1986), Butterfield, Hacker et Alberston (1996) redéfinissent le contexte cognitif dans lequel le contrôle de la production écrite, c'est-à-dire la révision, peut être exercée. Il n'est bien sûr pas possible de décrire par le menu ces architectures cognitives. Quelques informations justes utiles pour le propos de ce papier seront donc données ci-après. Selon ses propres termes, Hayes (1996), propose un modèle individuo-environnemental de la rédaction de textes. Cognition, affect et mémoire relèvent des caractéristiques de l'individu et les environnements social et physique permettent de caractériser la nature du contexte de production. Il illustre avec plusieurs résultats expérimentaux, les raisons de ces différents changements. L'architecture ainsi dessinée est alors très étendue (cf. Figure 7). Hayes (1996) propose quatre différences fondamentales d'avec son premier modèle : (1) L'accent doit être mis sur le rôle central de la mémoire de travail, intégrée d'ailleurs de façon centrale dans le schéma; (2) En raison du formatage multimédia de plus en plus florissant des documents écrits, les représentations visuo-spatiales et linguistiques sont introduites; (3) Une place significative est faite à la motivation et à l'affect qui jouent un rôle majeur dans la production écrite; (4) Les processus cognitifs (planification, génération de texte, révision) sont intégrés dans des structures cognitives plus générales qui partagent des opérations et des ressources cognitives (réflexion, production de texte, interprétation du texte). Tout en ayant réalisé une analyse très fine des différents types de planification (planification par abstraction, par analogie, par modélisation), Hayes (1996) insère cette activité dans le composant réflexion, dont le rôle est de transformer des représentations internes en d'autres représentations internes à l'aide d'outils cognitifs comme la résolution de problème, la prise de décision, la production d'inférences. La production de texte concerne, à la fois, la production verbale orale et écrite dont certaines opérations sont communes. Elle utilise les représentations internes issues de l'analyse du contexte afin d'aboutir à une sortie écrite, parlée ou graphique. L ' interprétation de texte s'appuie sur la lecture, l'écoute et l'examen graphique pour créer des représentations internes à partir d'entrées linguistiques et graphiques. Ces représentations sont prises en charge par une structure de contrôle permettant via le composant de production, la transformation du texte. Pour ce qui concerne la mémoire de travail, Hayes (1996) reprend le modèle de Baddeley (1990) dont il reproduit la structure, l'administrateur central partageant des fonctions exécutives avec le processus de réflexion. Toutefois, il y adjoint un stockage sémantique supplémentaire (mémoire sémantique) afin de maintenir les unités sémantiques inclues dans le message pré-verbal et exploitées lors de la génération du texte. Ce registre est très comparable au buffer épisodique proposé ultérieurement par Baddeley (2000) dans la dernière version de son modèle de la mémoire de travail. Enfin, si Hayes (1996) rappelle l'importance fonctionnelle de la boucle phonologique dans la mise en texte, il insiste sur celle du calepin visuo-spatial qui interviendrait aussi lorsque, à l'aide des processus de lecture et d'édition, le rédacteur révise son texte dont les particularités de mise en forme matérielle peuvent être utilisées. Dans une synthèse très féconde sur la rédaction de textes, Kellogg (1994) rassemblait les théories sur l'activité rédactionnelle alors disponibles ainsi que ses propres acquis expérimentaux sur la mobilisation en temps réel des processus rédactionnels et l'effort cognitif (ou coût en ressources cognitives) associé à cette mobilisation. Il substitue à celui de Hayes et Flower (1980), un modèle qui n'a pas le succès escompté (cf. Figure 8). Comparativement au modèle princeps, deux composants sont introduits. Mémoire de travail et Mémoire à long terme sont différenciées. En faisant figurer sur le schéma la façon différente dont ces deux mémoires peuvent être mobilisées, Kellogg (1994) tente ainsi de rendre compte, chez l'adulte, de l'activation de l'une ou l'autre des stratégies rédactionnelles établies Scarmadalia et Bereiter (1991). Par ailleurs, et même si Kellogg (1994) fait explicitement référence à Baddeley (1986) en soulignant que la mémoire de travail offre un « espace de travail », celle -ci est reléguée au stockage des éléments en cours de traitement comme s'il s'agissait d'une mémoire à court terme assurant un stockage passif de schémas (séquences d'actions bien maîtrisées). Le fonctionnement du rédacteur serait alors sous la dépendance de ces schémas (schémas de phrase, de paragraphe, de document) activés automatiquement par des priorités internes et/ou des indices environnementaux qui ne feraient ainsi pas appel à une attention délibérée. En conséquence, Kellogg (1994) introduit aussi un composant attentionnel dont la fonction est d'attribuer volontairement du temps et des ressources attentionnelles aux différents traitements, temps et effort que Kellogg sait alors évaluer expérimentalement (pour un descriptif, voir Piolat & Olive, 2000). Le modèle de Kellogg (1994) constitue donc une « déroutante » interprétation de la mission que remplit la mémoire de travail selon Baddeley (1990) alors que ce dernier regroupe système attentionnel et mémoire de travail. La distinction entre mémoire de travail et composant attentionnel ne sera pas reprise par Kellogg dans son modèle de 1996, étayage majeur actuellement pour les recherches évaluant les relations entre les différents registres de la mémoire de travail et la rédaction de texte. L'architecture de 1996 (cf. Figure 9) est intéressante à deux titres : (a) le regroupement des processus rédactionnels proposés et (b) la façon dont ces processus exploitent (ou non) les ressources de la mémoire de travail. Comparativement au modèle princeps de Hayes et Flower (1980) et à son propre modèle de 1994, un composant d ' exécution est introduit pour marquer l'importance de la programmation et de la production grapho-motrice de l'écriture. La formulation prend en charge les aspects de planification et de mise en texte du message comme proposé dans le modèle princeps. Le contrôle permet de lire et vérifier le message en cours de composition et de l ' éditer en diagnostiquant des erreurs et en les corrigeant si nécessaire. Pour l'essentiel, les caractéristiques fonctionnelles des processus et leurs interrelations sont du même ordre que celles de Hayes et Flower (1980). A l'exception de l'exécution (chez les adultes), les deux autres composants de la production de textes font largement appel à l'administrateur central, que cela soit pour coordonner les processus rédactionnels ou pour leur allouer des ressources cognitives. De plus, selon Kellogg (1996), pour planifier leur texte, les rédacteurs visualisent des images, des diagrammes et des plans. Aussi, la planification engagerait le calepin visuo-spatial comme la boucle phonologique, alors que les processus de traduction, de lecture et d'édition, engageraient uniquement la boucle phonologique. Ce modèle est heuristique comme l'a été, en son temps, celui de Hayes et Flower (1980). Aux chercheurs en psychologie cognitive de montrer la validité des hypothèses ainsi établies à l'aide des méthodes de double et triple tâche (Olive, 2002; Piolat & Olive, 2000). Les travaux sont en cours. Butterfield et al. (1996) complètent des aspects restés implicites dans le modèle de révision de Flower et al. (1986) en distinguant clairement la mémoire à long terme et la mémoire de travail et, au sein de cette dernière, les niveaux cognitifs des niveaux métacognitifs. Ce modèle est évoqué ici car la capacité des rédacteurs à contrôler ce qu'ils font constitue une part importante de l'expertise rédactionnelle (Piolat, 1998). Leur modèle de la révision de texte est constitué de deux composants (cf. Figure 10). L ' environnement regroupe les contraintes conférant à la tâche d'écriture le caractère d'un problème rhétorique et le texte déjà réalisé à réviser. Le système cognitif/métacognitif associe mémoire à long terme et mémoire de travail du réviseur. D'un point de vue fonctionnel, le support essentiel de la révision est la représentation mentale du texte à réviser élaborée en mémoire de travail, même si les modifications sont observables sur le texte déjà réalisé. Cette représentation dépend des contraintes prises en compte par le réviseur, de l'importance qu'il accorde à la révision (problème rhétorique) et des traitements cognitifs et métacognitifs que ce dernier met en oeuvre au cours de la lecture et de la révision du texte. Cette dernière est réalisée par les processus de représentation de la tâche, de représentation du texte, de détection et de diagnostic des problèmes du texte et de choix de stratégies de modification (Flower et al., 1986). Ces processus opèrent de façon délibérée et, de ce fait, interviennent en mémoire de travail. Les informations qu'ils traitent sont issues de l'environnement comme de la mémoire à long terme. La capacité limitée de la mémoire de travail contraint la révision, aussi l'allocation de ressources aux différents processus se fait sur un mode compétitif non prédéterminé. Les ressources peuvent être réparties entre tous les processus ou allouées à un seul, suivant les exigences du moment. Un transfert bidirectionnel d'informations entre mémoire de travail et mémoire à long terme permet de récupérer les connaissances nécessaires aux traitements et de renvoyer en mémoire à long terme du matériel déjà traité ou en cours de traitement jusqu' à une réutilisation éventuelle. Ce retour en mémoire à long terme (niveaux cognitif et métacognitif) permet de diminuer le coût cognitif en mémoire de travail. En effet, les traitements opérés sur les informations issues de l'environnement ou de la mémoire à long terme peuvent intervenir en mémoire de travail quand ils sont délibérés, mais aussi directement en mémoire à long terme quand ils sont automatisés. Le modèle d'origine de Flower et al. (1986) est ainsi complété en faisant une large place à la puissance opérative de la mémoire de travail. En présentant aussi succinctement ces architectures cognitives, le risque est pris de ne pas rendre suffisamment compte de la façon dont les chercheurs en psychologie cognitive les utilisent pour poser des hypothèses et les tester expérimentalement. Aussi, le lecteur d'une autre discipline s'il est, par exemple, engagé dans une analyse de corpus écrits ou dans une élucidation des contextes favorisant les apprentissages en classe, peut, à juste titre, douter de l'intérêt de ces variations schématiques pour accroître l'intelligibilité de ce qu'est l'activité de rédaction de textes. L'illustration qui suit, concernant l'activité de prise de notes pourra peut-être raviver sa curiosité. La prise de notes est une activité d'écriture incessamment utilisée dans le milieu scolaire et pourtant peu (ou pas) enseignée (Piolat & Boch, 2004). Pourtant, jour après jour, l'élève stocke ce qui est professé mais il prépare aussi des exposés, des dissertations, résout des problèmes variés en prenant des notes. Par ailleurs, cette activité est très fréquente dans la vie quotidienne et dans de nombreux milieux professionnels. Il s'agit donc d'une écriture de la mémoire (stabilisation d'informations utiles par la suite) mais aussi du travail (accomplir une activité mentale ou diriger de futures actions ou décisions). En termes de psychologie cognitive, la prise de notes (surtout lorsqu'il s'agit de stocker des informations justes entendues) implique la gestion simultanée des processus de compréhension (accès au contenu et sélection des informations) et de production (mise en forme de ce qui est transcrit à l'aide de procédés abréviatifs, de raccourcis syntaxiques, de paraphrases d'énoncés, et de mise en forme matérielle de ses notes), (pour une synthèse, Piolat, 2001; 2004). Le noteur est confronté à des problèmes de rapidité de traitement de l'information de divers ordres qui mettent à mal la capacité limitée de sa mémoire de travail. Tout en écrivant, il est soumit à la cadence de parole d'un conférencier (ou à celle des protagonistes d'une réunion) et subit une pression temporelle notable, car son écriture, même abréviée, reste lente à réaliser. Il doit maintenir en mémoire de travail des informations transitoires dont la gestion temporelle est complexe, car il coordonne les informations utiles à sa compréhension du message et celles utiles à ce qu'il produit par écrit. Ses notes, comme le montre l'analyse des corpus, ne consistent pas en une simple transcription linéaire et continue de ce qu'il entend. Plusieurs paramètres conditionnent cette gestion comme le contenu de l'enseignement, les indices fournis par le conférencier, les pratiques culturelles, le niveau d'habileté du noteur. Puisqu'il est expérimentalement possible de mesurer le coût cognitif de l'exercice de différentes activités complexes (apprendre, lire, noter, rédiger) dans lesquelles la mémoire de travail est la cheville ouvrière, il est intéressant de conclure sur les résultats expérimentaux suivants (Piolat, Roussey & Barbier, 2003; Piolat, 2004). La prise de notes est une activité plus coûteuse que la lecture ou encore que l'apprentissage de listes de mots. Toutefois, elle s'avère moins exigeante en ressources attentionnelles que la production écrite d'un texte. La mobilisation des processus de planification et de révision contribue largement à la qualité du texte produit (Olive & Piolat, 2004). Elle peut aussi provoquer la créativité de ce qui est écrit par élaboration d'idées nouvelles et formulations inattendues (Lubart, 2003). Si les modélisations récentes de la rédaction de texte en psychologie cognitive ont permis - et permettront - d'identifier certains aspects fonctionnels de l'activité rédactionnelle, elles ne peuvent, en totalité, rendre compte de ce type de résultats. Il est donc essentiel de poursuivre, en la diversifiant, l'approche scientifique (modèles et expérimentations) afin d'approcher les relations entre rédaction de textes et affect comme le propose Hayes (1996), mais aussi sur celles entre rédaction et créativité .
L'étude de l'architecture cognitive en jeu dans les activités complexes de production écrite de textes fait actuellement la part belle à la mémoire de travail. Sans cette interface, le rédacteur ne disposerait pas des ressources attentionnelles qui lui sont indispensables pour activer les processus rédactionnels, utiliser et transformer les informations récupérées en mémoire à long terme. En psychologie cognitive, la difficulté (ou l'impossibilité) de rédiger un texte n'est plus comprise comme une charge (ou une surcharge) mais comme une régulation de l'effort cognitif via les instances de la mémoire de travail. Aussi, ce n'est pas tant le niveau qualitatif du texte produit qui est l'indicateur essentiel de l'activité rédactionnelle étudiée mais la mesure des ressources attentionnelles engagées par le rédacteur. Afin de mettre en évidence la souplesse de cette économie cognitive chez le rédacteur adulte, l'A. compare l'effort cognitif associé aux processus de rédaction d'un texte inédit et celui impliqué par les processus de prise de notes d'un texte entendu ou lu
linguistique_524-05-10537_tei_417.xml
termith-557-linguistique
L'une des principales caractéristiques des langues de spécialité est leur haute densité terminologique. Cette prédominance quantitative de la terminologie fait de l'extraction terminologique un champ d'investigation privilégié en traitement automatique des langues. Mais l'un de ses effets secondaires est également de rendre plus délicate l'extraction phraséologique et l'étude des collocations. Les expressions de patrons syntaxiques identiques (par exemple celles du type <Adjectif – Nom> en anglais) peuvent être repérées automatiquement grâce à un étiquetage morpho-syntaxique, mais un étiquetage tenant compte de traits sémantiques est nécessaire pour séparer les termes des simples collocations. L'étude des collocations en langue de spécialité est une activité qui a été considérablement facilitée par la mise au point de logiciels d'extraction et de concordance. Parmi les travaux les plus récents, on peut citer ceux de G. Williams dans le domaine de la biologie végétale et ceux de M.-C. L'Homme dans le domaine de l'informatique. Williams (1998) recherche les cooccurrences significatives entre deux lexèmes, non seulement afin d'extraire des binômes ou des expressions polylexicales mais aussi pour déterminer leur « rôle thématique, facteur de cohésion textuelle », ce qui l'amène à utiliser la notion de « réseaux de collocation », qu'il représente par ailleurs sous forme graphique. Il utilise pour le repérage des collocations en corpus l'indice du MI score de Church et Hanks. Les réseaux ainsi définis décrivent en fait une combinatoire lexicale et grammaticale des termes du domaine. Ainsi, à partir du repérage d'un terme (ptDNA), on peut découvrir un « encadrement collocationnel » (the ptDNA of), qui peut lui -même être intégré à des modèles de taille supérieure (in the ptDNA of <plant_name, genes/regions in the ptDNA of <plant_name>). À partir de notions centrales du domaine comme celle de germination et de résistance, Williams regroupe les exemples faisant intervenir les formes nominales, verbales et adjectivales pour arriver à la définition de ses réseaux. M.-C. L'Homme concentre principalement son étude sur les collocations à base verbale, en particulier dans le domaine de l'informatique (1998). Elle effectue la description des verbes spécialisés dans une optique de traitement automatique et la situe à différents niveaux (syntaxique, sémantique et combinatoire). À partir d'emplois du vocabulaire informatique tels que « tourner sur », qu'elle formalise par la formule Act1(logiciel) tourne(1) sur Act2(ordinateur), elle établit un modèle descriptif qui s'inspire de la lexicologie explicative et combinatoire de Mel'cuk (1984). L'étude des corpus du domaine informatique lui a permis de décrire la structure actancielle de plus de 200 acceptions verbales spécialisées dans le domaine de l'informatique. L'intérêt que manifeste L'Homme pour la description des structures verbales se justifie pleinement dans le cadre du TALN, car si les progrès de l'extraction terminologique sont rapides, les problèmes que pose le traitement automatique du groupe verbal, notamment dans le cas de la traduction assistée par ordinateur, rendent cette formalisation indispensable. La description des collocations verbales en langue de spécialité comporte cependant un certain nombre d'écueils. Le premier est la faible fréquence des formes verbales en langue de spécialité relativement aux groupes nominaux, qui implique l'utilisation de corpus de très grande taille si l'on souhaite atteindre la significativité statistique. Le second est la nécessité du recours à un corpus arboré pour la détection de l'ensemble des structures faisant intervenir des syntagmes prépositionnels, la longueur des groupes nominaux objets n'assurant pas une proximité suffisante entre ces syntagmes prépositionnels et les verbes dont ils dépendent pour qu'une simple recherche de co-occurrents donne des résultats fiables. Quelques exemples tirés de la langue médicale nous serviront à illustrer la difficulté de la détection des collocations en langue de spécialité. La première difficulté réside dans l'absence de séparation nette entre vocabulaire spécialisé et vocabulaire général, phénomène dû à la polysémie de nombreux mots d'usage courant. Nous avons ainsi examiné les 134 occurrences du mot lit dans un corpus composé des polycopiés des Facultés de médecine de trois universités françaises. L'examen manuel de ces formes fait apparaître deux types d'emploi distincts : ceux dans lesquels le lit désigne l'objet matériel (surélévation de la tête du lit, repos au lit, (geste) réalisé / réalisable au lit du patient, pouvant être utilisé au lit du malade, confiné au lit, garder le lit) et ceux dans lesquels il désigne une partie de l'anatomie et précède dans la plupart des cas un adjectif relationnel à valeur localisante (lit vasculaire / artériel / vésiculaire / capillaire). Qu'il s'agisse de la détection des collocations ou de l'extraction terminologique, la prise en compte des statistiques de probabilité de cooccurrence nécessiterait idéalement un traitement séparé des exemples de chacun de ces emplois, de la même manière que les dictionnaires traitent les homographes dans des entrées distinctes, en distinguant lit 1 de lit 2. On décompte également neuf emplois de l'expression « faire le lit de » dans son sens étiologique (exemple : Les infarctus osseux qui accompagnent le processus infectieux semblent faire le lit des localisations septiques). La fréquence relativement élevée dans notre corpus de cette expression de la langue générale nous indique qu'elle constitue sans doute un élément de la phraséologie médicale qui vaut la peine d' être répertorié. Mais l'arsenal actuel du TALN ne permet pas le repérage automatique de combinaisons lexicales de mots d'une aussi haute fréquence d'emploi. Même dans un corpus lemmatisé qui regrouperait les emplois des cinq formes du verbe faire présentes dans le corpus, l'indice de probabilité de cooccurrence de faire et de lit resterait extrêmement bas du fait de leur haute fréquence d'emploi, et ce quel que soit le mode de calcul utilisé. Dans le repérage des collocations disjointes en anglais, le problème de la correction de l'étiquetage morpho-syntaxique peut également se poser, en particulier pour les couples de catégories donnant le plus souvent lieu à une ambiguïté morphologique : nom singulier / verbe à l'infinitif (result), nom pluriel / verbe à la troisième personne du singulier (results), verbe au prétérit / participe passé (treated), participe passé / adjectif (mixed). Ainsi, une phrase comme Results of trials of selective gut decontamination have been mixed est incorrectement étiquetée par tous les programmes auxquels nous l'avons soumise. Nous reproduisons à titre d'exemple l'étiquetage attribué par le programme CLAWS (utilisé pour l'étiquetage du British National Corpus) et la traduction de cette phrase par le logiciel Systran Classic 3.0. (voir tableau 1). Results_NN2 of_IO trials_NN2 of_IO selective_JJ gut_NN1 decontamination_NN1 have_VH0 been_VBN mixed_VVN ._. Des résultats des épreuves de la décontamination sélective d'intestin ont été mélangés. La collocation non identifiée est ici mixed results (résultats mitigés), la catégorie grammaticale incorrectement attribuée à mixed par le programme d'étiquetage (et sans doute par l'analyseur de Systran) étant celle du participe passé au lieu de l'adjectif. Notons au passage que les choix erronés du logiciel d'aide à la traduction en matière de lexique (les traductions correctes sont : trials —> essais, selective gut decontamination —> décontamination digestive sélective) peuvent être rectifiés grâce au renseignement par l'utilisateur du dictionnaire personnalisé inclus dans le programme. Il existe même une ambiguïté syntaxique correctement traitée par le logiciel (selective modifie bien decontamination et non pas gut). De fait, les améliorations pouvant être apportées à la traduction proposée concernent essentiellement l'emploi des déterminants. Le repérage des collocations disjointes pose un double problème. D'une part, leur prise en compte dans les modules automatisés décrits plus haut en ralentit considérablement le fonctionnement, en raison du supplément de mémoire qu'elle exige. D'autre part, leur repérage dans les textes à traduire nécessiterait la détermination d'un écart maximum (c'est la fonction du filtre SPAN dans le logiciel TACT) et produirait le même type de ralentissement. Dans l'exemple cité plus haut, 8 mots séparent results de mixed. Une optimisation de cette fonction d'empan nécessiterait la prise en compte de statistiques de présence à l'état disjoint (on présume, par exemple, que ces statistiques révéleraient que la collocation « aspects observés » sera plus souvent disjointe que la combinaison « atteinte vasculaire ») afin de n'utiliser ces fonctions de recherche qu'en cas de nécessité. Une autre piste, moins coûteuse en mémoire, consiste à isoler des groupes de mots (parfois appelés chunks dans la littérature anglo-saxonne) dont la traduction dans une langue est homogène dans les corpus bilingues alignés. Dans le cas de la suite have been mixed dans la littérature médicale, cette approche donnerait le résultat escompté puisque cette suite ne se présente qu'avec des arguments tels que results ou reviews, qui donnent lieu à la seule traduction « ont été mitigés » en français. Cette possibilité de désambiguïsation par séquence de mots est facilitée par la distinction opérée par le système aspectuo-temporel de l'anglais entre les deux formes have been mixed et were mixed, la première étant toujours utilisée dans un contexte évaluatif, alors que la deuxième, pour la totalité des occurrences rencontrées dans IM93, est une vraie forme passive faisant référence à un processus s'inscrivant dans une séquence expérimentale telle qu'elle peut être décrite dans la partie Methods d'un article de recherche. La résolution de l'ambiguïté syntaxique provoquée par le double statut grammatical de mixed est donc le principal écueil rencontré par le logiciel. Diverses solutions sont envisageables pour tenter de résoudre un tel problème, si tant est qu'il soit d'abord identifié : le recensement de tous les participes passés pouvant être employés comme adjectif est bien sûr nécessaire dans un premier stade, afin que l'analyse par défaut d'une forme de participe passé suivant been comme faisant partie d'une structure passive soit éventuellement suivie d'une tentative de désambiguïsation. On peut envisager trois modes de désambiguïsation dont le coût en temps de traitement est variable. Le stockage des collocations de patron syntaxique <Adjectif – Nom> constitue la solution la plus simple. L'élimination de l'interprétation active de la prédication < somebody – mix results > pourrait également être confirmée par la présence d'une combinaison telle que combine results dans une base de donnée collocationnelle regroupant les verbes et leurs principaux arguments, mais on peut également imaginer la recherche en corpus (plus coûteuse en temps de traitement) d'éventuelles cooccurrences entre results et les synonymes de mix fournis par une base lexicale comme Wordnet (Fellbaum 1998). Enfin, le repérage de la collocation sous sa forme disjointe telle qu'elle se présente dans le contexte semble difficile à réaliser. En effet, les programmes de collecte automatique de collocations fonctionnent soit par repérage de mots immédiatement consécutifs (c'est le cas du générateur de collocations du logiciel TACT), soit en fournissant une série de contextes de co-occurrence de deux mots donnés dans des limites de proximité prédéfinies. Plus le nombre de mots séparant les deux termes de la collocation est élevé, plus son repérage devient aléatoire, car l'indice de probabilité de cooccurrence diminue en fonction de la distance exprimée en nombre de mots. Si le problème du rattachement des groupes prépositionnels et celui des énoncés susceptibles d'induire en erreur les programmes d'analyse automatique ont donné lieu à de nombreux travaux, le problème de l'ambiguïté syntaxique générée par les structures coordonnées en langue de spécialité semble susciter un moindre intérêt, sans doute parce que la résolution de ce type d'ambiguïté nécessite un fort apport d'information lexicale dépendant du sous-langage de spécialité et difficilement généralisable à d'autres domaines. Parmi les structures coordonnées de l'anglais, celle du type <ADJ N1 AND N2> est d'usage fréquent, et provoque une ambiguïté dans la mesure ou l'adjectif modifie soit les deux noms coordonnés soit uniquement le premier. Un bref exemple suffira à illustrer la multiplicité d'interprétations que génère la combinaison de la prémodification nominale et de la coordination en anglais de spécialité : (1) The ability of PET to detect cancer is based on the altered substrate requirements of malignant cells, which result from increased nucleic acid and protein synthesis and glycolysis. Au décodage, le traducteur de cet énoncé est amené à se poser plusieurs questions concernant la structure syntaxique de la dernière partie de la phrase, increased nucleic acid and protein synthesis and glycolysis. Certaines de ces questions trouveront chez le traducteur humain une réponse immédiate grâce à l'examen du contexte et des relations sémantiques qui lient les mots entre eux, mais poseront problème à l'analyseur syntaxique automatique : nucleic modifie -t-il acid, l'ensemble acid and protein ou bien synthesis ? protein est-il un prémodificateur du seul nom synthesis ou à la fois de synthesis et de glycolysis ? increased modifie -t-il acid, synthesis ou bien l'ensemble synthesis and glycolysis ? Les sources possibles d'erreurs se conjuguant, les chances d'arriver au découpage correct sans l'apport de connaissances lexicales sont réduites. Si l'on symbolise la portée des prémodifications à l'aide de crochets, le découpage correct est le suivant : increased [[ [[ nucleic acid] and [protein]] synthesis] and glycolysis ], et ce segment peut donc se traduire par « l'augmentation de la glycolyse et de la synthèse des protéines et de l'acide nucléique ». Les mécanismes de désambiguïsation du traducteur humain dépendent partiellement de sa connaissance de la réalité extralinguistique mais aussi d'une connaissance lexicale transmissible à la machine sous forme d'une base de données contenant à la fois les termes et les collocations de la langue de spécialité. Ainsi, si l'analyseur a accès à une telle base, les découpages supposant l'existence de nucleic protein ou de nucleic synthesis seront invalidés puisque ces séquences n'y figureront pas, et nucleic acid synthesis, inversement, sera validé. Quant à la résolution de l'ambiguïté concernant la portée de la prémodification par increased, elle repose fortement sur la connaissance extralinguistique du domaine de spécialité, même si la fréquence des structures coordonnées à la suite de participes passés comme decreased et increased peut donner lieu à une analyse statistique de la probabilité de distributivité de la prémodification. Les exemples cités plus haut montrent les services que peut rendre une base de données recensant les phénomènes de cooccurrence en langue de spécialité. Le repérage de combinaisons lexicales correspondant à un patron syntaxique donné est particulièrement adapté à l'outil informatique, puisque celui -ci est d'une grande puissance pour la génération de collocations tirées de textes numérisés. Le tableau 2 nous donne un exemple des combinaisons de deux mots consécutifs obtenues à partir d'un corpus de 200 000 mots composé d'articles portant sur la gastro-entérologie. On remarque une grande homogénéité, typique de la langue médicale (et peut-être de la langue scientifique en général) quant aux catégories grammaticales représentées, puisque 18 collocations sur 20 sont du type <Nom – Adjectif>. Par ailleurs, l'examen de ces dernières révèle un clivage assez net entre les termes (formes relevant du lexique spécialisé), et les collocations proprement dites, dont les bases (aspect, augmentation) n'appartiennent pas au vocabulaire spécialisé. Le problème de l'automatisation du tri entre termes et collocations est l'une des difficultés rencontrées par les programmes d'extraction terminologique, pour lesquels des suites comme aspects observés ou augmentation localisée font partie du « bruit » à éliminer. Nous allons tenter de décrire un modèle inverse, visant à opérer l'extraction des seules collocations. Clas suggère un classement des collocations lexicales en divers groupes basés sur une fonction syntagmatique qui intègre les six catégories suivantes (1994 : 578) : verbe et nom, où le verbe a un contenu sémantique très général proche simplement de « faire » (prononcer un discours); nom et adjectif (rude épreuve, marque distinctive); adverbe et adjectif (vachement bon); verbe et adverbe (boire goulûment) nom (sujet) et verbe (la cloche sonne, le chat miaule, l'abeille bourdonne); marquage de la quantité (unité ou collectif) du nom (essaim d'abeilles, troupeau de vaches, pincée de sel, barre de chocolat). Les exemples donnés ici correspondent à des degrés de figement et de lexicalisation divers, et les restrictions s'appliquant à certaines des catégories définies par Clas pourraient être élargies. Par ailleurs, les associations décrites dans le cadre des quatre premières catégories semblent constituer un choix de combinatoire lexicale possible parmi d'autres, alors que celles des catégories 5 et 6 ne peuvent s'accommoder de variations (le marquage de la quantité fait d'ailleurs l'objet d'explications et d'exercices dans la plupart des grammaires de l'anglais). La Figure 1 représente un schéma combinatoire des différentes catégories morpho-syntaxiques établi à partir des catégories décrites plus haut. Nous avons utilisé pour tester notre technique d'extraction un corpus constitué de 58 articles du Journal of the American Medical Association. La longueur totale du corpus est de 134 000 mots. Le calcul de l'indice de probabilité de cooccurrence des collocants a été effectué à l'aide du logiciel TACT. Nous avons testé deux méthodes d'extraction correspondant à deux accès possibles aux collocations <Adjectif – Nom> en anglais selon la Figure 1. L'une utilise comme point de départ les cooccurrents des verbes (l'ordre suivi est donc Verbe —> Nom —> Adjectif) et l'autre utilise comme point de départ les cooccurrents des adverbes (l'ordre suivi est donc Adverbe —> Adjectif —> Nom). Notre hypothèse de départ est la suivante : les termes, constitués essentiellement de groupes nominaux fréquemment concentrés en groupes compacts dans la prose spécialisée entrent moins fréquemment en cooccurrence avec les verbes que les noms qui sont la base des collocations de la langue de spécialité. En commençant donc par extraire les combinaisons formées des verbes et de leurs sujets ou objets typiques, puis en extrayant les combinaisons de ces noms avec les adjectifs, on obtiendra une plus forte proportion de collocations par rapport aux termes qu'en extrayant directement les combinaisons de la forme Adjectif – Nom. Après avoir évalué divers programmes d'étiquetage automatique, nous avons soumis notre corpus à un étiquetage morpho-syntaxique selon les normes du corpus LOB (Lancaster-Oslo/Bergen). Toutes les combinaisons de type <Verbe – Nom> contenant des verbes de fréquence supérieure ou égale à 10 ont ensuite été isolées et recopiées dans une base de données afin d'effectuer des mesures statistiques et des regroupements par indexation automatique. Le Tableau 3 reproduit les 30 combinaisons d'indice de probabilité de cooccurrence (z-score) le plus élevé, exception faite des hapax. La majorité des combinaisons relevées correspondent au patron <verbe + complément d'objet>, mais faute d'un étiquetage syntaxique détaillé (full parsing), certaines ne correspondent pas à cette structure syntaxique : on trouve également des noms appartenant à des groupes prépositionnels (treat with atenolol, establish with certainty, identify in / with / through a searc h) et d'autres qui sont en fait des prémodificateurs d'autres noms à l'intérieur de termes complexes (impair glucose correspond à des emplois de la suite impaired glucose tolerance, elevate fibrinogen à elevated fibrinogen levels). Le processus a ensuite été répété en partant de la liste des noms qui entraient en cooccurrence avec les verbes déjà isolés. Comme les cooccurrents recherchés étaient essentiellement des adjectifs, nous avons cependant diminué la taille de la fenêtre utilisée. Alors que celle -ci était de cinq mots à gauche et à droite des formes verbales repérées, afin de prendre en compte les nombreuses formes passives employées dans la prose médicale, nous n'avons recherché les cooccurrents que parmi les mots qui précédaient immédiatement le nom. Le Tableau 4 donne la liste des combinaisons de patron syntaxique <Adjectif – Nom> ainsi obtenues. Le classement par z-score descendant fait apparaître que cet indice de probabilité de cooccurrence favorise les termes qui sont de fréquence d'occurrence supérieure (la fréquence d'occurrence des combinaisons dans le corpus est donnée en colonne 3). De fait, la quasi-totalité des vingt premières combinaisons du tableau sont des termes de la langue médicale. On voit cependant cette tendance s'inverser dans la deuxième moitié du tableau à partir des combinaisons dont le z-score est inférieur à 20, la plupart de celles -ci n'étant pas des termes mais des collocations. La méthode suggérée initialement pour isoler les collocations des termes ne semble donc pouvoir fonctionner que si l'on élimine les combinaisons dont le z-score est élevé. Cette technique a toutefois ses limites, car certains termes complexes (coronary disease, pericardial disease) ont un z-score peu élevé en raison de la grande fréquence d'emploi dans le corpus de l'un de leurs composants (ici le mot disease). La deuxième technique utilisée pour l'isolation des collocations des termes complexes repose sur une caractéristique connue des adjectifs relationnels, qui rentrent dans la composition des termes de patron syntaxique <Adjectif – Nom>. Daille (2001) fait remarquer qu'outre les critères de repérage purement morphologiques, telle la présence majoritaire de certains suffixes de dérivation, on peut également utiliser certaines caractéristiques syntaxiques ou sémantiques des adjectifs relationnels, par exemple le fait qu'ils ne sont pas combinables avec certains adverbes, en particulier les adverbes de degré (on ne dit pas * une production très laitière). Nous avons donc tenté de repérer automatiquement uniquement les adjectifs modifiés par des adverbes dans notre corpus, puis d'extraire les noms entrant en cooccurrence avec ces adjectifs, cette méthode ayant pour but d'éliminer les combinaisons contenant des adjectifs relationnels tels que coronary ou pericardial, qui constituent le plus souvent des termes de la langue médicale. Nous avons donc isolé les 1057 combinaisons <Adverbe – Adjectif> de notre corpus médical. Après élimination manuelle des suites contenant certains adjectifs relationnels (atherogenic, bactericidal, hyperinsulinemic, metastatic, occlusive, oral, vascular), de celles dont les adverbes ne modifiaient pas l'adjectif qu'ils précédaient (therefore, still, thus, likewise, perhaps, also, once, enough, prior), et de celles contenant des adverbes pouvant précéder des adjectifs relationnels, il restait 869 occurrences d'un adjectif précédé d'un adverbe. Ces occurrences regroupaient 596 combinaisons distinctes, contenant 342 adjectifs distincts. Nous avons ensuite extrait du corpus 3121 occurrences du patron syntaxique <Adjectif – Nom> qui contenaient ces 342 adjectifs et formaient 2034 combinaisons distinctes. Le Tableau 5 donne la liste des 67 séquences de fréquence supérieure à 4 dans notre corpus. La précision de cette méthode d'extraction des collocations est nettement supérieure à la précédente, la liste contenant très peu de termes complets (on relève cependant un certain nombre d'emplois de l'adjectif low précédant le premier terme d'une lexie complexe comme ejection fraction ou compliance rate). Quant à son rappel, il est difficile à évaluer sans une exploitation manuelle intégrale du corpus. Un certain nombre des collocations du Tableau 4 ne sont pas repérées ici, soit parce que les adjectifs ne sont pas modifiés par des adverbes dans notre corpus (emotional symptoms, general use) soit parce que leur caractéristiques sémantiques n'autorisent pas une prémodification adverbiale (underlying risk). La technique utilisée fait que le taux de rappel doit logiquement augmenter avec la taille du corpus, puisqu'il suffit d'une occurrence post-adverbiale d'un adjectif pour que celui -ci soit ajouté à la liste des éventuels co-occurrents des noms qui servent de base à la deuxième passe. L'exploitation d'un corpus étiqueté morpho-syntaxiquement permet des regroupements des phénomènes de cooccurrence par patrons syntaxiques qui peuvent s'avérer utiles dans la démarche consistant à séparer les candidats termes des « candidats collocations », en particulier dans le cas des structures faisant intervenir la prémodification adjectivale du nom. La deuxième méthode que nous avons testée obtient une précision correcte, mais demande à être testée sur un corpus de taille supérieure. L'amélioration de son rappel doit être envisagée à partir d'une liste de cooccurrents correspondant au patron syntaxique <Adjectif – Nom> n'ayant pas fait l'objet d'une sélection préalable. La distinction entre termes et collocations de la langue spécialisée reste parfois difficile à opérer, et nécessite à un stade ultérieur la prise en compte de traits sémantiques réglementant la combinatoire des noms et des adjectifs. Dans cette optique, l'accès à la liste des candidats termes rejetés lors du processus de la validation terminologique opérée par les linguistes et les spécialistes du domaine lors d'études antérieures pourrait s'avérer précieux .
La grande majorité des applications de traitement automatique des langues qui ont pour domaine les langues de spécialité sont des outils d'extraction terminologique. Elles se concentrent donc naturellement sur l'identification des groupes nominaux et des groupes prépositionnels ou prémodificateurs qui leur sont associés. En nous fondant sur un corpus bilingue anglais-français composé d'articles de recherche médicale, nous proposons un modèle d'extraction phraséologique semi-automatisée, dont le point de départ est la recherche des co-occurrents les plus fréquents des formes verbales du texte original (l'anglais), étiqueté morpho-syntaxiquement (POS-tagged). L'indice de probabilité de co-occurrence (z-score) permet dans un premier temps d'établir la liste des collocants les plus fréquents d'un verbe donné dans les classe des adverbes et des noms. On recherche ensuite les adjectifs qui entrent en co-occurrence avec les adverbes et les noms relevés lors de la première étape. Une deuxième méthode utilisant les adverbes comme point de départ de la recherche a été testée et semble donner de meilleurs résultats.
linguistique_524-03-12132_tei_869.xml
termith-558-linguistique
L'usage des « connecteurs » ou « mots de discours » (Ducrot 1980) représente un des moyens linguistiques dont dispose tout locuteur pour modaliser un acte discursif. Nous tenterons, dans cet article, de décrire les caractéristiques de l'usage de l'un de ces mots de discours : de toute façon, et ce, en nous appuyant sur l'étude d'énoncés authentiques. Le choix de de toute façon part du constat que ce connecteur, bien qu'il puisse commuter dans certains énoncés avec un connecteur comme d'ailleurs ou en tout cas, détient une identité qui lui est propre. E 1 et E ' 1 permettent de vérifier cette idée. E 1 (extrait de Star Club n°121, août 1997, p.66) – Le journaliste à Lara Fabian : « Es -tu gourmande ? ». – Lara Fabian : « Si je pouvais, je mangerais du dessert en entrée, en plat principal et à nouveau en dessert. J'ai « la dent sucrée » comme on dit. D'ailleurs, ça se voit, je suis plutôt pulpeuse ». (E ' 1) - Le journaliste à Lara Fabian : « Es -tu gourmande ? ». - Lara Fabian : « Si je pouvais, je mangerais du dessert en entrée, en plat principal et à nouveau en dessert. J'ai « la dent sucrée » comme on dit. De toute façon, ça se voit, je suis plutôt pulpeuse ». En E 1, comme le dira Ducrot (1980) ou Luscher (1989), d'ailleurs introduit l'argument « ça se voit, je suis plutôt pulpeuse », coorienté à un argument déjà avancé « si je pouvais, je mangerais (…) en dessert », appuyant tous les deux la conclusion « j'ai la dent sucrée ». En E ' 1, de toute façon produit un autre effet de sens. Nous adoptons l'hypothèse qu'il s'agit de la reformulation d'un constituant de la première partie de l'énoncé. La délimitation de ce fonctionnement reformulatif s'impose, d'autant plus que nous disposons d'un certain nombre d'analyses pour d'ailleurs mais beaucoup moins pour de toute façon. Aussi tenterons -nous dans un premier temps de présenter les particularités de l'opération de reformulation par rapport à l'opération de l'argumentation. Dans un deuxième temps, nous essaierons de montrer que de toute façon intervient dans deux types différents d'énoncés. Le premier possède initialement une valeur argumentative, le second est uniquement reformulatif. Le connecteur de toute façon a fait l'objet de diverses classifications. Il a été qualifié, ainsi, de connecteur « conclusif », « réévaluatif » et de « reformulatif ». La troisième qualification, étant la plus récente et par ailleurs la plus adéquate, sera adoptée dans cette étude. E. Roulet (1987) et C. Rossari (1994) considèrent la locution de toute façon comme un connecteur reformulatif. Ils lui attribuent, par conséquent, certaines spécificités d'usage et de fonctionnement. La reformulation se définit comme un processus de réinterprétation. Il s'agit d'une subordination rétroactive d'un acte discursif, explicite ou implicite, à un nouvel acte principal, en raison du changement de la perspective énonciative. Le connecteur reformulatif représente donc « tout marqueur susceptible de présenter le point de vue auquel il renvoie ». Ainsiqualifié, de toute façon suppose que ce connecteur introduise, dans une suite « p, q de toute façon r », un énoncé réinterprétant le premier acte discursif, à savoir les énoncés p et q. La particularité de l'opération de reformulation par rapport à une autre, l'argumentation par exemple, réside dans le fait qu'elle n'est perceptible dans un énoncé qu'en présence d'un connecteur reformulatif. Cela, contrairement à un énoncé argumentatif, où la présence du connecteur ne crée pas obligatoirement une relation qui n'existait pas préalablement. Il en résulte que si, entre deux actes discursifs, seule la relation de reformulation est envisageable, la suppression du connecteur rend inacceptable leur juxtaposition. Tel est le cas de l'énoncé E 2 après modification : E 2 (extrait de Paris Match n°2613, juillet 1999, p.109) – Paris Match à Sylvie Vartan : « Presque tous les chanteurs, à un moment de leur carrière, se sont engagés pour une cause ou une autre. Comment se fait-il que vous ne l'ayez jamais fait ? ». – S.V. : « Je n'en ai jamais eu l'occasion. De toute façon, je ne me serais jamais engagée politiquement, je n'ai pas le temps de savoir qui est qui ». E ' 2 - Sylvie Vartan : * « Je n'en ai jamais eu l'occasion. Ø Je ne me serais jamais engagée politiquement, je n'ai pas le temps de savoir qui est qui ». Laissant entendre que le manque d'opportunité est la raison du non-engagement de cette artiste, la proposition « je n'en ai jamais eu l'occasion » ne peut être enchaînée directement à d'autres propositions, introduisant un raisonnement autre. L'examen des séquences énonciatives du type « p, q de toute façon r » montre que le connecteur de toute façon peut intervenir dans deux types d'énoncés : ● Le premier type possède, avant l'intervention du connecteur, une valeur argumentative. ● Le second est uniquement reformulatif, et cela, grâce à la présence de de toute façon. Notre étude des propriétés de sens et d'usage de ce mot de discours tentera de mettre l'accent sur son fonctionnement dans le second type d'énoncé, après avoir présenté, brièvement, l'effet de sens produit dans un énoncé initialement argumentatif. L'étude de l'énoncé E 3, extrait de Star Club (n° 121, décembre 1997, p. 27) nous permettra de dégager les propriétés relatives à l'effet de sens produit par de toute façon ainsi qu' à celles des cooccurrences de ce connecteur. E 3 - Star Club demande à Victoria Adams (Spice Girls) : « Et côté cœur ? ». – V.A. : « Je suis la seule du groupe qui soit vraiment amoureuse d'un garçon (…). J'ai beaucoup de chance d'avoir rencontré David. (…) Nous nous téléphonons tous les jours et nous nous voyons dès que possible. Malgré nos carrières respectives, notre relation fonctionne (p). De toute façon, il suffit que je lise les journaux, que je regarde la télé par satellite pour voir David (r). » De toute façon permet au locuteur d'élaborer son acte de langage en deux temps. En E 3, Victoria Adams conclut d'abord un acte discursif par l'énoncé « malgré nos carrières respectives, notre relation fonctionne ». Il s'agit ici d'un premier point de vue : « nous menons des carrières séparées donc des vies distinctes mais notre amour survit car nous nous voyons dès que possible ». Puis, changeant de perspective énonciative, elle subordonne rétroactivement cet acte discursif à un autre à l'aide du connecteur reformulatif de toute façon : « de toute façon, il suffit que je lise les journaux… pour voir David ». Ce dernier constitue la formulation nouvelle et par conséquent définitive du premier point de vue : « la réussite de notre relation n'est pas tributaire de rencontres réelles. Les médias remédient à cette lacune et permettent de maintenir notre amour ». Comme précédemment annoncé, nous avançons l'hypothèse que E 3 représentait, avant l'intervention de de toute façon, un acte du discours argumentatif. Autrement dit, la suppression du connecteur reformulatif donnera à lire l'énoncé « il suffit que je lise les journaux… voir David » comme étant un argument appuyant la conclusion « notre relation fonctionne ». En voici l'explication : E ' 3 : « Malgré nos carrières respectives, notre relation fonctionne (p). Ø Il suffit que je lise les journaux, que je regarde la télé par satellite pour voir David( r) ». En E ' 3, le locuteur semble adopter le topos « loin des yeux loin du cœur ». En d'autres termes, selon lui, il faut voir celui/ celle qu'on aime pour que l'amour survive. Ainsi le fait de se voir, même indirectement à travers les médias, constitue -t-il un moyen pour sauvegarder cet amour. Il n'est donc pas impossible d'introduire, sans modifier le sens de E ' 3, un connecteur à usage argumentatif comme d'ailleurs : Malgré nos carrières respectives, notre relation fonctionne (r). D'ailleurs, il suffit que je lise les journaux, que je regarde la télé par satellite pour voir David( q). Dans cet enchâssement de l'argumentatif au reformulatif, de toute façon permet d'invalider la pertinence du point de vue initial, selon l'une des deux manières suivantes : ● L'invalidation consiste en leur remise en cause de l'énonciation de p, en tant que proposition ayant une valeur argumentative. E 3 se paraphrase alors comme suit : « affirmer la réussite de la relation amoureuse en dépit des carrières accaparantes ne sert à rien. La raison en est que cette réussite est garantie, indépendamment de ce fait, grâce aux mass media ». Dans ce cas de figure, de toute façon enchaîne directement sur l'énoncé p, dont il invalide la valeur d'argument, et par ailleurs le bien fondé de l'énonciation. Il annule donc la fonction interactive d'argument à conclusion la remplaçant par une fonction interactive de reformulation. ● L'invalidation consiste en la remise en cause d'un argument implicite q, anti-orienté par rapport à p, et représentant l'objection éventuelle d'un interlocuteur. Une modification sur E 3 permet d'expliciter q : « Malgré nos carrières respectives, notre relation fonctionne (p). Il est vrai que parfois des semaines s'écoulent sans que l'on se rencontre (q). De toute façon, il suffit que je lise les journaux, que je regarde la télé pour voir David. » La reformulation concerne ici la portée de l'argument implicite et, par ailleurs, sa conséquence sur la suite r de l'énoncé. Dans ce cas de figure, enchaînant sur un point de vue resté implicite, de toute façon n'annule, en aucun cas, ni la valeur argumentative de p, ni la fonction interactive d'argument à conclusion qui lie les énoncés p et r. La conciliation entre carrière professionnelle et vie affective est toujours considérée comme une preuve de la solidité de la relation amoureuse. De surcroît, voir David dans les journaux ou à la télé constitue toujours un argument prouvant que des carrières accaparantes ne nuisent pas à l'amour entre les deux jeunes gens. Cependant, l'intervention du connecteur suspend l'actualisation de la dimension argumentative de l'énoncé. Cela dit, étant introduite par de toute façon, la proposition r acquiert une certaine pertinence, sans que l'on prenne en considération les rapports qu'elle entretient avec les autres constituants de l'énoncé. En effet, l'emploi de ce mot de discours permet au locuteur, entre autres, de présenter l'énoncé r comme étant déjà connu et, par conséquent, comme étant irréfutable. En atteste la possibilité d'enchâsser ce connecteur reformulatif dans la conjonction de subordination puisque : E ' ' 3 : « (…) Malgré nos carrières respectives, notre relation fonctionne, puisque de toute façon, il suffit que je lise… ». L'analyse de l'énoncé E 3 nous permet de mettre au jour les composantes d'une définition : ● Intervenant dans un énoncé initialement argumentatif, de toute façon permet d'introduire une signification nouvelle par rapport à un aspect du premier acte discursif. Elle concerne la valeur d'argument de p ou celle de contre-argument implicite éventuel q. ● La présence du connecteur de toute façon dans ce type d'énoncé n'est pas indispensable à l'articulation des différents actes discursifs. Nous venons de voir que certains énoncés articulés par le biais de de toute façon s'avèrent être, après la suppression de ce mot de discours, des énoncés initialement argumentatifs. La présence du connecteur reformulatif permet, donc, de donner une nouvelle interprétation à la proposition r. De ce fait, la visée intentionnelle globale de l'énoncé n'est plus argumentative, mais plutôt reformulative. Il apparaît, cependant, que dans d'autres séquences du type « p, de toute façon, r », la seule signification envisageable est celle de la reformulation. Dans ce cas de figure, la présence de de toute façon est indispensable à l'acceptabilité de l'énoncé. De toute façon introduit toujours une réinterprétation de l'acte discursif sur lequel il enchaîne, imposant de la sorte un nouveau point de vue. L'invalidation du premier acte discursif dans un énoncé uniquement reformulatif peut s'effectuer suivant des raisonnements différents. En effet, la mise en cause de la pertinence de l'énonciation de p dans « p, de toute façon r » peut être engendrée par : – L'invalidation de l'implicitation de p. – L'invalidation de l'acte illocutoire de p. – L'invalidation du contenu propositionnel de p. L'implicitation désigne « toutes les propositions que l'on peut tirer de l'interprétation d'un énoncé » et non « un simple enrichissement de la forme logique [de ce dernier] ». En E 4, l'intervention du connecteur de toute façon entraîne l'invalidation de cette composante : E 4 (extrait de l'émission Légal ou pas légal, La 5, le 06-08-2000) : – (L1) L'animatrice s'adressant au candidat éliminé : « Eh ben voilà, fin de la première étape. Et à la fin de cette première étape, quelqu'un doit partir. Eh ben, après Michael c'est le retour, ça va être Michael c'est le départ. Sans regrets ? » - (L2) Le candidat : « Non, non, c'était très bien ». - (L1) L'animatrice : « Ben, vous restez avec nous, de toute façon (r). Je vous embrasse ». Dans cet énoncé, la séquence « r, de toute façon » enchaîne sur la question posée par L1 ainsi que sur la réponse de L2. Ces deux segments composent l'acte discursif p, objet de la reformulation. La remise en cause de l'utilité de l'énonciation de cette proposition est due à l'annulation de l'implicitation déductible de cet énoncé, à savoir celle qui lie le fait d'avoir des regrets à celui de quitter le studio. En effet, l'animatrice précise dans le second acte discursif (« vous restez avec nous ») que le fait de rester sur le plateau n'est pas contesté. Elle annule ainsi l'implicitation inférable de son interrogation, à savoir : « si le candidat doit partir, il aura des regrets ». La reformulation est envisagée puis énoncée, sans prendre en considération le contenu de la réponse du candidat. Ce dernier quitte le jeu mais reste quand même avec l'équipe. Nous pouvons, de ce fait, paraphraser E 4 comme suit : « La demande d'information ne légitime aucune inférence. Il ne sert à rien donc de préciser que l'on regrette ou pas le départ puisque [de toute façon ]il n'y a pas de véritable départ ». Il faudrait, par ailleurs, préciser que la reformulation effectuée en « r » ne remet en cause la pertinence de l'énonciation de p (la question et la réponse) qu'en tant qu'une confirmation d'une implicitation. Autrement dit, l'énonciation de p, en tant que contenu informatif, n'est pas invalidée. Il n'est pas impossible, dans ce cas, de remplacer le connecteur de toute façon par le connecteur en tout cas. Cependant, bien que ce dernier soit, tout comme de toute façon, un connecteur reformulatif, son intervention, possible en E ' 4, n'est pas sans impliquer une différence de sens : E ' 4 : - « (…) Sans regrets ? » – « Non, non. C'était très bien. » – « Bien, vous restez avec nous, en tout cas. Je vous embrasse. » L'effet de sens produit par en tout cas n'est pas une remise en cause de la pertinence de l'énonciation du premier acte discursif. En effet, en employant ce connecteur, « le locuteur indique (…) qu'il juge pertinent ce qui a été énoncé en p ». La reformulation inhérente à ce mot de discours ne concerne alors pas « l'état de chose évoqué en p, mais [un des éléments] relatifs à cet état de chose que la simple énonciation de p ne suffit pas à exprimer ». En E ' 4, en tout cas introduit donc un énoncé qui permet de maintenir la validité et du contenu propositionnel et de l'implicitation relatifs à p. Le locuteur semble, en effet, reconnaître le lien existant entre le fait d'avoir des regrets et celui de quitter le studio. Ainsi, la reformulation introduite par en tout cas résulte plus de la non-actualisation de l'implicitation inférable de p que de son invalidation. Par conséquent, les deux connecteurs de toute façon et en tout cas ne peuvent être considérés, contrairement à ce que semblent indiquer certains dictionnaires, comme étant de parfaits synonymes. Soit l'énoncé E 5 (extrait de Légal ou pas légal, diffusé sur La 5) – (L1) L'animatrice s'adressant à la candidate, restée bloquée en mi-réponse : « Oui, Renée ! » – (L2) Renée : « Je n'sais pas, ça vient plus ». (on entend le gong qui marque la fin du temps de réflexion) – (L1) « Eh ben, c'était la fin de toute façon. » Dans cet énoncé, l'acte discursif marqué par de toute façon (« eh ben c'était la fin ») effectue rétrospectivement une reformulation des actes discursifs précédents, à savoir la demande de L1 et la réponse de L2. Cette reformulation invalide les actes illocutoires réalisés en p et engendre une remise en cause de l'énonciation même de cette proposition. En effet, par le biais de la proposition r, le locuteur remet en cause sa demande de justification, ainsi que l'activité argumentative effectuée par L2 (Renée). Ces deux actes discursifs sont donc présentés, après coup, comme étant inutiles. Nous pouvons paraphraser cet énoncé comme suit : « D'après le locuteur L1, il ne sert à rien que L2 réponde à sa question par un acte justifiant son silence puisque [de toute façon] il sait que L2 n'aurait pas pu terminer sa réponse faute de temps. » Dans cet énoncé, nous ne pouvons pas remplacer le connecteur de toute façon par en tout cas. En effet, la particularité de l'emploi du premier réside dans le fait de pouvoir introduire une remise en cause de la pertinence de l'acte illocutoire de l'énoncé antérieur. E ' 5 L1 : « Oui, Renée ! » L2 : « Je n'sais pas. Ça vient plus ». L1 : ? « Eh ben, c'était la fin en tout cas ». Ici, l'intervention de en tout cas rend l'énoncé E ' 5 inacceptable. L'emploi de ce mot du discours n'est pas, en effet, compatible avec l'effet de sens voulu par L1, à savoir la remise en cause de l'activité argumentative faite par L2. La substitution aurait été, cependant, possible si le locuteur avait formulé son énoncé ainsi : « Eh ben, c'était la fin. En tout cas, vous n'aviez pas l'air de quelqu'un qui aurait pu trouver la réponse ». Dans ce cas, il ne s'agit plus d'une invalidation de l'acte illocutoire, mais plutôt de l'implicitation inférable des propos de L2, à savoir, « ça va venir, peut-être ». Dans un troisième cas de figure, la remise en cause de l'énonciation de l'acte discursif initial (p) demeure toujours d'actualité. Mais dans le cas présent, cette remise en cause ne réside pas dans l'invalidation de l'implicitation inférable de p, ni de l'acte illocutoire qui lui est rattaché. Elle est plutôt le résultat de la mise en question de l'état de chose exprimé en p. Soit E 6 (extrait du Nouvel Observateur n°1687, mars 1997, p.16) : – Le Nouvel Observateur à Andy Grove, patron de l'Intel : « Intel affiche 60 % de marge brute. Ne pourriez -vous pas, sans affecter votre capacité à construire de nouvelles usines, réduire le prix de vos processeurs et augmenter ainsi le taux de pénétration des micro-ordinateurs dans les foyers ? » – A.G. : « Notre politique de prix est déjà très agressive : nous introduisons nos nouveaux processeurs autour de 1000 dollars; dix-huit mois plus tard, ils n'en valent plus que 100 ! Nos marges brutes devraient d'ailleurs, à terme, revenir autour de 50 %. De toute façon, je ne crois pas qu'une baisse du prix stimulerait réellement la demande d'ordinateurs ». Comme dans les énoncés E 4 et E 5, le connecteur reformulatif de toute façon enchaîne, en E 6, sur le discours de l'autre, et ce, afin de remettre en cause la pertinence de son énonciation. En effet, « la tirade » de A. Grove, le patron d'Intel, n'a pour objectif que d'invalider radicalement le contenu propositionnel de l'énoncé du journaliste et par conséquent, d'infirmer ses visées argumentatives. Vu la complexité des deux actes discursifs, une analyse linéaire de leurs propositions constituantes s'impose. – La première séquence discursive se compose de trois parties : ● « Intel affiche 60 % de marge brute ». Cette assertion est produite sans avoir recours à aucune forme de modalisation, que cette dernière soit verbale (du type : « semble afficher ») ou locutive (du type : « à peu près 60 % »). Le journaliste pose donc cette information comme étant vraie et indiscutable. ● « Ne pourriez -vous pas, sans affecter votre capacité à construire de nouvelles usines, réduire le prix de vos processeurs ? » Les propos du journaliste prennent la forme d'une interrogation totale. Cette dernière exige une réponse par « oui » ou par « non ». L'objet de la question concernant « le pouvoir de faire X », cette interrogation prévoit, donc, une réponse du type : « oui, nous pouvons » ou « non, nous ne pouvons pas ». Dans les deux cas, l'action de « baisser les prix » est irréelle dans le présent : – « Nous pouvons » n'implique pas nécessairement « nous faisons ». – « Nous ne pouvons pas » implique « nous ne faisons pas ». La question du journaliste pose comme évident le fait que Intel n'ait pas baissé ses prix, et présuppose que ces derniers sont assez élevés. ● « et augmenter ainsi le taux de pénétration des micro-ordinateurs dans les foyers ? » Le journaliste ne présente pas le fait de « baisser les prix » et celui « d'augmenter le nombre de consommateurs » comme étant les prémisses d'un topos, mais plutôt comme des faits logiques liés par des rapports de cause à conséquence. En témoigne l'usage de l'adverbe « ainsi ». L'intervention du journaliste est donc constituée de faits présentés comme vrais et irréfutables. – La seconde séquence discursive : La première partie de cette séquence, en l'occurrence celle qui est située à gauche du connecteur, peut être considérée comme une sorte d'incise, d'apposition. Avant de répondre directement à la question du journaliste, ce qui, somme toute, constitue l'essentiel de son discours, le patron d'Intel juge indispensable de rectifier, voire de contredire, les faits avancés par son interlocuteur. L'acte de reformulation introduit par le connecteur de toute façon représente, donc, la suite de cette contestation. Pour mieux expliciter ce fait, étudions de près les parties de ce second acte. ● « Notre politique de prix est déjà … plus que 100. » Cet énoncé contredit l'information véhiculée par le journaliste selon laquelle les prix des processeurs Intel sont inabordables pour un particulier. ● « Nos marges brutes devraient, d'ailleurs, à terme, revenir autour de 50 % » Cet énoncé, marqué par le connecteur d'ailleurs, constitue un argument coorienté par rapport à un argument précédent. Ces deux arguments servent la même conclusion à propos de « l'accessibilité des prix des processeurs Intel ». La rectification introduite dans cet acte concerne le chiffre donné par le journaliste (« autour de 50 % » ≠ « 60 % »). Elle remet en question l'exactitude des dires de ce dernier et, par conséquent, sa crédibilité. ● « de toute façon, je ne crois pas qu'une baisse des prix stimulerait réellement la demande d'ordinateurs ». En rectifiant toutes les informations données par le journaliste concernant la stratégie des prix d'Intel, A. Grove le discrédite et met en cause la pertinence même de sa réflexion essentielle, à savoir l'existence d'un rapport de cause à conséquence liant la baisse des prix à l'augmentation des achats des particuliers. De surcroît, la remise en cause radicale du contenu propositionnel de p permet d'annuler, d'une façon systématique, les contenus insinués dans cet acte, à l'exemple de : « Intel ne cherche pas vraiment à élargir ses marchés ». Il apparaît, ainsi, que dans les énoncés uniquement reformulatifs, la fonction de de toute façon consiste à remettre en cause la pertinence de l'énonciation de l'acte discursif initial. Cette mise en cause se fait, comme nous l'avons montré, par l'invalidation d'un élément de p : son implicitation, son acte illocutoire ou son contenu propositionnel. Qui plus est, le connecteur de toute façon n'est supprimable dans aucun des énoncés E 4, E 5 et E 6. Nous proposons pour les énoncés uniquement reformulatifs une structure représentative unique qui serait du type « p de toute façon r ». Ce choix est motivé par le fait que la présence de la variable q, généralement associée à l'argument implicite, peut rendre l'analyse confuse. P correspond donc à l'acte discursif initial, objet de la reformulation, que cet acte représente une seule intervention ou plusieurs. Ainsi, les cooccurrences du connecteur de toute façon, qui constituent l'objet de cette présentation, sont les propositions r et p. En r, nous trouvons l'évocation de ce qui pousse l'interlocuteur à remettre en cause la pertinence de l'énonciation de p. Ainsi, du point de vue fonctionnel, nous pouvons considérer l'énoncé r comme étant le lieu de la reformulation et, donc, comme étant « la visée intentionnelle globale » de l'énoncé dont il fait partie. L'acte discursif p, quant à lui, représente initialement un acte complet et pertinent. C'est en le connectant à de toute façon que le locuteur lui fait perdre son indépendance. Ce changement de statut est plus perceptible dans les emplois dialogaux car, dans ce cas, la proposition p est enchaînée au discours de l'autre. Soient les énoncés E 7 (extrait de Biba n°221, juillet 1998, p 72) et E ' 7 : (E 7) – Biba demande à l'ex d'un musicien : « S'il n'avait pas été musicien, il aurait fait quoi ? » – Maud : « Coureur de jupons, mais ça n'a rien empêché de toute façon ». (E ' 7) – Maud : « Coureur de jupons ». – Laure : « Ça n'a rien empêché de toute façon ». L'énoncé « coureur de jupons » peut constituer, à lui seul, une réponse acceptable et complète à la question de l'interviewer. Articulé à la séquence : « ça n'a rien empêché de toute façon », cet énoncé passe, cependant, du statut d'un acte indépendant (AI) à celui d'un acte subordonné (AS). En témoigne l'énoncé E ' 7. Nous avons tenté dans cette étude du connecteur de toute façon de répartir les fonctionnements de ce morphème en deux catégories. La première concerne l'intervention de ce mot de discours dans un énoncé initialement argumentatif, la seconde se rattache à son fonctionnement dans un énoncé uniquement reformulatif. Cette classification a permis de cerner le statut ambivalent de de toute façon, qui peut être indispensable ou non à l'énoncé qu'il articule. Elle a explicité, en outre, les deux effets de sens majeurs de ce mot de discours, qui sont : le sens argumentatif-reformulatif ou essentiellement reformulatif. le sens uniquement reformulatif. Par ailleurs, l'analyse des énoncés authentiques marqués par de toute façon a révélé l'existence de divers types de reformulation. En effet, cette opération, effectuée sur une proposition p, peut aussi bien concerner l'acte illocutoire, le contenu propositionnel que l'implicitation relatifs à cette dernière .
L'A. analyse le problème des adverbes d'énonciation (O.Ducrot), c'est-à-dire des expressions qui explicitent une certaine description de celui qui parle. Plus particulièrement, il étudie les particularités du connecteur de toute façon, par les effets de sens que cette expression produit, à savoir la reformulation d'un constituant de la première partie de l'énoncé. Le but de cet article est de délimiter ce fonctionnement reformulatif. A cette fin, l'A. présente dans un premier temps les particularités de l'opération de reformulation par rapport à celle de l'argumentation. Dans un second temps, il montre l'intervention de de toute façon dans deux types d'énoncés: (1) à valeur argumentative; (2) à valeur uniquement reformulative.
linguistique_524-03-12680_tei_31.xml
termith-559-linguistique
Les articles de recherche présentent les résultats d'une expérience qui modifie l'état de la connaissance dans le domaine concerné. Le lecteur néophyte a tendance à considérer qu'il s'agit d'une simple description et à passer à côté de l'argumentation au cours de laquelle le scientifique cherche à convaincre ses pairs de l'innovation et de l'originalité présentées dans l'article et du bien-fondé de sa démarche tout en respectant la tradition scientifique dans laquelle il s'insère. Ces propriétés spécifiques du discours scientifique peuvent s'avérer un obstacle supplémentaire à la compréhension, surtout lorsqu'il s'agit d'un article en langue étrangère. C'est pourquoi il peut être utile d'incorporer dans l'enseignement des langues de spécialité une sensibilisation aux marqueurs linguistiques (terminologiques et argumentatifs), qui permettent de dépister le développement de cette rhétorique. Nous analysons ici sous l'angle de l'argumentation deux articles comparables dans deux langues différentes : un article sud-africain rédigé en anglais sur l'écologie microbienne de la phylloplane de la mangue et un article en français sur la diversité de la microflore présente sur la surface des pommes. Nous cherchons à dégager les marqueurs linguistiques qui signalent cette argumentation et qui en jalonnent les étapes. Dans ce but, nous analysons d'une part la configuration terminologique, qui sous-tend la structuration conceptuelle de la recherche et, d'autre part, la présence des négations, de certains connecteurs et opérateurs argumentatifs et des procédés d'agentivité. Nous essayons en particulier de mettre ainsi en évidence un parallélisme entre le plan énonciatif / descriptif (présentation des résultats de la propre recherche) et énonciatif / interactif (rapport avec la recherche d'autrui). Il est permis de penser que la prise en compte de ces éléments linguistiques peut améliorer la compréhension des discours scientifiques en général et servir d'appui à la préparation de la traduction. En outre, cette démarche pourrait s'avérer utile pour la découverte des différences culturelles présentes dans la rhétorique des discours scientifiques, autant d'éléments à prendre en considération également pour la rédaction en langue étrangère comme en traduction. Il nous paraît clair que cette démarche linguistique a une application pédagogique directe dans le secteur des langues de spécialité. Le public qui nous intéresse dans le cadre de la présente analyse est double : d'une part, nous nous adressons aux étudiants de biologie de niveau licence ou master de première année, qui commencent à lire des articles de recherche en anglais; d'autre part, nous visons un public plus limité, composé d'étudiants engagés dans une formation à la traduction scientifique au niveau master dans le cadre d'un ex-DESS. Il est évident que les deux groupes d'apprenants n'éprouvent pas les mêmes difficultés de compréhension devant l'article : en principe les scientifiques maîtrisent bien la terminologie du domaine, mais passent à côté de la visée argumentative du texte, tandis que les futurs traducteurs sont généralement si désorientés par leur manque de connaissances conceptuelles du domaine qu'ils sont incapables de tirer profit de sa lecture, y compris au niveau de l'argumentation. Bien entendu, la situation est souvent plus complexe, car certains étudiants scientifiques ne sont pas toujours en état de bien reconnaître toutes les subtilités de la structuration terminologique, et les traducteurs acquièrent rapidement un minimum de connaissances scientifiques qui leur permettent de faire des hypothèses interprétatives, mais en général on peut dire que l'argumentation est souvent mal comprise par les deux publics. C'est pour cette raison que nous préconisons une présentation qui tienne compte des deux types de marqueurs : argumentatifs et terminologiques. On considère habituellement que le discours scientifique, surtout celui appartenant aux sciences dites « dures », se caractérise par sa neutralité et son objectivité. Il s'agit en effet d'un type de discours qui se veut destiné à transmettre de manière impartiale et exacte les résultats des observations et des analyses menées par l'auteur ou son groupe de recherche. Ces résultats doivent donc parler d'eux -mêmes et ne doivent donc pas être vus comme la conséquence de l'intervention ou intromission de l'auteur. C'est dans ce sens que l'on dit que dans ce type de textes, il y a de la part de l'auteur une volonté de faire parler les faits, la recherche elle -même, avec un strict minimum d'intervention de sa part. La preuve de cette affirmation est sans doute le respect strict du schéma IMRAD (en particulier en sciences naturelles et exactes) mais aussi et surtout la syntaxe caractérisée par l'absence de formes pronominales renvoyant à la première personne (du singulier ou du pluriel en coïncidence avec le nombre d'auteurs), au profit des verbes à la voix passive, des structures impersonnelles et des nominalisations. Cela dit, l'auteur du discours scientifique (même celui du discours en sciences naturelles et exactes) laisse aussi des traces de sa présence et son discours n'est ni monologique ni neutre. Ainsi, par exemple, dans la section Introduction des articles de recherche, l'apparition des formes de la négation avec différents degrés de polémicité (avec ou sans mention de la source des points de vue réfutés et/ou du discours mis en question) et l'occurrence de certains modificateurs ou de certains connecteurs argumentatifs mettent clairement en évidence la présence du sujet de l'énonciation qui cherche à montrer la pertinence de son travail et à le justifier tout en s'inscrivant dans une certaine tradition de recherche. Les diverses marques linguistiques de la présence du sujet dont nous traiterons dans ce travail caractérisent surtout le mouvement « établir une niche » (Swales 1990) de la section d'Introduction des articles de recherche. Rappelons que selon le modèle CARS (Create a Research Space) proposé par Swales pour rendre compte de la configuration rhétorique des Introductions des articles de recherche, cette section comporte habituellement les trois mouvements suivants : établir un territoire, établir une niche, occuper la niche. Pour établir le territoire, l'auteur doit indiquer la pertinence de son sujet de recherche « by claiming centrality and/or making topic generalizations and or reviewing items of previous research » (Swales 1990 : 141). In recent years, applied researchers have become increasingly interested in… The aetiology and pathology of … is well known. Generative grammarians have recently modified their position. (exemples proposés par Swales 1990 : 144-150) Dans le deuxième mouvement, l'auteur doit établir sa niche « by counter-claiming, indicating a gap, raising a question or continuing a tradition » (ib.). However, the previously mentioned methods suffer from some limitations… A question remains whether… A key problem in many … is… (exemples proposés par Swales 1990 : 154-156) Enfin, dans le troisième, l'auteur doit indiquer le but de sa recherche, indiquer les principales méthodes utilisées, ou indiquer la structure de l'article. The aim of the present paper is to give… In this paper, we argue… This paper is organised as follows… (exemples proposés par Swales 1990 : 159-161) Dans ce qui suit, nous essayerons de montrer que, pour se positionner par rapport à la doxa ou tradition scientifique dans laquelle l'auteur cherche à s'inscrire en trouvant une niche que les autres auteurs n'ont pas encore trouvée ou occupée, la négation réfutative avec différents degrés de polémicité, les modificateurs déréalisants (Ducrot 1995) comme « seulement » ou « ne. .. que » appliqués à la recherche des autres auteurs et les connecteurs contrargumentatifs du type de cependant, pourtant, même si constituent des moyens privilégiés. À la suite de Ducrot (1984) et d'Anscombre (1989 : 92-105), nous distinguons trois types de négations : la négation descriptive, la négation polémique et la négation métalinguistique. Dans le cadre de sa conception polyphonique de l'énonciation, Ducrot caractérise la négation descriptive comme une négation « qui sert à représenter un état de choses, sans que son auteur présente sa parole comme s'opposant à un discours adverse » (1984 : 216). Ainsi, dans le dialogue suivant, A. - Quelle taille fait-il, Pierre ? B. - Il n'est pas grand. la réponse négative de B est descriptive dans la mesure où elle pourrait être paraphrasée, sans perte de sens, par un énoncé positif du type « Il est petit ». Dans le cas des textes scientifiques, ce type de négation sans point de vue positif sous-jacent apparaît surtout dans la section correspondant à la description des données (cf. Flottum 2004, polycopié). Un exemple de cette négation est la négation morphologique, « non-fermentative isolates », présente dans l'article en anglais sur les mangues : Identification of bacteria was based on Gram reaction, colony characteristics on STD, oxidase and catalase reactions, and/or oxidation/fermentation test. Gram-positive isolates were further identified by Biolog GP and gram-negative fermentative and non-fermentative isolates by Biolog GN. Les énoncés avec négation polémique, en revanche, font apparaître leur énonciation comme le choc de deux attitudes antagonistes, l'une, positive, imputée à un énonciateur E 1, l'autre, qui est le refus de la première, imputée à E 2. Il s'agit d'une négation qui ne sert pas à repousser le présupposé lié à l'énoncé dans lequel il apparaît (dans « Pierre n'a pas cessé de fumer », le présupposé positif sous-jacent « fumait autrefois » n'est pas mis en cause par la négation), et dont l'effet est toujours abaissant (lecture « moins que »). Ainsi, dans Jean n'est pas très intelligent mais il finira ses études. le segment « pas très intelligent » est interprété comme « moins qu'intelligent », c'est-à-dire « un peu bête », et comme conduisant donc vers une conclusion du type « il ne finira pas ses études », conclusion qui est niée, précisément, dans le segment suivant « mais ». Clairement argumentatif, ce type de négation est fréquent surtout dans la section Résultats des textes scientifiques. En effet, dans cette section, l'auteur du texte présente les résultats « normally with relevant evidence such as statistics and examples » (Ruiying & Allison 2003 : 374) suivis d'un commentaire ou d'une interprétation de ces résultats. Ce commentaire constitue, selon Ruiying et Allison, le mouvement : Commenting on results […] [which] serves the purpose of establishing the meaning and significance of the research results in relation to the relevant field. (ibid.) Or, dans ce commentaire sur les résultats obtenus, la négation polémique peut être utilisée pour corriger un point de vue positif sous-jacent correspondant à des conceptions réelles ou potentielles que l'auteur considère comme erronées ou inadéquates. Voici quelques exemples de ce type de négation dans les deux textes qui nous concernent : Trends in phylloplane microbial communities did not differ significantly between the 3 years that observation were made, and data for the 3 years have therefore been combined. Fewer bacteria were enumerated from imprinted leaves in summer than in autumn, but differences in washing and dilution plating enumerations did not differ significantly between seasons. Les autres micro-organismes présents sur pommes en post-récolte sont Botrytis cinerea, Rhizopus spp., Aspergillus spp., Phomopsis spp., Trichoderma spp., Fusarium spp. et Mucor spp. Leur population n'a cependant jamais dépassé 5 %. Les autres genres tels que Acremonium spp., Cylindrocarpon spp., Fusarium spp., Monilia spp., Mucor spp., Rhizopus spp. et Sphaeropsis spp. n'ont été détectés à aucune période. Les populations des levures et des bactéries n'ont pas été affectées par de tels traitements. Enfin, le dernier type de négation proposé par Ducrot est la négation métalinguistique. Il s'agit d'une négation qui « contredit les termes mêmes d'une parole effective à laquelle elle s'oppose » (1984 : 217). L'énoncé négatif s'en prend dans ce cas à un locuteur qui a énoncé le correspondant positif et suppose donc un énoncé antérieur réel ou évoqué dans le propre discours. C'est dans le cadre de la réfutation d'un locuteur adverse que la négation peut annuler les présupposés du positif sous-jacent et avoir, au lieu de son effet habituellement abaissant, une valeur majorante (lecture « plus que »). A. - Pierre a cessé de fumer. B. - Mais non ! Il n'a pas cessé de fumer; en fait, il n'a jamais fumé de sa vie. (la négation annule le présupposé du discours de A : « Pierre fumait avant ») A. - Il fait beau aujourd'hui, tu ne trouves pas ? B. - Mais non, il ne fait pas beau ! Il fait mauvais. B. - Non, il ne fait pas beau. Il fait un temps magnifique ! Or si nous sommes d'accord avec cette triple distinction (négation descriptive, négation polémique, négation métalinguistique), nous croyons que, en ce qui concerne la négation métalinguistique (c'est-à-dire la négation typiquement réfutative), il est intéressant de distinguer en plus les divers degrés de polémicité (dans un ordre décroissant de force) qu'elle peut impliquer dans le discours scientifique, selon qu'il y ait : a) mention explicite de la source du point de vue rejeté (c'est-à-dire, identification de l'auteur réfuté) et citation directe de son discours; b) mention explicite de la source du point de vue rejeté (c'est-à-dire, identification de l'auteur réfuté) sans citation de son discours; c) mention (citation ou reformulation) du point de vue rejeté sans identification de l'auteur réfuté. Dans ce cas, la négation s'en prend à une doxa ou tradition scientifique à laquelle l'auteur n'appartient pas ou de laquelle l'auteur veut se distancier. Nous ferons remarquer enfin que plus la réfutation est forte (cas b ou a ci-dessus), plus la présence du sujet de l'énonciation est évidente et nette. En ce qui concerne la place de cette négation dans le discours scientifique, c'est surtout dans la section Introduction qu'elle se manifeste le plus fréquemment. En effet, ainsi que nous l'avons déjà indiqué, c'est dans cette section où l'auteur se positionne dans la tradition scientifique et indique la pertinence de sa recherche, que cette négation s'avère très utile car elle sert à mettre en évidence les inexactitudes ou les manques des travaux précédents dans le domaine. Dans le cas du texte en français sur la biodiversité constatée sur la surface des pommes, nous constatons que même si son auteur n'utilise pas les formes de la 1 e personne du singulier ou du pluriel, il montre sa présence et sa subjectivité à travers le choix d'une négation réfutative qui signale, bien que de façon atténuée (cf. l'adverbe « complètement »), les insuffisances et les lacunes des études et des recherches précédentes. Ces sources préalables sont clairement identifiées à l'aide de renvois bibliographiques (cf. 2, 8, 17, 6). Si la biodiversité sur la surface des feuilles de pommiers a été caractérisée à de nombreuses reprises (2, 8, 17), celle des fruits adjacents n'est pas complètement définie. La même fonction d'établissement d'une niche est remplie par le modificateur déréalisant (Ducrot 1995) « seul » répété à deux reprises dans ce segment : Dans certaines études, seules les populations de levures et de bactéries ont été plus ciblées (6), alors que dans d'autres, seul un stade de développement du fruit a été étudié (26). En effet, à la différence, par exemple, de l'adverbe « surtout » qui peut fonctionner comme un modificateur réalisant, c'est-à-dire comme un modificateur qui permet de renforcer l'argumentation évoquée par le segment sur lequel il porte, le modificateur « seul » appliqué aux résultats des autres auteurs atténue la force de ces résultats et inverse même son orientation argumentative. D'où la dévalorisation ou mise en question de ces résultats : en disant, par exemple, « seules les populations des levures et de bactéries ont été plus ciblées », l'auteur indique qu'il y a eu des résultats, mais ces résultats sont vus sous l'angle de ce qui n'a pas été fait et non pas de leur importance. En résumé, le schéma est le suivant : 1) Présentation des résultats des recherches précédentes 3 premiers paragraphes de l'Introduction. 2) Indication des lacunes et des incomplétudes au moyen de la négation réfutative avec mention explicite des sources et du déréalisant « seul » et établissement donc d'une niche. 3) Une fois la niche établie, la recherche de l'auteur est justifiée (il y a une niche qui n'a pas encore été occupée) et il peut présenter les objectifs de son travail. Le principal objectif de cette étude est d'étudier la diversité des populations microbiennes ainsi que leur dynamique sur la surface des pommes depuis le verger jusqu' à leur commercialisation. L'effet de la situation géographique, du mode de conduite des vergers et de la composition gazeuse de l'atmosphère y sont notamment investigués. Dans le cas du travail sur les mangues, c'est le connecteur contrargumentatif although à la fin du premier paragraphe de l'Introduction qui met en évidence la présence du sujet de l'énonciation. En effet, non seulement although indique un contraste entre la recherche préalable (comme dans le cas précédent, les sources de ces points de vue apparaissent identifiées par des renvois bibliographiques) et l'étude de l'auteur, mais ce contraste permet de justifier encore une fois la recherche et les résultats qui seront présentés dans l'article. Although epiphytic microbes on annuals or perennials bearing deciduous leaves have been studied extensively (8, 9, 15, 18, 19, 22, 26, 29, 31, 32, 33, 36, 37, 39, 44, 48), much less is known of those occurring on the long-living leaves of evergreens (20, 21), including mango. On remarquera enfin dans cet extrait la présence du segment passif impersonnel « much less is known ». De même que la négation, dont il est une forme atténuée, ce prédicat permet aussi d'indiquer l'existence des défauts et des manques dans la recherche préalable et de justifier ainsi, encore une fois, la recherche qui sera exposée par la suite. Si l'on considère que la terminologie représente l'expression linguistique de la connaissance spécialisée, il est évident qu'elle joue un rôle fondamental dans la communication scientifique. Les termes reflètent des unités de connaissances hiérarchisées, qui renvoient à différents systèmes conceptuels, que l'on peut modéliser sous la forme d'ontologies. Les termes représentent donc des connaissances qui sont implicites pour les spécialistes mais qui sont bien moins accessibles au néophyte et sont ainsi souvent sources d'erreur, car le lecteur passe à côté non seulement d'informations isolées mais surtout de la structuration pourtant voulue par l'auteur. Le rôle de la terminologie, dans le cadre de l'enseignement des langues de spécialité, peut être résumé en deux points. Il s'agit pour le lecteur d'une part de dégager les unités de connaissance grâce à leurs expressions linguistiques (le vocabulaire spécialisé) et non linguistiques (les autres systèmes sémiotiques utilisés dans les textes scientifiques : modèles, schémas, cartes, tableaux, ainsi que des codes ou autres systèmes alphanumériques qui les relient aux expressions linguistiques) (Kocourek 1991 [1982] : 10) et, d'autre part, de dégager la structuration conceptuelle de ces unités. Personne ne peut comprendre un article scientifique sans faire cette analyse, de façon implicite ou explicite. Nous estimons qu'elle a tout intérêt à être explicite dans le cadre des deux publics concernés. Il s'agit plutôt d'un rappel pour les scientifiques : il suffit de signaler les marqueurs linguistiques de ces concepts et de les relier aux expressions non-linguistiques de ces informations. Pour les futurs traducteurs, la tâche est plus importante : ils doivent effectuer des recherches documentaires bilingues ou plurilingues, constituer des bases de données et surtout faire des hypothèses sur la structuration conceptuelle du domaine qu'ils essaient de comprendre, souvent sous la forme de ce qu'on appelle l'arbre conceptuel ou l'arbre du domaine. Pour faire ces hypothèses de structuration, la terminologie distingue les différents types de relation qui existent entre les concepts, exprimés par les termes; les relations les plus souvent invoquées sont hiérarchique et partitive, mais il en existent d'autres, qui peuvent être exploitées également, comme celle de cause à effet, de consécution ou autres. Le recours à ce type de classement simple aide le lecteur à établir les relations entre concepts et à les situer les uns par rapport aux autres. Ces différents types de relations peuvent être dégagés dès l'introduction des deux articles. Les relations hiérarchiques sont partout implicites : pour l'article en français, il est essentiel de savoir qu'une moisissure est un champignon et qu'une bactérie n'est pas un champignon. On comprend qu'en intelligence artificielle on appelle ce genre de relation « est un » (en anglais « is a »). Les relations partitives sont également représentées : dans le texte de langue anglaise on parle de « adaxial/abaxial leaf surface » : la surface de la feuille a deux côtés, l'un orienté vers le haut, en direction du soleil, l'autre vers le bas. Ce sont des relations « has a ». Un des types de relations indirectes, la relation chronologique, est représenté dans le même article par une série constituée par les quatre étapes dans le développement de la feuille, exprimée par les adjectifs suivants « foliole, flush, juvenile, mature » .Bien entendu, ces termes ne posent aucun problème de traduction : ce sont généralement des vocables scientifiques, tirés du grec et du latin, qui s'emploient dans les deux langues, avec des variations mineures (l'anglais préfère le savant fungus, avec son pluriel latin, fungi, là où le français se contente d'un mot vernaculaire terminologisé, mais dans d'autres cas, c'est l'inverse). Les connaissances qu'ils véhiculent et les relations entre celles -ci sont pourtant primordiales pour la compréhension des textes. Reprenons à présent l'introduction de l'article français pour voir comment les auteurs présentent les connaissances spécialisées nichées dans les termes. Ils commencent par mentionner deux catégories de microflores : les épiphytes et les endophytes : Les microflores épiphytiques et endophytiques de la surface des végétaux ont été largement étudiées ces 25 dernières années (6,13,19,29). Il s'agit ici clairement d'une relation hiérarchique : deux catégories de microflores qui vivent soit sur la plante (ici sur la surface des pommes) soit dedans (celles qui induisent l'infection). Cette catégorisation participe à l'établissement de la niche : les auteurs seront amenés à s'intéresser exclusivement aux épiphytes. On apprend ensuite que la plante abrite différents types d' « espèces » : Ces surfaces constituent un support adéquat et offrent les conditions favorables pour la croissance et la reproduction de multiples espèces fongiques, bactériennes et levuriennes. (11,12) On comprend d'après la connaissance linguistique du français qu'il s'agit de champignons, de bactéries et de levures, qui entretiennent des relations hiérarchiques entre eux, mais lesquelles ? Il faut des connaissances terminologiques pour savoir si ces champignons, bactéries et levures sont tous des microflores. Il s'agit donc d'une relation hiérarchique. On recherche alors à préciser la relation avec populations microbiennes dans la phrase suivante. Les populations microbiennes sont dynamiques et d'une distribution non-uniforme sur la surface des végétaux en fonction de la situation géographique. Ces populations sont-elles les « espèces fongiques, bactériennes et levuriennes » ? Pour comprendre, il faut pouvoir hiérarchiser les différents éléments dans un schéma plus large, qui est supposé connu par les auteurs de l'article. Le premier ensemble est purement taxinomique et regroupe les micro-organismes en une hiérarchie, que nous pouvons présenter, de façon légèrement simplifiée (voir figure 1). Les micro-organismes (connus sous le nom de microflore) se divisent en organismes dont la structure cellulaire ne comporte pas de noyau – les procaryotes – et ceux dont la cellule possède un noyau bien défini – les eucaryotes : les bactéries font partie des procaryotes (elles ne font pas l'objet de cet article et ne sont mentionnées que de façon épisodique), et les champignons et les levures des eurcaryotes. Les champignons se divisent à leur tour en moisissures et en d'autres catégories qui ne sont pas mentionnées dans l'article. Les noms spécifiques qui reviennent plus loin dans le texte Cladosporium spp. Penicillium spp, Alternaria spp., etc. sont des moisissures, mais l'auteur emploie surtout le terme plus générique de champignons. Ce procédé est courant, lorsque la taxinomie en question fait partie des connaissances implicites de tous, spécialistes et futurs spécialistes. Ces noms représentent le bas de la hiérarchie – Cladosporium, Penicillium,… représentent le genre et spp. est l'abréviation pour les différentes espèces (species) de Cladosporium. Ayant établi l'identification des éléments et de leur place dans la hiérarchie, nous pouvons examiner comment les auteurs les transforment en acteurs dans un scénario qui sera développé de manière inégale dans les deux articles. Dans l'article de langue française, les auteurs procèdent à une nouvelle catégorisation. Ils divisent la microflore épiphytique (on ne parle plus des endophytes – la niche est déjà établie implicitement) en deux autres groupes : les « agents pathogènes » et ceux qui développent les interactions antagonistes contre les premiers. Si une partie de la microflore épiphytique est connue pour son rôle dans le développement de maladies […] l'autre partie est impliquée dans des interactions antagonistes vis-à-vis de certains agents pathogènes qui deviennent ainsi plus vulnérables. On comprend – et là l'auteur nous met activement sur une piste – que certaines composantes de la microflore (que le lecteur devra désormais guetter) constituent les bons, et qu'elles combattent les agents pathogènes, champignons ou bactéries (les méchants, qu'il faudra identifier correctement aussi !). Dans l'introduction des deux articles de microbiologie, les auteurs mettent en scène leurs personnages, qui vont jouer les rôles qu'ils vont leur attribuer au fur et à mesure du développement de leur récit, en rapport avec les faits prouvés. On met donc le récit au service de l'argumentation. Ces personnages portent le nom de leur catégorie terminologique mais puisque les mêmes populations peuvent être réparties dans des catégories différentes selon le critère retenu, celle -ci est changeante. Il s'en suit que le lecteur aura besoin de comprendre les changements pour pouvoir suivre le déroulement de la pièce et il aura besoin d'un autre concept linguistique de base : la synonymie. Malgré les différents noms que les différentes classes de micro-organismes sont appelées à porter, le lecteur doit pouvoir identifier le nom de chaque acteur comme membre d'un de ces ensembles pour pouvoir suivre l'évolution décrite dans l'article. Il doit également pouvoir les regrouper dans les nouvelles catégories : celui des agents pathogènes et celui des agents de la lutte biologique. Il est également entendu dans l'esprit des auteurs que les deux se recrutent dans les catégories déjà mentionnées – il y a donc chevauchement complet : les agents pathogènes peuvent être des bactéries, des champignons (moisissures), tout comme les agents de lutte biologique, mais dans des proportions différentes. En réalité, l'article de langue française relate beaucoup plus les manœuvres préalables des méchants qui précèdent la lutte finale, qui n'est qu'évoquée. On s'intéresse donc aux évolutions constatées des méchants, en se focalisant sur les « champignons » (toutes les espèces nommées sont en fait des moisissures), injustement négligés par la recherche antérieure, et on met en avant leur place prépondérante en fin de saison. On comprend donc comment les méchants se mobilisent, et que certains méchants sont plus nocifs qu'on ne le pensait. Ceci n'est pas vraiment une surprise : dès l'introduction on voit que l'auteur met le lecteur sur la piste de l'importance des champignons mais par omission. Il indique que les levures et les bactéries ont été bien étudiées; au lecteur de conclure que ce sont les champignons qui restent à étudier. Les auteurs anglophones rédigent de telle façon que les connaissances terminologiques préalables sont moins nécessaires. Dans l'introduction, ils énumèrent les micro-organismes dont ils vont s'occuper (epiphytic bacteria, filamentous fungi, yeast) et ils opèrent différentes catégorisations (Epiphytic communities; epiphytic inhabitants of aerial plant parts; phytopathogenic organisms) mais comme dans l'article en français, la différence entre bons et méchants est peu signalée pour le profane : pathogen, and associated microbiota. L'étude de la synonymie est donc à conseiller. Comme souvent dans les analyses de textes, le linguiste part du point de vue que l'auteur exprime sans ambiguïté sa pensée et que les marqueurs linguistiques et terminologiques la traduisent parfaitement. C'est en effet le cas général, surtout pour la terminologie, mais il peut y avoir des « ratés », surtout s'il s'agit de pré-publication, ou de version provisoire, comme c'est le cas de l'article en langue française. La dernière phrase de l'introduction semble orienter l'argumentation dans une direction qui est à l'opposé de celle poursuivie jusqu'alors. De ce fait, le lecteur peut se trouver désorienté : il ne sait pas vraiment si les changements annoncés sont pour le bien ou pour le mal : De ce fait, tout changement minime soit-il dans les composantes microbiennes des surfaces végétales est susceptible d'influencer d'une façon remarquable la survie des agents pathogènes. On aimerait bien croire que c'est pour le bien, mais les traducteurs avaient l'impression que l'auteur penchait du côté des méchants (de façon remarquable, survie). En fait il annonce seulement la visée de la recherche, qui portera sur les « mauvais » et ce qui les favorise, car il souhaite en réalité étudier toute la microflore afin de mesurer l'effet des composantes microbiennes sur les autres. Quels que soient le lecteur et son niveau de connaissances préalable, il a besoin d'intégrer des connaissances linguistiques, notamment sous la forme des marqueurs argumentatifs et terminologiques, sous la forme de la structuration des concepts, pour bien comprendre un article scientifique. Le public double que nous avons à Paris 7 nous a aidé à distinguer ces deux types de connaissance et à les développer indépendamment. Mais il n'en reste pas moins vrai que les deux interagissent : la présentation qui est faite de la terminologie peut contribuer à l'avancement de l'argumentation de façon aussi significative que l'emploi de marqueurs purement linguistique. D'où l'intérêt de concevoir une démarche interprétative qui incorpore les deux aspects .
Les articles de recherche présentent les résultats d'une expérience qui modifie l'état de la connaissance dans le domaine concerné. Le lecteur néophyte a tendance à considérer qu'il s'agit d'une simple description et à passer à côté de l'argumentation au cours de laquelle le scientifique cherche à convaincre ses pairs de l'innovation et de l'originalité présentées dans l'article et du bien-fondé de sa démarche tout en respectant la tradition scientifique dans laquelle il s'insère. Ces propriétés spécifiques du discours scientifique peuvent s'avérer un obstacle supplémentaire à la compréhension, surtout lorsqu'il s'agit d'un article en langue étrangère. C'est pourquoi il peut être utile d'incorporer dans l'enseignement des langues de spécialité une sensibilisation aux marqueurs linguistiques (terminologiques et argumentatifs), qui permettent de dépister le développement de cette rhétorique. Les auteurs s'appuient sur deux articles dans le domaine de la microbiologie.
linguistique_08-0265302_tei_852.xml
termith-560-linguistique
Il est d'usage de relever chez les enseignants une norme sévère de lecture des écrits scolaires. Si l'on en croit des recherches récentes (Fournier, dir., 2000), cette norme s'appuie sur un modèle implicite de l'écrit intérieurement construit marqué par le mythe de l'originalité et des modèles littéraires mais préconisant par ailleurs pour l'élève ce qu'on pourrait appeler un « style scolaire », à savoir une écriture « neutre et correcte ». On constate pourtant depuis dix ans de lents changements dans les pratiques. C'est que le professeur est devenu lecteur de textes d'élèves. Et du même coup, sa désignation de l'erreur est aussi devenue plus complexe. Deux faits nouveaux pourraient l'expliquer : – la prise en compte des brouillons comme constitutive de l'acte d'écrire : le statut de l'erreur apparaît alors provisoire, des erreurs disparaissent (ou apparaissent) au cours du processus, et même si cela n‘est pas encore une pratique générale, on a accès à l'émergence d'une forme écrite dans le temps, on peut la suivre et peut-être expliquer son apparition. Ainsi les variantes procèdent-elles par approximations successives et peuvent découvrir pour un même brouillon un parcours qui va de « carrément déviant » à « quasi déviant ». – l'empathie dans la lecture, quand elle existe, provient généralement du fait que ce qui est pris en considération n'est plus la phrase isolée mais l'énoncé dans son contexte. On quitte dès lors le cadre de la phrase pour passer à une interprétation plus contextuelle de l'erreur. Ces quelques remarques amènent à l'idée qu'il existe un gradient plutôt qu'un binarisme entre ce qui est juste ou erroné du point de vue de la langue. Les réflexions qui suivent voudraient donc montrer comment la connaissance effective de l'écriture scolaire, telle qu'elle s'observe dans les variantes entre brouillons et copies, renouvelle la conception de la norme scolaire. Ainsi peut se justifier la nécessité d'étudier l'écriture scolaire dans son « dynamisme expressif », suivant en cela une voie ouverte par Charles Bally et Henri Frei pour le langage oral. C'est ainsi que les « fautes » relevées sont doublement intéressantes : par leur caractère évolutif –ce dont rendent compte les analyses dans les brouillons - et par leur mise à l'épreuve du système de la langue. Nous apporterons une contribution à cette réflexion en prenant l'exemple de formes de discours rapporté observées dans un corpus scolaire. Les discours rapportés constituent un lieu très travaillé dans les brouillons scolaires, bien que les recopies au propre suppriment parfois les traces existant dans les brouillons, ou les escamotent en les incorporant au discours narrativisé. Bien plus, quand le discours rapporté (désormais DR) survit dans la copie finale, il est fréquemment assorti de modifications, qu'elles soient typographiques ou qu'elles touchent aux frontières du discours citant et du discours cité, pour prendre deux exemples simples. Il y a dans le cas du DR plusieurs faits de langue caractéristiques qui peuvent être sentis comme des « fautes » vis à vis de la norme : a) démarcation syntaxique, typographique entre discours citant/ discours cité, problèmes de la subordination dans le DI; b) temps verbaux et concordance des temps; c) modifications des marques de personnes (pronoms personnels et déterminants possessifs par exemple). Or les problèmes rencontrés par les élèves dans le fait de rapporter les paroles ou les pensées d'autrui sont démultipliés en raison de la relative liberté qu'offre la langue en ce domaine. Depuis les travaux de J. Authier (1978, 1992), on sait que le discours « rapporté » ne rapporte pas des paroles, mais une énonciation; bien plus, il est, la plupart du temps, même dans les discours non fictionnels, impossible de vérifier l'exactitude des paroles rapportées; enfin, dans bien des cas, on peut mettre en doute l'existence antérieure de paroles prétendument rapportées, ce qui fait de ce rapport, le plus souvent, une « fiction » de rapport. Une étude sur les formes spontanées de discours rapporté à l'oral, menée par les deux chercheuses québécoises Diane Vincent et Sylvie Dubois (1997), dans une perspective théorique différente –sociolinguistique quantitative– a montré également que le DR à l'oral ne rapporte justement pas toujours des paroles ou discours antérieurs, ni même des énoncés attribuables à des auteurs définis, mais souvent des propos de soi pour soi, rêvés ou simulés, ou même prêtés à des interlocuteurs imaginaires. Les discours rapportés de l'oral seraient donc tout autant les vecteurs d'une « mise en scène des discours », voire une stratégie de production de parole, que le rapport d'énonciations antérieures réellement arrivées. Pour étayer leur propos, Vincent et Dubois ont pris pour indice le verbe dire, en excluant tous les verbes de pensée. Elles constatent que dire est employé à l'oral selon cinq groupes d'acceptions différentes, dont le spectre sémantique peut être schématisé selon le continuum suivant : A la source (1), il y a reproduction de paroles. Plus on s'éloigne de ce pôle (de 2 à 5), plus il est difficile de soutenir que les paroles citées appartiennent à une énonciation antérieure. Par ailleurs, du fait des caractéristiques propres à l'oral, les formes syntaxiques sont assez difficiles à délimiter; les intonations ont un rôle marquant dans les frontières syntaxiques entre discours, mais c'est souvent la discordance (marquée par le lexique ou l'insertion de particules énonciatives) qui distingue les limites du discours citant et du discours cité. Ces caractéristiques ont quelques similitudes avec ce que nous trouvons dans les brouillons scolaires. Le discours rapporté qui y est attesté ne correspond pas dans ses formes syntaxiques aux variétés généralement recensées dans les grammaires scolaires : discours direct, indirect, indirect libre; on constate aussi que le repérage et la délimitation de ces formes ne sont pas toujours claires. Est -ce à dire que mettre en scène à l'écrit des paroles rapportées fictives, c'est la même chose que rapporter/raconter oralement « au quotidien », ce que nous faisons tous les jours et tout le temps ? En un sens, oui, dans la mesure où la recherche québécoise montre qu'il y a bien une fiction du discours rapporté quotidien. Sur le plan formel et syntaxique, en revanche, la recherche québécoise minimise la rupture syntaxique entre DD et DI à l'oral, en préférant parler d'un continuum entre les deux. On peut douter a priori de l'existence d'une telle souplesse à l'écrit, parce que les paramètres situationnels doivent y être rigoureusement décrits pour permettre une interprétation correcte des énoncés. Pourtant, si l'on rencontrait une telle souplesse dans les énoncés au brouillon, il ne faudrait pas en conclure trop vite que les écoliers écrivent comme ils parlent; mais plutôt se demander jusqu' à quel point la langue permet d'aller dans le « continuum », en s'avançant sur un terrain inconnu des grammaires scolaires. Le corpus analysé consiste en une production d'écrit narratif réalisée dans une classe de CM2, à la fin de l'année scolaire 1998. Les élèves de cette classe de CM2 ont été placés dans une situation inhabituelle pour eux; alors qu'ils avaient l'habitude de travailler longuement au brouillon, on leur a demandé d'écrire un récit proposé dans le cadre de l'évaluation 6 ème de septembre 1997. Les conditions de passation - consigne et situation didactique dans son ensemble - étaient identiques à celles d'une 6 ème en début d'année. Les matériaux recueillis sont un brouillon et une copie pour chaque élève (24 x 2 écrits au total). On a comparé leurs performances à celles d'élèves d'une classe de 6 ème dite « normale » qui avait passé le même test d'évaluation (même sujet d'écriture) mais qui n'avait jamais spécialement travaillé la réécriture au brouillon (26x2 écrits au total). On ne tentera pas de justifier le cadre didactique entourant cette production dans la mesure où l'objectif n'était pas de favoriser un apprentissage de l'écriture, mais de comparer les attitudes d'écriture d'une classe de CM2 très habituée à écrire et à réviser ses textes, mais de niveau très faible en syntaxe et morphologie, à celles d'une classe de 6 ème qui présentait les caractéristiques inverses. En particulier, il s'agissait de savoir si le DR était l'objet de remaniements de la part des élèves entre le brouillon et la recopie, et d'en collecter les formes. On a constaté que si les élèves de cette 6 ème utilisent quantitativement plus de DR dans leurs copies, les occurrences sont moins variées (80 % de verbes locutoires + DD) que celles de la classe de CM2. En contrepartie, les occurrences de DR utilisées dans la classe de CM2 sont moins nombreuses (30 % de moins) mais deux fois plus remaniées que celles de la classe de 6 ème. Elles sont aussi beaucoup plus fautives au regard de la norme écrite. Ce sont quelques-unes de ces fautes que l'on examinera ici. Elles sont intéressantes à double titre : a) par la variété des formes attestées, elles invitent à poser les limites de la norme en matière de DR. b) dans la mesure où elles tentent de représenter les paroles d'autrui, elles nous renseignent sur les difficultés cognitives, syntaxiques, sémantiques et stylistiques d'un telle tentative. Parmi les nombreux choix possibles, on a retenu les problèmes suivants : – les modifications copie/brouillon dans l'emploi du verbe dire comme introducteur de DR : les changements sémantiques dans l'emploi de dire révèlent un syncrétisme entre pensées et paroles, rapportées ou énoncées, qui a des conséquences syntaxiques dans l'introduction du DR qui suit le verbe. – les problèmes posés par la coréférence des pronoms personnels dans le discours citant et le discours cité, ce qui nous ramènera à certains aspects du point précédent. – on considérera pour finir quelques exemples de formes intermédiaires de DR que nous qualifions de « créatives », et qui relèvent d'un « style » propre des élèves. Le verbe dire est vraiment le verbe locutoire par excellence, dans les textes scolaires en particulier, c'est ce qui explique que nous l'ayons choisi comme indice de verbe introducteur. Du point de vue méthodologique, nous avons cherché avec quel(s) autre(s) verbe(s) il commutait, dans la passage du brouillon à la copie, en tenant compte du fait que, bien sûr, il peut disparaître entre brouillon et copie, ou apparaître à la recopie alors qu'il était absent du brouillon. L'investigation menée dans le corpus montre que le verbe dire, qu'il apparaisse au brouillon ou dans la copie finale, peut, quand il ne se maintient pas tel quel dans les deux versions, commuter avec les verbes de pensée se dire et penser. Comment interpréter ces changements de verbes introducteurs ? Sont-ils dus à des difficultés d'ordre syntaxique, sémantique, voire morphologique, que ces changements permettraient de résoudre ? On rappellera, à la suite de S. Marnette (2002), la différence sémantique entre verba dicendi (ex : dire) et verba sentiendi (ex : se dire, penser) mais aussi leur polysémie intrinsèque, influencée par plusieurs variables : – la personne : dire ou se dire à la 3 ème personne est plus facilement du domaine des paroles rapportées, que de celui des attitudes à propos d'un contenu mental particulier, ou des pensées (= chercher à comprendre, avoir l'impression, etc.). – le tiroir verbal et /ou les aspects verbaux : penser itératif ou perfectif est plus facilement dirigé vers le pôle des paroles intérieures que lorsqu'il est imperfectif et duratif – la construction syntaxique (proposition conjonctive ou infinitive, ou groupe nominal) : la construction avec la proposition conjonctive oppose nettement dire que (verbe locutoire) et penser que (verbe d'opinion); ce n'est plus le cas quand un DD s'enclenche directement à leur suite. – il faut ajouter une variable morphologique pour les verbes dire/ se dire dont les formes sont semblables aux trois premières personnes du présent et du passé simple. Ce point constitue d'ailleurs un « classique des fautes ». Le fait que les formes du présent et du passé simple soient morphologiquement identiques dans le verbe dire ou se dire est une source de difficulté double : d'une part les scripteurs en se relisant ne font pas toujours la distinction et cela les conduit à des ambiguïté du type : « elle dit qu'elle s'appelait Camille et qu'elle *l'aidera/ l'aiderait (?) à retrouver ses parents ». D'autre part, quand ils voient la différence, cela les amène à produire des « monstres morphologiques », comme dans l'exemple ci-dessous : Dans le corpus, le verbe dire correspond à une variété d'emplois que l'on a regroupés en cinq acceptions différentes. A ce titre, il alterne avec « répondre ». Il peut alterner aussi avec « demander » +DD utilisé pour poser une question. L'utilisation de dire comme verbe de dialoguesuivi du DD ou de DIest la plus répandue dans les copies (on retrouve cette acception dominante dans le corpus 6 ème). Dans l'exemple ci-dessous, l'étude des différences entre brouillon et copie montre que « répondre » peut être reformulé en « dire » : Le DD est remémoré avec les mots exacts de l'énonciateur, rapportés par le locuteur du discours principal. L'emploi du plus-que-parfait souligne l'antériorité du discours cité - et donc l'existence postulée de celui -ci. L'attention est attirée sur les mots du discours. Une variante de ce cas se manifeste quand la suite du verbe dire correspond à une formule dont la prononciation entraîne des effets (type « abracadabra »). Cependant, le verbe dire ne peut avoir de valeur performative qu'employé à la 1 ère personne; à la 3 ème personne, il constitue une simple description d'acte performatif. C'est la construction –atypique - qui pose la question sémantico-synatxique : le verbe dire est-il construit avec « le » anaphorique ou cataphorique ? Dans le second cas, il introduit un DD. En revanche, si le pronom « le » est anaphorique du contexte antérieur (gauche) « avait volé ces boîtes », dire au sens de « raconter » ne peut plus introduire de DD. Quel est alors le statut du fragment qui suit : « il faut faire vite… » ? La rupture temporelle du présent, opposé au plus que parfait et au passé simple (présumé) du verbe dire, montre qu'on n'est plus dans le cours principal de la narration, mais plutôt dans du DD(L), assumé par « elle » (= « une petite »), et induit par la proximité de dire, qui retrouve ainsi son rôle de verbe introducteur. Plus bas, lignes 68-69, la scriptrice utilisera un DD sans dire, mais typographiquement marqué. Comment interpréter cette construction ambivalente qu'on trouve dans de nombreuses copies sous diverses formes ? L'emploi de dire + pronom semble être une tentative pour«mettre de l'ordre » dans le passage du narrateur au personnage, qui alternent sans crier gare (cf. le commentaire du narrateur ligne 66-68). Syntaxiquement, on pourrait faire l'hypothèse qu'il s'agit d'une protoforme de DI, dont on verra plus bas (III) qu'il constitue, en raison de la subordination et de ses conséquences, une source d'innombrables difficultés pour les élèves. Dire introducteur de DD est le résultat d'une délibération intérieure. L'exemple de la copie correspond à un contenu de paroles précis, puisqu'il aboutit à une décision « je vais rectifier mon anniversaire » On retrouve un cas de même type dans l'exemple suivant : Le contenu du verbe se dire est plutôt l'expression d'une intention, qui est formulée a posteriori comme des paroles réellement prononcées (voir les marques typographiques du tiret et de l'alinéa) sans que le lecteur puisse croire qu'elles aient été vraiment dites. C'est tout le problème des verbes de pensée, dont on relève la présence dans les copies. En effet, le verbe dire alterne très fréquemment dans les copies avec le verbe se dire, que ce soit dans le sens brouillon/ copie ou dans le sens copie/ brouillon. Dans l'exemple qui suit, il semble que ce soit encore le sens du verbe dire qui motive le changement. Les paroles intérieures sont plutôt de l'ordre de la liste mémorielle et correspondent à un contenu verbal pourvu d'un référent comptable, même s'il diffère entre le brouillon et la copie : Le passage d'un verbe de pensée (penser à /se dire) à un verbe de parole (dire + guillemets) peut alors s'expliquer par le trajet délibératif du personnage, le contenu du verbe dire est la récapitulation d'une suite d'aliments présentée comme une citation entre guillemets dans la copie, alors qu'au brouillon le flux réflexif n'est pas interrompu par une démarcation entre discours citant et discours cité et suit l'ordre : penser/ se dire/ absence de guillemets. Beaucoup plus rarement, et ce serait la limite de notre étude, sont envisagées les pensées intérieures. Elles constituent le centre de conscience d'un personnage et les verbes utilisés (penser, croire) sont des verbes exprimant une pensée intérieure (et non un jugement ou une opinion). Ils sont suivis d'un DR et la présence de ce DR au brouillon entraîne à la recopie le changement avec un verbe « se dire » : Si l'on veut résumer la valeur du DR exprimé au moyen de dire et de ses concurrents dans le travail du brouillon, trois acceptions semblent se dessiner (voir schéma infra). – les deux premières sont en continuité l'une avec l'autre et sont suivies de DD en majorité : les différences semblent porter sur l'insistance à rapporter tantôt des mots, tantôt un contenu de parole. Du fait de sa morphologie, l'emploi de dire ne permet pas de savoir s'il s'agit d'une énonciation antérieure rapportée au cours de la narration, ou de la présentation d'un dialogue en cours d'énonciation. – la rupture se situe au niveau des paroles ou pensées intérieures, où dire est en concurrence avec se dire et constitue une tentative pour éclairer le comportement d'un personnage (prise de décision, par exemple). – quand la valeur prise par dire tend vraiment vers le contenu de pensée, il semble que la construction indirecte soit choisie de préférence. Soit un premier exemple : On remarque ici le phénomène courant chez les scripteurs de l'école élémentaire, qui consiste à passer sans transition de la 3 ème personne de narration (délocuté) à la 1 ère personne de discours où « je » assume les paroles du personnage. Le fait que les phrases n'aient pas de frontière repérable ici, semble entraîner une sorte de DDL raté qui se brancherait sur la narration en 3 ème personne. On peut postuler qu'il y a chez le jeune scripteur une triple confusion d'où émerge difficilement le DR : – confusion entre histoire et discours - les deux plans se déformant et s'interpénétrant constamment – ce qui entraîne : – une confusion discours citant / discours cité. L'absence de bornes entre les deux est matérialisée par l'absence de la notion de phrase graphique, et d'une démarcation typographique quelconque. – confusion entre DD intérieur à propos du personnage, et discours extériorisé du personnage, le pronom de 1 ère personne désignant, selon nous, le personnage (« elle ») dont les pensées intérieures sont formulées à la 1 ère personne et non transposées : tout se passe comme s'il y avait un DD de base à la 1 ère personne d'où pourrait dériver tout discours cité. Sans se rallier aux théories transformationnelles qui font dériver le DR d'une base DD, on constate qu'il y a prégnance dans beaucoup de copies de la forme 1 ère personne du pronom personnel référant à l'énonciateur du discours cité sans passer au DI, alors que le contexte le nécessiterait. Quand il s'agit de DI, les brouillons attestent en tout cas des hésitations des scripteurs : Le brouillon est remarquablement intéressant : il montre la difficulté de constitution du personnage comme une conscience susceptible d'utiliser le je, un « je » distinct de celui du scripteur; l'hésitation moi/elle pour désigner le locuteur des paroles intérieures fait état d'une difficulté bien réelle qui consiste à différencier le DD du DI; on ne peut manquer en outre de saisir ici la difficulté du scripteur à dissocier le moi intérieur du personnage d'avec les mots qu'utilise le personnage pour se désigner lui -même : de ce point de vue, le discours indirect est plus troublant que le DD, puisqu'il oblige à utiliser un pronom de 3 ème personne coréférant au sujet du verbe introducteur. Ce problème est éliminé à la recopie avec la suppression du DR. A quelle condition s'effectue le renversement, le passage à la coréférence de « je » du DD au « il » du DI ? il y a bien enchâssement et coréférence (« elle s'est dit qu ' elle n'avait… », se substituant à « elle s'est dit : je n'ai … ») mais c'est sans doute l'enchâssement qui suit (« qu'il tombe amoureux… ») qui perturbe la transformation de l'indexical « moi » en quasi-indicateur « elle ». Parfois, l'apparition d'une frontière démarcative, qui peut être typographique, entre discours citant et discours cité, suffit à régler une mixité DI/DD : l'introduction des guillemets à la recopie permet au texte ci-dessous de retrouver la norme : Voici un dernier exemple qui constitue à nos yeux une tentative pour lever l'équivoque de lecture possible de la dernière phrase. Au brouillon, l'emploi du pronom de 3 ème personne aux lignes 8/9 peut être lu de deux façons : comme du DIL assumé par le personnage, mais sans la transposition temporelle attendue (?) : « elle ne pourrait peut-être plus jamais… »; ou encore comme du DDL attribuable au narrateur. A la recopie, l'élève cite entre guillemets le discours direct de Camille « quel bonheur et quel malheur », utilise une forme signalant le passé simple (« disait ») et met un point après l'incise « *disa la petite Camille. ». Elle isole la dernière phrase et rend plus difficile, nous semble -t-il, une lecture de celle -ci comme du DIL attribuable au personnage : le futur ne peut plus en principe venir du personnage, mais du discours du narrateur, donnant une explication du paradoxe « quel bonheur et quel malheur ». Cette interprétation reste de toute façon fragile; elle montre un questionnement aux frontières permises par le système car, après tout, comment décider de ce qui serait ici la forme préférable ? On ne peut manquer en effet d' être frappé par la créativité des formes qui s'expriment au brouillon. En voici de brefs exemples. DD + QUE : créations ou re-créations d'idiolectes ? Ces formes mixtes sont attestées depuis longtemps dans les textes médiévaux jusqu'au XV e siècle et d'une manière générale dans les textes anciens, moins sensibles que les modernes aux frontières entre les formes de DR (Rosier, 1999). Ce qui relève de la créativité propre à l'élève, ici, serait les moyens utilisés (guillemets changés en alinéa et tiret) pour signifier que l'on a affaire à du DD en dépit de la construction avec « que ». Il faut noter que ce qui rend possible la mixité, c'est le fait qu'il n'y a pas de transposition à faire au niveau du pronom du DD (délocuté au DD comme au DI). (copie, lignes 29-31) Le DDL n'est formellement repérable que par la rupture temporelle (présent : « sont », « n'est pas », après le passé simple « trouva »), et il est vraisemblablement amené par la phrase précédente « elle trouva une idée », qui fait du segment suivant l'expression libre d'une pensée assumée par le personnage. Par la comparaison avec le brouillon, on constate qu'il s'agit d'une tentative pour restituer les pensées du personnage pendant le temps de sa réflexion, et donc d'un aménagement de la temporalité dans le récit. Le texte qui suit est très riche dans les diverses formes prises par les enchaînements. Dans le brouillon, on passe du DD sans guillemets (l.25) au DI (l.26/27). Le segment qui suit « mais elle la mangé pour ne pas la vescé », en revanche, fait-il partie du DI (sans reprise de « que ») ou bien s'agit-il d'un fragment du discours citant assumé par le narrateur ? Dans la copie, l'élève enchaîne du DD et du DIL (à partir de « à propos »), qui articule souplement les pensées errantes du personnage, et entraîne le lecteur dans leur raisonnement esquissé. Dans l'exemple ci-dessous, la découverte du fonctionnement du DIL est matérialisée par l'utilisation de la couleur rouge. Cette découverte s'effectue en deux temps. Dans un premier temps, au brouillon, l'élève hésite entre construire son texte avec un verbe de pensée suivi d'une conjonctive, ou avec un discours direct (les deux points). Elle rature le « que », qui était placé après les deux points et utilise alors une double démarcation : les deux points et l'encre rouge, pour présenter ce qui suit. Or, ce qui suit n'est pas un DD mais un DIL, comme l'attestent les formes verbales au passé et la 3 ème personne. On note au passage l'association, chère à K. Hambürger et selon elle, critère de fiction : maintenant (déictique) + aoriste. La copie confirme ce choix. Le plus-que-parfait associé à « maintenant », témoigne d'une grande maîtrise dans le déploiement de l'effet : il s'agit bien là du résultat d'une pensée intérieure, que marque l'accompli. Comment les moyens découverts sont-ils susceptibles d' être décrits ? Comme des idiolectes irréductibles non généralisables ? comme des processus à didactiser et de quelle façon ? 1. La grande labilité morphosyntaxique constatée entre brouillon et recopie est sans doute liée à la question elle -même du DR. On pourrait, toutes proportions gardées, trouver une souplesse analogue dans les textes anciens ou –au contraire - dans le discours de presse contemporain, ou encore dans la littérature narrative d'aujourd'hui. Alors il faut sans doute encourager à comparer formes et frontières du DR qu'explorent avec créativité les brouillons plutôt que les figer dans une norme d'écriture trop étroite. 2. On constate pourtant dans les copies que les formes du DD, DDL, DIL sont plus usitées que celles du DI. L'obligation d'une préface locutionnaire attribuant un référent au(x) déictique(s) du discours cité enchâssé rend l'emploi du DI difficile : la transposition de pronoms, nécessaire pour qu'il y ait coréférence, est la source de nombreuses erreurs. 3. De façon générale, à la manière dont l'écriture scolaire appréhende les paroles ou les pensées, on peut se dire qu'un profond travail didactique reste à accomplir : il semble en effet que les jeunes scripteurs aient tendance à utiliser le verbe « dire » comme verbe à tout faire, confondant ensemble paroles prononcées, pensées intériorisées et attitudes ou croyances. Cela semble aller de pair avec l'idée d'une conscience encore informe de ce que le personnage –pour exister - devrait d'abord extérioriser un « dire ». Le fait que les paroles rapportées à la 1 ère ou à la 3 ème personne soient fictives n'est pas ce qui pose le plus de problèmes, puisque finalement, dans l'oral du discours ordinaire, eux tout comme nous, fictionnalisent volontiers des discours à dire, entendus, fantasmés ou reconstruits. La principale difficulté réside dans les marques d'apparition de l'altérité à l'écrit, quand le scripteur découvre dans et par la trace écrite la possibilité de création d'un centre de conscience autre. Les formes linguistiques à sa disposition se révèlent alors redoutablement piégeantes. Comme elle en a été le révélateur, la réécriture peut alors en être le remède .
L'A. se propose de montrer en quoi la prise en compte des brouillons remet en cause les représentations de la norme dans l'écriture scolaire. L'étude des variantes montre en effet que celles-ci peuvent parcourir pour un même brouillon un gradient qui va de carrément déviant à quasi déviant; d'où la nécessité d'étudier l'écriture scolaire dans son dynamisme expressif, suivant en cela une voie ouverte par Bally et Frei pour le langage oral. L'A. prend appui sur des exemples de discours rapporté dans un corpus de brouillons de classes de CM2 et de 6ème. Dans ce domaine plus qu'ailleurs se rencontrent des variantes dans le domaine du dire. L'A. montre qu'il existe une grande labilité syntaxique dans les frontières entre DD, DI, DIL, entraînant l'existence de formes intermédiaires (Rosier) spécifiques. Une particularité concerne les variantes dans les verbes introducteurs, notamment pour la série v. dire/ se dire/ penser. En suivant la manière dont le scripteur met en scène la parole d'autrui, on entre dans la représentation que le sujet se fait de lui-même comme sujet de l'écriture, pris entre les exigences de la norme et celles de son prore style
linguistique_524-05-10555_tei_572.xml
termith-561-linguistique
Le titre du 28 e colloque du GERAS a pu paraître révolutionnaire à ceux qui, comme nous, ont connu l'époque où les dénominations « langues de spécialité » ou « langues spécialisées » semblaient promises à un bel avenir en linguistique appliquée… Mais le siècle a changé, et dès les années 1980, les désignations « discours spécialisés » et « communication spécialisée » sont apparues dans le champ occupé par les langues de spécialité des années 1960-70. Or ce n'est pas un simple changement d'étiquettes, ni d'ailleurs un changement radical de projets de recherche. À côté de solides travaux de terminologie, qui ont toujours leur place, on a assisté à l'émergence de nouveaux points de vue, qui ont déplacé le regard des chercheurs vers de nouveaux objets d'étude. On voudrait expliquer ici les raisons et les conséquences de ces déplacements, du point de vue des sciences du langage et d'une analyse du discours qui s'interroge sur l'évolution de ses objets d'étude, sur le choix de ses « observables » et de ses catégories d'observation. Les déplacements constatés ont eu en effet pour conséquence l'émergence de nouvelles désignations : l'anglais sur objectifs spécifiques, l'anglais pour spécialistes d'autres disciplines, ou bien les discours spécialisés, voire les discours professionnels, comme l'atteste le titre de l'ouvrage de plus de 700 pages édité à Hong Kong par Ch. Candlin (2002). Ces nouvelles conceptions d'un anglais « du travail » ou plutôt « au travail » sont dues à des mouvements internes aux sciences du langage et à l'enseignement des langues (l'évolution des théories énonciatives, le développement de la pragmatique et des analyses interactionnelles), mais aussi à des mouvements externes découlant des mutations socio-économiques des sociétés contemporaines (le développement des nouvelles technologies de communication et de nouvelles organisations du travail, la mondialisation des échanges, etc.). Tel est le fil directeur de cet article : expliquer les raisons et les conséquences des déplacements constatés dans les objets d'étude et les catégories d'observation des travaux publiés ces dernières années, au nom d'une spécificité qui serait celle des situations rencontrées et des discours qui en découlent plutôt que celle des mots et des structures de la langue. On traitera de cette évolution en trois points : le surgissement du tournant discursif des années 1980, puis le tour ethnographique des années 1990, avant de développer une autre perspective qui s'interroge sur la part culturelle du langage liée aux phénomènes récents de la mondialisation des échanges, à partir d'exemples précis de discours produits en entreprise. Si, au 17 e siècle, l'Académie française rejetait de son dictionnaire les termes des Arts, des Sciences et des Métiers, qui ne relevaient pas, disait-elle, de la culture de l'honnête homme, trois siècles plus tard, lorsque la linguistique obtient un statut de discipline universitaire en France (la licence a été créée en 1967-68), les langues des sciences et des techniques deviennent un objet d'étude et d'enseignement à l'université. Ce sont alors « les mots » des sciences et des techniques qui constituent « les observables » de l'analyse. À l'heure où la science est en plein essor, on a conscience de l'exigence dénominative des domaines scientifiques et techniques : il faut en effet « nommer » les objets qu'on crée (une nouvelle fibre textile, par exemple), les découvertes que l'on fait, ou les nouveaux domaines qui surgissent (l'informatique, les biotechnologies, plus tard l'environnement, le développement durable, etc.). Il devient également nécessaire de savoir repérer les différentes façons de nommer d'une langue à une autre. Ce sont donc les spécialistes de lexicologie, de lexicographie et de terminologie qui se partagent le domaine des langues de spécialité, avec déjà l'anglais comme langue de référence, en Europe de l'Ouest en tout cas. Il apparaît cependant déjà des différences de points de vue, que consacreront plus tard les définitions des dictionnaires, comme le rappelle M.-F. Mortureux (1995 : 13) : Répondant à la question « qu'est -ce qu'un terme scientifique ou technique ? », le dictionnaire le Lexis pose un regard sémiotique : « mot qui a un sens strictement délimité à l'intérieur d'un système de notions donné », alors que le Petit Robert pose un regard davantage sociologique : « mot appartenant à un vocabulaire spécial qui n'est pas d'un usage courant dans la langue commune ». À l'entrée « spécialité », qui regroupe « langue de spécialité » et « discours spécialisé », le Dictionnaire d'analyse du discours (Charaudeau & Maingueneau 2002 : 538-541) s'écarte quelque peu de la terminologie telle que l'avait définie son fondateur, E. Würster, pour faire appel à des définitions des langues de spécialité qui inscrivent en filigrane les notions de contexte, de situation et de communication, qu'il s'agisse de L. Hoffman à Leipzig, de M.-T. Cabre à Barcelone ou de J. Humbley et D. Candel à Paris : La langue de spécialité, c'est l'ensemble des moyens linguistiques qui sont employés dans le cadre communicationnel d'une spécialité donnée afin d'assurer la communication entre ceux qui y travaillent (Hoffman 1984 : 53, traduit par Spillner 1992 : 45). [C'est] un sous-ensemble de la langue générale caractérisé pragmatiquement par trois variables : le sujet, les utilisateurs, et les situations de communication (Cabre 1998 : 123). Nous rattachons à l'ensemble « langue de spécialité » toute production langagière réalisée par un spécialiste en milieu professionnel, au sujet de sa spécialité (Humbley & Candel 1994 : 133). De plus, la traduction du mot « language » en français (langue ou langage ?) a conduit à s'interroger sur l'usage du mot « langue ». La tradition épistémologique, qui entend « langue » au sens de Saussure, donc en opposition à l'usage, à la parole ou au discours, explique certaines réticences vis-à-vis de la dénomination « langue de spécialité », en France. Cela justifie peut-être la position de B. Quemada, qui, dès 1978, lui préfère le terme de « vocabulaire », puisque le système reste celui du français général : Il convient plutôt de parler de vocabulaires, s'agissant d'emplois particuliers du français et de ses variétés, qui font appel pour la prononciation, la morphologie et la syntaxe, au fonds de la langue commune (Quemada 1978 : 1153). Cela explique sans doute que ce sont « les vocabulaires spécialisés » qui feront l'objet de travaux importants dans les années 1960-70 en France, à partir de l'étude du fonctionnement des mots dans les textes et avec des catégories empruntées à la linguistique structurale (voir par exemple Guilbert & Peytard 1973). On observe soit les relations sémantiques entre les mots eux -mêmes, et les relations entre la forme et le sens des mots, soit la formation des mots nouveaux (les néologismes, les sigles, etc.) et leur diffusion dans la société, c'est-à-dire leurs fonctionnements sociaux. Dans la tradition d'une analyse qui se veut une « linguistique sociale », les mots sont rapportés à leur usage social, à leurs utilisateurs et aux groupes sociaux qui les emploient. Cela annonce le tournant discursif qui suivra, l'apparition de la notion d'acteur social et d'une nouvelle interrogation : comment fait-on pour communiquer entre spécialistes et non-spécialistes ? Mais ce tournant discursif n'est pas dû seulement aux questionnements de linguistes ou de lexicologues français « militant » pour une linguistique sociale. De nouvelles demandes sociales surgissent dès les années 1970-80, non seulement en Europe mais également dans les pays en voie de développement, et d'autres besoins que ceux de traductions d'une langue à l'autre de termes spécialisés des sciences et des techniques : celles, par exemple, de chercheurs, d'étudiants, de professionnels conduits à lire/comprendre des textes en langue étrangère (Lehmann et alii 1979); celles de professionnels conduits à se déplacer à l'étranger pour étudier, chercher, ou tout simplement travailler en langue étrangère, et en particulier en anglais. D'où cette nouvelle appellation de « langue sur objectifs spécifiques ». La demande de formation en langue étrangère sur objectifs spécifiques a mis au jour quelques évidences didactiques qui sont rapidement devenues des raisons des changements de point de vue des chercheurs. Plusieurs constats sont apparus face aux demandes sociales de formation en langue étrangère de spécialistes ou de professionnels. Connaître les termes et leurs équivalents dans l'autre langue ne permet pas aux spécialistes de différentes langues de communiquer entre eux. Sinon un glossaire bilingue suffirait. Mais connaître les structures syntaxiques privilégiées par un texte spécialisé s'est également avéré une impasse : si on a pu en effet aisément dégager des formes qui semblaient « prototypiques » (l'impersonnel, le passif, le présent a-temporel, les extrapositions, les nominalisations, certaines modalités…), elles n'étaient en fait « prototypiques » que des corpus analysés, souvent des textes écrits et des textes à intention didactique. On avait omis de prendre en compte les discours de recherche, là où la subjectivité, la polémique, voire l'éthos du scientifique, s'inscrivent dans la matérialité verbale. On avait également omis les situations de diffusion des sciences et des techniques (les situations de divulgation, vulgarisation, valorisation, promotion, formation, conseil…), dans lesquelles les discours en usage (par écrit ou en interaction) présentent une rhétorique et une texture énonciative souvent éloignées de ces formes considérées comme prototypiques des textes spécialisés. Au mieux peut-on dégager d'un ensemble de textes recueillis dans un même domaine ou une même discipline des formes privilégiées selon les genres discursifs analysés, ce qui conduit à une sorte de stylistique des textes spécialisés (voir par exemple Moirand 1990a, Spillner 1992, Biber 1978, Cusin-Berche 2003). De plus, le degré de spécialisation varie d'une discipline à une autre. Il n'est pas de même nature en astrophysique et en sociologie, même s'il s'agit dans les deux cas de sciences de l'observation. Il n'est pas de même nature en informatique et dans le domaine du tourisme. Les discours spécialisés sont l'expression langagière des démarches cognitives des spécialistes et d'une cohérence conceptuelle liée au domaine considéré, ce que montre bien G.-G. Granger dans La science et les sciences. Et nombre de situations de travail mettent en jeu des interactions entre professionnels et novices (clients, stagiaires, etc.), par exemple dans le conseil en informatique, dans les métiers du tourisme ou de la santé, ce qui contraint le spécialiste à utiliser d'autres mots que les termes spécialisés. Ces constats ont eu pour conséquence un déplacement des objets d'étude. On ne constitue plus les corpus de travail à partir des seuls textes qui rendent compte de faits scientifiques « reconnus », « établis » et « partagés ». On observe la diversité des situations que rencontre un scientifique, un technicien, un professionnel ou un étudiant conduit à prendre la parole ou à comprendre ce qu'on lui dit, en particulier dans une autre langue que la sienne. Ainsi un médecin-chercheur chef de clinique en biologie dans un Centre Hospitalo-Universitaire est conduit à participer à des interactions verbales diversifiées, par exemple : avec ses pairs en France et à l'étranger, en français et en anglais lors de réunions de travail, de colloques, dans des articles et par courrier ou courriel…; avec les différents personnels de l'hôpital, y compris avec du personnel non natif; avec les malades et leur famille; avec les institutions de rattachement et les institutions de financement de l'hôpital et de l'Université, avec des laboratoires pharmaceutiques et des fournisseurs…; avec des étudiants en médecine, français et étrangers (cours en présence, cours en ligne à distance, forums d'échanges, courriers électroniques, entretiens en face à face…); avec la presse parfois et les médias, et tous les canaux qui participent à la valorisation soit de ses travaux soit de l'hôpital soit des formations universitaires dans lesquelles il enseigne. On étudie les usages que l'on fait d'une langue (ou de plusieurs langues) dans une situation x, à l'intérieur d'un domaine professionnel y (ou vers ses extérieurs), compte tenu du genre attendu dans la culture z. Car, à l'évidence, un malade étranger qui arrive dans une structure hospitalière française s'attend souvent à d'autres genres d'interactions que ce qu'il rencontre, de même qu'un étudiant étranger venant s'inscrire pour la première fois dans une université française paraît surpris par le script des opérations, y compris langagières, à effectuer. On peut tenter de définir ce qu'on entend désormais par « discours spécialisés », qui ne sont plus définis par des critères seulement linguistiques comme l'ont été les langues de spécialité. Il s'agit en fait de discours contraints par une situation d'énonciation, que l'on peut rapporter à un lieu social professionnel (institution, entreprise, magasin, etc.), et qui supposent la transmission ou l'échange d'informations ou de connaissances théoriques ou pratiques, déclaratives ou procédurales, voire expériencielles, entre des énonciateurs ou des interactants qui ont un statut socioprofessionnel ou une position sociale définis et dont le message a une visée pragmatique précise. De nouvelles catégories d'observation sont alors apparues : des macro-catégories comme celles de communauté discursive (Swales 1990), de genre discursif sur laquelle on reviendra plus loin, ou de situation d'énonciation symétrique ou asymétrique. Au niveau des micro-catégories, ce ne sont plus les mots et les structures que l'on observe : on étudie les différentes façons dont on désigne un même objet au fil d'un texte (voir la notion de paradigme désignationnel de M.-F. Mortureux dans Moirand et alii 1994 : 3-9, par exemple) et les différentes façons de reformuler et de ré-énoncer pour des publics non-experts les données des textes scientifiques sources (Mortureux 1985); à l'écrit, on étudie par exemple dans un ensemble de textes produits au sein d'une entreprise publique la transformation des relations de travail suggérées par le simple remplacement des mots employé, usager, directeur par acteur, client, manager (Cusin-Berche 1998). Ainsi une compétence professionnelle langagière ne se définit plus par la seule connaissance des mots et de la phraséologie « spécialisée » mais par la capacité à savoir reformuler et paraphraser ce qu'on dit, en fonction de la situation dans laquelle on se trouve, à expliciter ce qu'on fait et pourquoi on le fait ainsi, en fonction des démarches, des scripts et des praxéogrammes propres aux activités de la profession. On a alors assisté, en France, au « tour ethnolinguistique » de l'analyse du discours, comme l'exprime le titre d'un article de D. Maingueneau dans un numéro de Langages, paradoxalement consacré à l'écrit (1992). Mais, en Europe du Nord, un tour davantage marqué par l'ethnographie de la communication et l'ethnométhodologie était déjà amorcé, privilégiant des objets d'étude ad hoc : le dialogal et l'oral en interaction. À peine posée, la notion de discours spécialisé est rattrapée par au moins trois courants parallèles, pas forcément convergents : une approche de la communication qui, en sciences de l'information et de la communication, prend pour objet d'étude les relations entre sciences et sociétés ou entre sciences, médias et sociétés; une approche pluridisciplinaire de la parole au travail qui s'attache à étudier « la part langagière du travail »; une approche des interactions en situation de travail qui s'appuie sur l'analyse conversationnelle. L'objet d'étude s'est d'abord déplacé des textes produits par la science (textes sources ou textes premiers) vers leurs différentes reformulations en une diversité de discours seconds, mais c'est désormais la communication scientifique et la publicisation de la science qui deviennent des objets d'études en elles -mêmes et sans forcément les comparer aux discours des communautés scientifiques expertes (voir Jacobi 1999, Jeanneret 2000, Pailliart 2005, par exemple). Les travaux d'analyse linguistique du discours ont rejoint ainsi ceux des sciences de la communication, avec cependant chez les premiers une attention plus grande apportée aux marques formelles de cette communication destinée aux extérieurs des communautés scientifiques sources. Mais en se penchant sur les formes de ces discours seconds indépendamment des formes des discours d'origine, on a remis en cause le modèle classique de la vulgarisation scientifique dans lequel un médiateur (« le troisième homme ») traduit le discours de la science en direction de publics plus ou moins novices, ce qui conduit Myers (2003) à s'interroger sur « les frontières » des discours dits de vulgarisation (en français), de divulgación (en espagnol) et de popularization (en anglais). Plusieurs raisons sont à l'origine de ce déplacement. D'abord, dans le domaine des sciences humaines et sociales, voire des sciences économiques et politiques, il est bien difficile d'isoler un discours source. Ensuite, les demandes exprimées par les sociétés développées du monde actuel (la sécurité, la fiabilité, l'efficacité, l'accountability …) font que ce ne sont plus les discours de la science qui se diffusent massivement, dans les médias par exemple, mais des discours sur les sciences et les techniques dans leurs relations avec la société, donc des discours sur des événements scientifiques ou technologiques à caractère sociopolitique et qui tournent, de préférence, autour des problèmes de santé, d'environnement et d'alimentation (voir les Carnets du Cediscor 6, 2000, et, pour une synthèse, Moirand 2007). Enfin, ces discours hybrides, lieux de rencontres entre différentes communautés appelées à se rencontrer autour de ces thèmes majeurs (monde politique, monde économique, monde sanitaire, monde scientifique, monde médiatique, associations de consommateurs, etc.), finissent par constituer une grande part des discours produits par les communautés scientifiques et techniques elles -mêmes : on demande aux chercheurs non seulement de produire des connaissances nouvelles et de les diffuser, mais également de les expliquer, et même de les justifier en prévoyant les conséquences de leurs travaux (la notion de risque et le principe de précaution sont désormais évoqués, de même que l'éthique et le développement durable). Ce que résume D. Wolton, en introduisant la notion d'acteur : […] aujourd'hui, tout est plus compliqué. Il n'y a plus deux acteurs, les scientifiques et le public, mais au moins quatre, la science, la politique, la communication et les publics; et chacun est lui -même souvent divisé en plusieurs sous-groupes. Les logiques sont aussi devenues plus nombreuses, plus complexes et surtout plus contradictoires. (Wolton 1997 : 9) Cette globalisation de la communication scientifique est soulignée par de nombreux analystes, par exemple Calsamiglia et López Ferrero en Espagne (2003), Gambier en Finlande (1998), Gülich et Spillner en Allemagne (2003 et 1992), Marinkovich et Ferrari au Chili (2006), Myers en Grande-Bretagne (2003) et Moirand (2006). Elle a contribué à mettre au jour de nouveaux objets d'étude comme les interactions discursives entre les différents groupes d'acteurs et la circulation des mots et des dires ainsi que les lieux de rencontres entre les différents acteurs sociaux : les musées et les expositions, les conférences mondiales sur l'environnement ou le réchauffement climatique, les différents médias, les forums sur l'internet. Elle a contribué à dégager des observables qui se sont affinés au fil des derniers développements des théories sémantiques, énonciatives et argumentatives. Ce qu'on observe désormais, c'est l'activité langagière des acteurs, le discours en train de se faire, à travers par exemple « l'acte de nommer » (Cislaru et alii 2007) et pas seulement les dénominations « partagées » par la communauté scientifique primaire. Ce qu'on observe également, en empruntant à Bakhtine le concept de dialogisme, c'est la façon dont les acteurs « représentent » les discours des autres dans leurs propres dires (Moirand 2003). Ce qu'on observe enfin, ce sont les opérations cognitivo-langagières qui rendent compte de la visée pragmatique des discours telles l'explication, la justification, l'argumentation. Un bref exemple emprunté à la parole universitaire illustrera ici la façon dont un professeur inscrit ses hésitations sur la façon de nommer une catégorie d'analyse, reformulant ainsi son propre dire, alors qu'il est en train d'expliquer à ses étudiants de doctorat une démarche de sémiotique littéraire qui s'appuie sur un texte de Michel Butor : Alors / vous voyez / ce qui manque à ce texte / c'est peut-être une mise en ordre des problèmes / le problème d'inventaire des / des / de c'qu'il [Butor] appelle les indices de spatialité évocatoire / c'est une chose / le problème de « comment c'est vu », du « comment c'est mis en scène » / donc les problèmes de // j'sais pas comment appeler ça / de / de / d'optique / appelons ça des problèmes d'optique / il n'emploie pas le mot / hein / des problèmes d'optique / que pose / l'arrangement / des objets dans l'espace / c'est un deuxième problème qu'il accroche un p'tit peu trop vite à la locomotive / ça peut faire des thèses de différents niveaux / (Extrait du séminaire de sémiotique littéraire, Paris 3, 1983-84) C'est cependant sur les conséquences de ces déplacements dans les formations en langue que l'on voudrait conclure ici. Car observer les activités d'acteurs « situés » contraint à repenser la formation à la lecture et à la compréhension, à l'interprétation et à la traduction : ce qui semble devenir primordial dans le monde actuel, davantage qu'apprendre les mots des sciences et des techniques, c'est, semble -t-il, savoir « traiter de l'information », et en particulier, savoir la traiter lorsqu'elle arrive dans une langue, avec ces hésitations qui ne sont que les traces d'une activité de réflexion, et qu'il faut la reformuler dans une autre langue. Cela nous paraît rejoindre certains travaux sur « la parole au travail ». On mentionnera ici, à titre d'exemple, les travaux du Réseau « Langage et travail », travaux souvent mal connus par les spécialistes d'enseignement des langues, si l'on excepte certaines recherches récentes sur les langues professionnelles (Mourlhon-Dallies 2007). Ce réseau du CNRS, qui occupe une place particulière dans l'analyse du discours en France (Maingueneau 1995), produit depuis deux décennies des observations remarquables sur ce qu'il appelle « la part langagière du travail ». Ces travaux, qui n'étudient pas des échanges exolingues mais qu'on pourrait aisément transposer à des situations où une langue étrangère intervient, ont fait l'objet d'une synthèse dans un ouvrage dont le titre illustre déjà l'évolution de l'objet d'étude, le langage, et les sous-titres celle des objets de recherche : communication, cognition, action (Borzeix & Fraenkel 2001). Les chercheurs de ce réseau, qui sont linguistes, sociologues, ergonomes, spécialistes en gestion…, se sont réunis sur la base d'un constat et d'une hypothèse. Le constat, c'est celui de la transformation profonde du travail, en raison des innovations technologiques, de la tertiarisation des emplois, des effets de la mondialisation et de l'organisation nouvelle des entreprises. L'hypothèse, c'est que ces changements entraînent de profondes transformations sur la place du langagier : on assiste à un tel accroissement de la part langagière du travail qu'on peut inverser le « quand dire c'est faire » (Austin) en « quand faire, c'est dire » (Borzeix & Fraenkel 2001 : 39). Dans les sociétés développées actuelles, de plus en plus d'acteurs sociaux sont payés pour parler, pour lire, pour écouter. On pourrait ajouter à ce constat et à cette hypothèse que « la part langagière » du travail s'effectue de plus en plus fréquemment dans une autre langue que la sienne, et souvent en anglais. Si l'on observe en effet ce que font les acteurs sociaux avec le langage « au travail », on découvre de nouvelles formes de collaboration et de travail en équipes, en présence ou à distance, avec l'utilisation des nouvelles technologies : par exemple, les conseils ou guidages à distance dans les centres d'appels, les plates-formes d'aiguillage, les échanges entre filiales et sous-traitants, etc. On perçoit à quel point le langage est indispensable pour assurer la coopération entre acteurs au travail à travers des activités telles que informer, rendre compte, prescrire, vérifier, remémorer, expliquer, justifier, argumenter, programmer l'action et décider à plusieurs. Ainsi dans l'interaction de service ci-après, enregistrée dans une Caisse d'allocations familiales, on perçoit la difficulté d'intercompréhension qui se manifeste autour d'un mot employé par l'agent mais qui ne fait pas partie du répertoire de l'usager (non-natif), difficulté qui ne peut se régler qu'au fil d'activités langagières de coopération : Agent : [lisant] N'ayant jamais reconnu [silence] sa fille [silence ]. Il y a quand même une chose que je ne comprends pas ! vous vous être mariés au mois d'avril 90. Allocataire : Oui, au Maroc ! Agent : L'enfant est légitimé par le mariage [silence] Alloc. :Comment ça, il est légitimé ? Agent : C'est-à-dire que l'enfant est né après le mariage, donc l'enfant, normalement, est légitimé et reconnu d'office, du fait du mariage. Il n'y a pas besoin de le reconnaître [silence] Alloc. : C'est-à-dire que moi j'ai toujours fonctionné avec mon nom de jeune fille… Agent : si vous voulez, dans le cas d'un concubinage… Alloc. : … alors à l'époque, j'étais enregistrée… Agent : … vous vivez en concubinage, vous attendez un enfant, le père ne reconnaît pas l'enfant, au niveau de la loi, vous vivez en concubinage, il n'y a pas eu mariage Alloc. : Mmh ! Agent : À partir du moment où vous êtes mariée, les enfants issus du mariage sont reconnus d'office. C'est ça qui me paraît un petit peu [silence] (CNAF, Recherches et prévisions 45, 1996 : 18) On résumera en quatre points les conséquences des observations effectuées sur la part du langagier « au travail » : Un acteur social en situation de travail est sans cesse confronté au transcodage et à la reformulation dans un environnement souvent multimodal, parfois bilingue ou plurilingue : par exemple, il écoute des enregistrements sur un répondeur, passe à l'écran pour répondre aux questions posées, tout en cherchant dans des dossiers ou sur l'écran les papiers nécessaires à la compréhension des questions et les éléments qu'il devra reformuler pour le correspondant. Il devient difficile aujourd'hui de distinguer entre genres de l'écrit et genres de l'oral dans les activités langagières au travail : un exposé est écrit avant d' être dit et illustré souvent sur un écran; une réunion de travail suit l'ordre du jour de la convocation envoyé par courrier ou courriel et donne lieu à un compte rendu sous forme imprimée ou électronique; une interaction de service au téléphone est construite et ordonnée selon une fiche pré-écrite enregistrée sur ordinateur. Les usages de la lecture au travail s'avèrent différents de ceux du livre, qui demande une lecture concentrée, continue, coupée du monde. Au travail, on lit dans un environnement parfois bruyant, à voix haute souvent et pour quelqu'un en face de soi ou au téléphone, ce qui est écrit par exemple sur l'écran de son ordinateur de travail. Certains écrits nécessitent un simple balayage, d'autres une focalisation attentive sur des points précis, d'autres une lecture intégrale… La reformulation n'a pas le même objectif que dans la vulgarisation ou l'enseignement, parce qu'on se trouve souvent dans un groupe de partage d'informations. De nombreux écrits sont le résultat d'écritures collectives (les cahiers de liaison, par exemple) ou le résultat de chaînes d'écriture dans lesquelles interviennent successivement différents rédacteurs (les textes législatifs, les brochures d'entreprise – voir par exemple en 3. infra). Outre que ces activités observées in situ fournissent de nombreux schémas et matrices pour imaginer des activités et des exercices de langue, leur observation permet d'affiner peu à peu la notion de « genre discursif professionnel » (Moirand dans Kerbrat-Orecchioni & Traverso 2003, en ligne) : Une représentation socio-cognitive intériorisée que l'on a de la composition et du déroulement d'une classe d'unités discursives auxquelles on a été « exposé » dans la vie quotidienne, la vie professionnelle, les différents « mondes » que l'on a traversés : un « patron » permettant à chacun de construire et de planifier ses activités et/ou ses interventions verbales et non verbales dans une situation de communication, un lieu social, une communauté langagière, etc. Si, en effet, comme le dit Bakhtine, « chaque sphère de l'activité humaine comporte un répertoire de genres », il est normal que de nouvelles activités, de nouveaux supports, de nouveaux canaux entraînent une recomposition du répertoire générique des acteurs sociaux. Ce qui constitue en soi un objet de formation, donc un objet de recherche, indispensable aux comparaisons interdiscursives entre langues et cultures différentes (voir Carnets du Cediscor 9, 2001). Ce qui pourrait permettre un renouveau de la linguistique appliquée, comme le propose par ailleurs L. Mondada à propos des « interactions en situation de travail ». Dans le numéro de la Revue française de linguistique appliquée de décembre 2006, L. Mondada, qui l'a dirigé, fait le point sur l'abondante littérature internationale qui porte sur les « Interactions en situation de travail ». Bien avant les premiers travaux francophones (Roulet à Genève, Kerbrat-Orecchioni à Lyon, par exemple), les interactions verbales ont constitué un objet d'études dans le monde anglophone et une référence pour enseigner l'anglais comme langue étrangère un peu partout dans le monde, en particulier l'anglais « langue professionnelle ». Ces travaux s'inscrivent, comme le rappelle L. Mondada (2006 : 6), dans différents courants théoriques : l'ethnologie de la communication (Hymes), la sociolinguistique interactionnelle (Gumperz), l'analyse conversationnelle (Sacks et Schegloff) et la microsociologie (Goffman). Mais le cadre de référence principal des travaux qui relèvent des discours professionnels (au sens de Candlin 2002), l ' Institutional talk-in-interaction et les Workplace Studies emprunte à l'ethnométhodologie, un courant sociologique impulsé par Garfinkel au début des années 1960 en Californie. Il s'agit d'une approche « dynamique » de l'ordre social, qui accorde une place centrale au point de vue des acteurs observés dans leur vie quotidienne, ici dans leur travail : on y affirme la primauté des activités interactionnelles et leur rôle dans la construction de l'ordre social (voire cognitif et acquisitionnel); l'importance du contexte, l'action étant à la fois structurée par le contexte et structurante pour lui; le rôle du langage comme ressource (parmi d'autres), exploitée en tant que telle par les acteurs engagés dans l'interaction (Mondada 2006 : 7). La méthode implique d'aborder in situ les interactions, de procéder à des enregistrements audio et vidéo et à des transcriptions « fines », jusqu'au détail le plus infime, pour décrire le déroulement de l'action en interaction. Que retenir de ces travaux ? Ils portent de fait un nouveau regard sur l'oral et l'analyse du discours en interaction. Ils permettent de disposer de transcriptions et de descriptions précises d'interactions en milieu professionnel. Ils conduisent à comprendre ce déplacement que l'on constate actuellement de la communication à l'action dans certaines conceptions de l'enseignement des langues, en particulier dans les retombées des travaux du Conseil de l'Europe (Rosen 2006, par exemple). Mais l'objet de recherche ici n'est plus la langue, pas davantage le langage; il s'agit de considérer le langage comme ressource pour accomplir une action en interaction et une ressource parmi d'autres : ainsi, à la lecture des travaux sur les Workplace Studies (par exemple, les plates-formes de contrôle aérien, les centres d'appels d'urgence internationaux), on prend également en compte d'autres ressources telles que les différents contextes – spatial, matériel, environnemental et technologique – dans l'organisation des activités collaboratives et les prises de décision. Ce type d'analyses pose un certain nombre de questions, au-delà de l'usage qui est fait du concept d'action, pris souvent dans un sens quelque peu métaphorique alors qu'il s'agit à l'origine d'un concept philosophique et non pas d'une activité concrète. Car, à force de considérer le langage sous l'angle de l'action, on en oublie, semble -t-il, ses autres fonctions : par exemple, sa fonction de représentation, qu'on a pu entrevoir ici à travers les exemples de « l'acte de nommer », et surtout le rôle qu'il joue dans la réflexion (qu'il s'agisse du langage intérieur de Vygotski ou de l'autodialogisme de Bakhtine). Le langage sert aussi à organiser la pensée, et la verbalisation, indispensable à la réflexion, sert à organiser les idées, voire à les produire. Cette approche semble également oublier que les mots ont une mémoire (Moirand 2004), et que les acteurs ont une histoire conversationnelle antérieure à l'interaction qu'on est en train d'observer. Dans le domaine enfin de la formation en langue, le danger serait de tomber dans une approche excessivement analytique qui décomposerait chaque action en sous-tâches et en sous-compétences à l'infini. Ce qui empêche, comme le montre F. Mourlhon-Dallies (2008), de concevoir une approche synthétique des professions qui tienne compte de la part langagière qui découle des logiques professionnelles. Or ces logiques professionnelles sont également liées (voir en 3. infra) à des cultures de travail souvent différentes à l'échelon des nations et des langues-et-cultures. Il ne s'agit pas là, bien entendu de la culture-savoir qui s'apprend, mais de la culture implicite, et sans doute aussi de celle qui s'inscrit dans les formes de la langue. D'où, en ce début de 21 e siècle, le frémissement d'un nouveau déplacement : il se manifeste, entre autres, dans les travaux de comparaison entre genres appartenant à des langues et/ou des cultures différentes qui s'interrogent sur « la part culturelle du langage ». La généralisation actuelle de l'anglais dans le monde professionnel incite à considérer que la « globalisation » est aussi à l' œuvre dans le domaine linguistique. Ainsi, il est de plus en plus fréquent pour une multinationale dont le siège est en France de promouvoir l'anglais au rang de « langue officielle du Groupe », le plus souvent en parallèle avec le français, mais occasionnellement en lieu et place de ce dernier. Dictée par la nécessité pour les employés de communiquer entre eux quelles que soient leur nationalité et leur langue maternelle, cette mesure est généralement vue sous un jour positif : l'anglais est le « dénominateur commun » qui permet aux employés de toutes les nationalités de se comprendre. Mais, jusqu' à quel point se comprennent-ils ? L'approche contrastive des versions anglaise et française de la charte éthique du Groupe Lafarge, proposées en parallèle au personnel disséminé de par le monde et au grand public sur un site internet, autorise à se poser la question. On constate, en effet, qu'en dépit d'une volonté de diffuser un même document sous deux formes identiques dont seule la langue d'expression varie, Nos Principes d'Action (dorénavant NPA) et Principles of Action (dorénavant PoA) ne donnent pas à voir le même monde. Sachant, comme l'explique J.-B. Grize (1978 : 47), que le discours « prend ancrage et dans un préconstruit culturel et dans un préconstruit situationnel », on ne saurait trop s'en étonner. Ph. d'Iribarne (1989) montre bien, quant à lui, comment les différences culturelles relatives aux conceptions du bien-vivre ensemble se manifestent dans les usines américaine, française et néerlandaise d'un même groupe français. Ne faut-il pas, dès lors, considérer une langue commune – ici, l'anglais – non plus comme le lien qui transcende les spécificités culturelles, mais comme un masque voilant, à l'insu de ses utilisateurs, les différences quant au sens donné à tel ou tel terme ? Le recours par les personnels d'une multinationale à une langue de communication commune leur fait souvent oublier que la langue n'est pas transparente, qu'elle est aussi régie par des normes sociales différant suivant les cultures, et que ces normes sont, le plus souvent, transférées vers la langue seconde. C'est ce que montre l'analyse de ce corpus, enrichi des documents de travail dont il est issu, en prenant appui sur les théories traitant des liens entre le langage, la pensée et la culture. Tout en appartenant au « micro-genre » professionnel des chartes éthiques, les Principes d'Action du Groupe Lafarge s'inscrivent dans un programme plus ample intitulé Leader for Tomorrow qui vise à mobiliser le personnel disséminé dans le monde entier. Leur spécificité ne s'arrête toutefois pas là : le texte anglais résulte d'une écriture en langue seconde par une équipe managériale que nous qualifierons de française, composée de trois managers, deux Français accompagnés d'un Néerlandais travaillant depuis de nombreuses années au sein du Groupe. Suivait un processus de validation des textes par un comité de lecture pouvant être qualifié d'américain : dix managers internationaux dont trois Nord-américains et un Anglais, les autres, de nationalités diverses, ayant tous, à un moment donné, exercé des responsabilités aux États-Unis ou en milieu international. Ce n'est qu'en fin de parcours que le texte a été traduit en français, puis retravaillé dans sa formulation par le service Communication du Groupe. Le corpus dont nous disposions consistait donc en deux versions de ce qui se voulait le même message, l'une issue d'une écriture collective en langue seconde par des Français mais retravaillée dans un esprit américain, l'autre, traduction de la première, remaniée par des Français. À ces deux textes s'ajoutaient les documents de travail : une vingtaine de versions en anglais portant la trace des modifications du comité de lecture, et les cinq versions françaises ayant précédé le texte définitif. Un tel corpus, bilingue et biculturel, diachronique et synchronique, mais « uni-situationnel » est apparu comme idéal pour s'intéresser aux liens langage/culture. Partant de l'arbitraire du signe de Saussure, nombreux sont les linguistes qui se sont penchés sur le rôle que jouent les langues dans le découpage de la réalité et sur l'existence d'une communauté linguistique dont les membres partagent les mêmes associations signifiant/signifié. La théorie de la Linguistic Relativity, du nom que lui avait donné, en son temps, Benjamin Lee Whorf, insiste sur l'influence du langage sur la vision du monde qu'ont les membres d'une communauté linguistique.Rebaptisée à tort par ses détracteurs Hypothèse Sapir-Whorf, et scindée en une version faible – considérée comme acceptable – et une version forte déniant à l'individu toute autonomie, et, en conséquence, reniée, elle n'est plus remise en doute de nos jours. Les ouvrages ou les articles dont le titre l'évoque abondent : Linguistic relativity revisited; A reformulation of the linguistic relativity hypothesis; The Whorf Theory Complex : A Critical Reconstruction, etc.Les nombreuses recherches qui y sont exposées tendent à montrer qu'effectivement le langage n'est pas « transparent », qu'il influe sur la manière dont les individus « découpent » la réalité, et que, conformément à ce que Whorf lui -même énonçait, procéder à des analyses contrastives permet de mieux comprendre le phénomène : Actually, thinking is most mysterious, and by far the greatest light upon it that we have is thrown by the study of language. This study shows that the forms of a person's thoughts are controlled by inexorable laws of pattern of which he is unconscious. These patterns are the unperceived intricate systematisations of his own language – shown readily enough by a candid comparison and contrast with other languages, especially those of a different linguistic family. His thinking itself is in a language – in English, in Sanskrit, in Chinese. (Whorf 1956 : 252) Face à des langues aussi proches que l'anglais et le français, nous ne retiendrons ici que les implications culturelles de la théorie. Si l'on pense dans une langue, que se passe -t-il lorsqu'on s'exprime dans une langue seconde, plus ou moins bien maîtrisée ? B. Peeters (2003 : 120) constate la « maîtrise imparfaite des normes [communicatives] et des valeurs [culturelles] appropriées » et suggère de prendre appui sur l ' interlangue à laquelle recourent les locuteurs en situation de communication exolingue, pour mettre au jour les divergences existant entre culture maternelle et culture de la langue cible. Il considère que chaque langue comprend des « mots clés », des « mots culturellement plus ‘ chargés ' » que d'autres, des mots qui assument pour ainsi dire « more than their share of cultural work », dit-il en citant M. Jay (1998). La fréquence d'apparition d'un terme lui semble être l'un des critères permettant de repérer ceux qui, comme l'adjectif engagé, sont directement reliés, selon lui, à des valeurs culturelles : ici, la valeur française de l'engagement qui s'oppose à la valeur exprimée en anglais par la forme verbale : to show restraint (Peeters 2000 : 206). L'approche contrastive de discours spécialisés présente des avantages certains pour une telle recherche : au-delà des rapprochements terminologiques ou même syntaxiques et phraséologiques (Spillner 1981), elle permet de mettre au jour, dans des documents d'un même genre professionnel produits au sein d'une communauté discursive, des divergences d'approches et de formulations attribuables aux différences de cultures des locuteurs/scripteurs (Bhatia 1993 : 36). Ainsi G. Tréguer-Felten (2002) montre combien la rhétorique à l' œuvre dans les textes anglais de brochures d'entreprises chinoises et françaises est influencée par la culture d'origine des scripteurs. De tels transferts vers l'anglais véhiculaire, souvent pratiqué en l'absence de tout natif, ont donné, dans certaines parties du monde, naissance à des interlangues baptisées « Asian English » ou « African English », « Caribbean English », etc., dans lesquelles on peut voir les multiples variétés du « Global Language » (Power, Newsweek 2005/03-07). Sans aller jusqu' à rechercher ce qui pourrait caractériser un « Frenchglish » spécialisé, on a suivi « à la trace » des termes ou des expressions inattendus, fréquents, etc., puis on est « remonté » à la « valeur » culturelle évoquée par Peeters (supra); cet objectif explique la méthode adoptée. Recourant aux techniques de l'analyse de discours, nous avons considéré les traces que laisse l'énonciateur à la surface des textes (comment il désigne les « objets » du discours), s'il s'implique ou non en tant que sujet dans son discours, comment il se positionne par rapport à ce qu'il dit. Ces observables sont autant d'indices permettant de reconstruire la situation et le contexte dans lesquels le discours a été produit (cf. Moirand 1992 : 30), re-construction d'autant plus riche que nous avions accès aux étapes successives de l'écriture. Des va-et-vient entre les documents intermédiaires et les versions définitives ont permis de repérer les apparitions, les disparitions ou les transformations de termes suggérées par le comité de lecture, en raison, peut-on supposer, de leur inadéquation au contexte américain – indications précieuses d'approches culturelles différentes méritant notre attention. Certains des termes écartés lors de cette phase réapparaissent au cours de la re-formulation du texte français, tendant à confirmer leur rôle d'indicateurs de « valeurs culturelles ». C'est ainsi que la fréquence initiale, puis la disparition progressive du verbe accept (cf. infra) des versions anglaises successives, puis sa réapparition au fil des re-formulations françaises sont apparues représentatives d'une tendance française à « feutrer » le discours de l'autorité pour le rendre acceptable, ce qui a conduit à en rechercher d'autres illustrations à la surface des textes. Partant des divergences constatées entre les versions finales, on a exploré les écritures successives en anglais, puis en français, pour voir à quelle étape elles apparaissaient. Au terme de ces va-et-vient, on a pu conclure que les discours donnaient à voir deux univers professionnels différents et que les langues utilisées, vecteurs des cultures des scripteurs, étaient à l'origine de ces différences. Selon qu'elle s'exprime en anglais ou en français, la direction du Groupe ne se projette pas dans le même type de relations avec son personnel. De même, les attentes qu'elle formule à son égard ne sont pas rigoureusement identiques, ses méthodes pour les satisfaire non plus. C'est ce que révèle la comparaison des versions finales et que l'analyse des documents de travail permet d'attribuer à la culture des scripteurs français et des re-lecteurs américains. Dès la première page, les principes d'action du Groupe positionnent la direction différemment : par les termes dont l'énonciateur désigne le personnel, il la place sur un plan d'égalité avec lui ou dans une position supérieure; de même, les tâches qu'il assigne en son nom à ce dernier sont tantôt adressées à la collectivité, tantôt à l' « individu-employé ». Les collaborateurs français sont désignés, dans PoA, comme our/their people et our/their employees. Les définitions que proposent les dictionnaires pour ces vocables font apparaître des différences sémantiques significatives : collaborateur évoque essentiellement le travail en commun – tandis que our people et employee partagent le sème de la sujétion à une autorité, sans pour autant être équivalents; ils relèvent de deux conceptions différentes du « vivre en commun » propre à la société nord-américaine : our people évoque la communauté morale (religieuse même) si importante à l'époque de l'arrivée des Pilgrim Fathers sur le sol américain. Employees, pour sa part, renvoie à la relation contractuelle développée très tôt dans l'histoire de la démocratie des États-Unis entre le maître et l'employé et leur permettant de circonscrire la subordination à une tâche donnée, pour un temps donné (Foner 1998 : 120). La notion d'ouvrage en commun est entretenue au fil du texte français par l'emploi récurrent du verbe contribuer : si l'un des objectifs du Groupe est de contribuer au succès de ses collaborateurs, ceux -ci, à leur tour, contribuent au succès du Groupe. Cette relation égalitaire (ou qui se déclare comme telle) – présente dans collaborateur, mais que le recours aux déterminants nos, leurs, qui lui sont le plus souvent associés, dément quelque peu – peut n' être qu'un artifice de langage. Elle permet toutefois de donner à l'individu l'impression d'un choix. Il peut – en apparence – disposer de son libre arbitre, marge d'action que ne laissent ni our people ni (our) employees, lesquels positionnent clairement la direction à un niveau supérieur, lui octroyant le pouvoir d'exprimer l'objectif de succès ci-dessus sous une forme bien différente : making our people successful. Cette opposition entre une expression masquée de l'autorité dans NPA et une expression claire dans PoA se retrouve dans l'assignation des tâches aux collaborateurs. Si les obligations elles -mêmes sont sensiblement les mêmes, les acteurs auxquels elles sont assignées, en revanche, diffèrent souvent. NPA tend à leur associer des expressions plurielles référant à la collectivité : tous nos collaborateurs, l'ensemble des collaborateurs, tandis que le texte anglais les accole à des formules distributives comme every employee, each of our employees, etc. On va ainsi trouver : (1) Faire de la qualité un engagement de tous nos collaborateurs (2) Making quality the commitment of every employee À l'inverse, le soutien ou l'aide que le Groupe s'engage à apporter au personnel apparaît généralement auprès d'une expression singularisante en français, et collectivisante en anglais. (3) Donner à chacun de nos collaborateurs des responsabilités et des défis motivants et les assurer du soutien de l'ensemble de notre organisation (4) Giving our people exciting and challenging responsibilities and the support they need to be successful L' « individu-employé » américain est clairement informé de ce qu'on attend de lui – ce qui s'intègre bien à un système de management dans lequel l'individu est jugé sur des objectifs définis par ses chefs; il trouve en revanche du soutien auprès de la communauté à laquelle il est intégré : le Groupe. L'univers représenté par le texte français est tout autre : les encouragements vont à l'individu, les sollicitations/obligations à la collectivité – ce qui est en parfaite cohérence avec l'atmosphère de collaboration induite par les désignations. Ainsi, le Groupe compte sur tous et sollicite l'adhésion de ses collaborateurs (5) en des termes qui tranchent avec le registre de l'action du texte américain (6) : (5) Nous attendons de nos collaborateurs qu'ils donnent le meilleur d'eux -mêmes (6) All of our employees are expected to perform at their full potential L'exploration des premières écritures en anglais a permis de montrer que cette propension à masquer la subordination s'y manifestait aussi. Un repérage des verbes exprimant la contrainte indique une présence majoritaire à leur côté de quantifieurs collectifs. (7) Involving all our employees [. ..] is the best way to capture their commitment and [. ..] initiative (8) Building a participative [. ..] environment requires everyone's contribution Ces expressions collectivisantes se voient cependant peu à peu remplacées, dans les versions intermédiaires, par des partitifs singuliers, tel each individual, et dans la version finale (9) c'est le quantifieur partitif pluriel all of our people qui apparaît, comme si cette forme, absente du lexique français, et permettant d'allier collectif et partitif, avait réuni les antagonistes. (9) We want to involve all of our people in our ambition and strategies so they can better contribute their initiatives, talents and support the accelerating need for changes that our businesses require L'analyse des écritures successives de ce passage en français révèle une même tendance à associer un verbe de contrainte à un référent collectif plutôt qu'individuel; tantôt, ce dernier est conservé, comme en (10) : (10) Nous voulons impliquer l'ensemble de nos collaborateurs dans nos ambitions et nos stratégies […] tantôt, le passage à un quantifieur partitif est en quelque sorte compensé par un autre moyen : une modalité, par exemple, comme dans les versions de travail (11) et (12) – cette dernière sera d'ailleurs conservée dans la version finale. (11) Nous souhaitons que chacun joue un rôle essentiel dans la définition de ses propres objectifs (12) Nous attendons de nos collaborateurs qu'ils sachent partager leurs expériences et s'enrichir de celles des autres Cette opposition entre une claire définition des obligations incombant à l'employé américain et une formulation française que la référence à la collectivité du personnel vient tempérer témoigne de relations de travail différentes. Une fréquente mise à distance de l'action, dans NPA, semble indiquer que les attentes de la direction ne sont pas non plus les mêmes. Les descriptions du cadre de travail participent à la création de deux mondes professionnels qui s'opposent et que l'on voit se former peu à peu au fil des versions successives. Le texte de PoA recourt à une succession de verbes d'action au présent : act, perform, outperform themselves, leverage their skills, qui donnent à voir une scène dynamique dans laquelle les employés du groupe s'activent, agissent. (13) Offering a uniquely participative and supportive environment where people act out of convictions… Dans NPA, en revanche, l'action est mise à distance au moyen de modalités ou en recourant à des tournures semblant l'intellectualiser. Ainsi, dans les documents en français, la direction du Groupe demande au personnel de « chercher à mettre en œuvre nos meilleures pratiques », là où l'employé américain doit simplement « use best practices »; de même l'objectif assigné, lointain en français : « pour atteindre de meilleurs résultats », est dynamique et immédiat en anglais : « achieving greater results ». Si on met en regard les deux textes finaux, on voit que là où en anglais on a une succession de verbes d'action, on rencontre en français des formes complexes référant davantage à une capacité ou une aptitude qu' à l'action, ainsi qu'en témoigne l'exemple (14) : (14) Créer un cadre de travail participatif et stimulant, où l'initiative personnelle est encouragée […] (15) Offering a uniquely participative and supportive environment where people act out of convictions […] L'exploration des documents de travail montre que les premières écritures en anglais vont dans le même sens et sont parfois plus proches de la version finale française – cf. (16) et (17) – que de la version définitive de PoA (18) à laquelle elles ont donné naissance. De fait, la notion d'acceptation présente en (16) est absente de la version finale (18); elle réapparaît, en revanche, en (17), la version finale française, dans laquelle on trouve également un pourra qui semble faire écho à l'encouragement exprimé en (16). Le monde « à venir » ainsi esquissé se distingue clairement du monde d'action dépeint dans PoA. (16) We want to promote an environment where everyone : accepts and actively seeksto constructively challenge and be challenged works at addressing problems [. ..] before moving on is encouraged to challenge entrenched thinking and practices (17) Nous voulons promouvoir un environnement au sein duquel chaque personne et chaque équipe pourra : remettre en cause et accepter d' être remis en cause dans un esprit constructif résoudre systématiquement les problèmes avant d'essayer d'aller plus loin. faire preuve de créativité […] (18) We want to promote an environment where individuals and teams : seek to constructively challenge and be challenged address existing problems […] in a systematic way before moving on […] use their creativity Bien qu'on puisse en partie attribuer ces différences à la concision chère à l'anglais – notamment l'anglais nord-américain –, l'emploi de verbes d'action au présent simple donne à la direction de PoA le rôle d'un metteur en scène très directif : il plante le décor, les employés entrent en scène et agissent. Le discours français ne lui octroie pas autant de pouvoir. S'il plante bien, lui aussi, le décor, il ne dirige pas les acteurs avec autant d'autorité. Il laisse davantage de place à leur libre arbitre : il leur donne la faculté de faire (pourra, est encouragé à), définit les capacités que chacun doit posséder et démontrer pour assumer son rôle (doivent savoir déléguer, avoir de l'initiative, faire preuve de créativité), aptitudes dont il se méfie même un peu (avant d'essayer d'aller plus loin). Par ailleurs, la récurrence du verbe accepter, dans les premières écritures en anglais comme dans les documents de travail et dans la version définitive française,donne à penser que la direction, à travers son équipe managériale française (cf. 3.1.1. supra), cherche à convaincre plus qu' à contraindre. Afin de vérifier si la direction, quand elle s'exprimait en français, cherchait effectivement à convaincre plutôt qu' à exiger, nous avons procédé à une recherche systématique des occurrences du verbe accept. De huit dans les versions de travail de PoA, elles vont en décroissant pour n' être plus que trois au stade de la traduction en français et disparaître totalement de la version définitive en anglais. En revanche, dans la version définitive de NPA, il est à deux reprises fait mention d'acceptation. Ainsi, outre la phrase présentée ci-dessus – (16) à (18) – sur le comportement individuel attendu des membres du personnel, la phrase de conclusion de NPA insiste sur la nécessité de faire accepter les règles qui régissent le Groupe. On notera qu'elle ne s'adresse ni à la collectivité ni à l'individu : la forme impersonnelle retenue ne donne que plus de force à l'obligation ainsi énoncée. (19) Ces règles doivent être connues, acceptées et appliquées de façon cohérente au sein du Groupe… La version anglaise ne fait, en revanche, qu'exprimer l'obligation pour tous de connaître et d'appliquer les règles : (20) These rules should be known by everyone in our organization and implemented consistently throughout the Group… Ainsi que nous l'avons noté, dans les documents français, la direction, s'adresse à des (presque) égaux, leur donnant l'impression de pouvoir exercer leur libre arbitre : peu d'injonctions claires et nettes. Quand on indique au collaborateur ce qu'on attend de lui, c'est avec « élégance » : il est invité à démontrer son engagement, on lui donne les moyens de faire ce qui lui est demandé (qu'il soit à même de). Seuls les devoirs édictés à l'intention des collaborateurs pris collectivement sont exprimés clairement : ils doivent incarner les valeurs du Groupe, définir les bons objectifs, donner le meilleur d'eux -mêmes. On croit assister à la mise en place d'un cadre contraignant par la direction et la collectivité réunis, tandis que l' « individu-collaborateur » évolue sur la scène ainsi définie. On l'encourage, on l'assure du soutien du Groupe, on le guide, on lui fournit les moyens de se développer. Ainsi, tout en le considérant comme un adulte libre de ses choix, on semble le « ménager » un peu comme si l'on craignait ses réactions. Le contraste est grand avec la version américaine dans laquelle les obligations de l' « individu-employé » sont clairement énoncées : Every employee is expected…, Making quality the commitment of every employee, etc., tandis que le soutien, les encouragements et la description d'un univers de travail propice à l'épanouissement s'adressent à tous, et non plus à l'individu seul. L'image qui vient à l'esprit n'est plus celle de l'enfant qu'on protège dans un univers défini pour lui, mais celle d'hommes, réunis au sein d'une communauté, qui agissent. La direction veut fournir a uniquely participative and supportive environment where people act out of convictions (la connotation morale et même religieuse de ce dernier terme participe à cette impression d'univers communautaire dans lequel évoluent des hommes d'action). On ne peut s'empêcher de penser au « Just do it » si fréquemment entendu aux États-Unis et à l'image de doers dont les Américains aiment à se doter. L'analyse des versions française et anglaise de ces documents professionnels – et de leurs « brouillons » – indique clairement que les scripteurs (et nous incluons sous cette dénomination les membres du comité de lecture), qu'ils s'expriment dans leur langue maternelle ou dans une langue seconde, ont projeté dans leurs discours des modes d'expression qui semblent propres aux univers professionnels – ou même sociaux – qui sont les leurs. Il convient cependant de s'assurer que tel est bien le cas. Deux étapes semblent nécessaires pour vérifier si les univers donnés à voir sont représentatifs du monde professionnel de ces deux pays : l'exploration d'autres chartes éthiques – documents en français pour les entreprises françaises, en anglais pour les entreprises américaines – afin de tester les résultats linguistiques obtenus, et celle de la littérature à la recherche de descriptions du management dans les pays concernés. Ne pouvant explorer tous les documents traitant le sujet et considérant que les aspects culturels ne sont souvent perçus consciemment que par les individus extérieurs à la culture en question, nous avons fait le choix de considérer des « regards croisés » : des Américains réagissant au contexte managérial français et réciproquement. Les recherches statistiques menées sur quelques chartes d'entreprises américaines montrent qu'elles s'adressent le plus souvent à « l'individu-employé » et que les obligations qui lui incombent lui sont clairement édictées – Every employee is expected to […] ou You must […] sont récurrents. Dans la charte d'IBM, par exemple, qui recourt à la 2 e personne, un tiers des 275 occurrences du pronom You introduit ou suit l'expression d'une obligation. De même dans le petit corpus rassemblé, 86 % des occurrences de each/every employee sont suivies d'une modalité déontique alors que les désignations collectives du personnel ne le sont que dans 22 % des cas. Définir clairement à l' « individu-employé » ce qu'il peut ou doit faire apparaît comme une pratique courante aux États-Unis. On peut y voir une influence du contexte juridique; un énoncé clair des obligations et des interdictions faites aux employés assure la protection de l'entreprise : seule leur responsabilité sera engagée en cas de problème ultérieur. Il n'en demeure pas moins que l'expression sans fard des obligations qui incombent à l'individu apparaît comme un discours normal. On ne peut parler de « management américain » sans mentionner son influence internationale. Les études empiriques menées par Ph. d'Iribarne (1989) montrent toutefois qu'on ne peut dissocier ce type de gestion du contexte social dans lequel il s'est développé. Les relations contractuelles sont omniprésentes aux États-Unis, ce que reflète la précision des documents circulant dans les entreprises sur les droits et les devoirs des employés. Alexis de Tocqueville, en son temps, voyait dans le contrat l'origine de la certitude qu'avait le citoyen américain d' être l'égal de n'importe quel dignitaire alors même qu'il était en position de subordination dans le monde professionnel. Le dicton australien « Jack is as good as his master » (Béal 1993 : 105) pourrait être une illustration plus proche de nous, quoique sous d'autres cieux, de cet état d'esprit. On peut dès lors comprendre qu'un énoncé clair des obligations qui incombent à l'individu ne saurait le perturber. Par ailleurs, l'employé devant, au terme du contrat, être jugé sur l'accomplissement des tâches qui lui ont été assignées, il est nécessaire de les lui communiquer clairement (Iribarne 1990 : 46). Le tableau qu'offrent les documents français consultés est plus contrasté : les obligations énoncées à l'égard des collaborateurs en tant que collectivité sont effectivement plus fréquentes (26 %) que celles qui s'adressent à l'individu (14 %), mais l'écart est moindre. La tendance à « feutrer » le discours de l'autorité se manifeste ici sous une forme un peu différente : le collaborateur est à la fois responsable de l'obligation énoncée et de sa mise en œuvre (Il s'interdit de, fait preuve de, s'abstient de, prend les mesures nécessaires). On peut voir dans ces formulations une autre manière de traiter le personnel comme un égal, quelqu'un qui assume ses responsabilités, et une illustration différente de la tendance de NPA à « voiler » l'autorité constatée. Nous n'avons toutefois pas pu trouver de codes aussi orientés vers l'action que les Principes de Lafarge et vérifier si la propension à mettre l'action à distance avait une portée plus générale. On en a cependant trouvé des échos dans les propos de cadres américains recueillis par Polly Platt, Américaine ayant entrepris d'aider ses compatriotes – et d'autres anglophones – à s'acclimater au contexte professionnel français. En effet, si ces cadres disent souffrir d'un certain manque de précision dans l'information communiquée (1993 : 202), comme dans la manière indirecte dont il convient de s'adresser à son subordonné (1993 : 222), ils évoquent également le goût français pour l'abstraction au détriment de l'action (1993 : 230-231), et le besoin de marge de manœuvre (1993 : 216) que manifestent les Français au travail. L'ouvrage revient par ailleurs, à plusieurs reprises, sur ce que l'auteure appelle « la séduction », et dont elle voit des manifestations à tous les niveaux de la société française. Après l'avoir clairement distinguée du terme anglais correspondant, elle insiste sur sa place importante dans la langue : « Séduction may be its most significant word » (1993 : 169). De l'exemple du professeur qui cherche à se faire aimer de ses élèves pour qu'ils tirent le meilleur parti de ses enseignements (1993 : 138), l'auteure passe à la nécessité pour un supérieur de convaincre son subordonné : « Above all, convince him that your project makes sense », dit-elle au manager américain déplorant de ne jamais obtenir exactement ce qu'il a demandé (1993 : 221). Il ressort de ses enquêtes que « […] the French approach to business and life in general is often less focused on the result than obsessed with how it is attained » (1993 : 233), ce que l'analyse des formes verbales des documents a montré. L'univers professionnel français perçu par ces Américains semble en cohérence avec celui que Nos Principes d'Action donnent à voir. À la fin d'un parcours complexe ayant mêlé l'approche contrastive de deux versions, voulues par la direction de l'entreprise comme des documents de référence identiques, et des aller-retour entre elles et les documents de travail les ayant précédées, nous pouvons conclure à l'impossibilité de s'abstraire du contexte linguistique et culturel dans lequel les documents sont produits et attester de l'importance de « la dimension sociale » dans le « fonctionnement linguistique » (Nyckees 1998 : 16). Nous voudrions insister en conclusion sur la richesse et la diversité des recherches que l'on peut faire, et qui restent à faire, dans le domaine des langues en situation de travail ou des langages professionnels. Étudier les discours à travers ce que les acteurs sociaux font avec le langage, et donc tenir compte de la part linguistique et de la part culturelle des activités communicatives, implique de cumuler les résultats des recherches qui se sont développées ces quarante dernières années, contrairement à ce que le récit chronologique de cet article pourrait laisser penser : les travaux de terminologie sont tout autant nécessaires que l'analyse des interactions verbales et les comparaisons interdiscursives. Mais procéder à des études contrastives de discours produits dans des situations identiques permet de mettre au jour des spécificités difficilement perceptibles dans un contexte unilingue; bien au-delà de terminologies particulières, on entre dans des problèmes de formulations représentatifs d'une certaine vision du monde, dont les locuteurs natifs n'ont pas nécessairement conscience. Et contrairement aux représentations des discours professionnels, scientifiques ou techniques, qui circulent trop souvent encore dans les milieux universitaires, les discours produits en situation de travail cristallisent davantage encore que ceux produits en d'autres lieux de langage les relations entre langues, cultures et sociétés. Dans la suite de ce qu'on a ici évoqué, il reste par exemple à croiser la place qui est donnée aux acteurs sociaux dans les documents qui régissent les relations entre acteurs avec les activités langagières des acteurs en situation telles qu'on peut les observer et les décrire. Et la mondialisation des échanges permet d'imaginer comment les situations plurilingues contribuent à l'émergence de savoirs nouveaux (Mondada 2005), y compris sur les langues-et-cultures et leurs fonctionnements .
Cet article relate l'évolution de la dénomination « langues de spécialité ou langues sur objectifs spécifiques » vers celles, courantes aujourd'hui, de « discours spécialisés » ou « discours professionnels ». On peut attribuer ces déplacements à des raisons internes aux sciences du langage et à l'enseignement des langues autant qu'à des facteurs externes découlant des mutations socio-économiques des sociétés contemporaines et de leur traduction dans de nouvelles technologies de communication ou une nouvelle organisation du travail. Les résultats de l'étude empirique menée sur les versions anglaise et française des principes d'action du Groupe Lafarge montrent que la tendance du monde professionnel à généraliser les échanges en anglais risque de masquer des différences culturelles bien réelles. Ainsi, par les choix s'opérant naturellement, souvent à l'insu même des locuteurs, ces deux versions, que leurs scripteurs voulaient et percevaient comme des documents identiques que seule la langue de formulation distinguait, donnent à voir deux environnements de travail très différents. De tels exemples, par les rapprochements qu'ils permettent entre des longues différentes dans une même situation de travail, apparaissent ainsi comme un lieu privilégié de recherche sur les relations entre langues, cultures et sociétés.
linguistique_10-0232823_tei_476.xml
termith-562-linguistique
Face à la croissance des informations produites à l'écrit sur supportinformatique, la demande est de plus en plus forte d'applications permettant deles exploiter. Les objectifs peuvent être de rechercher des informations dansles textes, de mieux les consulter ou de construire des applications ou desmodèles basés sur les connaissances qu'ils contiennent. Associer les textessources aux modèles conceptuels en assure une meilleure lisibilité etmaintenance. Les textes, supports d'échanges au sein d'une communauté techniqueou scientifique, sont en effet des sources de connaissances stabilisées dontl'exploitation en partie automatisée permet de recueillir rapidement un noyau deconnaissances structurées. Ils sont un point de départ pour identifier lestermes utilisés dans un domaine et le sens de ces termes à travers les relationslexicales qui les associent et les interdéfinissent. Les relations jouent doncun rôle capital pour accéder aux définitions des concepts tels que les acteursdu domaine les expriment dans les textes. C'est pourquoi nous nous focalisons sur la notion de relation sémantique etfaisons des propositions pour l'identification de ces relations en corpus. Notrepropos est de souligner les atouts d'une approche interdisciplinaire associantlinguistique et ingénierie des connaissances dans cette perspective. En effet ,il nous semble indispensable d'appuyer les démarches et outils de modélisationdes informaticiens sur des travaux de linguistique tant pour caractériser etrepérer des relations en corpus que pour les utiliser à des fins de modélisationconceptuelle. La référence linguistique permet, par rapport à des approchesstatistiques par exemple, de mieux aborder la sémantique des relations, et doncd'extraire plus rapidement une relation lexicale étiquetée entre des termes .Elle autorise également de traiter des corpus peu volumineux et moins homogènes .Dans cet article, nous montrons l'intérêt de disposer des indices fournis par lalinguistique pour trouver des relations entre termes utiles dans une visée demodélisation. Etudier le problème de la modélisation de relations conceptuelles à partir del'observation de relations lexicales en corpus permet d'aborder toutes lesfacettes de la sémantique de ces relations. A travers les problèmes soulevés ,nous voulons utiliser au mieux les résultats de la linguistique, de laterminologie, de l'ingénierie des connaissances ou de l'intelligenceartificielle. Pour cela, nous avons repéré les étapes significatives dans leprocessus qui va d'un texte à un modèle formel. Pour conduire chacune d'elles ,nous avons cherché à fournir des éléments de réponse, tirés de ces différentesdisciplines. La notion de marqueur, définie comme le moyen de repérer des formes linguistiquesfaisant partie de catégories prédéfinies (grammaticales, lexicales, syntaxiquesou sémantiques), est au cœur de l'étude. Leur observation et leur définition encorpus pour révéler des relations lexicales est l'objet de recherches enlinguistique. Les travaux les plus récents mettent l'accent sur la variabilitéde ces marqueurs en fonction du type de corpus, du domaine et du type de larelation. Leur utilisation systématique ne peut se faire qu' à l'aide d'unlogiciel qui automatise au moins leur projection sur un corpus. Nous présentonsle système Caméléon [1 ], qui s'appuie surl'utilisation de marqueurs pour rechercher des relations lexicales en corpuspuis guider leur intégration dans un modèle. Il facilite la mise au point et lerepérage de marqueurs spécifiques sur un corpus donné. Caméléon guide aussi laprojection de ces marqueurs sur le corpus pour repérer des relations lexicalesentre termes. Enfin, une interface de modélisation facilite l'interprétation desrelations lexicales en contexte et leur exploitation pour enrichir un modèleconceptuel. L'article s'organise donc autour de 3 parties. La première rappelle l'intérêt dese focaliser sur les relations sémantiques à partir de leurs traces en corpuspour construire des ressources sémantiques comme les terminologies ou lesmodèles conceptuels. La deuxième partie fait état de résultats en linguistiquede corpus relatifs à l'étude des relations conceptuelles et qui nous semblentintéressants pour la modélisation des connaissances. Enfin, dans la troisièmepartie, nous montrons comment ces principes linguistiques guident laspécification d'une méthode et d'un outil d'aide au repérage et à lamodélisation des relations conceptuelles : le système Caméléon. Comme l'ingénierie des connaissances, la terminologie peut viser l'objectif deconstituer des ressources décrivant plus ou moins précisément et formellementdes connaissances d'un domaine. Les résultats sont représentés différemmentselon les applications visées. Les formalismes de référence en la matière, lesréseaux sémantiques, peuvent en effet être vus soit comme de simplesmodélisations conceptuelles soit comme des systèmes formels. Dans tous les cas ,les corpus constituent des sources de connaissances de plus en plus utilisées ,et les relations sémantiques sont au cœur de la définition des termes ouconcepts. L'étude des relations en corpus devient donc une activité centralepour la construction de ces ressources. La terminologie et les sciences de la documentation ont doublement évolué ,tant par la nature des résultats produits que par les pratiques qu'ellesmettent en œuvre. Aujourd'hui, des relations explicites entre termes sont deplus en plus souvent intégrées aux terminologies pour compléter lesdéfinitions en langage naturel. Ainsi, la structure des terminologies setrouve enrichie d'un niveau conceptuel avec des relations sémantiques entreconcepts. Par ailleurs, la pratique terminologique accorde une plus grandeimportance aux textes, essentiellement sur support informatique. Ladéfinition des termes est désormais le résultat d'une analyse systématiquede l'usage des termes en corpus. De fait, les terminologues sont demandeursde nouveaux outils qui les aident à repérer des termes, puis à les associerà des concepts pour les définir. Ainsi, l'identification de termes et de relations sémantiques en corpusdevient un élément important de la pratique terminologique. En s'appuyantsur des textes, on espère construire la terminologie partagée par cettecommunauté, au-delà des différences individuelles. La difficulté est donc derepérer des relations jugées stables et consensuelles qui apparaissentexplicitement ou non dans les textes. Des validations liées aux expertisesdu domaine et à l'usage prévu de la terminologie sont ensuite nécessairespour en ajuster le contenu. En informatique, les relations conceptuelles sont utilisées pour représenterdes connaissances dans des réseaux sémantiques (Brachman 77). Ces réseauxfournissent une représentation graphique d'une conceptualisation deconnaissances, s'appuyant sur une structure dont les nœuds représentent desconcepts et les arcs traduisent des relations entre concepts. Une relationd'étiquette R entre deux concepts d'étiquettes A et B traduit que A et B ontla propriété d' être en relation par R. Par contre, les types de raisonnement possibles sur ces réseaux varient d'uneimplémentation informatique à l'autre (Kayser 1997). Finalement, le fait dene pas spécifier formellement la sémantique de ces réseaux a posé deslimites. Très vite, il est apparu important de différencier les conceptstraduisant des classes d'objets de ceux représentant des individus, lesrelations prenant un sens différent selon qu'elles relient des classes oudes individus. De plus, les étiquettes de relations ne suffisant pas à lesdistinguer, quelques relations privilégiées, dont la relation EST-UN entredeux classes, ont été définies formellement. En tant que mode déclaratif de représentation des connaissances, les réseauxsémantiques mettent l'accent sur la représentation des concepts ou desactions d'un domaine, plus que sur l'explicitation de l'algorithme quipermet de raisonner à l'aide de ces connaissances. De ce fait, ils sontalternativement considérés sous deux facettes. Tantôt ils sont vus comme unenotation commode pour représenter certains types de connaissances et lesmanipuler; tantôt ils sont utilisés comme un langage formel, prenant unsens précis et permettant une interprétation logique par un programme. Cettedichotomie des réseaux sémantiques en souligne tout l'intérêt dans notreperspective de modélisation à partir de texte. Il est commode de lesutiliser comme de simples notations graphiques à vocation d'interprétationhumaine dans un premier temps, les contraintes liées à la formalisationn'étant prises en compte que dans un deuxième temps. Ne pas formaliser d'emblée revient à choisir tardivement le modèle du mondeauquel on fait référence (Kayser 1997), c'est-à-dire la bonne approximationdu monde avec laquelle on pourra effectuer les raisonnements envisagés .Représenter ainsi les connaissances met en évidence la difficulté de choisiret de décrire convenablement les bons objets nécessaires pour rendre comptede connaissances et produire certains raisonnements. Lors de la constructionde modèles, ce travail de choix et de description des concepts est réaliséen partie à travers l'étude des relations, depuis leur expressionlinguistique jusqu' à leur formalisation. Ce processus ne peut être nisystématique ni automatique puisqu'il est complètement orienté par lafinalité de la modélisation. Dans la suite de l'article, en référence aux niveaux de connaissances deBrachman (1979) et repris par Newell (1982), nous marquerons cetteprogression par une différence de vocabulaire. Le terme relation conceptuelle désignera une relation sémantique en tantque notation prenant du sens pour un individu. Par opposition, une relation formelle sera exprimée dans un formalisme( comme les logiques de description) qui en assure une interprétationsémantique non ambiguë pour un système formel. Passer d'une relationconceptuelle à une relation formelle revient à affiner sa sémantique. Pourcela, on associe à la relation un mécanisme d'interprétation ou alors onspécifie sa signature, c'est-à-dire le type des concepts qu'elle peutrelier. Pour la relation EST-UN, l'interprétation revient souvent à gérerl'héritage des propriétés d'une classe vers ses sous-classes, puis às'appuyer sur ces propriétés et les relations hiérarchiques pour classer denouveaux concepts. Cette sémantique et son utilisation dans le raisonnementdépendent du langage de formalisation choisi. Nous ne prétendons pas exposer ici, à la place des linguistes, des résultatsétablis par leurs recherches sur l'étude des relations lexicales, mais plutôtmentionner, en tant qu'informaticiens, les principes sous-jacents à ces étudeset ce qui nous semble utilisable dans la perspective de la modélisationconceptuelle. En linguistique, il est admis de considérer que la langue répond à des règlesque l'on peut expliciter. La notion de marqueur traduit cette hypothèserelativement au repérage de relations sémantiques. On suppose quel'observation de certaines formes linguistiques entre deux ou plusieurséléments du lexique peut révéler un rapport de sens entre ces éléments. Ils'agit alors d'élaborer des marqueurs pour rendre compte précisément defonctionnement lexicaux et les associer à une interprétation sémantiquesystématique. Deux hypothèses sous-tendent cette approche : 1) lapossibilité, à travers des éléments de forme, d'accéder à du contenu; 2) lecontenu identifié est une relation binaire entre concepts. Un marqueur correspond à une formulelinguistique dont l'interprétation définit régulièrement le mêmerapport de sens entre des termes. Nous appelons relation lexicale le type de relation entre ces deuxtermes. Inversement, le marqueur caractérise la relation à laquelle il estassocié et, en poussant à l'extrême cette idée, on peut dire que l'ensembledes marqueurs d'un type de relation est une manière très explicite de luidonner du sens, plus que sa seule étiquette. En effet, les marqueurs mettenten évidence tout ce qui est commun à toutes les occurrences de la relation. Les marqueurs sont composés de mots de la langue et de symboles renvoyant àdes catégories grammaticales (SN pour Syntagme Nominal, Nom, Dét. pourDéterminant, Adj. pour Adjectif, etc.), à des classes sémantiques (i.e. NomOutil pour retrouver logiciel ,atelier, outil, plate-forme ,. ..) ou, plus rarement, à des rôlesargumentaux (agent, patient, objet, …). Par exemple, la formule linguistiquesuivante est un des marqueurs de la relation d'hyponymie (SN2 EST-UN SN1) : SN1 ET ADVERBE_DE SPECIFICATION SN2 où SN1 et SN2 sont des syntagmes nominaux, ET renvoie au mot " et ", etADVERBE_DE SPECIFICATION à une des expressions adverbiales suivantes : " plusprécisément ", " tout particulièrement ", " plus particulièrement ", " enparticulier ", " surtout ", " principalement ", " essentiellement ", " notamment " Il permet de retrouver entre autres la phrase suivante : On calcule la thermique de la partie haute du réacteur, et en particulier la température du toit. Cette phrase révèle une relation d'hyponymie entre les syntagmes nominaux thermique de la partie haute du réacteur et température du toit. L'étude des relations par les linguistes entre donc dans une perspectivesémantique. Il s'agit de rendre compte de régularités de la langue, deproposer des méthodes pour trouver de nouveaux marqueurs pour une nouvellerelation et de caractériser les corpus dans lesquels on les trouve. Lapertinence des marqueurs est validée en fonction de leur efficacité pourretrouver des contextes pouvant contenir des relations d'un certaintype. Pratiquement, les résultats de linguistique sur les marqueurs associés àdes relations lexicales sont bien avancés pour ce qui concerne lesrelations de méronymie et d'hyperonymie. Ainsi, les recherches surl'hyperonymie en français (A. Borillo (1996) en linguistique ou C. Jouis( 1993) dans SEEK en linguistique informatique), constituent desressources importantes de marqueurs de la relation est_un. De même, les articles de G. Otman (1996) ou A .Jackiewicz (1996) sur la méronymie fournissent des marqueurs lexicaux dela relation partie-tout en français. Cesmarqueurs permettent de définir des patrons de fouille de corpus. Deuxécoles ont cours à ce jour pour juger de leur validité : L'une fait de la régularité une hypothèse très forte, au point desupposer que les marqueurs d'un type de relation sont universelset pourraient être observés sur tout corpus; ces travauxétudient dans des textes très variés des relations elles -mêmesindépendantes des corpus : l'hyperonymie ou la méronymie. L'autre nuance cette idée et s'attend à trouver des spécificitésliées à la cohérence du corpus (domaine très technique, sujetprécis, etc.). Cette cohérence justifie l'attente de relationspropres à un corpus, voire la présence de comportementslinguistiques déviants (polysémies fixées sur un domaine ,nouveaux sens associés à certaines formes) par rapport auxconnaissances a priori sur la langue. Nous nous référons à la deuxième école, puisque nous travaillons sur descorpus dont nous cherchons à extraire un maximum de connaissances .L'idée est d'exploiter au maximum des marqueurs génériques, mais ausside les adapter et de repérer de nouveaux marqueurs pour des relationsspécifiques. C'est alors la démarche de repérage et de mise au point demarqueurs qui peut être considérée comme un résultat. Cependant ,l'informaticien se trouve parfois démuni pour mettre en œuvre ce typed'approche pour deux raisons essentielles : les marqueurs disponibles à ce jour sont éparpillés dans lalittérature, rarement répertoriés de manière systématique ycompris par les auteurs qui les ont trouvés ou utilisés; les contextes de validité des marqueurs ne sont pas toujourssuffisamment précisés, les linguistes considérant comme untravail de linguistique à part en entière l'évaluation demarqueurs connus ou la mise au point d'un nouveau marqueur surun corpus particulier. Finalement, le besoin se fait sentir d'une gestion plus systématique deces résultats, par leur capitalisation dans une base de données parexemple. Un des résultats de notre collaboration avec des linguistes de l' Équipede Recherche en Syntaxe et Sémantique (ERSS) de Toulouse est d'avoir misen évidence (Condamines 1999, Rebeyrolle 2000) qu'une hypothèsesous-tend l'observation et la définition de marqueurs en corpus et leurcapacité à révéler des relations lexicales. Il existe en effet, dans letriplet corpus / relation / marqueur, des liens de dépendance étroitsqu'il faut prendre en compte. La maîtrise de ces liens pourraitpermettre de disposer de repères afin de choisir des textes pertinentspour y chercher des types de connaissances (descriptives, opératoires ,etc.) en fonction des types de relations présentes. Les exemplessuivants illustrent ces différentes dépendances : Une même relation peut prendre de multiples formes et doncs'exprimer par différents marqueurs : par exemple, d'autresmarqueurs de la relation d'hyperonymie sont tous les N2 sauf det N1 et Det N1comme det N2 permettent de trouver la relation Coatis EST-UN outil dans la phrase : les connaissances causales jouent donc un rôle privilégié et leuridentification à l'aide d'un outil comme Coatis se révèle très utile. La présence d'un type de relation dans un corpus dépend dudomaine étudié : ainsi, dans un corpus de génie logiciel, onrelève la relation conditionne le débutde entre deux tâches, dont un des marqueurs (phase, étape, processus, activité, Nominalisation) + (Conj. de subordination temporelle) permetde retrouver la phrase suivante : Les activités liées à l'intégration débutent dès que le dossier deconception produit et le plan d'intégration produit sont acceptés. La validité d'un marqueur dépend du corpus : ainsi, des marqueursgénériques doivent être contraints pour être plus pertinents surcertains corpus alors que d'autres en sont absents. Desmarqueurs spécifiques ne se trouvent que dans certains types decorpus, comme le marqueur chez quiindique une relation partie-tout seulement dans les textes didactiques en sciences naturelles( Chez les primates, la mandibule a desmouvements verticaux). Bien sûr, il est illusoire de prétendre trouver toutes les connaissancesutiles à une application, et uniquement celles -là, dans les textes. Ceci aune double conséquence : d'une part, le processus de modélisation desrelations ne peut être totalement automatisé (à chaque étape, il fautdécider de la pertinence ou non d'une relation); d'autre part, d'autressources de connaissances, les spécifications du système à concevoir maisaussi des principes de modélisation (comme la normalisation) doivent êtrepris en compte pour décider de la définition et de la structuration deconcepts à l'aide des relations trouvées. Envisager la modélisation de relations conceptuelles à partir del'observation de relations lexicales en corpus permet d'aborder toutesles facettes d'étude de ces relations et, à travers les problèmessoulevés, d'utiliser au mieux les résultats des différentes disciplinesqui s'y intéressent. En effet, on peut repérer quatre étapessignificatives dans le processus qui va d'un texte à un modèle formel( figure 2) : caractériser les comportements linguistiques stables associés àdes relations lexicales, et utiliser ensuite cettecaractérisation pour repérer des relations spécifiques encorpus; à partir de l'expression lexicale brute d'une relationspécifique, décider d'une relation ayant une étiquette donnéeentre deux termes; le fait de la nommer revient à la classerdans une typologie de relations; passer ensuite du niveau linguistique au niveau conceptuel, endécidant du devenir de cette relation au sein d'un réseau deconcepts associés par des relations étiquetées; cette relationcontribue ainsi à la définition des concepts et à leurdifférenciation par rapport à d'autres; représenter ces relations conceptuelles selon une représentationqui en garantisse une interprétation unique et non ambiguë parun système formel. L'étape (a) comporte en fait deux facettes : un travail purementlinguistique conduit à définir les marqueurs d'un point de vuelinguistique, à l'aide de primitives sémantiques, syntaxiques etlexicales; les utiliser pour repérer des relations en corpus supposel'opérationnalisation de ces marqueurs et l'utilisation d'un logicieladapté. Or trouver la bonne forme informatique d'un marqueur est loind' être trivial. Sa qualité conditionne la capacité du marqueur àretrouver un type de relation dans un corpus. De même, la manière deconduire les étapes suivantes ne peut émerger que d'une confrontationinterdisciplinaire. Une méthode a été proposée et expérimentée par A. Condamines et J .Rebeyrolle (2000) pour construire un réseau conceptuel à partir detextes selon des principes linguistiques. Elle consiste à exploitersuccessivement les résultats de deux outils d'analyse de textes, unextracteur de termes, Lexter, et un concordancier pour le repérage derelations, Sato. Nous nous intéressons bien sûr aux propositions faitesquant au repérage des relations, étape jugée cruciale pour déterminer siun terme sera ou non retenu dans le modèle. Ces auteurs insistent sur la nécessité de différencier l'étude desrelations génériques qui peuvent a priori seretrouver dans tout corpus de l'étude des relations spécifiques à cecorpus. Il s'agit de commencer par utiliser des connaissances générales( des marqueurs) sur les relations, de les projeter sur le corpus pourles évaluer, puis de les adapter si besoin et de les tester à nouveausur le corpus. Ce travail très dynamique permet d'aboutir à la bonneformulation de patrons de fouille pour des relations générales quisoient efficaces sur ce corpus, c'est-à-dire ramenant peu de mauvaisexemples (bruit réduit) tout en étant le plus exhaustif possible( silence réduit). Au passage, la lecture des occurrences permet aussi de repérer desrelations syntagmatiques spécifiques au corpus et d'identifier lesmarqueurs associés, qui sont mis au point selon le même principeitératif de tests par projection. Ce processus de généralisation supposedes compétences linguistiques pour parvenir à une bonne caractérisationdes marqueurs à partir de la lecture des occurrences. L'exploitation de marqueurs pour la recherche de relation en corpusrevient à s'appuyer fortement sur l'hypothèse de régularité pourretrouver des connaissances, plus précisément des relationsconceptuelles et les concepts reliés. La terminologie et l'informatique( traitement du langage naturel et ingénierie des connaissances )détournent ainsi les marqueurs de leur rôle initial pour en faire desoutils de recherche de connaissances spécifiques et non pour rendrecompte de l'expression de ces connaissances. Dans la suite, nous marquerons la différence entre la formule linguistique et le schémainformatique qui correspond à son opérationnalisation. Comme lesoulignent A. Condamines et J. Rebeyrolle (2000) ou P. Séguéla (1999) ,l'opérationnalisation directe de marqueurs donne des patrons peu précis( ils ramènent des exemples erronés et en oublient une grande partie) etdes résultats peu satisfaisants en corpus. Outre l'ajustement dumarqueur au corpus, il faut trouver le schéma le plus efficace de cemarqueur spécifique. En effet, un même marqueur sera opérationnalisédifféremment en fonction des capacités du logiciel utilisé et du corpus .Le type d'outil de traitement automatique des langues et la richesse dulangage informatique dont on se dote ont un impact significatif sur letype de recherche possible sur le corpus. Par exemple, l'analysesyntaxique préalable du corpus peut permettre de définir des marqueursutilisant des indications syntaxiques. Pour un langage et un outil donnés, la mise au point d'un marqueur sur uncorpus consiste donc à fixer le schéma qui obtient les meilleursrésultats après évaluation et à décider du type de relation qu'ilrévèle. Projeter un marqueur consiste ensuite à lancer un programme quirecherche toutes les occurrences du schéma dans le corpus, lesenregistre ou les présente à l'utilisateur. La définition de patrons defouille vraiment efficaces requiert des choix, méthodologiques ettechniques, et représente un travail complexe associant informatique etlinguistique, comme celui décrit par J. Rebeyrolle et L. Tanguy (2001 )dans cet ouvrage. Plusieurs types d'outils informatiques permettent d'utiliser la notion demarqueur pour extraire des relations de corpus sur des textes enfrançais. Tous s'appuient sur un processus semi-automatique : ilsretournent des contextes contenant potentiellement une relation, quenous appelons hypothèses de relations dans la suite. Chaque contexte doitêtre lu et validé pour plusieurs raisons : un marqueur n'est jamaiscomplètement fiable, il se peut que le contexte retourné ne contiennepas la relation cherchée; ensuite, suivant l'application visée et lemodèle à construire, la relation signalée n'est soit pas valide, soitpas pertinente. Parmi ces outils, on trouve les concordanciers, qui cherchent toutes lesoccurrences en corpus d'une série de mots fixés par l'utilisateur .Certains de ces systèmes, comme SATO (Daoust), sont plus performantsparce qu'ils utilisent la caractérisation de mots par leurs propriétéssyntaxiques ou leur famille sémantique. En effet, ces systèmess'appuient sur des corpus analysés et étiquetés syntaxiquement, ainsi que sur des dictionnaires sémantiquesregroupant certains mots du domaine par famille sémantique. Basés sur lemême principe, Yakwa (Tanguy 2000) et plus récemment Linguae (Szulman2001) sont spécialisés pour définir des schémas à partir de formuleslinguistiques marquant des relations. Ils permettent en particulier degérer les marqueurs utilisés et leurs résultats. D'autre part, il existe des outils dédiés à la recherche de certainstypes de relations à partir de marqueurs : SEEK (Jouis 1993) pour lesrelations EST-UN et PARTIE-DE, Prométhée (Morin 1999) pour la relationEST-UN, Coatis (Garcia 1998) pour les relations de causalité entreévénements. En fait, ces logiciels s'appuient sur une des deux approchessuivantes, tout à fait complémentaires : partir de marqueurs pour trouver des relations lexicales et ,ainsi, des couples de termes en relation; des systèmes commeSEEK ou Coatis disposent d'une base de marqueurs génériquesreconnus pertinents sur différents types de corpus, mais nonmodifiables; partir de couples de termes dont on sait qu'ils sont en relation( ou plus précisément de la traduction linguistique de concepts) ,ou de l'étude de termes fortement co-occurrents (de segmentsrépétés), pour étudier la régularité de leurs contextes et endégager des marqueurs spécifiques au corpus étudié. C'est lemode de fonctionnement de Prométhée, qui recherche des couples àpartir de l'étude statistique de cooccurrences de termes, et deLIKEs (Rousselot et al. 1996), quirecherche des segments répétés. L'utilisation successive de ces deux approches définit un cycle derepérage de marqueurs et de relations propres au corpus. Il sert de baseen partie à la méthode et au logiciel Caméléon présenté dans la suite .L'originalité de Caméléon est de couvrir la totalité du processus demodélisation, depuis la mise au point des marqueurs jusqu' àl'enrichissement du modèle conceptuel à l'aide de concepts et derelations extraits des textes. Le système Caméléon aide au repérage de relations dans des textes techniqueset à leur intégration dans un modèle. Il a été développé dans le contexte dusystème REX de gestion de retour d'expérience, dans lequel un ensemble demodèles du domaine organise termes et concepts pour faciliter la recherched'information dans des textes rédigés pour enregistrer la mémoire d'unprojet. Caméléon comprend une méthode et un logiciel support qui assistenttrois types d'opérations (Figure 3) : la mise au point d'une base de marqueurs et de relations adaptés à uncorpus à partir d'une base de marqueurs génériques et de leur étudeen corpus; leur projection sur le corpus pour localiser des hypothèses derelations lexicales entre termes. la validation de ces hypothèses en contexte et leur sélection pourenrichir un modèle conceptuel. Les marqueurs génériques sont tirés de travaux de linguistique sur lesrelations d'hyperonymie et de méronymie, alors que les marqueurs spécifiquessont définis à l'aide de patrons trouvés par l'utilisateur à partir del'étude des contextes de cooccurrence de termes en relation. En effet, ladémarche prévoit de travailler sur des textes techniques, dans lesquels ons'attend à trouver des phénomènes linguistiques typiques : (a) desinteractions spécifiques entre les objets du domaine qui se traduisent pardes types de relations propres à ce corpus; (b) des usages spécifiques encorpus, qui fixent le sens de termes polysémiques, et aussi qui permettentde trouver des marqueurs spécifiques de relations génériques. Ces phénomènesjustifient la phase de mise au point de marqueurs. Pour faciliter la modélisation, Caméléon permet ensuite de reprendre leshypothèses de relations lexicales en contexte grâce à une interfaced'enrichissement de modèle conceptuel. Dans sa version actuelle, ce modulepermet de compléter des modèles Rex. Ainsi, le passage de la relationlexicale à une relation conceptuelle prend en compte la place du conceptconcerné par une relation dans le modèle existant, et les relations qu'ilentretient déjà avec d'autres concepts. Une relation conceptuelle n'estajoutée que si la relation lexicale permet de mieux définir le concept demanière cohérente avec les concepts qui lui sont directement associés etavec l'objectif pour lequel le modèle est conçu. La personne chargée de lamodélisation donne ainsi à l'indice linguistique une pertinencecognitive. La définition de Caméléon est essentiellement motivée par la nécessité dedisposer d'un environnement qui couvre tout le processus de modélisation ,depuis l'analyse de textes techniques à l'aide de logiciels d'extractionjusqu' à l'intégration dans un modèle des connaissances tirées de ces textes .En effet, à ce jour, les travaux de traitement automatique des langues etd'ingénierie des connaissances étaient fortement découplés. D'un côté, ontrouve les systèmes d'extraction de termes ou d'aide à l'extraction derelation mentionnés en partie 3. D'un autre côté, on dispose deplates-formes ou de langages de modélisation de réseaux conceptuels. Or lefait de viser une application finalisée oblige à mieux intégrer ces deuxcomposantes, à anticiper le fait que les résultats servent dans le cadred'une modélisation dès l'analyse de textes. C'est là l'originalitéessentielle des propositions méthodologiques et du logiciel Caméléon. Caméléon répond donc à des besoins de deux ordres, fondamentaux etpratiques : Fournir des hypothèses de relations riches sémantiquement ,c'est-à-dire en faisant des propositions sur l'étiquette de larelation ainsi que sur les termes arguments. Cette volonté a conduitd'une part à choisir une approche basée sur l'utilisation demarqueurs au détriment d'autres méthodes comme l'étude desdistributions de contextes autour des termes, et d'autre part àutiliser un extracteur de terme au préalable de la recherche derelations. De plus, la forme de ces hypothèses doit être commodepour faciliter la modélisation. Il a été décidé de thésauriser les résultats en linguistique sur lesrelations d'hyperonymie et de méronymie dans une base de marqueursgénériques, applicable sur tout corpus. Cette base doit assurer unegestion pérenne de marqueurs proposés par la linguistique, lessynthétiser, les rendre accessibles et facilement modifiables. Les travaux sur les relations dans les textes techniques ont justifiéde pouvoir spécialiser les marqueurs et les types des relationsextraites du corpus : la définition de nouveaux marqueurs et denouvelles relations doit donc être simple et même favorisée. Pourcela, on soumet au cogniticien des contextes de cooccurrences determes dont on sait qu'ils sont déjà en relation. Ces contextespeuvent révéler des marqueurs ou des relations spécifiques. Proposer un langage simple pour l'expression des marqueurs : pourcela, un langage d'expressions régulières a été défini. Cettevolonté a aussi conduit à ne pas s'appuyer sur une analysesyntaxique préalable du corpus. D'autres raisons motivent aussi cechoix : au moment de spécifier Caméléon, aucun analyseur n'étaitfacilement disponible, de qualité suffisante pour traiter des corpusnon accentués et très techniques, comme ceux du CEA. Tracer le processus de validation des marqueurs dans des fichiers :il semble nécessaire de conserver les différentes formes testéespour la mise au point d'un marqueur, l'évolution de l'ensemble desmarqueurs et de l'ensemble des relations pour un corpus donné. Présenter les résultats (hypothèses de relations) dans le contexte dumodèle afin de décider de les y insérer. Le choix des termes / ladéfinition de nouveaux concepts dans un modèle ne se fait pas parseule lecture des termes, mais aussi en fonction des relations déjàexistantes dans le modèle et en fonction de l'application cible. La base de marqueurs de relations génériques de Caméléon ainsi que lesmarqueurs et relations spécifiques sont gérés dans des fichiers structurés .Caméléon permet d'adapter l'association entre marqueurs et relations àchaque corpus étudié. Les relations sont représentées par leur seuleétiquette et organisées au sein d'une hiérarchie. Cette hiérarchie offre uncadre pour ajouter de nouvelles relations ou pour associer relations etmarqueurs. Les marqueurs sont désignés également par une étiquette etcaractérisés par un schéma informatique, une expression régulière simple quisera interprétée lors de la projection sur le corpus. Pour un corpus donné ,la mise au point d'une base de marqueurs comprend deux étapes : l'évaluationet l'adaptation de marqueurs génériques; le repérage et l'évaluation denouveaux marqueurs pour des relations génériques ou spécifiques. Cette étape consiste à juger, pour chaque marqueur de la base générique ,si la relation associée est présente ou non dans un échantillon de sesoccurrences pour décider de conserver, rejeter ou modifier ce marqueur .L'interface de la figure 4 est le support de cette validation : la listedes couples trouvés par le marqueur est proposée à droite et, pourchacun d'un, on peut lire l'occurrence contenant le marqueur (cadre degauche) puis décider de valider ou non cette hypothèse de relation( boutons en bas à droite). Le nombre d'hypothèses de relations validéessur le nombre d'occurrences consultées parmi celles trouvées par lemarqueur permet d'associer une précision chiffrée au marqueur. Sa valeurest un repère pour guider le cogniticien qui doit décider de retenir ounon ce marqueur. La base générique comporte des marqueurs de relations d'hyperonymie (33marqueurs), de méronymie et ses sous-types (122 marqueurs répartis en 7types de relations). Il est important d'avoir en tête que certains deces marqueurs sont très peu occurrents en général, que d'autres sontplus ou moins productifs selon le type de corpus. Enfin, certainsmarqueurs méritent d' être spécialisés pour être plus performants sur uncorpus donné. Lors des expériences que nous avons menées, les basesvalidées comprenaient près de la moitié des marqueurs initiaux. L'état courant du modèle ainsi que l'étape de validation des marqueursgénériques fournissent des couples de termes en relation : ce sont lesconcepts déjà reliés dans le modèle, et les termes présents dans lesoccurrences validées par le cogniticien. Ces couples et les relationsqui les relient sont enregistrés dans un fichier qui sert d'entrée àCaméléon pour rechercher leurs contextes de cooccurrence (phrases danslesquelles deux termes reliés sont présents). Le cogniticien peutensuite, pour chaque type de relation ou chaque couple de terme, scruterles contextes à la recherche de nouveaux marqueurs, ou d'une meilleureformulation de marqueurs génériques, ou de marqueurs de nouveaux typesde relations. Il enrichit alors la base de marqueurs validés et projetteces nouveaux marqueurs sur le corpus. Il les évalue et peut trouverainsi de nouveaux couples de termes. Un processus cyclique se met enplace, qui se stabilise assez rapidement dès que l'on ne trouve plus denouveau couple en relation. L'exploration de corpus pour y rechercher des connaissances peut se faireselon de multiples perspectives, qui se différencient par des paramètresaussi variés que la taille des corpus étudiés, le fait de savoircaractériser ce que l'on cherche ou non, le besoin de rendre comptefidèlement du texte ou non, la nature du modèle à construire à partir dutexte, etc. Pour chacune d'elles, les exigences sur les qualités desmarqueurs sont spécifiques : recherche d'information : ces techniques tolèrent des marqueurs peuprécis sur les relations, mais précisant les classes sémantiquesrecherchées; apprentissage automatique à partir de texte : dans ce cas, onsouhaite disposer de marqueurs très fiables, robustes, déjàvalidés; acquisition de connaissances à partir de textes : l'intervention d'uncogniticien pour valider et filtrer les résultats des marqueurs enfonction de l'application cible autorise une moindre fiabilité deceux -ci; modélisation du contenu de textes, pour construire une base deconnaissances terminologiques par exemple : dans cet objectif ,l'analyse linguistique, très poussée, est garante du contenu dumodèle final; les marqueurs sont systématiquement remis en questionpar observation de toutes leurs occurrences en corpus. Par contre, dans tous les cas, l'exploitation des occurrences des marqueursrequiert un filtrage. Ce filtrage doit pouvoir tenir compte des termesprésents dans les occurrences, de leur qualité (donc de la précision dumarqueur qui les a trouvées) ou encore d'un type de relation. Il permet devalider les hypothèses de relations selon différents points de vue quivarient au fur et à mesure de cette validation. On peut travailler parexemple sur toutes les hypothèses trouvées pour un terme donné, de la plusprécise à la moins précise, pour une relation donnée. Le paragraphe suivant décrit comment les relations lexicales peuvent servir àalimenter un modèle conceptuel, et le problème que soulève leur validation .Nous illustrerons ensuite l'utilisation de Caméléon pour valider lespropositions de relations trouvées par marqueur puis les intégrer dans unmodèle conceptuel. La décision d'intégrer une relation conceptuelle dans un modèle à partirde l'observation en corpus d'une relation lexicale ne peut être prisedirectement. La complexité de la décision est due autant àl'hétérogénéité du corpus qu' à la distance qui sépare le corpus del'application visée. Pour bien comprendre la nature de cette décision ,décomposons -la en fonction des contextes, parfois contradictoires, quipeuvent être pris en compte. En fait, il s'agit de filtres qui viennentréduire les chances de conserver une relation observée. Nousdifférencions (fig. 6) l'énoncé, c'est-à-dire laphrase ou le paragraphe englobant l'occurrence, le texte auquel elle appartient, et le corpus qui regroupe différents textes. Nous supposons le textehomogène et cohérent, ce qui le démarque du corpus, qui, lui, l'estmoins. L'application vient se rajouter comme unquatrième filtre, pragmatique, combiné à la contrainte de conserver lacohérence du modèle. De fait, l'interprétation d'une relation observée comprend une séried'analyses : une validation de la relation dans l'énoncé dont elle estissue : le marqueur doit bien renvoyer à la relation, et lestermes désigner des concepts étudiés; un passage de l'énoncé au texte : on cherche à généraliser autexte la relation validée localement, selon les conditionsde vérité des autres connaissances déjà établies à partir dumême texte; une validation en corpus : relativement direct si le corpusest homogène (les textes sont cohérents et donc lesrelations restent valides), le passage du texte au corpuspeut être complexe (( 1) sur la figure 6); du corpus au modèle : il s'agit de tenir compte de l'étatcourant du modèle et des objectifs d'utilisation du modèle( (2) Fig. 6) pour décider d'y ajouter une relation trouvée ,tout en respectant la cohérence du modèle (3) et lescritères de modélisation retenus jusque -là. Ce processusrevient à une normalisation. Terminologies et modèles conceptuels se démarquent d'ailleurs par ledegré de cohérence des connaissances qu'ils représentent : leterminologue pourra s'arrêter à une validation locale du terme parrapport à des termes voisins, alors qu'en ingénierie des connaissances ,les concepts introduits dans un modèle doivent maintenir la cohérenceglobale de ce modèle. Caméléon propose de construire le modèle selon un processus dirigé par lapersonne qui modélise en fonction des objectifs de l'application, etfacilité par les indices que sont les hypothèses de relations extraitesautomatiquement. Des relations lexicales pour amorcer la construction du modèle :il s'agit ici de s'appuyer sur des relations générales le pluspossible et sur les concepts centraux du domaine. Ces conceptssont choisis par la personne qui modélise, avec l'aide d'unexpert ou en fonction de critères statistiques d'occurrence destermes désignant ces concepts. Comme le suggèrent A. Condamineset J. Rebeyrolle (1998), les relations paradigmatiques, commeEST-UN, fournissent un point de départ solide à la modélisation .Elles permettent de construire une ossature du modèle. Lafiabilité des marqueurs associés à cette relation facilite leprocessus de validation, même avec peu de connaissances sur ledomaine étudié. Les marqueurs de méronymie fournissent égalementun point de départ stable, mais déjà plus difficile àintégrer. Des relations lexicales pour définir des termes et décrire desconcepts : partant d'un concept présent dans le modèle, onétudie les occurrences des termes qui le désignent dans lecorpus lorsque ces occurrences contiennent des marques derelations lexicales. L'interprétation des occurrences permet dedécider d'ajouter ou non de nouvelles relations conceptuellesdans le modèle, et éventuellement de nouveaux concepts (ceuxreliés par ces relations au concept étudié). Ces concepts sontdéfinis au cycle suivant, toujours grâce aux relations lexicalestrouvées en corpus. Pour les linguistes, ce processus cyclique comporte également lerepérage de nouvelles relations et marques linguistiques derelations en corpus. Dans le contexte de la modélisation, toutesles relations spécifiques doivent être identifiées dans la phasede mise au point des marqueurs, qui incite justement àrechercher de nouveaux marqueurs. Pour un corpus et un objectif de modélisation donnés, Caméléon suggère doncde mettre au point une base de marqueurs et de types de relations pertinentspour ce corpus, de les projeter puis d'en valider une à une les occurrencespour en décider de l'intérêt avant de les intégrer ou non dans le modèleexistant. Dans Caméléon, la projection des marqueurs correspond à une commande quilance l'exploration du corpus à l'aide de la base validée sur le corpusétudié. Chaque identification d'un marqueur donne lieu à une hypothèsede relation, pour laquelle on enregistre le marqueur qui a permis de latrouver, le texte trouvé et le nom de la relation. Le fichier desrésultats est organisé par relation et par marqueur. Il peut êtreexploité directement ou via l'interface prévue dans Caméléon. Dans tousles cas, ces hypothèses doivent être validées une à une pour savoir sielles donnent lieu ou non à l'ajout de connaissances dans le modèle. La validation des relations suit le principe de jugement de validité etde pertinence de l'hypothèse développé au 5.2.2. Pour le filtre final dumodèle, Caméléon oriente le cogniticien de manière à l'inciter àappliquer le principe de différenciation homogène du concept : il doitposséder un trait commun avec son père, un autre avec ses frères, et aumoins un trait le différenciant de son père et d'autres de ses frères .Pour cela, le concept est présenté avec ses frères et son père selon letype de relation étudié dans l'interface principale du processusd'enrichissement (figure 7). Le cogniticien choisit de compléter lemodèle autour d'un concept, mentionné au centre de l'écran, et pour untype de relation particulier. La fenêtre affiche alors son concept père( à gauche), ses concepts frères (au-dessus) et ses concepts fils (àdroite) pour cette relation (relation ascendante et descendante )présents dans l'état courant du modèle. La fenêtre présente aussid'autres concepts candidats à être des fils de ce concept pour cetterelation : ce sont les hypothèses trouvées pour ce terme et cetterelation par Caméléon (liste en bas à droite sur la figure). Le cogniticien doit ensuite consulter une à une ces propositions pour lesvalider ou les rejeter. Pour cela, une autre fenêtre permet de lire lecontexte de la relation, et confirmer les termes et les relationseffectivement présents ou non dans ce contexte. Le cogniticien peutalors définir de nouveaux concepts à partir des termes reliés, et denouvelles relations. Il poursuit ensuite la structuration du modèle àpartir d'un autre concept, ou par l'étude d'un autre type de relation .Il faut noter que le modèle peut aussi être enrichi de concepts et derelations non trouvés par Caméléon. Nous avons montré les enjeux relatifs au repérage puis à la modélisation derelations, ainsi que l'intérêt d'aborder ce problème par le biais de marqueurslinguistiques de relations, étudiés dans un cadre interdisciplinaire. Unecollaboration interdisciplinaire de ce type, s'appuyant sur un véritable échanged'études et de savoir-faire pour contribuer à une problématique commune, nous apermis de mettre au point une méthode et un outil, Caméléon. Ce système estadapté aussi bien à une étude linguistique des marqueurs (grâce au cycle despécialisation des marqueurs et des relations pour un corpus donné) qu' à untravail de modélisation de connaissances à partir de textes (grâce à l'interfacede validation des relations en contexte). Nous envisageons de poursuivre cetravail en vue de mieux intégrer nos résultats. Par exemple, l'application pourlaquelle le modèle est construit sera prise en compte plus tôt pour sélectionnerdes marqueurs ou des relations plus pertinents à étudier. Une autre perspectiveserait aussi d'affiner la sémantique des relations, encore embryonnaire. Par ailleurs, l'outil Caméléon étant disponible, nous pouvons pousser plus loinplusieurs pistes de recherche : valider / évaluer des marqueurs et leur schéma linguistique surdifférents types de corpus : une première étude a été menée sur quatretypes de corpus pour les marqueurs de la base générique; elle peut êtreapprofondie en évaluant plus précisément l'impact del'opérationnalisation du marqueur; envisager une analyse syntaxique préalable, et un travail sur un corpusétiqueté; ce type d'analyseur étant disponible, les modalités dedéfinition et d'opérationnalisation des marqueurs pourraient êtreélargies; intégrer ce type de logiciel à un environnement de modélisation deconnaissances à partir de texte; pour l'instant, les principes deCaméléon seront repris en un module dans l'environnement Terminae deconstruction de terminologies et d'ontologies (Biébow et Szulman ,2000) .
La modélisation des relations sémantiques à partir de leur observation en corpus requiert une collaboration interdisciplinaire associant linguistique et ingénierie des connaissances. L'étude des manifestations linguistiques des relations dans les énoncés débouche sur la définition de marqueurs. La mise au point de patrons informatiques permet d'automatiser partiellement la recherche de traces de relations sur un corpus. Notre expérience de collaboration interdisciplinaire a débouché sur la mise au point d'un système d'aide à l'extraction et à la modélisation de relations à partir de corpus, Caméléon, que nous présentons.
linguistique_524-02-11445_tei_article_97_CDG.xml
termith-563-linguistique
Le français oral présente un phénomène assez rare dans les langues du monde, une consonne finale de mot se prononce à l'initiale du mot suivant si ce dernier commence par une voyelle : [lεgrãzm] les grands͡ hommes. En dehors de cette condition, cette consonne ne se prononce pas : [lεgrãpεt] les grands/ poètes. Si l'enchaînement syllabique proprement dit – le fait de prononcer une consonne finale à l'initiale de la syllabe suivante lorsqu'elle est dépourvue d'attaque – est assez commun (une petite ͡ amie), le sandhi externe qui rend muette, ou modifie, une consonne finale lorsqu'elle ne peut s'enchaîner est, quant à lui, assez peu répandu. Il correspond à un phénomène phonotactique particulier qui consiste à modifier la forme phonique des initiales ou finales de mot selon qu'ils sont morphosyntaxiquement autonomes, ce qu'on appelle l'état isolé, ou qu'ils entrent dans une composition étroite, ce qu'on appelle l'état inclus. Sous cette analyse classique du sandhi, on dira que l'entrée lexicale six par exemple possède trois formes de réalisation phonique, une forme à l'état isolé ou autonome : j'en veux six [sis ], et deux formes à l'état inclus : j'ai six͡ amis [siz ], j'ai six/camarades [si ]. Le non voisement de la consonne finale maintenue en toute position marque la forme forte, à l'inverse, sa chute préconsonantique, ou son voisement devant initiale vocalique, marque la forme incluse. On notera au passage que la forme pleine, ou forte, qui apparaît à l'état isolé, n'est pas liée à la position de finale absolue mais à la position de finale syntagmatique. A l'oral on aura bien ainsi j'en veux six, des bonbons à l'orange, avec [sis] forme forte et non avec *[si] forme incluse. De plus, le paradigme numéral fait apparaître sous sandhi plusieurs comportements qui ne présentent pas de régularité phonologique dans les trois contextes pertinents à considérer (forme forte isolée – finale ou non –, forme incluse prévocalique, forme incluse préconsonantique). Ceci rend difficile un traitement phonologique qui mettrait en œuvre un voisement prévocalique ainsi qu'une troncation préconsonantique et finale. Le tableau 1 présente les données. Devant voyelle on a ainsi un voisement catégorique (trois, six, dix), variable (neuf), ou un non voisement (quatre, cinq); devant consonne on trouve une troncation catégorique de consonne (six, dix), une troncation variable (cinq), ou une absence de troncation (quatre, sept, huit, neuf). C'est cette absence de régularité phonologique et de conditionnement contextuel clairs qui plaide pour une analyse en sandhi où c'est la force du lien entre constituants qui motive le processus. Si une analyse phonotactique de ce type, qui fait fond sur la nature de la composition syntagmatique, était assez courante en phonologie du français jusqu'aux approches structuralistes, la phonologie générative inaugure un renversement complet de perspective. Comme je l'ai montré ailleurs, de Schane (1967; 1968) et Dell (1973) jusqu' à Encrevé (1988), en passant par un nombre considérable de travaux et d'analyses, la liaison est dorénavant vue comme un phénomène unique et unitaire relevant d'une stricte circonscription phonologique (Laks 2005). Ce que Morin et Kaye (1982) appellent la position classique n'est certes pas ignoré, mais l'analyse proposée est dorénavant étroitement phonologique dans son mécanisme comme dans ses motivations, les autres dimensions n'intervenant à titre rien moins qu'accessoire. La morphologie, le lexique, la syntaxe, la sémantique, l'inscription sociolinguistique, la diachronie, les fréquences d'usage, l'orthographe ou les normes orthoépiques d'apprentissages ne pèsent plus que comme contexte d'un processus qui reste fondamentalement compris comme la réalisation ou l'absence de réalisation d'une consonne latente, selon qu'elle trouve ou pas à s'ancrer dans le squelette syllabique, et/ou à s'enchaîner J'ai montré ailleurs (Laks 2005) qu'un tel traitement n'était satisfaisant ni au plan synchronique ni au plan diachronique et qu'il était nécessaire de revenir à une analyse en sandhi pour laquelle c'est la construction morphosyntaxique et la cohésion du rapport syntagmatique qui explique et motive la liaison, la phonologie syllabique et la présence d'une attaque vide n'en définissant que la virtualité. Les exemples suivants en constituent des illustrations. [si] est la forme faible en liaison avec troncation devant consonne, [siz] la forme faible en liaison avec voisement devant voyelle, [sis] la forme forte immune au segment suivant : 2) j'ai six amis à Lille : [siz] 3) j'ai six camarades à Lille : [si] 4) des amis, j'en ai six à Lille : [sis] 5) des amis, j'en ai six dans le Périgord : [sis] 6) des amis, j'en ai six grands et trois petits : [si] 7) des amis, j'en ai six, grands et petits : [sis] 8) des amis, j'en ai six énormes et trois fluets : [sis] 9) six énormes mastodontes et trois fluets sont mes amis : [siz] Je n'entrerai pas ici, faute de place, dans une analyse syntaxique détaillée. Il suffit de noter le parallélisme entre la force de la cohésion syntactico-sémantique et l'apparition de la forme liée (incluse). La forme forte (isolée) n'apparaît que lorsque cette cohésion est affaiblie ou inexistante. En 2 et 3 le numéral préposé au nom se lie si l'attaque est vide. Le voisement de la consonne finale est le signe d'une cohésion particulièrement forte. En 4, la présence d'une attaque vide ne suffit pas à enclencher une liaison cohésive entre le syntagme verbal et le syntagme prépositionnel. Ce qui se marque par la présence de la forme forte isolée dont la voyelle ne voise pas. L'exemple 5 confirme la présence de la forme forte invariable, ici devant consonne. En 6, la cohésion entre le numéral préposé et le nom est forte, c'est donc la forme liée qui apparaît, sans consonne devant initiale consonantique. Mais en 7, la construction appositive, pourtant phonologiquement identique à 6, relâche le lien et c'est la forme isolée qui apparaît nécessairement. Enfin, si en 9 la construction du syntagme nominal lie étroitement le numéral à l'adjectif, induisant la forme de liaison (donc voisée), en 8 c'est beaucoup moins le cas et la forme forte peut apparaître. Sans qu'il soit nécessaire de poursuivre plus avant, on se convaincra qu'une analyse, même très sophistiquée, des seuls mécanismes et contextes phonologiques impliqués ne peut rendre raison de cette phénoménologie, pourtant banale en français. Une analyse strictement limitée au plan phonético-phonologique ne parvient pas mieux à expliquer la variabilité interne du phénomène, caractéristique pourtant indépassable de la liaison en français. En effet, les variables sociolinguistiques externes (diachroniques, diatopiques, diaphrastiques) étant tenues constantes, la liaison reste pourtant un phénomène intrinséquement variable : dans le même discours, le même locuteur, au même moment peut faire la liaison puis, après une rupture intonative et une reprise immédiate, ne plus la faire : « C'est dans la légalité que moi -même et mon gouvernement avons͡ assumé [applaudissements] avons/assumé le mandat exceptionne l … ». On comprend immédiatement qu'aucune analyse phonologique stricte ne pourra expliquer une telle variation intrinsèque liée à la lecture normale du groupe auxiliaire-participe dans le premier cas et à la présence d'un ictus intellectif à l'initiale du participe dans le second. Pour comprendre la motivation linguistique de cette variation, il faut prendre en compte un grand nombre de facteurs et de niveaux d'analyse (rythmique, prosodie, sémantique discursive et pragmatique), non au titre d'un contexte externe influant sur un mécanisme phonologique constant, mais comme véritable moteur et explication de la variation observée. Pour rendre compte de la phénoménologie particulière du sandhi externe qu'est la liaison en français, j'ai donc proposé une analyse sensiblement différente de l'analyse phonologique générative et post générative. J'en rappelle ici à grands traits l'architecture (cf. Laks 2005). Dans cette analyse, comme chez Bybee (2001), la liaison est abordée dans les termes d'une ' Grammaire de Construction ' (Goldberg 1995; 2003) (Goldberg et Jackendoff 2004) qui implique une conception nouvelle du lexique mental. Celui -ci n'est plus regardé comme une simple suite dictionnairique d'entrées morphologiquement minimales à composer entre elles, mais comme un ensemble structuré de connaissances relationnelles qui, sur une base statistico-probabilistique expérientielle, stocke, de façon éventuellement redondante, de vastes compositions fortement récurrentes pouvant aller jusqu'au syntagme, voire la phrase. Les fréquences positionnelles, les collocations régulières, les constructions routinisées, qui forment l'expérience du locuteur structurent ainsi ce lexique mental et y sont directement représentées. On voit l'intérêt d'une telle approche pour traiter de groupes dont la cohésion morphosyntaxique et sémantique se trahit phoniquement sous la forme d'une liaison. On expliquera ainsi que « le temps͡ aux plus belles choses se plait͡ à faire un affront », avec liaison comme chante Georges Brassens, ne soit pas plus choquant que « de temps͡ en temps » ou « Il s'y est jeté corps͡͡ et âme » qui correspondent tous à des constructions stabilisées avec liaison, stockées comme telles. Par contraste, avec les même lexèmes, ce qui se construit syntagmatiquement au fil du discours, et n'est donc pas stocké comme construction stabilisée, respecte toujours la règle qui veut qu'en français une terminaison /s/ qui n'exprime pas le pluriel ne lie jamais : * « le temps a changé »; * Il a sauvé son corps et son âme. Ainsi en construction lexicalisée corps lie au singulier : « il s'y est jeté corps͡ et biens » mais en construction non lexicalisée, s'il lie bien au pluriel : « il a jeté les corps͡ et les biens à la mer », il ne peut jamais lier au singulier : * « il a jeté le corps͡ et le bien de Jean à la mer ». Dans cette même logique, les construction numérales régulières 2-9 sont lexicalisées et stockées en tant que telles, donc avec forme liée de six tandis que les constructions plus ou moins disloquées de la même série sont discursivement construites et ne sont donc pas stockées. Logiquement, c'est la forme isolée de six qui y apparaît. Dans l'approche constructionnelle que j'ai défendue, quatre dynamiques, éventuellement contradictoires, pèsent sur la liaison et contribuent à en définir la phénoménologie particulière. La première dynamique de la liaison concerne l'enchaînement. On sait qu'il s'agit d'un phénomène extrêmement ancien en roman dont Niedermann (1953, 173) n'hésitait pas à reconnaître les prodromes dès le latin archaïque. Contrairement aux langues germaniques et saxonnes qui connaissent la coupe forte qui isole précisément les mots, le français présente une prosodie particulière qui impose l'enchaînement généralisé, enchaînement consonne-voyelle, dont la liaison est un cas particulier, mais également enchaînement voyelle-consonne, voyelle-voyelle et consonne-consonne. Ce sont ces enchaînements qui déclenchent éventuellement les resyllabations si caractéristiques du français. L'enchaînement généralisé n'est ni une caractéristique récente, ni une caractéristique populaire de la diction française. Il en constitue, dès l'origine, l'aspect le plus remarquable : Et en cela réside la raison pour laquelle la langue française paraît aussi brève et rapide à la prononciation pour des gens originaires d'autres nations : en effet, après avoir ôté les consonnes, aussi bien dans les mots isolés que celles de la fin des mots, en fonction des mots qui suivent, ils joignent les voyelles des mots qui précèdent aux consonnes du début des mots suivants quand ils lisent et quand ils parlent, sans faire de pause, sauf seulement pour marquer l'accent. On prononce ainsi cinq, six mots, voire plus, comme s'ils ne formaient qu'un seul mot, ce qui rend plus difficile la maîtrise de cette langue, mais la rend en revanche plus agréable à l'oreille, car ils se débarrassent des consonnes si celles -ci produisent un son discordant, et font couler leurs phrases rondement. Palsgrave (1530, 413). Cet enchaînement généralisé a pour conséquence majeure que la notion même de mot délimité et stable, si elle a un sens dans une langue quelconque, ne peut en tout cas s'appliquer au français. Le français ne connaît à l'oral que des groupes intonatifs, groupes accentuels, groupes de souffle, selon les auteurs; toutes entités qui correspondent à une longue suite de morphèmes sans césure interne d'aucune sorte, suite que l'on a coutume de désigner sous le nom de mot phonologique. On aura garde de confondre la notion de mot phonologique avec celle de mot grammatical ou lexical : c'en est la négation même. Dire que le français ne connaît à l'oral que des mots phonologiques, c'est précisément dire que la notion banale de mot n'y a aucun statut et que les tronçons auxquels nous a accoutumés l'écriture n'y apparaissent pas. Contrairement en effet aux langues dites nexus qui conservent une identité phonétique aux éléments qu'elles agrégent à une unité principale, le français est une langue cursus qui fond les éléments composés en une unité unique indifférenciée. Il s'ensuit des homophonies souvent relevées : les petits pois sont verts/ les petits poissons verts, un port très joliment peint/ un portrait joliment peint, un nain valide/ un invalide etc. Il s'agit à nouveau d'une dynamique extrêmement archaïque qui se marque par l'amuïssement puis la chute de toutes les consonnes finales, de mot, de groupe, de période etc. La prosodie à finale descendante qui était déjà caractéristique du latin y induisait une ultième faible ou affaiblie en regard de la pénultième (ou de l'antépénultième), laquelle réalisait l'ictus accentuel terminal. La conséquence en est le privilège à la syllabation ouverte assuré, soit par la resyllabation de la consonne faible à l'initiale du mot suivant, soit par la chute complète de celle -ci. Cette dynamique que l'on pourrait nommer PASDECODA à la manière des optimalistes est, on le sait quasiment universelle. Dans le domaine roman elle s'exprime de plusieurs manières, amuïssement puis mutation consonantique, amuïssement puis chute, resyllabation, métathèse etc.. Cette dynamique de syllabation ouverte peut aussi bien favoriser l'enchaînement généralisé lorsque la simplification de la coda a lieu en position préconsonantique (en français une consonne intervocalique est spontanément ouvrante, V.CV, alors qu'une consonne préconsonantique est fermante, VC.CV) que le défavoriser lorsqu'elle a lieu en position prévocalique. Comme le note Martinet (1964, 328), elle correspond à un universel qui privilégie la création et la stabilisation de suites consonne-voyelle. Comme on le voit, la liaison avec resyllabation de la consonne finale à l'initiale du mot suivant peut souvent correspondre à un optimum d'équilibre entre la dynamique d'enchaînement généralisé et la dynamique de syllabation ouverte. De plus, la dynamique de syllabation ouverte est elle -même contrainte par une fidélité à l'information morphosyntaxique. Ceci explique que les consonnes finales qui remplissent une fonction flexionnelle (nombre, temps, personne etc.) résistent fortement à la chute, favorisant ainsi la resyllabation qui satisfait au mieux, et conjointement, enchaînement, syllabation ouverte et conservation du matériel segmental fonctionnel. C'est donc cet équilibre entre dynamiques contradictoires qui explique et motive la liaison en français, tout comme il explique et motive les solutions parallèles qui apparaissent dans le domaine roman. Si à l'oral la notion même de mot est en français plus que sujette à caution, il n'en va pas de même dans la tradition grammaticale académique et dans l'orthographe qui en découle. L'autonomie et la délimitation graphiques des lexies, et spécialement celle des morphèmes grammaticaux, procède plus, chez Estienne (1557) par exemple, de l'imitation de Varon ou de Denys que d'une analyse fonctionnelle du français. Comme le rappelle utilement Catach (1968), l'orthographe commence avec l'institution d'un principe de séparation des mots et avec celui de leur représentation stable. On sait que les premiers siècles de l'histoire du français ont connu l'affrontement souvent très violent, des tenants du principe phonétique, comme Meigret, opposés aux orthographistes et aux étymologistes, comme des Autels (Cf. Brunot 1966). De la victoire des seconds découlent des limites de mots souvent absurdes, pourquoi s'en aller mais s'enfuir, s'envoler mais s'en venir ? Du strict point de vue linguistique, « Il y a longtemps qu'on a fait remarquer que, si le français n'avait pas de graphie traditionnelle, il y a beaucoup de chances pour que quelque explorateur linguiste venu d'un autre continent soit tenté d'écrire en un seul mot, jlaluidonne, ce qu'on orthographie en fait en quatre mots. » Martinet (1965, 47). Mais il ne suffit pas de dénoncer l'illusion du mot sur laquelle se fonde l'orthographe du français, il faut aussi prendre en compte l'effet proprement cognitif qu'a la fixation d'une identité visuelle stable pour chaque unité linguistique. Dans des formations sociales comme les nôtres où aucun locuteur ne peut, peu ou prou, échapper à la forme graphique, même de façon totalement passive, la segmentation visuelle des mots et leur délimitation constituent des savoirs expérientiels nécessairement intégrés à la compétence linguistique des sujets. C'est pourquoi j'ai avancé (Laks 2005) qu'une troisième dynamique, totalement contradictoire aux deux précédentes, pèse sur l'oralisation de la liaison en français : le stockage d'unités visuelles segmentées comme des mots. C'est cette prégnance singulière de la forme visuelle des mots, et à travers elle de l'orthographe, qui explique la situation d'équilibre particulière de la liaison. Je n'y reviens pas ici. La phonologie syllabique qui permet de circonscrire les sites de liaison possibles (consonne finale flottante précédant une attaque vide) ne peut expliquer la tripartition bien connue des liaisons en liaisons impossibles, variables et catégoriques telle qu'elle est illustrée en 10. (10) a) Impossible : *le petit enfant͡ était endormi (Cf. le petit enfant tétait endormi) *l'univers͡͡ immense *le temps͡ est beau aujourd'hui b) Variable : pendant͡ un long moment des hommes͡ illustres des temps͡ anciens il vend͡ à l'étal (Cf. il vente à l'étal) c) Catégorique : des͡ enfants nous͡ avons le petit͡ enfant endormi très͡ important Cette tripartition invalide une explication par le contexte phonologique. En effet, le même segment /s/, dans le même contexte final de mot devant initiale vocalique, induit une liaison catégorique (10c), variable (10b) ou encore la prohibe rigoureusement (10a). On en conclut que le plan phonologique et l'analyse segmentale contextuelle ne définissent qu'une virtualité de liaison dont l'actualisation est réglée à un autre niveau. Les contraintes morphosyntaxiques qui pèsent sur la liaison sont connues (Morin et Kaye 1982) et se repèrent aisément. La liaison est catégorique lorsqu'elle se met en place depuis une catégorie morphosyntaxique seconde (auxiliaire, catégorie régie ou modifieur antéposé) vers une catégorie principale (tête) comme en 10c. Elle est au contraire variable lorsqu'elle est postposée à une catégorie principale comme en 10b. Elle est prohibée lorsque la consonne /s/ ne marque pas le pluriel comme en 10a. On aura reconnu le locus particulier des positions proclitiques dont on sait qu'en latin et dans l'ensemble de la Romania il correspond à des frontières de constituants particulièrement labiles (Clédat 1917). En français, les constructions proclises, épithètes et autres, en bref toutes les constructions dans lesquelles les éléments d'un syntagme précèdent la tête (éléments régis ou modifieurs), forment avec ce dernier une seule unité accentuelle, rythmique et prosodique. C'est ce qui explique et motive l'enchaînement syllabique généralisé dont le sandhi externe n'est alors qu'une conséquence. A l'inverse, l'adjonction à droite d'une catégorie principale construit une relation syntaxique moins forte qui permet l'autonomie prosodique et rythmique, voir la pause légère. C'est donc la force particulière du lien syntaxique préposé qui explique que les consonnes finales s'y soient maintenues lorsque l'initiale vocalique suivante leur offrait une attaque vide permettant la resyllabation. A ce locus proclitique dans lequel les consonnes finales ont mieux résisté à la simplification généralisée des codas, il faut ajouter le caractère fonctionnel des consonnes qui s'y rencontrent. Les consonnes finales qui marquent le nombre ou la personne en position proclitique lient obligatoirement (10c). Sous enchaînement généralisé, ceci a conduit de nombreux phonologues à dire que du point de vue fonctionnel, le nombre ou la personne étaient portés en tête de mot, le pluriel de ami étant zami, et la personne de avons étant zavons. La liaison préposée est ainsi le signe de la stabilisation d'une construction proclise lexicalisée. C'est ce que souligne avec force Gougenheim (1938, 57-60) « Ce que nous venons d'écrire laisserait croire qu'il existe en français une flexion en nombre réelle du substantif et de l'adjectif. Or la règle que nous avons énoncée est purement graphique : l's du pluriel a cessé de se prononcer au XVII e […] il est impossible de dire, en entendant un substantif ou un adjectif isolé, s'il est ou non du pluriel. […] L's final n'étant prononcé qu'en liaison, avec le son z, on peut dire que les substantifs et adjectifs à initiale vocalique ont tendance à avoir un z préposé comme caractéristique du pluriel : […] le z de liaison [… ], fait corps au point de vue phonétique non avec le mot qui précède, mais avec celui qui suit » On notera de façon incidente que cette double motivation, construction proclise et motivation morphosyntaxique fonctionnelle, explique pourquoi la catégorie des mots outils (pas, mais, très etc.) ne liaisonne plus de façon catégorique (Encrevé 1988). L'absence de motivation fonctionnelle explique le comportement récent de ces proclitiques dont de nombreux phonologues ont remarqué qu'ils étaient désormais à liaison variable (c'est pas/ important, mais/ alors). Pour conclure, dans l'analyse que j'ai proposée, la liaison correspond à l'équilibre dynamique, synchronique et diachronique des quatre tendances potentiellement contradictoires que je viens de rappeler : La dynamique d'enchaînement généralisé qui tend à construire de vastes groupes intonatifs et rythmiques au sein desquels les constituants morphologiques perdent toute autonomie phonologique. Il s'agit d'une dynamique de cursus. La dynamique de simplification des codas syllabiques par troncation généralisée des consonnes finales ou préposales. Il s'agit d'une dynamique de type PASDECODA. La dynamique graphique qui stabilise des unités visuelles bien délimitées et invariantes. Cette ortho graphie induit une dynamique mémorielle proprement cognitive de l'identité invariable du mot. La dynamique morphosyntaxique qui protège de la troncation les consonnes fonctionnelles marquant le temps, le nombre ou la personne. Cette dynamique est plus active en position proclise que postclise. Ce dispositif théorique permet alors d'analyser la cohésion syntaxique. La liaison marque la stabilisation et la lexicalisation, totale ou partielle, des constructions. La liaison fournit ainsi au syntacticien, au morphologue ou au sémanticien un indice fort de figement ou de semi figement puisque le plan phonique porte alors la trace matérielle de l'étroitesse du lien unissant les constituants considérés. Quoi qu'il en paraisse, l'analyse des liaisons obligatoires en constructions lexicalisées n'est pas nouvelle. C'était déjà le dispositif proposé par exemple par Damourette et Pichon (1911-1927, §193 et suiv.) qui distinguaient mots francs et serfs, et, au titre des muances ligatives, traitaient la liaison effectuée comme le signe d ' un état construit stabilisé. Avec la plupart de leurs prédécesseurs, et nombre de leurs successeurs, ils analysaient le français comme ce que nous avons appelé ci-dessus une langue cursus dans laquelle les mots ne constituent pas des unités autonomes. Au sein du groupe de souffle (e.g. leur rhèse), la force des liens syntaxiques, sémantiques et même pragmatiques qui organisent la suite des constituants organise seule les processus phonologiques et les supplétions morphologiques qui apparaissent. Cette motivation de la liaison par la force de la relation syntagmatique est soulignée par Delattre (1966, 40) : « C'est l'union syntaxique très forte entre certains mots qui a maintenu ' l'enchaînement ancien '. […] Premier principe et seul nécessaire : la liaison se fait dans la mesure où l'usage a consacré l'extrême étroitesse d'union de deux mots ou classes de mots ». Mais si la liaison consonantique n'est rien d'autre que l'accident phonique qui marque dans tel contexte syllabique précis la force de l'enchaînement généralisé propre au français, le domaine propre de cet enchaînement n'est pas aisé à circonscrire. Les paramètres syntaxiques en sont souvent extrêmement fins et instables, induisant des analyses au cas par cas. S'agissant du mot phonologique, du groupe de souffle ou du domaine accentuel, selon le nom que l'on attribue à l'unité d'oraison, on a souvent remarqué que la définition en était au mieux circulaire, au pire vide : en français, est un domaine accentuel l'unité qui reçoit un accent et en règle la place, est un groupe de souffle ce qui s'émet d'un seul tenant prosodique et rythmique, est un mot phonologique ce qui ne présente pas de césure interne etc. Ces difficultés sont liées à des tentatives de définition se limitant aux plans prosodiques, rythmiques, accentuels, phonologiques, morphologiques ou syntaxiques. Or comme le rappelle Grammont (1933, 128, également 143, 416), en français « C'est le sens, non la grammaire, qui détermine les [groupes] : autant d'idées simples, autant de [groupes accentuels] ». Une analyse des motivations de telle liaison dont, rappelons -le, la dynamique d'enchaînement et la phonologie syllabique ne définissent que la virtualité, implique donc de prendre en compte l'ensemble des plans linguistiques et de porter une attention particulière aux plans syntaxiques, sémantiques et pragmatiques qui la constitueront comme catégorique, variable ou interdite. Mais à l'inverse, cette difficulté peut se révéler productive : la phénoménologie des liaisons en français offrant à l'analyse sémantique ou syntaxique un critérium indépendant. C'est ce dernier point que j'illustre à présent par quelques exemples. Les deux phrases suivantes n'ont pas le même sens : dans cette boite il y a vingt͡ et un tickets où la liaison catégorique induit un sens massif (e. g. vingt͡ et un est un constituant lié comme vingt-quatre). En revanche, dans cette boite, des tickets, il y en a vingt /et un que j'ai mis à part où la forme forte isolée de vingt sans consonne de liaison donne un sens comptable discret : vingt tickets d'une sorte, un d'une autre. L'apparition de la forme forte isolée, sans consonne de liaison, est donc l'indication d'une construction sémantique spécifique, la même qui s'observe régulièrement dans le calcul à haute voix : vingt/ et trois font vingt-trois. On sait que dans un marchand de draps͡ anglais, la liaison qui reste pourtant variable, indique un lien adjectival entre draps et anglais, tandis que son absence induit plutôt une interprétation dans laquelle anglais modifie marchant (de draps). C'est cette même relation qui distingue la construction lexicalisée un vieil aveugle, qui désigne un aveugle âgé, de la relation discursivement construite un vieux aveugle, où le focus porte sur une personne âgée, par ailleurs aveugle. Ce dernier exemple à morphologie supplétive vieux/vieil, illustre à nouveau l'existence de trois formes lexicales pour lesquelles j'ai argumenté ci-dessus : deux formes faibles liables (vieux et vieil) dont la sélection est phonologiquement réglée (un vieil͡ aveugle, un vieux͡ paralytique), et une forme forte autonome (un vieux/ aveugle, un vieux/paralytique). Les constructions dans lesquelles la liaison indique un lien constructionnel fort et qui sont particulièrement fréquentes ont tendance à être lexicalisées comme telles. C'est par exemple le cas des constructions épithètes pour Clédat (1917). Un grand͡ arbre où la liaison est catégorique et où apparaît la forme faible à consonne finale grand, est lexicalisée sous la forme [grand͡ x ]. Elle est à distinguer des formes postposées non lexicalisées où c'est l'entrée grand sans consonne de liaison qui apparaît nécessairement : * un arbre grand͡ et majestueux est impossible. Pour rendre compte de ces lexicalisations liées à la fréquence, les grammaires de construction s'intègrent aux ' approches liées à l'usage ' (cf. Barlow et Kemmer 2000) qui tâchent à modéliser la probabilistique constructionnelle au sein même du lexique. C'est ce savoir lexical fin et cette modélisation probabilistique qui peuvent seuls expliquer que de temps͡ en temps lie catégoriquement alors qu ' en temps͡ et en heure, ne lie que très variablement, ces expressions étant pourtant toutes deux figées. Ce savoir lexical peut être fortement corrélé aux usages particuliers de tels ou tels groupes sociaux. Ainsi, lorsqu'on chante Baudelaire avec la musique de Duparc, on lie le plus souvent aimer͡ à loisir, mais on ne lie pas aimer/ et mourir où la copule permet une césure rythmique. La lexicalisation des constructions fréquentes est, on le sait, fortement liée à l'histoire de la langue. Synchroniquement, la liaison postposée à une catégorie principale est impossible si elle s'appuie sur une consonne lexicale, donc non fonctionnelle : *le temps͡ était compté, *l'univers͡ immense. Pourtant la construction lexicalisée il travaille nuit͡ et jour fait apparaître une liaison catégorique postposée s'appuyant sur une consonne lexicale (/t/). Il faut en rechercher la source dans la diachronie qui a figé l'expression alors que dans la forme discursivement construite la liaison est bien catégoriquement interdite : il travaille la nuit/ et le jour. Il en est de même, pour les mêmes raisons, dans l'expression i l s'y est jeté corps͡ et biens où il s'agit pourtant d'un /s/ singulier qui lie obligatoirement alors qu'en construction discursive, si la liaison de pluriel est bien variable il a jeté les corps͡ et les biens, la liaison sur consonne lexicale reste impossible *il a jeté le corps͡ et le bien de Jean à la mer. Le même phénomène de lexicalisation liée à l'usage ou à l'histoire s'observe dans accent͡ aigu qui lie variablement tandis qu ' accent/arrogant ne lie jamais. Si la lexicalisation, ou le figement, dans des usages généraux ou spécifiques, parvient à éclairer un certain nombre de faits, elle ne peut les éclairer tous. Ainsi, on analysera aisément, selon les arguments précédents, on naviguait vent͡ arrière avec liaison obligatoireet *sur le bateau, on avait le vent͡ arrière où la liaison est impossible. Mais, si un long͡ été s'analyse comme expression antéposée lexicalisée où la construction [long x] sélectionne, comme dans le cas de grand ci-dessus, la forme faible liable, avec consonne finale, de long/ en large est bien lexicalisée sans liaison, c'est-à-dire avec la forme forte sans consonne finale. Ce sont donc l'histoire, les usages et les fréquences qui seuls peuvent expliquer certaines idiosyncrasies aujourd'hui parfaitement stables comme nez/ à nez où la liaison est aujourd'hui prohibée alors qu'elle est obligatoire dans vis͡ à vis. Il en est de même pour pied/à pied qui ne lie jamais alors que pied͡ à terre lie toujours.Certaines séries présentent une acceptabilité scalaire conduisant à renforcer la crédibilité d'un apprentissage statistique et d'un stockage lexical des cursus comme tels. Il en est ainsi par exemple de la série pot͡ aux roses (figé, catégorique,) pot͡ à lait, pot͡ à eau (variables), ?pot͡ à bière, *pot͡ à vin (impossible), pot͡ au noir, (figé, catégorique), *pot au rouge, *pot à tabac (impossibles) S'agissant des contraintes plus proprement sémantico-pragmatiques qui conditionnent la liaison, une dernière série d'exemples permettra d'en illustrer quelques unes. Ainsi, vas͡ -y voir s'interprète comme une seule idée et la liaison est alors obligatoire lorsqu'il a le sens de tente !, mais vas/y voir sans liaison s'interprète uniquement comme un locatif avec le sens vas voir là !. Pour autant, la distinction locatif avec y non lié vs non locatif avec y lié n'est pas totalement stable. Dans allez͡ y comprendre quelque chose la liaison est très variable et peut n' être pas réalisée. La valeur est pourtant non locative. A l'inverse dans allez/y prendre quelque chose qui est clairement locatif, la liaison est bien impossible. Les finales verbales en /z/ sont très liantes, quel que soit le style de parole. Ainsi foutez͡ -y trois tonnes de sable dans ce trou lie obligatoirement comme foutez -y sur la gueule, que y soit interprété comme le locatif ou comme la forme contracte de lui. De même dans foutez -y moi trois tonnes de sable ce trou où l'interprétation contracte est plus difficile. Dans les trois cas, le sens est clairement locatif mais à l'inverse de vas/y voir, la liaison est obligatoire. Je ne saurais conclure ce trop bref survol de quelques unes des dynamiques qui pèsent sur la liaison en français sans évoquer une dernière série de contraintes qui, pour bien connues et bien documentées dans la littérature phonologique qu'elles soient, sont trop souvent passées sous silence dans les analyses modernes. Il s'agit des contraintes de très bas niveau, contraintes eurythmiques et euphoniques, dont le rôle n'est jamais négligeable. On sait ainsi que la longueur syllabique pèse sur la force du lien syntaxique et, partant, sur la liaison. On a régulièrement aujourd'hui neuf͡ ans ([ nœvã ]) avec forme faible incluse et donc voisement de la consonne de liaison, comme dans neuf͡ hommes ([ nœvm]), mais neuf͡ années ([ nœfane ]) et neuf͡ amis ([ nœfami ]) avec forme forte et non voisement de la consonne. Dès que la longueur syllabique est supérieure à un, la forme forte isolée est substituée à la forme faible incluse : neuf͡ heures ([ nœvœr ]) mais neuf͡ heureux͡ hommes ([ nœvœrœzm]). Le risque homophonique pèse également, [nœvane] appelle une interprétation neuve année, tout comme [nœvami] appelle le féminin neuf amies (neuve amie reste possible). Dans une langue cursus à enchaînement généralisé comme le français, le risque cacophonique n'est jamais bien loin. Il explique l'impossibilité de lier dans *trois͡ héros ([ trwazero] = trois zéros) alors que trois͡ héroïnes est parfaitement régulier et catégorique. De même il a beaucoup͡ été (il a beaucoup pété) s'évite, alors que il a beaucoup͡ appris ne pose pas de problèmes. Ce sont enfin des tendances eurythmiques et les dangers d'une cacophonie qui limitent le nombre de liaisons successives possibles. Ainsi, Nous donnerons͡ aux pauvres présente une liaison variable sans difficultés, de même aux͡ uns͡ et aux͡ autres avec pourtant trois liaisons successives. Mais, nous donnerons͡ aux͡ hommes avec deux liaisons consécutives s'avère difficile à cause du [zozm ], quant à nous donnerons͡ aux͡ uns͡ et aux͡ autres avec toutes les liaisons, cela exige un tempo et une scansion particulièrement lente, laquelle ne parvient qu' à rendre difficilement possible nous͡ offrirons͡ aux͡ hommes͡ honnêtes͡ affamés͡ et transis. En diction rapide le zozotement est garanti. C'est ce style par trop liaisonant qui est, fort à propos, raillé par le bon sens populaire : vous ici quel zazard je vous croyais zo zoo ! Au terme de ce survol des contraintes de tous ordres qui pèsent sur l'actualisation de la liaison en français, on aura compris qu'une telle analyse dynamique plaide contre une conception étroitement modulaire qui ségrégue et autonomise chaque dimension. Fréquence, structure du lexique, phonétique de bas niveau, phonologie syllabique, morphologie, syntaxe, sémantique et pragmatique constituent les dimensions minimales d'une analyse de la liaison qui doit encore prendre en compte simultanément la diachronie et la forme graphique. C'est au prix d'un traitement global et réunifié des dimensions grammaticales qu'on a quelques chances, me semble -t-il, d'approcher la systématique des usages, de décrire et d'expliquer le savoir linguistique que chaque locuteur exhibe et maîtrise spontanément .
En phonologie générative et post générative, la liaison est un phénomène strictement phonologique. Cette position jamais défendue auparavant apparaît extrêmement réductrice. Dans une approche de type grammaire de construction (Bybee 2000), un grand nombre de liaisons dites obligatoires relèvent de l’organisation complexe du lexique et de la morphologie. Dans le modèle présenté, trois dynamiques agissent contradictoirement : simplifier par allègement les codas syllabiques finales ; conserver les finales portant une indication de genre, de nombre ou de personne, et assurant le liage interne des constructions (enclitiques) ; intégrer la forme visuelle du mot en contexte. C’est l’équilibre synchroniquement complexe et diachroniquement instable entre ces trois dynamiques qui explique le caractère hétérogène, composite et variable de la liaison en français contemporain. Outre son caractère explicatif, une telle approche permet d’arborer la phénoménologie de la liaison dans un cadre renouvelé et conduit à traiter la question globale des consonnes finales, qu’elles soient fixes ou de liaison, dans une perspective cognitive où vision, phonologie, morphologie, syntaxe et sémantique interagissent.
linguistique_11-0058885_tei_779.xml
termith-564-linguistique
« Car en effet » … gare au pléonasme diront d'aucuns. Non, assurera -t-on avec comme garants les meilleurs auteurs : en effet, loin de redoubler le connecteur justificatif, affirme la véracité de ce qui est donné comme preuve. Sous la querelle normative transparaît le problème du statut de en effet : connecteur mais non coordination ? connecteur ou adverbe ? pour quel apport sémantique, et dans quel rapport au syntagme nominal grammaticalisé ? Le français moderne (FM) dispose, pour relier des énoncés successifs sans les intégrer, de deux types d'outils que l'on conviendra d'appeler connecteurs : les coordonnants et des adverbiaux, les premiers formant une classe fermée, les seconds une classe semi-ouverte, dont la liste varie d'une grammaire à l'autre. Malgré la proximité sémantique entre éléments des deux types (mais/pourtant, donc/par conséquent, car/en effet), force est de maintenir la distinction, vu certains critères distributionnels, particulièrement l'agrammaticalité des séquences coordination + coordination : * Et or, *Mais or, *Et car, et en revanche la possibilité d'avoir : c ar en effet, mais pourtant, donc par conséquent (car, mais, donc étant toujours en première position) (Piot 1988). De nombreux adverbiaux connecteurs sont constitués d'un syntagme prépositionnel : en/par/de/à + X (substantif, participe, adverbe ou préposition) : en effet, en fait, en réalité, en vérité, en somme, en définitive, en revanche, en principe / par conséquent, par contre, par ailleurs / de fait, de toute façon / au fait, à la rigueur, au fond, à première vue, à l'inverse, paradigmes qui posent la question de la compatibilité entre la préposition et l'élément X (en conséquence, par conséquent vs* à conséquent, * de conséquent; par contre, au contraire vs * de contre ,* en contraire) (Combettes 1994), la question aussi du rapport entre le sémantisme de la préposition et celui du connecteur. Tout juste peut-on dire, me semble -t-il, en première approximation, que les connecteurs utilisant en / par / de ouvrent uniquement des énoncés de « continuation » et non des énoncés d' « ouverture » (Harweg 1971), ce qui n'est pas toujours vrai des connecteurs en à. En effet, qui relève de cette formation, se distingue par son emploi bien attesté dès la fin du XIV e siècle alors que de fait, en fait (inconnu du Littré) ne cessent de fonctionner comme constituants pour se grammaticaliser en connecteurs qu'aux XIX e et XX e siècles, apparemment (Blumenthal 1996), de même que de toute façon, en principe, à la rigueur, au fond, par extraordinaire, à première vue, à l'inverse (Combettes 1994). On se propose d'observer ici la grammaticalisation du syntagme en Moyen Français (MF), ce qui pose le double problème du rapport du lexical au grammatical et des distinctions entre les différents emplois grammaticaux. En soulignant la porosité des frontières et des sens, on voudrait mettre en relation l'évolution diachronique et la mouvance synchronique qui embarrasse la traduction du philologue comme elle fait échec aux entreprises taxinomiques du linguiste. La description des constructions du syntagme peut se faire d'un point de vue formel selon deux critères : celui de sa place et celui de son rapport aux constituants de l'énoncé ou à l'énoncé. On distinguera les constructions suivantes : • 5 - dans un énoncé posant une équivalence thème-prédicat, principalement dans une phrase à verbe copule, souvent en relative : a) X en effet est Y X est en effet Y qui est en effet Y qui en effet est Y qui n'est en effet que Y b) X c'est en effet Y c'est en effet Y, X c) et en effet c'est Y Car en effet X c'est Y C'est donques en effet Y Mais ce en effet est Y d) X en effet comme, tel que Y • 6 - p en effet. (en Discours Direct) • 7 - p. Et en effet q • 8 - p. Car en effet q • 9 - p. Dont en effet q •10 - p. Mais en effet q •11 - p. En effet q •12 - en effet occupe une place autre qu'initiale, dans une proposition dont le verbe n'est ni un verbe de déclaration ni être. Cette tentative de description ne doit pas faire illusion. Il est tentant d'y lire le figement lexical (1-2) suivi d'une grammaticalisation restreinte d'abord à certaines catégories verbales (3-5), l'adverbe fonctionnant à l'intérieur de la proposition pour justifier l'énoncé ou l'énonciation et restant placé dans l'entourage immédiat du Verbe sauf dans le Discours Direct qui se singularise par la position de l'adverbe en finale absolue (6); l'étape suivante serait l'emploi proprement comme connecteur c'est-à-dire en tant qu'outil mettant en rapport plusieurs propositions (énoncés ou énonciations) du co-texte, étape qui correspondrait à la remontée en position initiale (7-11). La reconstitution est satisfaisante pour l'esprit mais deux points font obstacle : d'une part la progression présentée là n'a rien de chronologique (1)-2)-3) sont représentés sur l'ensemble de la tranche 1389-1502; 11) est attesté dès 1390), d'autre part, on l'a remarqué, elle obligerait à escamoter quelque peu 12) où la mise en relation entre propositions ne s'accompagne pas pour l'adverbe d'une place initiale. On peut certes objecter que la reconstruction d'un processus doit être distinguée des attestations datées, que l'existence même de 12) manifesterait le caractère dynamique d'un processus qui dans certains cas aboutit à la formation d'un outil pleinement grammatical (perte totale de la valeur lexicale originelle doublée d'une fixation syntaxique concernant l'ordre des mots), alors qu'il reste dans d'autres cas inachevé; ce que (Rossari 1997) illustre d'un point de vue contrastif vaudrait, pour l'histoire du français, si l'on compare en effet (irréductible à la position initiale et où ne peut s'oublier totalement le nom effet) et or (une « vraie » coordination rivée à l'initiale, dont le lien à la notion temporelle étymologique *ha hora a totalement disparu). Dans tous les cas, la locution, formellement, ne change pas; on devra donc s'interroger sur la légitimité de distinguer des emplois plus ou moins lexicaux ou grammaticaux et au delà sur le rapport entre le sens de l'item effet et les différents emplois de en effet - soit une occasion d'observer à travers les réanalyses la rémanence des sèmes lexicaux. En effet peut être considéré comme figement lexical en 1) et 2) en tant qu'il est associé régulièrement en 1) à un verbe qui fonctionne à la manière d'un verbe support, dont le substantif complément porte le prédicat, en 2) à un autre substantif sensiblement équivalent : 1) C'est tout l'onneur et la seulle chouse que nous debvons a Dieu et que Dieu nous demande et que de nous exigit, car telle seule voulenté fait nostre opperacion plaisant a Dieu quant elle peult ouvrer; et quant la bonne voulenté ne puet maittre en effect son opperacion, la bonne voullenté est a Dieu plaisant, Crapillet, Cur Deus homo de arrha animae, 1450, page 181, Livre I, Chappitre VII. 2a) neantmoins la Court, pour l'onneur et reverence dudit monseigneur le regent, a sursey de proceder en oultre en ycelle cause depuis certain temps jusques à ce qu'il eust esté adverty des choses dessusdictes, afin qu'il soit plus content de ce que la Court a fait et fera en ceste cause par grant et meure deliberacion, selon raison et bonne justice, et lui supplier qu ' il lui plaise à en estre content, ou par autres paroles semblables en effect et substance soit remonstré ce que dit est. Fauquembergue, Journal T.2, 1421, pages 314-315. 2 b) Laissant illec grosse gendarmerie/Avec foison de bonne artillerie,/Pour resister en effect et substance / Contre le roy et toute sa puissance. La Vigne, Le Voyage de Naples, 1495, page 247. On risquera comme traduction pour 1) « réaliser, faire passer du virtuel au réel (ainsi d'une entreprise, d'une intention, d'un discours) », pour 2a) « exactement (quant aux termes ou au contenu », pour 2b) « véritablement », en distinguant 2a) où la locution exprime la conformité d'un message rapporté au message originel et l'emploi 2b) où dans des conditions d'emploi plus larges, elle exprime la véracité de l'énoncé. L'expression est bien figée, en tant que le substantif ne pourrait varier en nombre ou être déterminé, par exemple. Force est pourtant de constater que pour 2), il est bien difficile de définir la portée de la locution et le degré de désémantisation des lexèmes effet et substance, partant d'assurer que l'on donne « la » bonne traduction. Dans 2b) la locution fonctionne -t-elle comme un GN incident à resister (« dans les faits et de manière concrète ») ou comme un commentaire sur le degré de réalité du prédicat (« vraiment ») ? Le lecteur moderne reste interrogatif quant au sens de ces phrases. Tout juste peut-il calmer son malaise en se disant que ce flou dans la compréhension n'est pas seulement le fait de son incompétence (à divers titres) à percevoir le sens d'un état de langue éloigné mais relève aussi du statut ambigu, quelle que soit la synchronie considérée, des expressions figées et des sens d'un même adverbe. La désémantisation et la variance de portée de l'adverbe, présentes dès le figement lexical, empêchent de cloisonner radicalement ce qui relève de l'évolution lexicale et ce qui est grammaticalisation (cf. H. Bat-Zeev Shyldkrot 1997). De fait les emplois 3) 4) 5) offrent la même résistance à la traduction que 2), dans la mesure où la locution pose les mêmes problèmes que ceux envisagés précédemment et ne semble chargée d'aucune valeur « logicoïde » : 3a) lequel exposa de bouche à mondit seigneur le prevost, comme par [mons. l'evesque de Paris avoit esté presentée à] la court et [à] messeigneurs de parlement, une suplicacion contenant en effect que ledit mons. le prevost detenoit prisonnier ledit Ernoulet de Lates, Registre criminel du chatelet, t.1, 1389, page 296. 4) (…) extimare quam cum blandimenciis et assenciando turpe est acquirere. Tule dit en effect que jamais bonne renommee ne se doit delaisser, et n ' est pas petite amour ne chose de petit effect achater et avoir la benivolence des subgetz, laquelle il fault mielx avoir par tel moyen que il ne feroit par flateries ou paroles doulces et blandissans. Juvenal des Ursins Loquar in tribulacione, 1440, page 375. 5a) (…) Dinant, assise ou pays de Liége (ville très forte de sa grandeur et très riche à cause d'une marchandise qu'ilz faisoient de ces ouvraiges de cuyvre qu ' on appelle dynanderie, qui sont, en effect, potz et pesles et choses semblables), Commyne s, Mémoires T.1, 1489, Livre II, Chapitre I pages 1-94. Faut-il comprendre en effet dans X déclare en effet que comme « en substance », « pour reprendre exactement ses propos » ou comme « vraiment » ? L'emploi massif du syntagme nominal figé avec un verbe de déclaration, dans le discours juridique (Registre du Châtelet) ou dans une prose historique qui par son écriture d'annales reprend le souci d'exactitude juridique (Fauquembergue, Juvenal des Ursins) semble bien marquer le passage du statut de constituant de la phrase au statut d'adverbe de phrase indiquant la crédibilité à accorder au discours rapporté, en tant qu'adverbe d'énonciation ou d'énoncé. Dans 3) comme dans 2a), la locution pourrait être omise sans rendre la phrase incompréhensible ou agrammaticale. Ce caractère facultatif se retrouve dans la plupart des cas pour les emplois 4) et 5); ainsi dans : 5a ') Aucuns noms par une maniere de signification meslee et aidié comme par privation de principe et de fin expriment l ' essence divine, comme ce nom adjectif « eternel » et ce nom « sans mesure », par quoy on entent l'essence divine par privation de certaine mesure de lieu. Aucuns principalement signifient l'essence divine et avec ce donnent a entendre aucun effect en la creature en effect comme creer, justifier, ou par habitude comme ce mot misericors, ou par maniere de pouoir comme omnipotent, toutpuissant. Aucuns mots sont desquelz ne la signification ne la maniere de signifier est convenable a Dieu comme courir, aler, ambuler, car mouvement signifie une diverse inclination du courage en demonstrant les diverses affections d ' icellui. La Somme abregiet de theologie, 1481, p. 153. les prédicats sont introduits par comme, dans trois phrases parallèles dont l'une seulement fait apparaître en effet comme, ce qui montre le caractère « facultatif » de la locution. Pourtant dans certaines phrases de type 5), le lecteur moderne est tenté de percevoir un lien logique entre la proposition qui précède et en effet V : 5b) Et en oultre, qui voulroit coulourer et monstrer que vous qui estes roy de France ayez juste tiltre ou royaulme d ' Engleterre ou aulcune cause raisonnable de le concquester, il ne fault que venir au roy Edouart pere du prince de Galles, le quel en effect comme dessus est dit fut consentant de la mort de son pere Edouart et de l'emprisonner; et pour le deshonnorer et diffamer perpetuelment luy fit imposer cas non creables, et pour iceulx fit morir plusieurs personnes, et pareillement fit il emprisonner sa propre mere Ysabeau de France, Juvenal des Ursins, Tres Crestien, Tres Bault, Tres Puissant Roy, 1446, page 145, T.2. 5c) Et est une chose bien perilleuse que telles divisions : mesmement que elles ne viennent que pour ce que chacun vous veult gouverner, comme se estiés ung enffant; et en effect c'est faire plusieurs roys ou gouverneurs. Juvenal des Ursins, Loquar in tribulacione, 1440, pages 411-412. 5d) [« (…)] Et pour ce je conseille que nous le façons nostre bras droit et le chief de nostre guerre, en lui baillant l'honneur et les parties, et que nous le conseillons, secourons et servons à nostre pouvoir. Et c'est en effect ce que j ' en avoye proposé de dire quant au tiers point. » Terminées et acomplies les parolles du cappitaine, tout le monde commença à louer et consentir ce qu'il avoit dit, Jean de Bueil, Le Jouvencel T.1, 1461, page 98, Seconde Partie, Chappitre V. 5e) La dame de quoy nous parlons s ' en va a sa meson et fait mauvese chiere, et le bon home auxi vient de la ville ou d'ailleurs de ses besongnes et lui demande que elle a. « Sire, fait elle, je suy corrocee, car l'enfant est trop malade (lequel, en effect, est tout sain). Les Quinze Joies de Mariage, 1390, page 67, La Huictiesme Joye. confirmation de p par une affirmation que le locuteur prend personnellement en charge (« effectivement »), reformulation avec la valeur argumentative attachée à cette opération (« de fait, en réalité »), formule conclusive (« pour finir, en conclusion ») ou nette opposition (« en fait »). De même, avec un verbe de déclaration, on remarque, si l'on élargit le contexte, que dans nombre de cas un locuteur Y prolonge ou au contraire contrarie l'attente d'un locuteur X qui dans le contexte gauche exprimait à Y sa volonté qu'il parle ou qu'il agisse d'une certaine manière : 3 b) Ce jour, maistre Phelippe de Vitry est venu en la Chambre de Parlement, disant, en effect, qu ' il avoit entendu que la Court l ' avoit nommé pour porter en Court de Romme le roole d ' icelle Court, dont il en remercioit la Court, en soy offrant de soy emploier en ceste besoingne et de poursuir l'expedicion où il appartendra et en faire tout son loyal povoir. Et ce fait, après deliberacion, la Court lui a dit et respondu, en effect, que, ja soit ce que on eust bien trouvé pluiseurs notables personnes, docteurs et autres, qui pour estre escrips oudit roole et en avoir graces et prerogatives sans autre salaire ou avantage, se feussent volentiers chargiez de porter ledit roole, toutesvoies, pour ce que ledit de Vitry s'estoit autrefois offert de ce faire et qu'il avoit longuement frequenté la Court, on avoit bien voulu condescendre à sa personne pour la solicitation de l'expedicion dudit roole et prerogatives et pour le porter et presenter en Court de Romme où il appartendra. Fauquembergue, Journal T.3, 1431, pages 131-132. 3c) Ce jour, pour ce que aucuns des conseilliers de ceans avoient entendu que maistre Phelippe de Vitry, qui s'estoit offert de porter le roole de ceans en Court de Romme, comme cy dessus ou registre du XXVJe jour de ce mois, avoit poursuy et accepté autres charges et ambassades de l'Université de Paris et d ' autres, que on doubtoit estre incompatibles ou contraires à la charge et à la poursuite à lui commise et ordenée de par la Court, ycellui maistre Phelippe au mandement de la Court est venu en la Chambre de Parlement, lequel, interrogué sur ce que dit est, a dit en effect qu'il n ' a poursuy ne accepté, ne acceptera aucune charge pour l ' Université ne pour autre, contraire ou prejudiciable à la poursuite ou à la charge qu'il a de la Court, Fauquembergue, Journal T.3, 1431, pages 133-134. En effet, dans un discours rapporté dialogal, marquerait ainsi l'échange intersubjectif : « effectivement » ou « de fait » suivant que X et Y tiennent ou non des discours co-orientés. Finalement le lecteur moderne est plongé dans une autre perplexité, profonde : la locution adverbiale a -t-elle un sens (fût-il polysémique) ou n'est-elle qu'un élément « explétif » ? A -t-elle un sens à l'intérieur d'une unité propositionnelle ou par la mise en relation de deux énoncés ? Le problème du syntaxique (SN ou adverbe) se double d'un problème sémantique et la linguistique offre le même remède : la perte de compétence d'une langue rend certes plus trouble la perception du sens et du fonctionnement mais la variabilité est déjà dans la structure de la synchronie considérée, et c'est ce flou même qui permettra l'évolution de la locution. Nølke propose la définition suivante du connecteur : « Un Connecteur Pragmatique est une conjonction ou un adverbial qui marque un certain type de relation entre énoncés » (Nølke 1990b : 44), affirmant ainsi que le CP suppose, à la différence de l'anaphore, des contraintes sur le processus inférentiel entre p et q. On distinguera alors parmi les adverbiaux contextuels : les adverbiaux d'énoncé qui ajoutent des commentaires à la valeur de vérité du contenu (peut-être), les adverbiaux d'énonciation qui mettent en relief ou rendent visibles certaines conditions préalables de l'énonciation (franchement, entre nous), et les adverbiaux connecteurs. Souvent liée à la place de l'adverbe, cette catégorisation, comme toutes les classifications proposées pour l'adverbe, ne parvient pas à éliminer cependant l'ambivalence de certains cas. • La position finale absolue de proposition (type 6), qui apparaît dans le Discours Direct exclusivement, est bien nettement circonscrite au renforcement de la valeur de vérité de l'énoncé qui est souvent un performatif, du moins un engagement; en effet fonctionne sans ambiguïté comme adverbial d'énoncé : 6) LE CRESTIEN Les y ay rendus en effect. LE JUIF Rendus ? Miracle de Saint Nicolas et d'un juif, 1480, pages 131-132. • A l'inverse, le type 12) montre pleinement la difficulté d'opérer une classification nette à l'intérieur de la catégorie adverbiale. Soit les exemples : 12a) Et qui voulroit fonder ces choses en raison escripte, on les fonderoit tres bien, et n ' est aulcune doubte qu ' ilz ne deussent pas avoir esté receuz a ce alleguer; mais qui plus est, s ' aulcun droit il y eust eu, il y renonçoit et renonça en effect au prouffit du roy Phelippe, en luy transportant taisiblement le droit qu ' il y pooit avoir, Juvenal des Ursins, Tres Crestien, Tres Hault, Tres Puissant Roy, 1446, pages 30-31, T.2. 12b) Et y eult aulcuns qui vouloyent faire guerre a Guillaume, en disant que ung bastard ne devoit point succeder, et mesmement ung nommé Rothom, lequel se mist sus et le desconfit le dit Guillaume. Et sembleoit en effect que le dit roy Henry l'eust legittimé « et habillité a succeder, au moins taisiblement; Juvenal des Ursins, Tres Crestien, Tres Hault, Tres Puissant Roy, 1446, pages 74-75, T.2. 12c) et auxy par le traictié et accord dernierement fait avecques Charles roy de France dernier mort, et aprés son trespassement le royaulme devoit appartenir audit feu roy Hanry et a ses hoirs, (…); et si conquesta en effect ledit roy Hanry le royaulme de France, c'est assavoir Paris, Normandie et tout le pais deça la riviere de Seinne. Juvenal des Ursins, Audite celi, 1435, page 151. 12d) et s ' en ala le roy Phelippe en Guyenne et print plusieurs places, (…) et les conquesta et mist en sa subjection comme son vray demaine; et vint la chose en effect dont elle estoit partie, c ' est asçavoir de la couronne quant elle fut baillee a Rolo, et est une chose bien aisee a faire que une « utile » seigneurie se redduyse a la directe dont elle estoit partie. Juvenal des Ursins, Tres Crestien, Tres Hault, Tres Puissant Roy, 1446, page 96, T.2. En 12a) en effet est proche du fonctionnement de la locution mettre en effet; étroitement lié au verbe, le SN figé ne peut être omis sans modifier le sens de la phrase et peut être rendu par « effectivement » dans sa valeur d'adverbe de constituant, i.e. « par des faits qui manifestent de manière perceptible dans la réalité une décision, une réalité ». Pourtant le glissement est facile de « renoncer par des actes concrets » à « renoncer vraiment », soit un glissement d'adverbe de constituant à adverbe de phrase. En effet en 12) pourra globalement être classé comme « adverbial d'énoncé », en tant qu'il porte sur des aspects du contenu en ajoutant des commentaires sur la valeur de vérité de ce contenu, avec le sens de « vraiment, effectivement »; mais dans de nombreux cas la proposition qui le contient entretient un rapport logique avec la précédente, selon un schéma « p. (…) en effet q » : en 12c) q, dont en effet confirme l'inscription dans le réel, est aussi le prolongement logique ou chronologique de p, et l'on peut penser que c'est la valeur chronologique de « en fin de compte, pour finir » qui l'emporte en 12d), q venant clore toute une série de faits mentionnés en p. En effet ne joue donc pas seulement en q mais comme lien entre p et q. Si l'on admet avec Nølke (1990a) que « la propriété constitutive d'un connecteur est de mettre l'énoncé (ou l'énonciation) auquel il est attaché syntaxiquement en rapport avec un ou plusieurs autres énoncés (ou énonciations) du co-texte », on comprend que la frontière entre adverbial d'énoncé ou d'énonciation d'une part et adverbial connecteur de l'autre est souvent incertaine, ce que note d'ailleurs Nølke : « En un certain sens, tout adverbial contextuel est donc connecteur ». Selon lui pourtant, ce qui est valeur première pour le dernier n'est que valeur dérivée pour les précédents. • La position initiale de proposition (11) correspond par excellence à la fonction de mise en relation sans que cette relation se laisse ramener à une valeur univoque ni même parfois à une valeur logique : 11a) à la main senestre estoit le seigneur de Ravastin et messire Jacques de Sainct Pol et plusieurs autres, à qui il sembloit qu'ilz n'avoient pas assez d'hommes d'armes pour soustenir ce qu'ilz avoyent devant eulx, mais dès lors estoyent si approchéz qu'il ne failloit plus parler d'ordre nouvelle. En effect ceulx là furent rompus à platte cousture et chasséz jusques au charroy, et la pluspart fuyrent jusques en la forest, Commynes, Memoires T.1, 1489, page 28, Livre I, Chapitre III. 11b) Je prens qu'aucun dye cecy, /Sy ne me contente il en rien./ En effect il conclud ainsi, /Et je le cuide entendre bien,/ Qu'on doit amer en lieu de bien./Assavoir mon se ces fillectes/Qu'en parolles toute jour tien, /Ne furent ilz femmes honnestes ? Villon, Le Testament, 1461 pages 60-61. 11c) et l'autre disoit que Prouvence ne pouvoit aller à fille par leurs testaments. En effect, Bar fut rendu, où le roy ne demandoit que une somme d ' argent; Commynes, Memoires T.3, 1489, pages 4-5, Livre VII, Chapitre I. 11d) Son grant guet estoit loing de luy et vers la porte de la ville. En effect, l'hoste de sa maison tira une bende de ces Liégeois et vint assaillir sa maison, où ledict duc estoit dedans, et fut tout cecy si soudain que à grant peine peüsmes -nous mestre audict duc sa cuyrasse sur luy et une sallade en la teste. Commynes, Memoires, T.1, 1489, page 156, Livre II, Chapitre XII. q peut être la conséquence qui sert ainsi de preuve et de justification à l'énoncé p (11a); q peut être l'explication de p (11b), à moins qu ' en effet marque non la cause (« car ») mais l'opposition du locuteur au propos qu'il rapporte tout en indiquant qu'il s'agit d'un énoncé bien réel (« de fait »); p et q peuvent aussi n'entretenir qu'une relation de succession dans l'ordre du discours, les faits qu'ils évoquent n'ayant pas forcément de relation de contiguïté temporelle ou de lien logique (11d), sauf à voir dans en effet q parfois une conclusion par un fait dont on affirme la véracité (11c) (« de fait, en fin de compte »). L'emploi 11d), le plus déroutant pour le lecteur moderne, rejoint, me semble -t-il, 3a) 4) 5a) où le rôle de la locution n'est pas d'exprimer une modalisation ni une relation logicoïde mais d'assurer un tissage serré des éléments du texte en soulignant leur succession textuelle (11d) ou l'adéquation de leur mise en relation (discours rapporté et prononcé, produit de la traduction et texte originel, thème et prédicat). En position initiale ou non, l'adverbial peut assumer des valeurs logicoïdes d'ailleurs variées; il peut aussi marquer le caractère cohésif qui distingue l'écriture du texte médiéval français. • Parmi les emplois 7) 8) 9) 10) où en effet est précédé d'une coordination, on distinguera 7) des autres types où la conjonction est chargée d'un sémantisme particulier. Le rapport entre p et q dans 7) est varié : opposition (7a), consécution faisant plus ou moins nettement de q une conséquence de p (7b), conséquence de p exprimée en q qui confirme la véracité de p (7c), conclusion par q d'une succession exprimée par p (7d). 7a) Et le bon homme vient et enquiert que elle a et s'esbahist fort, combien qu'il li a autreffoiz veu jouer le personnage, mes, pour enqueste qu'il puisse faire, il n'en avra ja aultre chouse. Et en effect elle n ' a riens, mes elle joue ainxin Les Quinze Joies de Mariage, 1390, page 50, La Sixiesme Joye. 7b) Toutesfoiz il manda à ses gens qu'ilz passassent tout; et, en effect, conclurent la ligue en haste. Commynes, Memoires T.3, 1489, page 125, Livre VII, Chapitre XX. 7b ') Et, le dimenche ensuivant, (…), environ huit heures du matin, desemparerent et partirent lesdiz seigneurs de Lorraine et de Suixe, et vindrent à Neufville, et oultre ung estang près d'ilec firent leurs ordonnances. Et en effect lesdiz Suixes se mirent en deux bendes, dont le conte d'Abstain et les gouverneurs de Fribourg et de Zurich avoient l'une, et les advouez de Berne et de Cerne l ' autre, jean de Roye, Chronique scandaleuse, T.2, 1460, p. 37. 7c) Mais, pour le long temps qu'il y avoit que les Angloys n'avoient eu guerre hors de leur royaume, ilz n'entendoient point bien le faict des sièges. Et, en effect se misrent à vouloir parlamenter … Commynes, Memoires T.2, 1489, page 134, Livre V, Chapitre V. 7d) Et est a advertir que se ung povre homme mecanique de son mestier a besongnié pour aucun qui ait promis de le contenter, ou ait une obligacion d'une debte, et veult plaider devant ung juge lay, il luy fault avoir une commission, ung sergent et du conseil, procureur et advocat, et luy fauldra faire grant mise; et puis se le prevost donne une sentence, on en appellera devant le bailli, et du bailli au juge royal et en Parlement, et en effect les causes sont comme immortelles; Juvenal des Ursins, Verba mea auribus percipe, Domine, 1452, page 368. En effet peut se rendre respectivement par : « et en fait, en réalité », « et effectivement, et…donc », « et de fait, effectivement », « et finalement ». Dans nombre d'autres cas, s'il y a lien de consécution entre p et q, la valeur consécutive déjà ténue dans 7 b ') devient inexistante : 7 e) Et il disoit vray : car, l ' endemain qu ' il y fist son entrée, ilz se misdrent en armes sur le marché et y portèrent ung sainct, (…), et heurtèrent de la chasse dudict sainct contre une petite maison appellée la maison de la Cuillette, où l'on levoit aucunes gabelles sur le blé, (…). Et, en effect, ilz dirent que ledict sainct vouloit passer par la maison sans se tordre, et en ung moment l'abbatirent. Commynes, Memoires, T.1, 1489, pages 117-118, Livre II, Chapitre IV. Revient la question double du sémantisme et de la portée de la locution. Dans 7a-d, la valeur logicoïde indiquée est-elle portée par en effet, qui en position initiale a pleine valeur de connecteur, la connexion se décumulant en quelque sorte entre et à valeur de pure liaison et en effet indiquant un certain type de processus inférentiel ? Ou bien cette valeur résulte -t-elle de la mise en relation de p et q, en effet continuant son rôle d'adverbe de phrase ? La fréquence de Et ainsi en effet comme en 7f) : 7f) mais pour plus la diffamer, il fit morir messire Rogier de Mortemer tres cruellement ou grant deshonneur de sa mere, et pour abregier fit a sa mere tant de durtez, paines et tribulations qu'elle en ala de vie a trespassement.Et ainsi en effect il fut cause de la mort de ses pere et mere, et le doit on tenir indigne et inhabile d'estre roy tant de France que d'Engleterre; Juvenal des Ursins, Tres Crestien, Tres Hault, Tres Puissant Roy, 1446, pages 28-29, T.2. recèle la même ambiguïté; faut-il comprendre en effet comme la marque de la vérité de q lequel est présenté par ainsi comme la conséquence de p ? ou comme un connecteur de reformulation à valeur polémique ? « Il a tué X et Y. (Et de ce fait) (véritablement, sans mentir) il a été … » ou « Il a tué X et Y. (Et de ce fait) (pour dire les choses plus nettement) il a été … » ? « Vraiment » ou « de fait » ? La distinction sémantique est aussi indécise que la catégorisation syntaxique des adverbiaux. On voit combien le syntagme est propice à la réanalyse non tant par sa polysémie que par son statut adverbial. • En effet apparaît fréquemment, dans les dernières œuvres du corpus, derrière Car, Dont, Mais : 8) En ce jour d'uy soyez moy favorable Et regardez ma grant proplecité : Povre homme suis, plain de mandicité; Pour ce, messieurs, regardez moy a point Et subvenez a ma neccessité, Car en effect je suis tresmal en point. La Vigne, Le Mystere de Saint Martin, 1496, page 196. 9) Pencez que l ' Ennemy ne dort poinct; Dont en effect, propox final, Je le vous quicte et n ' en veulx poinct. La Vigne, Le Mystere de Saint Martin, 1496, page 405. 10) Mon chier seigneur, ad ce ne desdis mye, Mais en effect, tout le cueur me fremye De peur que j'ay que tout aultrement face. La Vigne, Le Mystere de Saint Martin, 1496, page 142. Dans tous les cas, il peut être compris comme adverbe d'énoncé soulignant la valeur de vérité au sens de « vraiment ». Mais l'élément en tête de proposition, par sa position même, peut être lu comme une unité, [Car en effet ], [Dont en effet ], [Mais en effet] assurant globalement le rôle de connecteur à valeur logicoïde (cause, conclusion, opposition) : la redondance dont le MF est familier rend ce type de réanalyse plausible (pour l'observation diachronique), facile (dans l'usage synchronique). Reste qu'en FM on rencontrera Car en effet alors que dans les autres cas en effet (sauf à changer le sens) est remplacé par d'autres connecteurs : Donc en conclusion, Mais de fait de même que la valeur de en effet de type 11) et 12) se spécialise par rapport à en fait, de fait, effectivement. A travers les emplois 7) à 12), en effet offre un bon exemple de « connecteur analytique » au sens de Nølke 1990b : l'emploi en connecteur est dérivé, second par rapport à son fonctionnement adverbial premier. Cette description a mis en lumière la ténuité de beaucoup de frontières. On voudrait échapper à l'amertume que laissent les catégorisations imparfaites, en voyant ce que ce flou révèle de la nature d'un connecteur et du processus de grammaticalisation. • Sur le connecteur, on fera les propositions suivantes : Le connecteur peut avoir une fonction purement cohésive et non argumentative. La valeur du connecteur est tributaire de la valeur adverbiale qui est elle -même étroitement liée au sens de l'item lexical grammaticalisé. Les valeurs logiques (opposition/reformulation, conséquence, conclusion) et cohésive sont liées aux sèmes « réalité » et « séquence » du substantif effet. Les valeurs logiques, étroitement liées au contexte, sont appelées à se figer. La polysémie de en effet se réduit alors tandis que la locution adverbiale peut devenir prophrase. Si la catégorisation syntaxique adverbial/connecteur et la valeur sémantique sont troubles, la solidarité entre les emplois figés ou grammaticaux et la valeur lexicale du mot apparaît constante. Il semble que dans 1) mettre en effet et 2) en effet et substance, le figement sélectionne deux composantes différentes du lexème effet : pour 1) la réalité est conçue à travers l'idée de résultat, comme la suite d'un antécédent; pour 2) la réalité est ce qui ne peut être dénié. Effet combine donc deux sèmes : 1) effet est un terme séquentiel, il suppose une relation de succession; 2) effet désigne quelque chose de vrai. On remarquera, à propos de 2), qu'existe encore en FM une locution adverbiale en substance, mais elle reste cantonnée à une appréciation de véracité d'un Discours Rapporté et elle est loin d'avoir connu la diversité d'emploi de en effet. Peut-être la capacité à passer de l'adverbial de phrase au connecteur est-elle liée profondément à la capacité de en effet à inscrire un énoncé dans une successivité. Mais même dans les emplois cohésifs, ce trait séquentiel joue, en tant que l'adverbial fonctionne comme outil de mise en rapport. Les emplois à valeur de consécution, conséquence, conclusion reposent plus particulièrement sur ce sème. La valeur d'opposition/reformulation joue, elle, sur la notion de vérité, par opposition au faux ou à du moins vrai. Dans cette perspective le matériel grammatical est bien dépendant du lexical. • L'évolution de la locution, tout en s'inscrivant dans un schéma très général de « grammaticalisation », au sens qu'on lui donne, bien après Meillet, dans la lignée des travaux de Traugott, n'en possède pas moins des traits propres qui invitent à réfléchir sur les facteurs déclencheurs du phénomène, sur sa finalité et son processus. En effet apparaît beaucoup plus tôt que d'autres connecteurs de même formation (cf. Combettes 1994 et Blumenthal 1996). On peut se demander si la raison de cette précocité est d'ordre communicationnel et l'on déplorera avec P. Blumenthal que la linguistique textuelle accorde peu de part aux problèmes diachroniques pour s'interroger sur les rapports entre l'essor de tel connecteur et les besoins communicatifs d'une époque. Meillet lie le renouvellement grammatical dont la grammaticalisation est un outil privilégié à un besoin d'expressivité, la grammaire se renouvelant afin de compenser, dans une course vertigineuse et vaine, la perte d'expressivité des créations expressives d'hier. Pour Meillet, tout mot est candidat à la grammaticalisation et c'est le contexte qui impose le sens nouveau. Les travaux plus récents ont insisté au contraire sur la régularité d'un changement allant du concret à l'abstrait en liaison avec l'importance de la métaphorisation. Or effet n'est pas vraiment un mot concret, appartenant à des primitifs de l'expérience d'où découlerait le grammatical. Sur l'émergence d'une locution à date ancienne, on ne possède qu'une documentation littéraire, en tous cas livresque, ce qui empêche de savoir si ce que l'on observe est le réel de la langue ou les particularités d'un genre. Tout du moins, ces restrictions étant faites, note -t-on que l'emploi de en effet est d'abord répandu dans la prose juridique et annalistique, d'abord comme outil de cohérence textuelle, de manière très largement prédominante, même si l'on voit une trouée d'emplois logicoïdes (reformulation) dès la narration satirique des Quinze Joies de mariage, ce qui laisse soupçonner la possibilité d'emplois plus larges; en effet se développe ensuite dans la prose philosophique (Crapillet) et surtout chez l'historien Commynes, les emplois avec valeur logique devenant majoritaires même si subsistent des emplois purement cohésifs; pratiquement absente de la narration romanesque, la locution est au contraire bien représentée au théâtre (35 emplois chez le seul Andrieu de la Vigne). Lexème d'origine savante, effet produit un connecteur de l'écriture didactique. Il est donc difficile à première vue de l'analyser en termes de besoins communicatifs ou d'expressivité de l'oral, d'autant que sa valeur, on l'a vu, se réduit souvent à une simple mise en rapport. Vu le parallélisme de leurs emplois, je me risquerai donc à évoquer l'hypothèse d'une concurrence entre l'adverbe si et en effet, le second se développant alors que l'autre, toujours bien représenté en MF, est néanmoins sur son déclin. L'un et l'autre marquent la succession, allant de la vacuité sémantique à l'expression de rapports chronologique ou logiques (conséquence, opposition). En effet serait ainsi une façon d'exprimer non par un monosyllabe mais par une forme analytique une relation peut-être identique mais censément plus nettement marquée : la langue juridique comme le style enjoué de la satire (QJM) et du théâtre peut aimer jouer d'un outil plus volumineux pour expliciter les rapports. Le développement de en effet peut être lié au souci d'exhiber la cohésion du texte et/ou de trouver un concurrent plus lourd que le simple si. Les visées stratégiques de types de communication fort différents se rejoignent au point d'imposer dans la langue un nouveau connecteur. La locution développe des valeurs diverses qui résultent moins de la polysémie intrinsèque du mot que d'une utilisation de deux de ses sèmes principaux. L'évolution amène une réduction considérable des valeurs de la locution, éliminant outre les emplois cohésifs les valeurs de reformulation et de conclusion (de fait, finalement); elle garde la valeur de conséquence et développe la valeur causale qui reste exceptionnelle, semble -t-il, à date ancienne, elle crée aussi un emploi autonome où l'adverbial fonctionne quasiment en prophrase. En réduisant la polysémie, la langue est peut-être en quête d'iconicité (un connecteur-une relation) mais le développement de la valeur causale ne semble pas plaider en faveur d'une élimination des sens non prototypiques; il illustrerait plutôt le caractère métonymique de l'évolution, en l'occurrence par la réversibilité de la relation cause/conséquence. On constate que l'évolution historique aboutit à terme, de figement lexical en adverbial de phrase/connecteur, à un terme indépendant qui n'est plus incident à aucun constituant. L'évolution de l'adverbial en connecteur n'a dans ce cas rien d'irréversible pas plus que ne peut être tranchée sans doute la délimitation des deux catégories .
L'A. s'interroge sur le statut grammatical du connecteur en effet. Plus particulièrement, il observe sa grammaticalisation en moyen français, ce qui pose le double problème du rapport du lexical et du grammatical et des distinctions entre les différents emplois grammaticaux. A travers les premières attestations de en effet, analysées en tant que connecteur, l'A. montre que l'on peut construire un classement de ses emplois illustrant un parfait processus de grammaticalisation, par le fait que ce connecteur garde toujours son sens originel et n'est pas du tout spatial ni concret. A travers une analyse sémantique et syntaxique, il ressort l'hypothèse que la variabilité est déjà dans la structure de la synchronie considérée et que c'est le flou même qui permettra l'évolution de la locution.
linguistique_524-03-12679_tei_574.xml
termith-565-linguistique
La croyance à l'existence d'invariants (ou universaux) du langage est spontanée. Si ce n'était le cas, comment des voyageurs, missionnaires et autres curieux de langues auraient-ils si souvent et si longtemps décrit celles qu'ils rencontraient dans les termes de la grammaire latine ou d'autres langues européennes, y trouvant des noms et des verbes, des déclinaisons, des temps, des pronoms, des adverbes, etc. ? Ils voyaient les peuples exotiques qu'ils fréquentaient échanger des informations par des moyens semblables à ceux qu'utilisent nos sociétés, y reconnaissaient des formes de la faculté humaine du langage, apprenaient progressivement à s'en servir eux -mêmes avec succès, et y identifiaient tout naturellement les mêmes catégories que dans leurs propres langues. Ils n'avaient pas tort, puisque les grammaires qu'ils ont rédigées permettent bel et bien d'accéder à une certaine maîtrise des langues en question. Nous savons bien aujourd'hui qu'elles ne sont pas parfaitement adéquates, et même qu'il s'en faut de beaucoup. Cette expérience n'en reste pas moins la preuve que les langues ont beaucoup en commun. La question est de savoir quoi exactement. C'est une question difficile, sur laquelle s'échinent les linguistes qui s'adonnent à la quête des universaux empiriques du langage. Leur objectif est en somme de donner une forme précise à des traits communs sentis confusément et qui ne se manifestent qu' à travers des formes d'une variété pratiquement infinie. Les recherches de ce type sont aujourd'hui à la mode. Elles bénéficient de l'accroissement considérable de la documentation sur les langues du monde, et elles occupent bon nombre de linguistes. Pour nous en tenir au domaine des structures grammaticales, c'est vers le milieu du XX e siècle que la quête des universaux s'est affirmée comme une branche originale de la linguistique. Hjelmslev et Benveniste, linguistes saussuriens, ont fait oeuvre de pionniers, l'un dans sa tentative de fonder une linguistique scientifique sur la base de la typologie, l'autre dans une série d'études de « syntaxe générale » (Lazard 1997a). Mais c'est surtout Greenberg et ses disciples qui ont donné le branle. Le point de départ est le colloque de Dobbs Ferry (1961, cf. Greenberg, éd.,1966), où a vu le jour la fameuse liste, établie par Greenberg et souvent évoquée depuis, de quarante-cinq universaux. La plupart de ces propositions concernent l'ordre des mots. Il s'agit de l'ordre des termes principaux, sujet, objet, verbe, dans la proposition, de celui des éléments, noyau et déterminants, dans le syntagme nominal, ainsi que des variations qui peuvent intervenir dans la phrase interrogative, dans des subordonnées, etc.. Je rappelle ici les cinq premières à titre d'exemples : 1. In declarative sentences with nominal subject and object, the dominant order is almost always one in which the subject precedes the object. 2. In languages with prepositions, the genitive almost always follows the governing noun, while in languages with postpositions it almost always precedes. 3. Languages with dominant VSO order are always prepositional. 4. With overwhelmingly greater than chance frequency, languages with normal SOV order are postpositional. 5. If a language has dominant SOV order and the genitive follows the governing noun, then the adjective likewise follows the noun. D'autres propositions, d'un type différent, concernent la présence ou l'absence de certaines catégories dans certaines conditions. En voici quelques exemples : 29. If a language has inflection, it always has derivation. 34. No language has a trial number unless it has a dual. No language has a dual unless it has a plural. 36. If a language has the category of gender, it always has the category of number. 43. If a language has gender categories in the noun, it has gender categories in the pronoun. Toutes ces propositions posent une certaine relation entre des éléments du langage, soit relation d'ordre, soit implication de présence ou d'absence. Par exception, le n° 42 pose une propriété comme commune à toutes les langues : 42. All languages have pronominal categories involving at least three persons and two numbers. Greenberg a eu le grand mérite de lancer le mouvement et l'audace d'établir d'emblée quarante-cinq propositions présumées représenter des propriétés communes à toutes les langues, ou majoritairement présentes, dans des conditions définies. Elles sont fondées sur l'examen d'un échantillon de trente langues (Greenberg, in Greenberg, éd. : 74-75) et aussi sur la riche expérience de l'auteur : « on some questions I have gone well outside the sample » (ibid.). Mais sont -ce vraiment des invariants ? On observe d'abord que certaines de ces propositions ne se présentent pas comme telles. Par exemple, dans le n° 1, cité ci-dessus, il est dit que le sujet précède « presque toujours » l'objet. C'est une généralisation qui ne prétend pas s'étendre pas à la totalité des langues, mais seulement à la grande majorité d'entre elles. Sous une forme différente, l'affirmation est du même type dans le n° 4 : c'est « avec une fréquence considérablement plus grande que celle qui résulterait du hasard », non dans tous les cas, que les langues SOV sont prépositionnelles. Des formules semblables se trouvent dans diverses propositions, p. ex., n os 9, 17, 39, alors que d'autres affirment que telle relation se trouve « toujours » (always ou all languages), p. ex., n os 12, 14, 15, ou que la situation inverse ne se trouve « jamais » (never), p. ex., n os 12, 37. Greenberg fait donc la distinction entre les traits qu'il pose comme des universaux absolus, de vrais invariants, et les cas où la propriété en question est seulement d'une grande généralité. Ses quarante-cinq propositions, dont beaucoup ont la forme d'une implication (« si A, alors B »), expriment donc, selon le cas, soit une solidarité entre deux propriétés, soit seulement une affinité. Une critique plus grave porte sur la nature des notions mises en cause. Poser que le sujet précède l'objet, ou qu'un adjectif précède (ou suit) le nom qu'il qualifie, ou que l'existence de la flexion implique celle de la dérivation, ou que le cas zéro marque prioritairement le sujet du verbe intransitif, etc., implique que l'on sait, en perspective interlinguistique, ce que c'est qu'un sujet, un objet, un adjectif, un cas, un verbe intransitif (et un verbe transitif), comment se distinguent et s'opposent flexion et dérivation, etc. Or, ces notions sont litigieuses. Tout le monde comprend, ou croit comprendre, à peu près de quoi il s'agit, mais il n'y en a pas, en général, de définitions précises. Ce halo d'approximation qui entoure les notions en question enveloppe aussi inévitablement les généralités qui en font état. Greenberg était bien conscient de cette difficulté. Il écrit dans son introduction (1966 : 74) : « It is here assumed, among other things, that all languages have subject-predicate constructions, differentiated word-classes, and genitive constructions, to mention but a few. I fully realize that in identifying such phenomena in languages of differing structure, one is basically employing semantic criteria. There are probably formal similarities which permit us to equate such phenomena in different languages. » Il faudrait donc analyser ces critères sémantiques et leur chercher des corrélats formels. Mais c'est là une vaste entreprise. S'y engager, c'était, pour l'auteur, s'écarter de la recherche des universaux empiriques, qui lui paraissait plus urgente. D'ailleurs, ajoute -t-il, « In fact there was never any real doubt in the languages treated about such matters. » Il est permis de n' être pas de son avis sur ce dernier point. Il n'est pas évident que l'on puisse facilement, en tout langage, identifier sans ambiguïté un terme sujet ou distinguer flexion et dérivation. Mais il est clair que Greenberg a préféré saisir la matière massivement, accepter (peut-être provisoirement) les notions traditionnelles avec ce qu'elles comportent d'approximatif, de façon à dégager une série assez importante de caractéristiques qui, à première vue, semblent être soit communes à toutes les langues soit présentes dans la plupart. Il a voulu en somme déblayer le terrain et opérer une première mise en place relativement sommaire. Ce travail s'est révélé fécond, puisqu'il a suscité beaucoup de travaux depuis quarante ans. Mais on peut penser qu'il est temps d'affiner la recherche. Les notions traditionnelles impliquées dans les universaux, tels qu'ils sont formulés dans la liste de Greenberg et dans beaucoup de travaux ultérieurs, dérivent historiquement de celles qui se sont fait jour dans la grammaire des langues occidentales classiques et de quelques langues modernes d'Europe. Elles y sont d'emblée, sans critique, utilisées comme des catégories interlangues. De là leur insuffisance. Le problème qu'elles posent n'est autre que celui de la comparaison des langues, que j'ai évoqué ailleurs (Lazard 1999a et b). Depuis la naissance du structuralisme, on sait bien que les catégories des langues différentes sont toujours différentes. Elles peuvent se ressembler, mais ne coïncident jamais entièrement. Les notions traditionnelles comme celles de sujet, objet, parfait, passif, moyen, perfectif, subjonctif, etc., peuvent prendre un sens précis lorsqu'elles sont appliquées à telle langue particulière, mais, en tant de catégories générales applicables à n'importe quelle langue, elles sont mal définies. Elles se fondent sur la constatation, ou le sentiment, que dans diverses langues, voire de nombreuses langues, on peut identifier (et nommer de même) des catégories qui se ressemblent, c'est-à-dire qui ont un noyau sémantique commun et se traduisent souvent mutuellement (Lazard 1992). Mais il y a toujours des différences, c'est-à-dire des emplois dans telle langue qui n'ont pas de parallèle dans telle autre. Les notions traditionnelles ne font que refléter cette coïncidence partielle entre langues diverses : elles sont donc inévitablement vagues. Il n'y a pas de véritables catégories interlangues. Les prétendues catégories interlangues ne sont que des « quasi-catégories » (Lazard 1997b et c). Il en résulte que les « universaux » implicationnels du type « si une langue a une catégorie C1, elle a aussi une catégorie C2 », ne peuvent avoir de sens précis. Ils signifient seulement « si une langue a une quasi-catégorie QC1, elle a aussi une quasi-catégorie QC2 ». Ils expriment l'aperception d'une certaine relation entre deux notions floues, dont l'identité est seulement sentie. De telles propositions sont intéressantes et suggestives, mais elles ne satisfont pas l'exigence d'une véritable science du langage, dont l'objectif est de convertir en connaissance précise le sentiment confus de ce que les langues ont en commun. Comment faire mieux ? Ma thèse est que le linguiste doit se donner au départ des cadres conceptuels qui serviront d'instruments dans la comparaison des langues (Lazard 1999a et b). Ces cadres sont arbitraires, en ce sens qu'ils ne résultent pas d'un raisonnement rigoureux ni d'une observation systématique. Ce sont des définitions que le chercheur choisit librement, sur la base de son intuition, elle -même nourrie par sa connaissance générale du monde et particulièrement par son expérience des langues. A condition d' être précises, elles lui permettent d'échapper au flou des notions traditionnelles, d'élaborer des hypothèses vérifiables et de les confronter aux faits observables. La fécondité de la démarche dépend du cadre conceptuel choisi; sa rigueur et la précision des résultats dépendent de la méthode d'exploration des données de langues. Si, comme dans l'exemple ci-dessus, le point de départ est sémantique, le premier pas consiste à « descendre » du sémantique au morphosyntaxique, du contenu à la forme, en l'occurrence de la notion d'action prototypique à la CBM, selon la voie onomasiologique. Mais la suite consiste à confronter d'autres constructions à la CBM : elle se situe toute sur le plan des formes, c'est-à-dire des seuls phénomènes qui soient observables directement. Si l'on veut, dans un second temps (et ce sera souvent nécessaire), faire intervenir les sens convoyés par ces autres constructions, ils ne seront atteints que par la voie sémasiologique, en « montant » de la forme au sens, par les procédés habituels de l'analyse structuraliste. Ainsi sont évitées les incertitudes du recours direct au sens. L'ensemble de la démarche est telle que la part de l'intuition est strictement limitée au choix initial du cadre conceptuel. Les relations invariantes, ou présumées telles, qu'on aura ainsi découvertes (à supposer que le cadre conceptuel initial ait été bien choisi et s'avère fécond) prendront la forme de propositions précises et sans ambiguïté. La méthode esquissée ci-dessus, § 2.2, permet donc en principe d'aboutir à une formulation précise des propositions présentées comme des invariants. Reste à savoir si ces prétendus invariants en sont vraiment, c'est-à-dire si l'on peut les fonder objectivement. Nous formons l'hypothèse que oui. Cette objectivité peut être vérifiée, me semble -t-il, de deux façons. D'une part, les propositions sont confrontées aux données de fait offertes par les langues. Comme elles sont sans ambiguïté, elles peuvent être infirmées par les faits. Si ceux -ci offrent, à une proposition donnée, des contre-exemples dont il s'avère impossible de rendre compte par des conditions particulières, la proposition devra être abandonnée comme fausse. La condition posée par Popper qu'une conclusion scientifique doit pouvoir être « falsifiée » (infirmée) est donc respectée. Par exemple, l'universau greenbergien n° 1 n'est guère « falsifiable », parce que ses termes (sujet, objet) ne sont pas définis; en outre, il est souvent délicat de dire quel est, dans une langue donnée, l' « ordre canonique » des éléments (Dryer 1995). En revanche, si l'on raisonne à partir du cadre conceptuel évoqué ci-dessus (§ 2.2), les deux termes de la CBM sont facilement identifiables en toute langue; quant à l'ordre canonique, ce sera tout simplement celui des termes dans la CBM. Il sera donc aisé de voir si, dans cette construction, le représentant de l'agent (que nous appelons X) précède toujours le représentant du patient (que nous appelons Y) ou non. Le même raisonnement s'applique dans le cas de tous les invariants qui mettent en cause l'ordre des termes. Une autre façon de s'assurer de l'objectivité des invariants découverts est la suivante. Comme les cadres conceptuels initiaux sont arbitrairement choisis, il est toujours possible d'en changer. On peut donc explorer la même matière en prenant pour points de départ des cadres conceptuels différents. S'il apparaît que, en suivant ainsi des voies différentes, on aboutit à des conclusions semblables, on sera en droit de les regarder comme des résultats objectifs. Les invariants ne sont pas des unités linguistiques, mais des relations, qui peuvent être plus ou moins abstraites : on présume que les plus fondamentales sont aussi les plus abstraites (et les plus difficiles à formuler). Dans le « Memorandum » introductif du colloque de Dobbs-Ferry, Greenberg et coll. (1966 : XXI-XXII) en distinguent quatre types : « phonological, grammatical, semantic, and symbolic. In this classification, the first three involve either form without meaning or meaning without form, whereas the last, which is concerned with sound symbolism, involves the connection between the two. » La tripartition indiquée dans cette dernière phrase paraît plus importante que la quadripartition selon les secteurs de langue. Nous retenons donc la distinction entre les relations selon qu'elles impliquent seulement des formes ou seulement des contenus de sens ou la corrélation entre les deux. La plupart des universaux de la liste de Greenberg sont des invariants de forme. Il en va de même apparemment de nombre de ceux qui figurent dans l'archive de Plank (v. Plank et Filimonova 2000). Nous avons vu que certains d'entre eux ne se donnent pas pour des invariants absolus, c'est-à-dire sans exception, mais seulement des relations qui se vérifient dans une majorité de langues, et qui s'interprètent comme attestant, non une loi universelle, mais une tendance. En outre, il n'est même pas sûr que ces tendances soient démontrées. Les universaux en question sont encore plus ou moins subjectifs, étant fondés sur un échantillon de langues assez restreint. On a montré, par exemple, sur la base d'un échantillon de 700 langues réparties dans le monde entier, que « First, except for genitives, […] verb-initial languages do not exhibit any greater tendency than SVO languages to place modifiers after the noun. And, second, with the exception of genitives and relative clauses, OV languages are no more likely to place modifiers before the noun than VO languages are » (Dryer 1998 : 301). Finalement, même s'il existe effectivement des tendances générales régissant l'agencement des formes et se reflétant dans des situations plus ou moins nettement majoritaires, on peut se demander s'il est possible de trouver des invariants de forme qui soient véritablement absolus. En effet, toutes les langues sont malléables dans leur forme, et il n'est pas prouvé qu'il y ait une limite à leur malléabilité. Les effets d'aires montrent combien des langues de types radicalement différents peuvent s'influencer mutuellement. Même dans les cas où il existe une tendance puissante à associer tel trait A à un trait B et à exclure le trait B ', il est fort possible que, dans des conditions particulières, par exemple quand une langue minoritaire est soumise à l'influence constante d'une autre langue, elle en vienne finalement à associer B ' à A, en dépit de la tendance typologique. On peut donc douter que l'examen des formes seules puisse aboutir à la découverte de véritables invariants. Je suppose qu'il faut ranger ici des universaux tels que l'implication de l'existence, dans une langue, d'un pluriel par celle d'un duel (n° 34). Une telle relation pourrait bien s'avérer effectivement invariante. Elle paraît être directement en rapport avec l'expérience pratique de l'humanité. Elle ouvre assurément une perspective sur un aspect des processus cognitifs. Un exemple plus complexe nous est offert par l'étude de Cohen (1989) sur l'aspect. Ayant posé comme cadre conceptuel initial la combinaison de deux oppositions, l'une purement aspectuelle entre inaccompli et accompli, l'autre entre non-concomitant et concomitant (avec un repère temporel), l'auteur constate, après exploration d'une série de langues de types divers, que, dans l'évolution des systèmes aspectuels, les créations nouvelles sont toujours des formes exprimant la concomitance et que celles qui disparaissent ou prennent des valeurs modales sont toujours des formes non-concomitantes. Le phénomène peut être décrit comme un mouvement du concomitant au non-concomitant, puis à la disparition de la valeur aspectuelle, le tout corrélatif du renouvellement de l'expression du concomitant. Nous avons affaire ici à une relation diachronique apparemment invariante, qui met en cause une façon probablement universelle de conceptualiser les procès et, en même temps, un processus évolutif sans doute en rapport avec les conditions d'exercice du langage. La syntaxe de la proposition offre de bons exemples de relations présumées invariantes fondées sur la corrélation des contenus de sens et des formes qui les expriment. 1) Accord objectal différentiel. L'accord objectal consiste en ce que que la forme verbale porte un affixe (ou un clitique) qui varie en corrélation avec l'objet. Dans certaines langues (langues bantoues, finno-ougriennes, amharique, etc., et aussi, en un sens, langues balkaniques, cf. Lazard 1994 : 232-234, et 1996), cet accord a lieu ou non selon certaines propriétés de l'objet : ces propriétés sont le degré de définitude et le fait d' être thématique ou rhématique. Dans ce cas, c'est toujours l'objet défini et/ou thématique qui appelle l'accord et avec l'objet indéfini et/ou rhématique que le verbe ne s'accorde pas. En outre, si la langue admet une certaine liberté de l'ordre des mots, l'objet défini/thématique peut se déplacer dans la proposition et s'éloigner du verbe; l'objet indéfini/rhématique au contraire tend à rester au voisinage du verbe. On est ainsi amené à distinguer deux types de construction actancielle : un type « bipolaire », où le verbe et l'objet (indéfini/rhématique) forment ensemble un seul « pôle » en contraste avec celui que forme le sujet, et un type « tripolaire », où l'objet (défini/thématique) forme tout seul un pôle. Ce qu'on peut schématiser ainsi (l'ordre des sigles n'est pas significatif) : (1) 3) Transitivité. Plus généralement, on peut vraisemblablement poser comme universel un ensemble assez complexe de relations entre sens et forme, qui se laisse ranger sous la rubrique de la transitivité (Lazard 1994 : 247-253, et 1998). Si l'on pose comme repère fixe la notion d'action prototypique et, en toute langue, comme « construction biactancielle majeure » la construction qui sert à l'exprimer, on constate, dans beaucoup de langues, l'existence de constructions biactencielles différentes, dont le contenu se distingue, par un trait ou un autre (ou plusieurs), de l'action prototypique, et dont la forme se rapproche, d'une manière ou d'une autre, de celle de la construction uniactancielle. On est ainsi amené à concevoir la transitivité comme une grandeur graduelle, et on peut construire l'échelle (2), qui est une représentation des degrés de transitivité, depuis le maximum sémantique (action prototypique) et morphosyntaxique (construction biactancielle majeure) jusqu'au minimum ou intransitivité sémantique (procès n'impliquant qu'un participant) et morphosyntaxique (construction uniactancielle). Entre les deux se situent des constructions « intermédiaires », qui expriment des procès à deux participants qui ne sont pas des actions prototypiques : une même langue peut posséder plusieurs constructions intermédiaires : (2) Les détails varient d'une langue à l'autre, aussi bien sur le plan sémantique que sur le plan morphosyntaxique. Mais il semble bien que les relations soient partout conformes au schéma (2). Ces trois relations présumées invariantes engagent à la fois des sens, c'est-à-dire des aspects de la représentation du monde, et des formes qui les expriment, c'est-à-dire des faits proprement linguistiques. Elles n'ont de sens et d'intérêt que par la corrélation que l'on constate entre les uns et les autres. Elles sont sensiblement plus complexes que les universaux le plus communément allégués. Ce ne sont pas de simples relations d'implication entre deux propriétés, mais une certaine distribution de formes en corrélation avec une certaine distribution de sens, et ces distributions sont telles que, variables d'une langue à l'autre, elles n'en manifestent pas moins une régularité générale spécifique. De semblables régularités sont le produit de l'interaction des processus cognitifs et des conditions de l'activité langagière. Elles sont donc enracinées au cœur même du langage, et, comme telles, elles ont de bonnes chances d' être véritablement universelles .
L'A. tente de cerner la nature des invariants ou universaux linguistiques, en prenant comme point de départ les propositions établies par Greenberg, posant une certaine relation entre des éléments du langage, soit relation d'ordre, soit implication de présence ou d'absence. Après une critique de ces premières tentatives, l'A. considère les invariants comme des relations abstraites qui engagent à la fois des sens, des formes et leurs corrélations. Cette étude tente ainsi de mettre en place des cadres conceptuels nécessaires à l'étude de la comparaison des langues.
linguistique_524-04-11768_tei_638.xml
termith-566-linguistique
La Lorraine dite germanophone est une région française où l'on parle depuis plus de 1 000 ans le francique, un dialecte (ou langue, sur le plan sociolinguistique) moyen-allemand. Nos recherches sur la Lorraine germanophone se font dans le cadre d'une thèse de doctorat à l'université de Vienne (Autriche), université ayant participé au projet européen LINEE (Languages in a network of European Excellence 2006-2010). Ce réseau d'excellence scientifique avait pour but d'étudier la diversité linguistique en Europe d'une façon cohérente et interdisciplinaire. Nos recherches se concentrent sur le francique rhénan parlé à Freyming-Merlebach. Cette agglomération d'environ 14 500 habitants se trouve au centre du Bassin Houiller de Lorraine où, jusqu'en 2003, on a exploité le charbon. Freyming-Merlebach garde toujours son aspect de ville minière marquée par les chevalements et les cités. Nous avons voulu, dans cette recherche, mieux connaitre le dynamisme du francique, pensant que cette étude micro pourrait avoir une valeur généralisante pour l'aire francique de nationalité française. Concernant la situation linguistique en Lorraine germanophone, nos recherches s'orientent autour de deux interrogations : nous voudrions savoir quelle est la vitalité du francique et quelles sont les raisons de sa survie ou de son déclin. Afin de pouvoir répondre à ces questions, nous avons décidé de conjuguer méthodes quantitatives et qualitatives. En juillet 2007, nous avons effectué une enquête quantitative à l'aide d'un questionnaire envoyé à 700 Freyming-Merlebachois qui avaient été choisis au hasard, à l'aide de l'annuaire : 200 questionnaires ont été reçus. Les données ainsi relevées ont été analysées statistiquement au moyen de SPSS (Statistical Package for Social Sciences). Un deuxième séjour de recherche, en février 2008, a servi à recueillir des données qualitatives dans le cadre de 11 interviews narratives dont le contenu a été classé en catégories selon des critères qualitatifs. Dans cet article nous nous limiterons aux résultats de l'analyse du profil de la communauté et du questionnaire. L'établissement d'un profil de la communauté, en tant que méthode scientifique, a d'abord été utilisé afin d'analyser l'emploi de langues ainsi que les attitudes et réactions subjectives envers différentes langues (Wölck, 2004 : 169). Dans les années 1970 et 1980, on a commencé à se servir de cette méthode pour constituer un échantillon représentatif d'une population donnée (Wölck, 1976, 1985). De plus, le profil de la communauté facilite également la formulation d'hypothèses et l'élaboration de questionnaires (Labrie et Vandermeeren, 1996 : 765). Établir le profil d'une communauté passe par des recherches documentaires, par l'observation, mais on a aussi recours à des « témoins privilégiés »; et cela se traduit par la description des facteurs – géographiques, démographiques, politiques, culturels, économiques, etc. – qui influencent ou déterminent le comportement langagier mais aussi le contexte du contact des langues, c'est-à-dire les conflits linguistiques, les attitudes langagières et l'identité linguistique entre autres. Certes, ces facteurs et éléments contextuels peuvent varier d'une communauté à l'autre en ce qui concerne leur importance relative (Labrie et Vandermeeren, 1996 : 764, 769). Le but de l'analyse des profils de la communauté est par conséquent de découvrir les principales distinctions sociales ou divisions structurales dans une communauté et d'identifier un sous-ensemble de la population qui est représentatif de ces divisions et de ces traits dans ses propres caractéristiques, dans l'attente de trouver éventuellement les divisions et les traits sociaux qui pourront être mis en parallèle ou corrélés avec des traits linguistiques ou avec des différences dans les usages linguistiques. (Labrie et Vandermeeren, 1996 : 767). Nous adoptons ici l'approche de Jeroen Darquennes (2005 : 47-64) qui structure le processus d'élaboration du profil d'une communauté en quatre étapes afin de regrouper les nombreux éléments déjà existants dans le discours scientifique concernant cette méthode. Ces étapes sont les suivantes : étude de la littérature, enquête (élaboration et réalisation), analyse et interprétation, voire discussion. L'analyse du profil de la communauté représente une approche surtout inductive de la matière à étudier : le chercheur se rend d'abord « à l'intérieur » de la communauté à étudier et c'est seulement ensuite qu'il formule ses hypothèses. Certes, il n'ira pas sur le terrain sans avoir en tête des questions de recherche préalables. Par contre, le choix définitif des concepts théoriques à appliquer se fera ultérieurement à l'élaboration du profil et à la formulation des hypothèses. Le profil de la communauté nous a permis de formuler des hypothèses générales pour chacune de nos questions de recherche. Le prochain pas consiste à choisir les concepts théoriques aptes à la vérification ou falsification des hypothèses formulées. Concernant la première question de recherche (Quelle est la vitalité du francique ?), nous supposons que le francique est en voie de disparition et que la langue maternelle des jeunes générations est désormais le français. Quant à la deuxième question de recherche (Quelles sont les raisons de la vitalité ou du déclin du francique ?), nous partons de l'hypothèse qu'une des raisons principales est à trouver dans la politique linguistique de l' État français, notamment depuis 1945. Les deux principales orientations théoriques à appliquer concerneront donc la vitalité d'une langue d'une part, et la politique linguistique d'autre part. Dans les années 1970, Howard Giles, Richard Bourhis et Donald Taylor ont essayé de déterminer les facteurs qui influencent la vitalité d'une communauté et de la langue (des langues) qu'elle utilise. Selon eux, la « vitalité ethno-linguistique » est liée au statut (aussi de la langue), à la démographie et au soutien institutionnel (Giles, Bourhis et Taylor, 1977 : 309). Joshua Fishman, lui, étudie les raisons de la faible vitalité de certaines langues (Fishman, 1991 : 55-65). Il les trouve dans la « dislocation » physique, démographique, sociale et culturelle d'une communauté. Quant à la vitalité d'une langue, elle ne peut être garantie que lorsque la langue est transmise aux générations suivantes (Fishman, 1991 : 113). Afin d'analyser la politique linguistique, nous nous inspirons des « huit questions » de Robert Cooper (1989 : 98) citées par Normand Labrie (1996 : 831) : 1. Quels acteurs 2. cherchent à influencer quels comportements 3. de quelles personnes 4. dans quels buts 5. dans quelles conditions 6. par quels moyens 7. au truchement de quels processus décisionnels 8. avec quel effet ? Nous ne nous attarderons pas à reproduire ici les discours riches et variés sur les différentes notions comme « politique linguistique » ou bien « aménagement linguistique ». Nous sommes d'avis que les questions de Robert Cooper représentent un moyen adéquat pour décrire les éléments agissant dans le processus qu'est la politique linguistique en Lorraine germanophone. Par politique linguistique, nous entendons toute activité implicite et/ou explicite qui sert à maintenir ou à changer une certaine situation sociale, en particulier linguistique (Rindler et Vetter, 2003). Le facteur « pouvoir » se trouve au centre de cette approche critique, ce qui veut dire qu' à travers la politique linguistique, une langue devient le symbole du pouvoir, et qu'en tant que tel, elle est instrumentalisée afin de maintenir ou de changer certaines situations sociales. Comment sommes -nous arrivée à établir le profil de la communauté ? Après avoir consulté les ouvrages scientifiques ayant déjà été rédigés sur la Lorraine germanophone, nous avons effectué plusieurs séjours de recherche en Lorraine germanophone, depuis 2002, pendant lesquels nous avons visité les archives locales et parlé avec des témoins privilégiés tels que des enseignant-e-s, militant-e-s, auteur-e-s, hommes / femmes politiques, journalistes, etc. La Lorraine germanophone est en fait une partie du départment de la Moselle – on parle d'ailleurs aussi de Moselle germanophone. Les départements de la Moselle, la Meuse, la Meurthe-et-Moselle et les Vosges forment la région lorraine qui se trouve à l'est de la France, aux frontières de l'Allemagne, de la Belgique et du Luxembourg, ainsi que de l'Alsace. La langue autochtone de la Lorraine germanophone est le francique, une langue germanique issue du moyen-allemand. Dans la région, on le nomme le plus souvent « le platt » (à ne pas à confondre avec les dialectes allemands parlés dans le nord de l'Allemagne) mais on l'appelle également « le patois » ou « le dialecte », ou le « dialekt ». La dénomination la plus juste du point de vue linguistique – « francique » – n'est pas très répandue. Le francique en Lorraine germanophone présente trois grandes variantes : le francique luxembourgeois, le francique mosellan et le francique rhénan. Il faut préciser que la même variante du francique peut elle -même varier de ville en ville mais que, normalement, les populations se comprennent. Le francique luxembourgeois est en même temps la troisième langue nationale du Grand Duché du Luxembourg, avec l'allemand et le français. Le département de la Moselle est partagé par une frontière linguistique entre langues germaniques et langues romanes, frontière qui se déplace de plus en plus vers l'est. Maurice Toussaint a tenté de la dessiner en 1955 en comparant sa nouvelle ligne avec celles établies auparavant par d'autres chercheurs comme Hans Witte ou Constant This (Toussaint, 1955 : 40-58). Concernant la stabilité de la frontière linguistique il fait la remarque suivante : Il ne saurait cependant faire de doute que nulle part, en Moselle, le français n'est en régression et qu'au profit de notre langue, l'allemand et les patois germaniques perdent et perdront de plus en plus de terrain. (Toussaint, 1955 : 58) À peu près la moitié des communes du département (au total 727) se trouve dans l'aire germanophone. Selon le dernier sondage officiel datant des années 1960, environ un tiers de la population de la Moselle, soit environ 300 000 personnes, était encore bilingue. Une enquête effectuée pour l'Institut national des études démographiques dans le cadre du recensement 1999 ne comptait plus que 78 000 locuteurs du francique (Philipp, 2003 : 55). Le francique rhénan parlé à Freyming-Merlebach était traditionnellement la langue du fond, la langue de la mine (Atamaniuk, 1998 : 76). Il faut ajouter que, pendant l'exploitation du charbon, de nombreux immigrés (surtout d'origine polonaise et italienne) sont venus travailler dans les mines. Cette immigration aurait pu contribuer au déclin de la langue régionale mais on remarque que les immigrés ont souvent été intégrés via le francique. Seul le domaine des cadres supérieurs des HBL (Houillères du Bassin Lorrain) était reservé au français. Une autre raison invoquée de cet affaiblissement de la vitalité du platt est le brassage de population, du fait de l'immigration étrangère ou francophone. Cependant, les plus anciens immigrés, en provenance des pays de l'Est (de Pologne notamment) avaient très rapidement adopté comme langue maternelle le platt, langue de la mine, du village et des premières cités minières (Rebaudières-Paty, 1985 : 19). Le département de la Moselle ainsi que ses habitants ont été ballottés entre la France et l'Allemagne au gré de plusieurs guerres. Au xx e siècle, les Mosellans ont changé trois fois de nationalité. Après chaque changement, il fallait prouver qu'on était un bon Français ou un bon Allemand. Après une période allemande de presque cinquante ans, la Moselle est retournée dans « le giron de la France » en 1918 après la Grande Guerre. Ce retour ne s'est pas déroulé sans heurts et c'est dans l'Entre-deux-Guerres que naissent les premiers mouvements autonomistes et régionalistes. La seconde guerre mondiale entraine un autre changement de nationalité et la Moselle fait désormais partie du Reich allemand. Cette guerre est à l'origine, chez les Mosellans, d'un traumatisme collectif qu'on appelle aujourd'hui le « malaise identitaire ». Ce malaise existe toujours, bien qu'il soit très enfoui dans la conscience collective. Cela explique notamment la difficulté des Mosellans germanophones à se référer à leurs racines germaniques. Pour la question concernant la vitalité du francique, nous formulons donc l'hypothèse suivante : le francique est en voie de disparition et la langue maternelle des jeunes générations est désormais le français. Au regard des chiffres de locuteurs du francique que nous avons à notre disposition (cités ci-dessus), on constate en effet que la langue régionale de la Lorraine germanophone est en train de régresser. Cornelia Stroh a découvert dans son étude sociolinguistique que les fonctions du francique en tant que moyen de communication en général sont fortement réduites (Stroh, 1993 : 153,171). Dans le domaine public, le français domine. Radios et télévisions sont diffusées entièrement en français (cela ne vaut, certes, pas pour les chaines allemandes et luxembourgoises qu'on peut capter en Lorraine germanophone) et le dernier journal en langue allemande a disparu en 1989. À cette occasion, le Républicain Lorrain, journal régional français, titre en couverture « Mission accomplie ». Le francique, c'est donc surtout la langue des grands-parents, la langue qu'on parle à la maison; et avec la fermeture des mines de charbon, le dernier lieu de travail « plattophone » n'existe plus. Quant à la transmission du francique aux générations suivantes, l'enquête de Stéphanie Hughes (menée parmi les « frontaliers », c'est-à-dire les Mosellans travaillant en Allemagne ou au Luxembourg) montre que la plupart des parents parlent français avec leurs enfants et que la jeune génération grandit en n'apprenant qu'une langue (le français), même si la génération des parents est encore bilingue (Hughes, 2005 : 146, 147). Pour le francique, il n'y a d'ailleurs pratiquement pas de soutien institutionnel – dans le domaine éducatif par exemple, il ne joue qu'un rôle marginal. Dans le Bassin Houiller il y a pourtant une association pour la promotion et la défense de la langue et de la culture régionales en Moselle francique qui s'appelle « Bei uns dahem ». Elle a son siège à Freyming-Merlebach et fait partie de la Fédération pour le Lothringer Platt qui regroupe toutes les associations luttant pour la sauvegarde du francique en Moselle germanophone. Si on regarde la situation dans le Bassin Houiller, le francique y est premièrement considéré comme un moyen d'expression orale, comme un dialecte ou un patois. Il ne jouit donc pas du statut d'une langue écrite. Il y a pourtant des textes, de la littérature et des sites internet en francique. Le GERIPA (Groupe d'études et de recherches interdisciplinaires sur le plurilinguisme en Alsace et en Europe) a élaboré une charte de la graphie harmonisée des parlers franciques en 2004 afin de regrouper les différentes variantes (GERIPA, 2004). Mais il ne s'agit que d'un premier pas vers la standardisation du francique rhénan utilisé dans le Bassin Houiller. Le francique luxembourgeois (parlé dans le nord du département de la Moselle) présente, quant à lui, l'avantage d' être langue nationale au Luxembourg et il est donc standardisé. Pour résumer nos propos, nous pouvons constater que le francique parlé dans le Bassin Houiller est, peut-être, en voie de disparition : la transmission de la langue régionale aux plus jeunes générations n'est plus garantie, il n'y a pratiquement pas de soutien institutionnel pour le francique, le nombre de personnes l'ayant comme langue maternelle diminue de plus en plus et le francique du Bassin Houiller n'a qu'un statut très limité. Pour la question des raisons du déclin du francique, il faut se tourner vers la politique linguistique de l' État français, notamment depuis 1945. Comme exposé plus haut, on peut, selon Joshua Fishman, trouver des raisons à la faible vitalité de certaines langues dans la « dislocation » physique, démographique, sociale et culturelle d'une communauté. Dans le cas de la Lorraine germanophone, nous supposons que cette « dislocation » est aussi due à la politique linguistique exercée notamment par l' État francais. Dans ce qui suit, nous tenterons de montrer comment cette politique a contribué à une « dislocation », au sein de la communauté germanophone en Lorraine. Nous nous servirons du questionnement proposé par Robert Cooper et nous nous limiterons à une certaine période, l'après-guerre, la seconde guerre mondiale étant décisive pour la forme de la politique linguistique depuis 1945. Quant à la « dislocation » physique et démographique, le fait que l'aire germanophone ne représente qu'une partie du département de la Moselle et que le centre administratif, la préfecture de Metz, soit une ville francophone, complique tout lancement de mesures favorables à la langue régionale. La communauté germanophone ne dispose par conséquent pas de région géographique clairement délimitée, à laquelle elle pourait se référer afin de construire son identité. En plus, la Lorraine se trouve à la périphérie de la France, loin du centre décisionnel, et les zones périphériques peuvent très souvent être qualifiées de zones souffrant de « manques » (Geiger-Jaillet, 1995 : 316). Dans le cas de la Lorraine germanophone, ce sont surtout les conflits français-allemands qui ont nui à la région, en la déstabilisant politiquement mais aussi en contribuant à sa « dislocation » culturelle et sociale. Depuis la Révolution française, la langue française est devenue le symbole d'une nation une et indivisible – rendant suspecte toute personne française qui parle une autre langue. On se voit donc confronté à une francisation visant premièrement les périphéries, les régions susceptibles de mettre la stabilité de la nation en danger. Comme le français représente aussi la langue garantissant la promotion sociale dans l'Hexagone, parler une langue régionale devient par conséquent de moins en moins gratifiant. En Lorraine germanophone, il faut de plus compter avec la spécificité du traumatisme collectif infligé par la seconde guerre mondiale, facteur qui favorise lui aussi la francisation. Pourquoi ? Au début de la guerre, toute la population « devant » la Ligne Maginot est evacuée « à l'intérieur » de la France où les Mosellans se voient traités de « Boches » à cause de la langue régionale qu'ils parlent. Après leur retour en Moselle, les jeunes Lorrains sont incorporés de force dans l'armée allemande. Refus ou désertions ont eu de graves conséquences pour eux et leur famille. Ces hommes sont appelés les « Malgré -Nous ». Pendant la guerre, la région fait l'objet d'une germanisation rigoureuse. En 1945, une page se tourne : la Lorraine revient à la France et la langue régionale devient la langue de l'ennemi. La politique linguistique d'après-guerre visant à la francisation se réalise alors sur un sol fertile : ayant subi les horreurs des Nazis, les Mosellans sont prêts à devenir de bons Français. Le domaine d'intervention le plus important est l'école. Juste après la guerre on ne pensait par exemple absolument pas à l'enseignement de l'allemand. Afin d'accélerer la francisation de la population, on faisait venir des enseignants francophones et, jusque dans les années 1980, il y avait une heure de français par semaine de plus pour les élèves en Moselle. Le francique était systématiquement interdit à l'école. La « Loi Deixonne » du 11 janvier 1951 ne parle pas du francique; l'option « Langue et Culture Régionales » au baccalauréat, qui a été créée avec la « Circulaire Savary » en 1982, n'est introduite en Lorraine germanophone qu'en 1986. La « Circulaire rectorale langue et culture régionales : Voie spécifique mosellane » du 10 septembre 1990 est le premier texte s'occupant exclusivement du rôle du francique dans l'enseignement en Lorraine germanophone. Ce texte est au début d'une nouvelle forme de politique linguistique que les associations commme Bei uns dahem appellent la « politique du tout allemand ». Les dialectes mosellans, dans leurs multiples variantes, sont l'expression d'une culture régionale. […] Ces dialectes sont aussi un tremplin naturel vers l'allemand, leur langue de référence qui est donc pour les dialectophones une véritable langue régionale. (Circulaire rectorale langue et culture régionales, 1990) Du côté officiel, ce n'est donc pas le francique qui est considéré comme la vraie langue régionale de la Moselle gemanophone mais l'allemand standard. Ce dernier est, par conséquent, retenu comme objet d'enseignement lorsqu'il s'agit d'enseigner la langue régionale (Bulletin Officiel, 2003). Cette argumentation officielle fait que l'on favorise l'enseignement de l'allemand standard (s'appuyant surtout sur l'argument que celui -ci est la langue du voisin) pendant que le francique disparait des écoles, même dans les espaces intersticiels. Dans un arrêté du 25 juillet 2007 sur les programmes de langues régionales pour l'école primaire, les dialectes mosellans/dialectes franciques ne sont même plus mentionnés. Article 1 – Les programmes de langues régionales pour l'école primaire sont fixés par les annexes jointes au présent arrêté en ce qui concerne le basque, le breton, le catalan, le corse et l'occitan langue d'oc. (Bulletin Officiel, 2007) Cet arrêté a entrainé la protestation de la Fédération pour le Lothringer Platt qui a revendiqué la ré-introduction de la langue régionale de la Moselle germanophone, en utilisant l'appellation « francique luxembourgeois, mosellan et rhénan ». Les responsables ont alors modifié l'arrêté mais gardé l'expression « langue régionale d'Alsace et des pays mosellans ». En résumé, nous pouvons dire que les acteurs de la politique linguistique de l' État français depuis 1945 font surtout partie du système éducatif. C'est avant tout dans ce domaine qu'il est possible d'influencer le comportement langagier des plus jeunes. Ainsi, la génération née après la seconde guerre mondiale, ayant encore le francique comme langue maternelle, a été francisée via l'école. Ce n'est que très rarement que ces personnes -là ont transmis le francique à leurs enfants. Vu l'amitié franco-allemande, le but de la politique linguistique n'est depuis longtemps plus de contourner l'allemand : la promotion de l'allemand standard en tant que langue du voisin et aussi langue européenne est centrale dans la conception de l'enseignement des langues étrangères en Moselle. La langue régionale, elle, y figure beaucoup moins clairement, risquant continuellement de disparaitre des programmes. Ce fait peut s'expliquer par les conditions dans lesquelles la politique linguistique se déroule. Bien que nous vivions aujourd'hui dans une Europe unie et pacifique qui respecte la diversité linguistique, il semble difficile d'effacer le passé. Dans le cas de la Lorraine germanophone, la seconde guerre mondiale est à l'origine d'une politique linguistique d'après-guerre hostile à tout ce qui était allemand. Ce conflit atroce a d'ailleurs provoqué un traumatisme collectif mosellan qui peut expliquer la passivité des Mosellans germanophones face à la francisation. Dans de telles conditions, tout moyen de politique linguistique sera décisif. Après des années de non-existence du francique dans le domaine éducatif, il s'avère très difficile de le ré-introduire dans les écoles d'autant plus que sa vitalité est faible et que les élèves n'ont plus les compétences nécessaires. Quant aux processus décisionnels en marche derrière la politique linguistique actuelle en Lorraine germanophone, le choix de la langue à promouvoir est d'une grande importance. Le choix de l'allemand standard comme objet d'enseignement dans les cours de langue régionale est justifié par les arguments suivants : l'allemand standard représente la “langue-toit” du francique, c'est la langue du voisin et c'est une langue qui facilite les échanges transfrontaliers, il est standardisé, on « peut » donc l'enseigner, c'est-à-dire que les manuels, les programmes, les enseignants, etc. sont disponibles. L'effet de cette politique linguistique depuis 1945 se voit à travers le déclin actuel du francique en Lorraine germanophone. Le but initial, la francisation de la population, semble désormais atteint. Les résultats de l'enquête quantitative à l'aide d'un questionnaire confirment les résultats relevés au moyen du profil de la communauté. L'analyse de la première question du questionnaire (« Veuillez indiquer les langues et variétés linguistiques locales que vous connaissez. ») montre que le multilinguisme et la diversité linguistique dans le Bassin Houiller Lorrain sont un fait : seuls 10 % des personnes interrogées déclarent ne connaitre qu'une seule langue et plus de 80 % indiquent connaitre une variété linguistique locale. Parmi ces 163 personnes, 146 se réfèrent de manière explicite à la langue régionale du Bassin Houiller, le francique rhénan. Comme la vitalité d'une langue ne peut être garantie que lorsque la langue est transmise aux générations suivantes (voir Fishman, 1991 : 113), nous avons aussi analysé l'usage des langues dans le domaine familial, entre parents et enfants. Statistiquement, il n'y pas de différence significative quant à l'usage des langues avec les enfants en ce qui concerne le sexe des personnes interrogées. Le tableau statistique en question est cependant important car il nous donne des informations sur la vitalité du francique rhénan via son usage en contact avec des enfants. Le tableau montre qu'au total seuls 17 hommes et 9 femmes utilisent le francique rhénan avec leurs enfants. Pour la vitalité d'une langue, les langues qu'utilise la mère jouent un rôle central dans la mesure où c'est avant tout elle – d'après certains chercheurs, mais tous ne sont pas d'accord – qui garantit leur transmission à la génération suivante. Le fait que, dans tout l'échantillon, seulement 9 femmes parlent le francique rhénan avec leurs enfants confirmerait que sa vitalité est faible et qu'elle risque d' être en déclin. Mais il ne faut pas oublier, bien sûr, qu'il s'agit d'une enquête déclarative et non pas d'une constatation de pratiques. La question se pose ensuite de savoir si les personnes qui ont elles -mêmes été socialisées en francique rhénan renoncent ou pas à faire la même chose avec leurs propres enfants. À ce sujet, l'analyse fournit un résultat significatif : plus de personnes que prévu ayant parlé le francique rhénan avec leurs parents le parlent aussi avec leurs propres enfants. Il est par ailleurs normal que plus de personnes que prévu n'ayant pas parlé le francique rhénan avec leurs parents ne le parlent pas non plus avec leurs propres enfants. Le chiffre total des gens parlant le francique rhénan avec leurs enfants actuellement est intéressant : il ne s'élève qu' à 26. Pourtant, parmi les mêmes gens (au total 145), 82 ont utilisé/utilisent le francique rhénan avec leurs propres parents. Nous avons essayé d'examiner la vitalité de la langue régionale en Lorraine germanophone, plus précisement dans le Bassin Houiller Lorrain. Le déclin du francique dans cette région est particulièrement marqué, la langue maternelle des jeunes générations étant aujourd'hui, dans la plupart des cas, le français. La transmission de la langue régionale aux plus jeunes générations n'est plus garantie. Par conséquent, le nombre de personnes l'ayant comme langue maternelle dans le Bassin Houiller lorrain semble diminuer de plus en plus. Nous avons ensuite analysé le rôle que la politique linguistique de l' État français a sans doute joué dans ce déclin du francique en Lorraine germanophone. Nous limitant à la période de l'après-guerre, nous avons pu constater que les conditions générales étaient favorables à la francisation et que les interventions étaient particulièrement efficaces dans le domaine éducatif. L'effet de la politique linguistique depuis 1945 se voit à travers le déclin du francique; et son but initial, la francisation de la population, est dans le Bassin Houiller désormais atteint – jusqu' à nouvel ordre. Reste à espérer que le francique continue à être parlé dans d'autres zones du département de la Moselle. Nous pouvons donc conclure que la politique linguistique a joué (et joue encore) un rôle décisif quant à la perte de vitalité du francique en Lorraine .
Dans notre article nous examinons la vitalité du francique rhénan parlé à Freyming-Merlebach dans le centre du Bassin Houiller de Lorraine. Nous nous intéressons particulièrement aux raisons du déclin de cette langue régionale de France et, afin de répondre à nos questions de recherches, nous avons conjugué méthodes quantitatives et qualitatives. Les résultats montrent que le déclin du francique dans le Bassin Houiller Lorrain est particulièrement marqué, la langue maternelle des jeunes générations dans la plupart des cas étant aujourd'hui le français. C'est la politique linguistique de l'État français qui a joué un rôle décisif dans ce déclin du francique en Lorraine germanophone. Nous limitant à la période de l'après-guerre, nous avons pu constater que les conditions générales étaient favorables à la francisation et que les interventions étaient particulièrement efficaces dans le domaine éducatif.
linguistique_12-0328642_tei_879.xml
termith-567-linguistique
« Casseurs de pub » est une association militante, libre et indépendante, créée en 1999 par Vincent Cheynet, ancien directeur artistique chez Publicis, dont le double objectif est de critiquer la société de consommation et de promouvoir la décroissance soutenable afin de tenter de faire adopter aux lecteurs-cibles un comportement de consommation alternatif. Comme leur nom l'indique, les Casseurs de pub s'attaquent prioritairement à la publicité, symbole de la société de consommation de masse. Pour eux, la publicité donne un modèle de vie conforme à tous et inhibe la liberté de chacun ainsi que la possibilité de s'affirmer en tant que personne et citoyen. La publicité est comparée à une doctrine violente, telle que le totalitarisme, qui condamne la liberté de pensée. Depuis 1999, l'association publie un dossier annuel, Casseurs de pub. La revue de l'environnement mental, dans lequel plusieurs discours publicitaires sont détournés pour critiquer la mondialisation uniformisatrice, la consommation de masse, le diktat des marques, la malbouffe industrielle, le nucléaire, etc. Le noyau initiateur de cette association provenant du monde de la publicité, nos questionnements sont les suivants : comment le détournement du discours publicitaire permet-il de critiquer les politiques de consommation de masse ? Et quelles sont les techniques marketing qui sont empruntées pour se mettre au service d'une nouvelle rhétorique propre aux Casseurs de pub ? D'une part, nous considérons le « contrat de communication » (Charaudeau, 2005a; 2005b) et la double « visée argumentative » (Amossy, 2000) du discours des Casseurs de pub. D'autre part, nous dégageons les principales stratégies discursives mises en œuvre par les Casseurs de pub (aux niveaux icono-graphique, logico-linguistique, rhétorico-sémantique, textuel, interdiscursif et rhétorique) dans l'ensemble des détournements de discours publicitaires diffusés de 1999 à 2005. Cette analyse s'inscrit dans un cadre théorique d'analyse argumentative du discours (Amossy, 2000) et adopte une approche méthodologique sémio-discursive (Charaudeau, 2005b). Les discours des Casseurs de pub se situent à la frontière des champs du politique et du médiatique. Par le biais de journaux ou de dossiers, ils cherchent à influencer les opinions de leurs lecteurs-cibles afin d'obtenir une adhésion à leur univers de valeurs. Le dispositif médiatique est important à prendre en considération puisqu'il définit le contrat de communication entre l'instance de production, qui agit de manière volontaire, et l'instance de réception, construite en lecteurs-cibles. Ce contrat de communication repose sur un impératif contradictoire, puisque, dans un objectif démocratique, les Casseurs de pub se donnent un rôle d'informateur en quête de crédibilité vis-à-vis des lecteurs-cibles (construction d'un ethos), mais, dans une visée de captation, ils cherchent à susciter l'intérêt de ceux -ci et à les séduire à des fins de persuasion (appel au pathos). Une autre instance est à prendre en compte dans le contrat de communication des Casseurs de pub, celle d'opposition, puisque la visée argumentative de cette association se construit pratiquement toujours en fonction d'un discours d'opposition : le discours publicitaire, qui représente l'ensemble des acteurs défendant la société de consommation de masse. La stratégie de détournement des Casseurs de pub permet de confronter dans une même aire scripturale deux discours antagonistes. L'instance adverse, partageant des valeurs opposées, est souvent stigmatisée comme étant la source du Mal et est disqualifiée par différentes stratégies discursives. Pour convaincre de la vérité de leur discours, les Casseurs de pub (le « Proposant ») contestent le « contre-discours » de l'autre (le discours publicitaire, tenu par l' « Opposant »), devant un « Tiers » indécis, le lecteur-cible, que l'on cherche à convaincre (Plantin, 1996, p. 27). La référence à ce dispositif triadique comprenant trois instances (instances de production, de réception et d'opposition), exposé par Patrick Charaudeau (2009, p. 25), permet d'affiner la définition du discours des Casseurs de pub en termes de « discours propagandiste » (ibid). La visée du discours propagandiste est d'inciter son destinataire à « faire-savoir » pour « faire-faire » en passant par un « faire-croire » – contrairement au discours informatif qui cherche à « faire-savoir » pour « faire-savoir ». Voyons en termes de « visée argumentative » à quels « faire-savoir » et « faire-faire » cela correspond concrètement. Les Casseurs de pub mettent en œuvre une organisation discursive particulière ayant pour but d'imposer aux lecteurs-cibles leur vision des choses. Il n'est pas question de convaincre d'une vérité car il existe autant de vérités que de discours énoncés (Veron, 1989, p. 82), mais il s'agit de tenter de faire partager des valeurs de vérité en employant des arguments relevant de la raison (du logos) et de la passion (ethos et pathos). Cependant, leur objectif ne s'arrête pas là puisqu'il s'agit non seulement de faire partager certaines valeurs mais aussi de tenter de changer le comportement des lecteurs-cibles. Comme nous l'avons précisé dans l'introduction, la double visée argumentative des Casseurs de pub est, d'une part – en rapport au « faire-savoir » – de critiquer la société de consommation de masse et de promouvoir la décroissance soutenable afin, d'autre part – en rapport au « faire-faire » – d'encourager les lecteurs-cibles à entrer dans l'action. L'objectif est de les convaincre de boycotter tout ce qui se rattache à la société de consommation de masse (ne plus aller dans les grandes surfaces, ne plus se déplacer en automobile, ne plus aller dans des restaurants d'alimentation rapide…) et de tenter de leur faire adopter un comportement de consommation alternatif (aller dans les petits commerces, privilégier le vélo comme moyen de transport non polluant, faire son jardin…). Nous avons rencontré dans le corpus onze configurations sémiotiques de discours publicitaires détournés : il peut s'agir de visuels seuls (images, photographies, photomontages) ou d'iconotextes mobilisant simultanément le verbal et le visuel. À l'intérieur de ces configurations, il est possible d'adopter une entrée icono-graphique allant de l'identification des variables visuelles au recours aux codes iconique (permettant d'identifier les objets du monde), iconologique (permettant d'identifier les métiers et les institutions) et iconographique (permettant d'identifier les individualités notoires, réelles ou fictionnelles), à l'analyse des degrés d'iconicité, des aires scripturales, des parcours de lecture, des entailles et des isotopies. Dégageons les caractéristiques marquantes ayant un rôle dans la construction du sens des fausses publicités que nous avons analysées. La variable visuelle « orientation » joue un rôle important dans l'iconotexte « Auchan. La vie, la vraie » tiré du dossier de 2002, p. 15 : l'oiseau, qui forme la barre horizontale de l'initiale de la marque Auchan, a pivoté dans le sens contraire, la tête en bas (figure 1). La forme arrondie de couleur bleue représentant la planète terre est utilisée de manière récurrente. Elle est parfois volontairement déformée, comme dans l'exemple tiré du dossier de 2001, p. 46, où la planète est écrasée et marquée par l'empreinte d'un pneu. La valeur clair/obscur est ensuite exploitée pour renforcer l'opposition entre un avant (le clair présentant un état actuel) et un après (l'obscur présentant une situation catastrophique), comme dans l'iconotexte publié dans le dossier de 2003, p. 64-65. Les variables « couleur » et « forme » servent par ailleurs de repérage des marques, qu'elles soient reproduites d'une manière fidèle ou non. Toutefois, pour l'identification de ces marques, le lecteur a besoin de mobiliser des connaissances encyclopédiques. Le rouge et le jaune et les arcs de cercles représentent la marque McDonald's, le rouge et l'orange représentent la firme Pizza Hut, etc. La typographie sert également à faire référence à des marques : écriture attachée représentant le logo Disney inscrit sur le visage d'une jeune fille (dossier 2003, p. 52); inscription « Coca-colonisation » avec le prolongement du « C » majuscule sur l'ensemble du mot (dossier 2001, p. 61) et imitation de la typographie de la marque Séga en majuscules doublées en bleu et blanc dans l'iconotexte « Séguéla » (dossier 2000, p. 8). Le code iconographique permet d'identifier plusieurs acteurs politiques tels que George W. Bush et José Bové, le publicitaire Jacques Séguéla, mais encore des personnages fictifs tels que Mickey, Mad Max, etc. Concernant le degré d'iconicité, celui -ci est parfois trop faible pour identifier les personnages représentés, comme sur la première de couverture du dossier de 1999. Dans cet exemple, le lecteur est dans l'impossibilité de savoir si le personnage représenté est un consommateur lambda ou consommateur étasunien. Mais l'utilisation de ce faible degré d'iconicité permet de généraliser la situation de surconsommation et de malbouffe dénoncée aux États-Unis à une échelle mondiale. Il est important de souligner que les aires scripturales sont identiques à celles des publicités dans les magazines. Ce choix influence aussi les parcours de lecture qui se font fréquemment en forme de Z, comme dans les discours publicitaires (Adam, Bonhomme, 2005, p. 72). L'entaille, qui fait émerger une rupture, se met ensuite souvent au service des détournements, comme dans l'exemple de la « Coca-colonisation » dans le dossier de 2001 (p. 60-61), où les Casseurs représentent le débarquement de troupes américaines qui viennent coloniser le monde. L'ensemble de l'iconotexte met l'accent sur des valeurs dysphoriques (airs sévères, panique des habitants, morts, armes, etc.) et dans cet ensemble, un petit Mickey en bas de page sourit, le fusil à la main, en regardant en direction du lecteur. Ce décalage humoristique est caractéristique des stratégies argumentatives des Casseurs de pub. Enfin, de nombreuses isotopies iconotextuelles sont développées : celles de la guerre, du totalitarisme, de la puissance, de la vacuité de la pensée, comme pour l'iconotexte publié dans le dossier de 2000 (p. 12), où une bouteille de shampoing remplace la tête du personnage, avec les inscriptions : « Shampoing conditionneur », « Lave la tête en profondeur jusqu' à la racine des idées ». Isotopie de la mort enfin, comme dans la fausse publicité pour la « Penault Dingo » (figure 2) : dans ce détournement sont dessinés notamment un accident mortel pour les parents d'un enfant (des croix sont utilisées à la place des yeux), un arbre mort, une croix religieuse remplaçant le logo de la marque et accompagnant le slogan « Les voitures pour mourir ». Pour cette analyse, nous nous référons à la séquence prototypique argumentative proposée par Jean-Michel Adam (2001, p. 103-118), inspirée du modèle de Stephen E. Toulmin (1993, p. 120), qui met en relation une ou plusieurs données avec une conclusion à l'aide d'une loi de passage. Ce modèle se réapproprie le raisonnement logique aristotélicien appelé « syllogisme », où deux prémisses conduisent à une conclusion. La donnée correspond à la prémisse mineure et la loi de passage à la prémisse majeure. Précisons que dans les discours observés, le modèle du syllogisme est réduit au trajet implicite de l'enthymème (se limitant souvent à la donnée et à la loi de passage). C'est pourquoi nous avons tenté de reconstituer ces raisonnements. En rapport à la première visée argumentative cherchant à « faire-savoir », deux types de raisonnements sont repérables : l'un où la donnée mise en relation avec la loi de passage amène à la conclusion : « Donc, les politiques de consommation de masse sont néfastes pour l'Homme et la planète »; l'autre amenant à la conclusion : « Donc, la décroissance soutenable est la meilleure alternative à la société de consommation de masse ». Dans l'exemple cité plus haut (figure 2), une des données présentée est « Les parents de l'enfant sont décédés dans un accident de voiture », la loi de passage est « La voiture, moyen de transport imposé par la société de consommation de masse, est responsable de nombreux accidents mortels », donc « La société de consommation de masse est néfaste pour l'Homme ». En rapport à la seconde visée, nous relevons, de la même manière, deux types de raisonnements cherchant à « faire-faire », dont les conclusions peuvent être formulées ainsi : d'une part, « Donc, boycottez tout ce qui se rattache à la société de consommation de masse ! » et d'autre part, « Donc, adoptez un comportement de consommation alternatif ! » Les exemples concernés donnent ouvertement des injonctions aux lecteurs-cibles grâce à une feinte de dialogisme interlocutif (voir infra : analyse rhétorique), comme dans l'iconotexte du dossier de 2004, p. 54, faisant la promotion de la « Rentrée sans marques », où un personnage casse le logo en forme de virgule de la marque Nike et lance : « Démarque -toi ! » Les figures du discours jouent un rôle important dans l'ensemble des stratégies argumentatives des Casseurs de pub. Les figures par substitution, ou par « contiguïté » (Bonhomme, 1998, p. 51-58), y sont très présentes. Dans le dossier de 1999, p. 54, les Casseurs représentent l' « Homo modernicus », dont la tête est remplacée par une télévision et les jambes par une automobile. La substitution du tout (le cerveau) par une de ses activités (regarder la télévision), donne de la force au message car il critique d'une manière virulente la télévision considérée comme formatant les esprits. La métaphore est ensuite une des figures d'analogie les plus utilisées. Les Casseurs représentent par exemple à deux reprises le consommateur dans la même position que dans la sculpture du Penseur de Rodin : l'une de ces reprises représente un homme obèse écrasant la planète (dossier 2001, p. 56), l'autre, un homme assis sur une télévision (dossier 2000, p. 15). Plusieurs figures par analogie sont aussi utilisées pour opérer un transfert des valeurs associées au régime nazi à celles du monde de la publicité. Nous relevons notamment une comparaison, opérée par juxtaposition de deux images (dossier 2000, p. 9) : la première image représente une publicité d'Yves Saint-Laurent (2000) mettant en valeur un jeune homme torse nu et la deuxième montre une sculpture d'un torse d'homme nu, à l'aide d'un cadrage identique. Les Casseurs de pub précisent que cette sculpture a été créée par Arno Becker, artiste du régime nazi. Les figures jouant sur la cause et ses effets sont moins présentes. Nous discernons tout de même une sorte de métalepse (qui substitue à un effet une cause lointaine), qui, elle, substitue à une cause un effet lointain, dans l'image de la première de couverture du dossier de 2001. Cette image représente un avion encastré dans la planète terre. Les méfaits de l'avion sur l'environnement sont indiqués en exagérant leur conséquence, la destruction de la planète. Le corpus contient enfin trois types de figures jouant sur l'étymologie : l'amalgame (« Coca-colonisation », construit avec « Coca-cola » et « colonisation »; « Homo modernicus », de « homo erectus » et « moderne »), l' à-peu-près dans l'invention des marques (« Dominator » pour « dominateur »; « Brutos » pour « brutal »; « Égoïster » pour « égoïste », etc.) et le calembour (« Pense, panse, pause »; « Démarque -toi ! »). Comme pour les discours publicitaires, la dominante séquentielle des discours des Casseurs de pub est argumentative (Adam, 2001). Au service de cette séquence principale, se distinguent couramment des séquences narratives, descriptives et explicatives. Une des spécificités des stratégies argumentatives des Casseurs de pub est de mettre en avant des séquences narratives qui peuvent être réelles ou fictives. Dans la perspective de la narrativité d'histoire de Claude Bremond (1973), nous trouvons plusieurs exemples d'images et d'iconotextes représentant les trois phases de la séquence narrative : éventualité (phase 1), actualisation ou non-actualisation (phase 2) et réussite ou échec (phase 3). Dans le dossier de 2004 (p. 9), les Casseurs de pub représentent par exemple un homme sur le point de se faire dévorer par un monstre composé de machines multiples (ordinateur, télévision, téléphone portable, etc.). Il s'agit d'une métaphore iconicisée courante, où la machine est assimilée à un monstre. Le personnage est inscrit dans l'éventualité d'un processus de dégradation. Dans le dossier de 1999 (p. 64), les Casseurs représentent la « réussite » de ce processus : être victime d'un accident de voiture. Par photomontage, ils montrent une femme ayant une cicatrice à la place de l' œil gauche. Il s'agit d'une fausse publicité pour « Peuneot », le slogan faisant sens par rapport à l'image : « Un fabriquant sort ses griffes ». Plusieurs phases peuvent ensuite être mises en présence : l'actualisation, représentant une situation réelle de surconsommation (un avant) et la réussite de ce processus de dégradation, évoquée d'une manière ironique et fictive (un après). Les protagonistes sont variés (hommes, femmes, enfants, planète, etc.) et les processus représentés ne relèvent pas que de la dégradation (exemple de la photographie d'une femme faisant du vélo et portant un tee-shirt arborant : « Une auto de moins », dans le dossier de 2001 (p. 65), qui peut être analysé en termes de réussite d'un processus de satisfaction). La textualité descriptive est rarement présente dans notre corpus et elle s'accompagne la plupart du temps d'une textualité narrative (qui la subordonne) – toutes deux étant subordonnées par la textualité argumentative. La textualité descriptive concerne la fragmentation significative d'un objet (ou d'une action) en ses parties avec qualification de ses parties souvent en vue d'une requalification de l'objet entier (Adam, Bonhomme, 2005, p. 126). Dans le dossier de 2004 (p. 31), l'iconotexte est formé d'un gros plan sur le ventre (partie de l'objet) d'un enfant obèse (objet entier), avec la formule « Panse, pense, pause ». Nous relevons enfin un exemple de séquence explicative mise au service de la textualité argumentative. Dans le dossier de 2001 (p. 49), l'iconotexte intitulé « Faire soi -même sa voiture propre » présente un mode d'emploi de fabrication d'une automobile en papier. Cependant, le but de l'objet à construire est d' être détruit : « Faites plusieurs voitures en photocopiant la page, puis mettez -les par terre et marchez dessus, HUM, c'est trop bon ! ». Cette textualité est utilisée à des fins purement humoristiques. Par « interdiscursivité », nous entendons à la fois feinte du dialogisme interlocutif propre à la rhétorique publicitaire (Adam, Bonhomme, 2005, p. 37) et jeu sur le dialogisme interdiscursif (Moirand, 2002, p. 176). La feinte du dialogisme interlocutif, d'une part, est une stratégie cherchant à impliquer le lecteur-cible. Elle peut se faire de différentes façons, grâce à : – l'utilisation d'accroches élocutives (iconotexte du dossier de 2003, p. 9 : « Je ne suis pas un consommateur, je suis un citoyen ») et allocutives (par tutoiement ou vouvoiement : « Brutos, c'est tout vous ! », slogan de la figure 3); – la formulation d'injonctions plus ou moins fortes (« Pense, panse, pause »; « Démarque -toi ! »; « Arrête de consommer », etc.); – la proposition de participation (dans le dossier de 2001, p. 30-31, les Casseurs de pub invitent le lecteur-cible à renvoyer la carte postale présentée au ministère de l' Économie, des Finances et de l'Industrie). Il est possible, d'autre part, d'explorer le rapport interdiscursif entre le discours publicitaire source (analysé en termes de « contre-discours ») et le discours émergent des Casseurs de pub. Le rapport interdiscursif, qui mêle deux voix contradictoires dans un acte d'énonciation unique, donne au discours émergent une forte dimension ironique. C'est sur ce principe que le détournement fonctionne. Un ensemble de « traits de reconnaissance » (Arabyan, 2006, p. 57) permettent d'identifier ce contre-discours. Les Casseurs de pub peuvent citer fidèlement la marque et le logo d'origine, comme pour l'iconotexte fait par photomontage représentant une moitié de voiture tirée par des ânes (dossier 2002, p. 62). Le slogan « Nouvelle voiture propre ! » est accompagné du logo et de la mention de la marque Citroën. Le logo des marques évoquées est ensuite souvent détourné à des fins ironiques et persuasives. La fausse publicité pour « LNF, Lobby Nucléaire de France. Nous vous mentons sur le nucléaire » (dossier 1999, p. 24-25), imite la forme et la couleur du logo d'EDF pour critiquer la production d'énergie nucléaire. Autre exemple, le photomontage publié dans le dossier de 2002 (p. 50) représente le visage d'un homme où un ensemble de points de suture forme le logo de la marque Nike. La référence interdiscursive au discours publicitaire peut enfin être faite à travers la représentation stéréotypée de produits commerciaux. Les Casseurs de pub imitent le packaging (Couégnas, 2005) de produits nettoyants, de shampoings et de lessive (figure 4), comme dans l'iconotexte représentant une boîte de lessive formant une urne, sur laquelle est inscrit : « Démocratie mains propres » (2000, p. 45). En général, il n'y a pas besoin de connaissances encyclopédiques très poussées pour repérer l'interdiscours, ce qui permet de toucher un maximum de lecteurs-cibles. L'utilisation de « stéréotypes » (Amossy, 2000, p. 110) garantit de la même manière l'accessibilité du message. Les Casseurs de pub construisent des images stéréotypées de dirigeants politiques, d'hommes d'affaires, de consommateurs en grandes surfaces et en restauration rapide, d'automobilistes, de conducteurs de Formule 1, etc. Pour donner à leur discours une dimension humoristique, ils utilisent souvent des représentations stéréotypées de la femme au foyer, comme dans le dossier de 2002 (p. 45, figure 5). La reprise du cliché de la femme-objet véhiculée par la publicité permet de dénoncer la technique marketing utilisée. Ce principe de distanciation correspond à une « stratégie paradoxique », analysée par Érik Bertin (2005), qui consiste à prendre le contre-pied de la doxa, en allant à l'encontre des représentations ordinaires charriées par nombre de messages publicitaires. Association militante, les Casseurs de pub défendent une idéologie précise. Elle prône un modèle alternatif, altermondialiste, alterconsommateur, opposé à la publicité – en grande partie diffusée par la télévision – qui est au service de la consommation de masse. Ces discours militants sont le reflet de cette identité puisqu'ils construisent un ethos contestataire. Ils traduisent une évaluation axiologique dépréciative de la publicité et de ce qu'elle représente dans notre société. Cet ethos est renforcé par une dimension conflictuelle puisque les messages sont parfois proches de l'agressivité et du cynisme, lorsqu'ils s'attaquent à des valeurs religieuses, comme dans l'iconotexte « Le Temple. Le nouvel âge de la foi » qui présente une fausse publicité pour le centre commercial Leclerc (dossier 1999, p. 44-45). Un troisième type d ' ethos divertissant vient relativiser les deux premiers grâce au recours à l'image et à l'humour qui apportent une tonalité ludique à la production des Casseurs. L'humour, qui occupe une place importante dans ces discours, naît du rapprochement dans le texte et l'image de valeurs dysphoriques (destructions matérielles, détériorations de l'environnement, déchets, morts, accidents, maladies, défiguration, colonisation, armement, bêtise, lavage de cerveau, etc.) et de valeurs euphoriques (nature qui pousse – synonyme de vie, joie, convivialité, etc.). C'est dans la confrontation de ces valeurs, c'est-à-dire dans l'appel au pathos dysphorique et euphorique, que les Casseurs de pub cherchent à créer une complicité avec le lecteur-cible. Les discours qui critiquent les gouvernements (que ce soit le gouvernement français ou celui de George W. Bush), les politiques de mondialisation et de consommation de masse, inspirent l'indignation et la colère. Aussi, certains messages évoquent la crainte par rapport aux conséquences catastrophiques de ces politiques aux niveaux écologique et sanitaire (en rapport au nucléaire par exemple). Les victimes du diktat des marques, de l'emprise de la télévision et de la malbouffe industrielle suscitent quant à elles la pitié et la culpabilisation chez le lecteur-cible. En définitive, la rhétorique des Casseurs de pub emprunte de nombreuses stratégies à la rhétorique publicitaire. Ces stratégies, inscrites dans une logique de captation, misent sur la complicité établie avec le lecteur-cible. Cette complicité dépend d'une visée ludique qui se construit à l'aide des isotopies, du décalage humoristique créé grâce aux entailles, des figures du discours et des métaphores iconicisées. Cette visée ludique se construit également grâce à l'insertion de certaines séquences narratives, descriptives et explicatives et à la production de situations insolites créées par le rapprochement d'univers disjoints dans une même aire scripturale. L'utilisation de l'humour, qui tente de réduire la distance entre le journal et le lecteur-cible en l'invitant à partager une vision décalée du monde, est une stratégie commune aux deux rhétoriques. Les stratégies jouant sur l'interdiscursivité ont aussi pour but de créer une complicité. La feinte du dialogisme interlocutif, la dynamique interdiscursive mobilisant des connaissances encyclopédiques simples, l'utilisation de stéréotypes et la tactique de distanciation dans l'utilisation de figures stéréotypées participent en effet de cette logique de captation. En revanche, c'est au niveau de la visée cynique que les deux rhétoriques se distinguent. Les Casseurs de pub cherchent à critiquer les politiques de consommation de masse, et pour ce faire, ils n'hésitent pas à faire appel à des valeurs négatives permettant d'apeurer, de révolter, voire de culpabiliser le lecteur-cible. Malgré le fait que les Casseurs soient en quête de sincérité, l'appel stratégique au pathos et la représentation manichéenne du Bien contre le Mal ne sont pas du tout remis en question. Le détournement des messages publicitaires sert enfin les intérêts de la visée actionnelle. Le discours des Casseurs de pub et le discours publicitaire appartiennent tous les deux à la catégorie décrite par P. Charaudeau (2009) du discours propagandiste. Ils possèdent une même visée de « faire-savoir » pour « faire-faire » en passant par un « faire-croire ». Bien que leur logique soit radicalement différente – le discours des Casseurs de pub s'inscrit dans une démarche militante et le discours publicitaire dans une logique commerciale –, l'emprunt au modèle de la publicité qui possède un fort potentiel persuasif peut, d'après nous, se mettre au service de la visée persuasive actionnelle du discours des Casseurs de pub .
Dans une approche sémio-discursive, l'article analyse les discours publicitaires détournés par l'association Casseurs de pub à des fins persuasives. Avant d'examiner les différentes stratégies discursives mises en œuvre (aux niveaux icono-graphique, logico-linguistique, rhétorico-sémantique, textuel, interdiscursif et rhétorique), l'article définit le contrat de communication et la double visée argumentative de ces discours politico-médiatiques.
linguistique_13-0088783_tei_711.xml
termith-568-linguistique
Notre étude porte sur le repérage automatique dans des textes d'énoncéscorrespondant à des structures linguistiques précises. Au titre de cetteproblématique, nous nous concentrerons spécifiquement sur les énoncésdéfinitoires, que nous jugeons aptes à exemplifier le cheminement complexe quimène d'une étude linguistique à une recherche automatique en corpus. L'étude des énoncés définitoires s'inscrit dans le champ des recherches quiprésupposent que les actes de langage laissent des traces dans les textes et queces traces peuvent être décrites afin de permettre le repérage automatique deces énoncés. Reprenant à notre compte cette hypothèse, notre objectif visel'acte de définition et consiste à montrer que les structures qui signalent desénoncés définitoires peuvent être utilisées pour identifier dans les textes lessegments définitoires qui y figurent. L'étude des énoncés définitoires sejustifie d'abord parce qu'il s'agit d'énoncés qui constituent un lieu privilégiéoù s'actualisent les relations sémantiques que les mots entretiennent entre euxet ensuite parce qu'ils ont des propriétés suffisamment stables pour que leurrepérage automatique puisse être envisagé dans différents discours. Cette question a fait l'objet de nombreuses recherches à la fois en linguistiqueet en informatique. Parmi les travaux linguistiques qui se donnent explicitementpour objectif la description de marqueurs lexico-syntaxiques signalant desénoncés riches en informations sémantiques, on peut citer ceux de Borillo( 1996), Cartier (1998), Condamines & Rebeyrolle (à paraître), Meyer (àparaître), Pearson (1998), Pascual & Péry-Woodley (1995), Rebeyrolle &Péry-Woodley (1998). D'autres travaux abordent ce problème du point de vue del'informatique et mettent en oeuvre des méthodes essentiellement fondées sur desbases statistiques. C'est le cas des travaux de Hearst (1998), Morin (1999) etSéguéla (1999). Les premiers travaux (linguistiques) s'en tiennent à la description desstructures qui signalent certains types de relations sémantiques (hyponymie ouméronymie, pour l'essentiel) ou certains types d'énoncés. Mais, si le repérageautomatique de ces structures constitue toujours la justification de cesdescriptions, son opérationnalisation n'est jamais présentée en tant que telle( à l'exception toutefois des travaux menés par l'équipe de Meyer). A contrario, les seconds travaux (informatiques )proposent des outils qui fournissent des accès aux segments textuels contenantdes informations sur le sens des mots mais sur des bases uniquementstatistiques. L'objectif de la présente étude est double : il s'agit premièrement de voircomment se manifestent linguistiquement dans les textes les énoncés définitoires( autrement dit quelles sont les structures linguistiques qui expriment cesénoncés) (§2.) et deuxièmement d'envisager le problème de l'extractionautomatique des segments textuels conformes à ces structures linguistiques( §3.). Les formes que revêt la définition en discours ont fait l'objet d'une analysedétaillée (cf. Rebeyrolle, 2000) que nous nous contenterons de résumer ici .Nous nous contenterons d'indiquer à l'aide de quelques exemples les formeslinguistiques associées aux deux classes d'énoncés définitoires qui ont étéisolées : les énoncés définitoires directs et les énoncés définitoiresindirects (cf. Riegel, 1990). Dans les structures énumérées dans letableau 1, figurent les trois constituants de chaque structure canoniqueconstruite autour d'un verbe de la classe des verbes de désignation (notéVdésigner), d'un verbe de la classe des verbes de dénomination (notéVs'appeler) ou d'un verbe de la classe des verbes de signification (notéVsignifier). On désigne par SNa le terme à définir ,par le couple SNx - X, le syntagme qui sert à ledéfinir. Dès lors que les éléments en relation ne sont pas des syntagmesnominaux, ils sont notés A et B - X. Les exemples fournis ici serviront à illustrer les différents types d'énoncésdéfinitoires qui ont été distingués : - les énoncés définitoires de désignation : (1) On donne le nom de boutonnière, ou bray, aux dépressions allongées, évidées dans les formations peu résistantes des séries sédimentaires ployées en ondulations anticlinales peu marquées. - les énoncés de dénomination : (2) La vase peu colonisée, recouverte plusieurs heures à chaque marée, se nomme une slikke. - les énoncés de signification : (3) Conceptualiser un terme signifie représenter chaque notion du terme par un concept dans le formalisme. - les énoncés introduits par c'est-à-dire : (4) Les Unités de Configuration Logiciel. Elles constituent l'élément de plus bas niveau géré en configuration, c'est-à-dire le fichier. - les énoncés de classification : (5) Un jeu de barres est un circuit triphasé auquel peuvent être raccordés tous les départs (lignes, transformateurs) à une même tension. - les énoncés définitoires parenthétiques : (6) L'expert devait se remémorer l'incident et disposait des informations contenues dans la main courante (journal de bord où sont notées toutes les interventions sur le réseau de distribution de gaz). Nous nous appuierons donc sur une description des propriétés linguistiquesdes structures qui permettent de réaliser un acte de définition en discours( Rebeyrolle 2000). Ce que nous voulons montrer dans cet article, c'estcomment les outils peuvent être employés pour représenter ces structureslinguistiques afin de repérer automatiquement dans un texte les énoncésdéfinitoires qu'il contient. L'essentiel, pour nous, est donc d'évaluer lapossibilité du repérage automatique des structures définitoires énuméréesprécédemment. Etant donné qu'il n'est pas possible d'extraire efficacement toutes lesstructures à l'aide de l'outil (Yakwa, cf. § 2.3.2) dont nous disposons ,celui -ci étant limité à une analyse de surface, la distinction entre lesénoncés définitoires de désignation et de dénomination fondée sur la placequ'occupe la dénomination, Na, dans la structurethématique de ces énoncés (position initiale ou médiane pour les énoncés dedésignation et position finale pour les énoncés de dénomination) a étéabandonnée. Cette distinction est difficile à faire du point de vue durepérage automatique étant donné que pour établir les patrons, on s'appuieprincipalement sur le pivot verbal et que les verbes qui composent lesstructures linguistiques de dénomination et de désignation sont généralementproches, comme le rappellent les exemples ci-dessous où (7) illustre ladésignation et (8) la dénomination : (7) On appelle librairie un magasin où l'on vend des livres. (8) Le magasin où l'on vend les livres s'appelle librairie. De plus, les énoncés parenthétiques, ainsi que ceux introduits par c'est-à-dire, caractérisés par l'absence d'unestructure verbale spécifique, n'ont pas fait l'objet d'une analyseautomatique [1 ]. Ainsi, les structures linguistiques qui ont servi à la description despatrons ont été largement réduites. Pour l'évaluation, nous avonsdistingué : - pour les énoncés définitoires directs : les énoncés définitoires contenantles verbes qui marquent une relation de désignation et les verbes quiétablissent une relation de dénomination sont réunis dans une même classe( classe 1) et les énoncés définitoires contenant un verbe de significationforment une deuxième classe (classe 2); - pour les énoncés définitoires indirects, on s'en est tenu aux énoncés declassification (classe 3). On va voir que toutes les propriétés des structures définitoires ne seretrouvent pas dans les patrons qui servent au repérage automatique. Onsoulignera, en particulier, l'ajout de contraintes qui n'ont pas étémentionnées dans les structures linguistiques définitoires et dont laprésence se justifie par le changement de point de vue que nous opérons icien passant d'une analyse linguistique descriptive à une rechercheautomatique basée sur des indices de surface qui doit nécessairement tenircompte de la linéarité du texte. On essaiera donc d'expliquer pourquoi laforme des patrons ne correspond pas strictement aux structures linguistiquesdécrites. Dans le cadre de cet article, nous nous contenterons d'illustrer le passagede la structure linguistique à un patron utilisable automatiquement surquelques structures définitoires : nous examinerons successivement lespatrons des énoncés définitoires contenant un verbe du type définir (§3.1), les patrons des énoncés définitoiresde signification (§3.2.1) pour finir par les patrons des énoncésdéfinitoires de classification de forme Na est unNx ‑ X (§3.2.2). Les énoncés définitoires étudiés ont été extraits d'un corpus d'analysecomposé de quatre types de documents : - un manuel de géomorphologie [2] :275 000 mots. - 34 articles [3] scientifiques appartenant audomaine de l'ingénierie des connaissances : 230 000 mots. - deux documents [4] mis au point et utilisésau sein une entreprise française (EDF) : 205 000 mots. - un ensemble d'articles extraits de l'Encyclopædia Universalis :215 000 mots. L'étude a donc été conduite sur un corpus qui réunit des textes de genreset domaines distincts, ce qui garantit une certaine généralité auxstructures étudiées. Pour une étude plus précise des variations desénoncés définitoires à travers les genres textuels, cf (Péry-Woodley etRebeyrolle 98). Sur la base de notre compétence linguistique, nous avons dressémanuellement une liste exhaustive des énoncés définitoires contenus danschacun des textes du corpus. Cette liste qui rassemble au total 1 574énoncés définitoires est indispensable pour faire les mesuresstatistiques permettant d'évaluer l'efficacité [5] des structures linguistiques pour le repérage automatique dessegments textuels où un énoncé définitoire est exprimé. Cette évaluationrepose sur le principe suivant : il s'agit de mesurer la pertinence desénoncés repérés automatiquement dans le corpus à partir des structureslinguistiques en les confrontant aux énoncés réellementdéfinitoires. Nous présenterons ici le cadre technique de notre étude. Comme précisé plushaut, les patrons élaborés pour le repérage des énoncés définitoires sebasent sur des informations morphosyntaxiques, et sont donc destinés às'appliquer à des corpus enrichis ou étiquetés. L'utilisation de tels corpusnécessite donc des outils spécifiques, capables, sur le principe desconcordanciers, d'effectuer des recherches en se basant sur des unitéslexicales lemmatisées et des catégories morphosyntaxiques. Tant dans le domaine de l'ingénierie des connaissances que de lalinguistique informatique, l'utilisation de corpus annotés et d'outilsd'annotation est maintenant monnaie courante. Des méthodes automatiséesrobustes, capables d'attribuer à chaque unité d'un texte une formecanonique (lemme) et une indication de sa catégorie morphosyntaxique( étiquette), développées initialement pour la langue anglaise, sontdepuis quelques années disponibles pour le français. Il est donc logiqueque le développement d'applications en tout genre travaillant sur destextes prennent de telles informations comme point d'entrée de leurtraitement, depuis la recherche d'information et l'extractionterminologique, jusqu'au résumé automatique. Un taux de succès dépassantles 95 % sur un texte quelconque (Adda et al. 1999), combiné à lapossibilité d'étiqueter des corpus de très grande taille donned'ailleurs à ces méthodes un avantage net sur des méthodes d'analysesplus profondes, comme l'étiquetage syntaxique complet, dont le manque derobustesse nuit à son application sur de gros corpus. Dans le cas de notre étude, les quatre textes constituant notre corpus detravail ont été automatiquement annotés à l'aide de l'outil CordialUniversités [6 ], sans que nous ayonsapporté la moindre correction. Nous verrons par la suite que les erreursd'étiquetage résiduelles ne nuisent pas, quantitativement, à la qualitédes résultats, du moins au regard du gain que représentent lesinformations morphosyntaxiques. Précisons enfin que le jeu d'étiquettes utilisé par nos patrons derecherche correspond au maximum d'information fourni par l'analyseur ,c'est-à-dire celui proposé par l'action Grace pour la comparaison dedifférents étiqueteurs. Ainsi, nous disposons, par exemple, pour unverbe conjugué, de ses temps, mode, personne et nombre, et pour unpronom personnel, de ses personne, nombre, genre et cas. Les lemmescorrespondent, comme dans la totalité de ces approches, à l'infinitifpour les verbes, au singulier pour les noms, et au singulier masculinpour les adjectifs. Alors que les étiqueteurs sont maintenant très répandus, il peut êtreparadoxal de constater que des outils génériques, capables d'interrogerde tels corpus annotés et d'en extraire des segments, sont eux beaucoupplus rares. Chaque application construite pour manipuler et exploiter detelles informations dispose de ses propres méthodes pour parcourir letexte, mais les fonctionnalités varient alors suivant les objectifssuivis. Le genre de travail que nous effectuons dans cette étude se basesur un outil générique d'interrogation de corpus étiquetés, qui reprendle principe des concordanciers travaillant sur des textes nus. Il s'agitde l'outil Yakwa [7 ], une plate-formed'interrogation de textes sur la base de patrons morphosyntaxiques ,fonctionnant sur le même principe que l'interface XKWIC du projet CQS( Christ, 1994). Alors qu'un concordancier « simple » permet à son utilisateur de définirses critères de recherche dans un texte sur la seule base des formes desurface (en utilisant toutefois des troncatures du type défini$ pourreprésenter tout mot commençant par « défini »), un concordancier surcorpus annoté comme Yakwa permet d'utiliser les informations liées auxcatégories morphosyntaxiques et aux formes canoniques des unitéslexicales du texte. Il est également possible de définir des patrons ,c'est-à-dire des séquences de marqueurs individuels, chacun de cesmarqueurs correspondant à un mot du texte. Ainsi, une séquence comme : « prendre » Article t$ correspond à toute séquence composée d'une forme conjuguée ou non duverbe prendre, suivie immédiatement d'un articlequelconque, suivi de tout mot commençant par la lettre t. Il est, de plus, possible d'utiliser des contraintes plus lâches, enautorisant un certain nombre d'unités à s'insérer entre deux marqueursindividuels, voire à autoriser des unités facultatives d'un certain typeentre deux marqueurs « prendre » Article {Adjectif}2 t$ Ce patron reprend le précédent en autorisant un maximum de deux adjectifsaprès l'article. Le tableau 2 fournit un résumé des notations utilisées ici pour décrireles patrons morphosyntaxiques : D'autres outils du même type restent disponibles, avec des nuances : lelogiciel SATO (Daoust, 1996), fonctionne sur le même principe, mais sansque les unités du texte soient désambiguïsées. Ainsi, la référence à unecatégorie grammaticale dans le patron de recherche, comme Verbe ,correspondra dans le texte à toute forme dont la graphie peutcorrespondre à un verbe (les formes porte ou ferme seront extraites même lorsqu'elles sontemployées dans le texte comme nom ou adjectif). Le moteurd'interrogation de la partie catégorisée de la base Frantext [8] permet la définition de grammairesd'interrogation atteignant un pouvoir d'expression similaire, mais restebien entendu limité au corpus de Frantext. Enfin, le système Intex( Silberztein 1993) permet également la définition de patrons derecherche sous la forme de grammaires locales représentées par desautomates à état fini. La puissance d'expression disponible pour la définition de patronscorrespond a priori au maximum de ce qu'il estpossible d'exiger en se limitant à des informations morphosyntaxiques .Nous verrons, dans le détail de l'étude que nous avons menée à l'aide decet outil, à la fois l'intérêt de cette technologie, tout comme leproblème posé par le passage d'un schéma linguistique à un tel patronmorphosyntaxique. Au vu de la multiplicité des structures établies lors de la première partie, nousavons sélectionné ici une structure linguistique de la première classe( classe 1 : énoncés définitoires directs de désignation et de dénomination), àsavoir la structure qui rassemble les constructions du verbe définir. C'est sur ce schéma que nous expliciterons plus en détail lesdifférentes étapes qui conduisent à l'élaboration d'un patron complexe dont lesperformances en corpus sont satisfaisantes. Par la suite, nous résumerons plus succinctement d'autres types de structures, enprécisant les scores atteints et les patrons employés. Nous pourrons ensuitediscuter, au vu de l'ensemble de ces structures, de la disparité des résultatset des gains relatifs des différentes étapes pour chaque patron. Les trois constructions du verbe définir doivent êtreaccessibles par le patron de repérage automatique. Il s'agit de : - la construction agentive : [N0 définit Na comme Nx - X] (9) Nous définissons le système d'information comme l'ensemble des moyens de traduction et d'utilisation de connaissances. - la construction passive : [Na est défini comme Nx - X] (10) La période d'actualisation est définie comme la période de temps sur laquelle s'échelonnent les dépenses dont on veut connaître le total actualisé. - la construction pronominale passive : [Na se définit comme Nx - X] (11) Une relation se définit comme un sous-ensemble du produit cartésien des extensions des concepts composant sa signature. Les énoncés correspondant à ces trois constructions sont réunis dans une mêmesous-liste de référence et doivent donc être accessibles par un même patron .C'est la construction de ce patron que nous allons décrire à présent. Nousfournirons le détail de chacune des étapes de cette construction, en partantd'un patron correspondant à un outil basique d'exploration de texte nonannoté (réduit à la forme verbale), jusqu' à un patron mettant en jeu lesfonctionnalités avancées de Yakwa permettant de se rapprocher desconstructions du verbe définir. A chaque étape, nousindiquerons les valeurs de rappel et de précision [9] etformulerons des commentaires sur la nature du patron. Les énoncés définitoires qui comportent le verbe définir couvrent un ensemble assez cohérent de contextesaisément repérables puisqu'ils restent centrés autour d'une même unitélexicale. Patron 1 : défini$ Rappel : 100 % - Précision : 5,15 % Commençons par observer les résultats de ce patron extrêmement basique ,susceptible d' être utilisé par n'importe quel outil de recherche enplein texte (qu'un simple traitement de texte est susceptible defournir). Le premier problème de ce patron est que la simple troncaturene suffit pas à distinguer les formes verbales de " définir " dusubstantif (définition) et des adjectifs ouadverbes (définitif, définitivement), ce qui explique partiellement le bruitproduit. En effet, un taux de précision de 5 % indique que seul un énoncérepéré sur vingt est un énoncé définitoire. Patron 2 : « définir » Rappel : 100 % - Précision : 7,24 % Pour résoudre cet inconvénient, nous utilisons ici la lemmatisation ducorpus pour ne retenir que les formes verbales. Nous noterons un telmarqueur élémentaire « définir », les guillemets indiquant que l'ondéclare la forme canonique d'une unité recherchée. Une alternative àl'utilisation d'un corpus lemmatisé consiste à dresser un inventaireexhaustif des formes verbales envisagées, qui sont, dans ce cas, ennombre fini. Ainsi, ce patron est équivalent à une disjonction de cesformes fléchies (définit OU définis OU définissent OU définissons, etc.). Les intérêts de lalemmatisation sont donc ici avant tout la simplicité et lasystématicité. Patron 3 : « définir » * comme Rappel : 100 % - Précision : 73,33 % L'étape suivante correspond à une première extension syntagmatique dupatron. Il s'agit ainsi de prendre en compte la seconde unité lexicaledu schéma général, comme, à l'aide d'outils trèsgénéraux, travaillant ici encore sur texte nu. Un patron de ce typepeut, sur la base du précédent, exprimer la présence d'une occurrence duverbe définir suivie, dans la même phrase, oudans un contexte droit délimité, d'une occurrence de comme. Le patron 3 revient, dans un premier temps, àrechercher une occurrence de comme à droite dedéfinir, dans la seule limite de la phrase ,comme l'indique le signe « * » séparant les deux marqueurs. Patron 4 : « définir » 6 comme Rappel : 90,91 % - Précision : 92,59 % Le patron 4 se veut une première tentative de réduction du bruitrésiduel, en bornant la distance, en nombre d'occurrences, entre lesdeux items lexicaux. Nous avons proposé la valeur 6, valeur moyennecorrespondant au meilleur score entre 2 et 10. La valeur 6 est en effetconsidérée comme suffisante pour couvrir les cas d'insertion d'uneapposition ou d'une locution adverbiale qui forment, généralement, desséquences d'au plus 6 unités. Cette valeur n'est toutefois passuffisante pour des termes complexes, très courants en languespécialisée, comme facteur d'atténuation entre deuxvaleurs non consécutive s. Cette restriction brute laisseégalement sous silence des compléments circonstanciels comme dans ce type de discours, dont la taille vient serajouter à celle du terme défini. Il est aisé de voir que le taux de rappel chute defaçon inacceptable, même si la précision gagnequant à elle 20 %. La méthode utilisée au stade suivant consiste alors enl'utilisation d'un schéma récursif, mettant en oeuvre une fonctionnalitéavancée de l'outil Yakwa. Il s'agit de ne pas borner quantitativement ladistance entre les deux marqueurs, mais au contraire d'interdirecertaines catégories morphosyntaxiques, les verbes dans notre cas. Patron 5 : « définir » (Non Vbe)* comme Rappel : 100 % - Précision : 91,67 % Ainsi, le patron 5 se lit de la manière suivante : on recherche uneoccurrence du schéma « définir » * comme, pour lequel aucune formeverbale n'est présente entre définir et comme. Cette méthode permet, de façon souple, decirconscrire les syntagmes nominaux, ainsi que la plupart descompléments circonstanciels. Patron 6 : « définir » (Non Vbe)* comme (Non Adv,ProPers,Prép) Rappel : 98,18 % - Précision : 96,53 % La dernière étape consiste, afin d'améliorer encore les résultats, àfiltrer les dernières phrases non pertinentes en interdisant, pourl'unité située immédiatement à droite de comme ,les adverbes, pronoms personnels et prépositions. Cette contraintepermet d'évacuer de l'ensemble des énoncés correspondant à ces patronsles utilisations de syntagmes adverbiaux introduits par comme (comme dans la plupartdes cas, comme précédemment) ou lessubordonnées incises (comme on l'a vu à lasection 2). Les scores de rappel et de précision pour chacun des patrons précédemment décrits sontrésumés dans la figure 1. Nous y avons ajouté une troisième mesure, laF-mesure, définie par la formulesuivante (Baez-Yates & Ribiero-Neto 1999) : F-mesure=2 x rappel x précision / (rappel + précision) Cette dernière mesure permet de résumer la performance d'un patron sousun seul score. Elle permet notamment d'expliquer que la légère perte derappel du patron 6 est compensée par le gainen précision. Pour synthétiser la progression motivant ces six patrons, nous devonsprendre en compte plusieurs considérations. La technologie : Dans chaque cas, sauf pour lepassage de 5 à 6, une nouvelle fonctionnalité est mise en jeu. On peutvoir que le principal gain est celui de pouvoir rechercher des schémasextensibles, entre deux unités lexicales (patron 3), mais aussi leschéma récursif du patron 5, qui est d'autant plus précieux qu'il permetune progression dans la fameuse zone des « plus de 90 % », qui, suivantla loi de Zipf, est celle où les progrès sont les plus difficiles. La motivation par la structure linguistique :Chaque passage qui consiste en un enrichissement du patron correspondbien sûr à une élaboration en vue de rejoindre les structureslinguistiques énumérées en 3.1., pour peu que la technologie utilisée lepermette. Toutefois, cette impulsion ne s'étend qu'au patron 3 dansnotre progression. Si nous envisageons de développer un patronintroduisant les syntagmes nominaux SNa et/ou SNx comme les deux patrons suivants, on observeune chute dramatique du taux de rappel. Patron 7 : Nom (Non Vbe)* « se | être » « définir »( Non Vbe)* comme (Non Adv,Pro,Prép) Patron 7 bis : Nom|Pro (Non Vbe)* « définir »( Non Vbe)*Nom (Non Vbe)* comme (Non Adv,Pro,Prép) Ces deux patrons sont ce que l'on peut envisager comme étape suivanteafin de se rapprocher au plus près des structures linguistiques. Lepremier cherche à capter les constructions passives et pronominalespassives, et le second les constructions agentives du verbe définir. Les résultats pour ces deux patrons( i.e. on prend comme résultat l'union des énoncés produits par chacundes patrons) sont les suivants : Rappel : 40 % - Précision :97 % On obtient, en d'autres termes, le meilleur taux de précision, mais le taux de rappel estinacceptable. La raison de cette chute est la complexité desréalisations à prendre en compte. Que ce soit la présence d'auxiliairesmodaux (Na peut se définir comme), lesappositions (Na, défini comme) les constructionsinfinitives (il est utile de définir Na comme) ,la multiplicité des énoncés « hors-norme » rendent la tâched'énumération des patrons de surface très fastidieuse, voireinaccessible. La raison de cet état de fait s'explique de la manière suivante. Nousn'utilisons pour appliquer ces patrons que des informationsmorphosyntaxiques de surface, et non une véritable analyse syntaxique .Dès lors, les perturbations observées sur l'axe syntagmatique sont trèsimportantes, trop pour être captées par des schémas pointus comme ceuxtentés par les patrons 7. Le principe à appliquer dans ce cas semble être celui d'une descriptionminimale, quitte à rester bien souvent très éloigné de la structurelinguistique. Cette façon de procéder est à mettre en parallèle avec laméthode d'extraction de termes proposée par D. Bourigault pour l'outilLEXTER (Bourigault 96). En effet, dans le cas de Lexter, les patronsmorphosyntaxiques utilisés pour le repérage de syntagmes nominauxcomplexes sont définis négativement, i.e. en indiquant quelles sont les unités qui enforment les frontières (comme les verbes, les pronoms, etc.), et non parl'explicitation exhaustive des schémas des syntagmes eux -mêmes. Cette remarque nous conduit ainsi à identifier un troisième axe pourdécrire l'évolution des patrons : La pratique du corpus : Dans le cas des dernièresprogressions (patrons 5 et 6), il est envisageable, mais plus difficile ,d'attribuer aux contraintes supplémentaires un statut de résultat d'uneréflexion linguistique traditionnelle. Que ce soit l'interdiction desverbes entre définir et comme, ou l'interdiction des adverbes et prépositions à droite decomme, ces contraintes sont plus facilementjustifiables par une pratique directe des patrons, et notamment parl'observation des énoncés non pertinents, que par une analyse a priori hors corpus (ce qui n'est pas le cas duschéma central définir comme, bien entendu). Concrètement, cette phase d'affinage des patrons se fait par observationdirecte des énoncés non pertinents produits par les patrons précédentset conduit donc naturellement à l'interdiction de certains éléments. Cette approche empirique de la définition des patrons, en prenant encompte progressivement les contraintes et leurs résultats nous a conduità dégager un certain nombre de principes opératoires dans l'élaborationd'un patron pour un schéma linguistique quelconque : - préférer un sous-schéma récursif à une limite fixe entre deux pivots dupatron - rester indépendant vis-à-vis des constructions actives/passives, i.e .ne pas préjuger des formes verbales précises - se contenter, pour l'ajustement fin du patron, d'observer (etd'interdire) les catégories des unités situées à proximité immédiate dela séquence repérée. Nous présenterons ici les résultats synthétiques concernant deux gammes depatrons correspondant à des structures de la classe 2 (énoncés définitoiresde signification) et de la classe 3 (énoncés définitoires declassification). Les énoncés définitoires de signification recouvrent des structuresconstruites autour des verbes signifier, vouloir dire et entendrepar. En voici des exemples : (12) Floculer signifie former des flocons, des grumeaux, qui peuvent aller jusqu' à coaguler ensemble. (13) Le terme de régolite, qui veut dire étymologiquement roche fragmentée (du grec regnumi, je fragmente) devrait être synonyme d'altérite. (14) Nous entendons par primitives conceptuelles une expression du domaine allant du mot à un groupe de mots désignant une notion du domaine que nous devons représenter dans la taxonomie. (15) Par sol, on entend non seulement le sol pédologique, mais les dépôts meubles superficiels, héritages altérés sur lesquels le sol pédologique se développe et dont l'ablation est préjudiciable. Étant donné la multiplicité des structures, notre façon de procéder pources énoncés est de proposer un ensemble de patrons, et non plus unpatron unique. A chacune des étapes décrites ci-dessous, c'estl'ensemble des énoncés captés par l'un des sous-patrons proposés qui estévalué. Ces patrons travaillent ainsi de concert. Patrons 1 : « signifier » « vouloir » « dire » « entendre » Rappel : 100 % - Précision 41,94 % Ce premier patron se contente d'utiliser la lemmatisation du corpus. Lefaible nombre de contraintes a pour effet de produire un taux de rappel maximal et en contrepartie un pourcentagede précision faible. Patrons 2 : « signifier » « vouloir » « dire » « entendre » * par par * « entendre » Rappel : 100 % - Précision48,60 % La prise en compte, dans ce deuxième patron, de la préposition qu'exigele verbe entendre dans l'acception retenue ici neproduit pas une significative progression du pourcentage de précision. C'est avec le patron 3 que l'onobtient un résultat significatif. Patron 3 : (Non Pro (sauf ProRel)) « signifier » (Non « que ») « vouloir » « dire » (Non « que ») « entendre » (Non Vbe)* par par (Non Vbe (sauf modaux))* « entendre » Rappel : 98,08 % - Précision : 70,83 % Ce patron interdit, à gauche du verbe signifier ,la présence d'un pronom autre qu'un pronom relatif et, à droite de ceverbe, comme de vouloir dire, la conjonction que. Les cas où le complément du verbe signifier est une conjonctive sont exclus car ,pour marquer la définition d'un mot, le sujet des verbes signifier ou vouloir dire doit être un signe et non un événement. C'est ce que souligne C. Wimmer( 1987, p.63), s'agissant de signifier, quand elleaffirme que : " que introduit à des fins deconstruction une phrase, c'est-à-dire l'évocation d'une réalitéévénementielle ". Pour le verbe entendre, onexclut la présence d'un verbe entre entendre etla préposition par, en n'excluant toutefois pasles énoncés utilisant un auxiliaire modal du type : par A, il faut entendre. .. Ce dernier patron allie donc les propriétés linguistiques desconstructions verbales des verbes signifier etsvouloir dire à des informations observées encorpus. Ces diverses contraintes complètent la description du patronafin de restreindre le nombre d'énoncés extraits (et donc de limiter lebruit). Le repérage automatique des énoncés définitoires de classification destructure [SNa est un Nx - X] peut être conduit au moyen des patronssuivants : Patron 1 : est|sont un|une|le|la|les|l'|des Rappel : 93,53 % - Précision : 16,83 % Ce premier patron, qui suit au plus près la réalisation discursive de lastructure, ne fournit pas de résultats satisfaisants en ce qui concernele rappel. Patron 2 : « être » * Det|Num Rappel : 99,73 % - Précision : 3,94 % La généralisation que permet le recours à la lemmatisation et à lacatégorisation dans ce second patron rend possible la prise en compte detoutes les occurrences considérées comme pertinentes (le rappel atteignant presque les 100 %). Mais elleconduit à une augmentation très importante du bruit. Il est donc crucialde préciser ce patron en ajoutant des contraintes supplémentaires, commenous proposons de le faire dans le patron 3. Patron 3 : « être » (Adv)1 Det|Num 2 (Nom sauf L) Rappel : 94,90 % - Précision : 21,70 Résultats : Dans ce troisième patron, il faut noter en particulier que certains itemslexicaux ont été interdits à droite du déterminant de Nx comme l'indique le marqueur (Nom sauf L), où L est uneliste de substantifs interdits dans cette position. Cette contraintepermet d'ignorer certaines formes ayant un statut de déterminant, commele cas de, un exemple de, etc. Toutefois nousdevons nous poser le problème de l'établissement de cette liste, quinécessiterait à la fois une étude systématique et une adaptation aucorpus. Si le pourcentage de rappel (94,90 %) montre que laquasi totalité des énoncés (contenus dans la sous-liste de référence desénoncés de classification) sont automatiquement repérés, le pourcentagede précision (21,70 %) fait, en revanche ,apparaître la difficulté d'un repérage automatique des énoncésdéfinitoires de cette classe. Les patrons construits sur le schéma être un produisent en effet un très grand nombred'énoncés qui ne peuvent recevoir une interprétation définitoire. Le repérage automatique des énoncés de structure [SNa est un Nx - X] poseau moins deux types de difficultés : - cette structure n'est pas, on le sait, exclusivement réservée àl'assertion d'une relation d'inclusion hiérarchique - nombreux sont ceuxà avoir signalé que la relation d'hypo/hyperonymie permet d'explicitertoute sorte de classification. - à cela s'ajoute surtout la difficulté strictement technique de prendreen considération toutes les variations qui affectent la mise en texte de cette structure générale. Ladescription du patron oscille, en effet, entre trop de rigueur et tropde laxisme. Si le patron est trop précis, le silence produit est très important, si, au contraire, le patronest trop lâche, autrement dit s'il prévoit trop de distance entre lesdifférents éléments qui le composent, le bruit croît alors très vite puisque la structure recherchée se confond doncavec des structures linguistiques sans aucun rapport. La description proposée dans le patron 3 se situe à mi chemin entre cesdeux extrêmes mais ne parvient pas à fournir un résultat significatif. Pour conclure, il faut souligner les difficultés qui se posent lorsquel'on veut utiliser le contexte discursif dans une recherche automatiquedu type de celle que nous venons de présenter. Nous avons en effetmontré (Rebeyrolle, 2000) combien les situations dans lesquelles leterme à définir, Na, fait l'objet d'une premièremention, généralement immédiate, dans le contexte gauche sont favorablespour marquer le passage du discours référentiel au discoursdéfinitoire : (16) Une section se reconnaît par le fait qu'elle est composée de blocs de texte (les paragraphes) situés sous un titre. Le titre est un bloc court isolé et typographié dans une fonte plus grasse, éventuellement souligné et numéroté. Il faut cependant se poser la question du statut que l'on doit donner àcette contrainte discursive. Dans la mesure où elle n'est passystématique, cette contrainte n'intervient pas au même niveau quecelles que nous avons utilisées jusqu'ici. Elle se situe, selon nous, àun second niveau, et constitue un indice supplémentaire qui peut êtreemployé pour ordonner les énoncés extraits par les patrons. Sonutilisation expérimentale, en faisant intervenir d'autresfonctionnalités de Yakwa comme la mémorisation en cours de recherche ,donne un taux de précision dépassant les 40 % pour un rappel inférieur à30 %. On peut utiliser cette contrainte pour attribuer aux énoncés quis'y conforment un " indice de confiance " plus élevé que celui que l'ondonne à ceux dans lesquels Na ne fait pas l'objetd'une reprise. Les situations de reprise du terme à définir, si elles ne sont pasabsolument systématiques, apportent donc un poids supplémentaire auxpatrons définitoires de classification et nous invitent à envisager lapossibilité d'une pondération différentielle des énoncés extraits parces patrons en attribuant un indice de confiance plus élevé à ceux quiremplissent cette contrainte. Nous avons présenté ici une expérience décrivant une démarche complète derepérage automatique en corpus d'un type d'énoncés dont le fonctionnementlinguistique a été précisément décrit. Ce passage de la description linguistiqueà une représentation opérationnelle résulte d'un compromis entre : a) la description des propriétés linguistiques des structures étudiées, b) la technologie influençant le mode d'expression des structures, c) la pratique empirique de la recherche en corpus. Si ces trois facteurs interagissent tout au long de la démarche, il n'en est pasmoins possible d'attribuer à chacun une période privilégiée. Ainsi, le point dedépart reste bien entendu la description linguistique des structures. Lespremières étapes concernent ensuite l'utilisation des possibilités techniques .Et c'est particulièrement lors des phases finales d'affinage des patrons que lecorpus prévaut. Si la description linguistique permet de mettre au jour un faisceau decontraintes et de facteurs qui conditionnent l'insertion textuelle des énoncésdéfinitoires, elle ne peut cependant pas rendre compte des variations quiaffectent leur environnement syntagmatique. Or, une recherche automatique baséesur des indices de surface est tributaire de la linéarité du texte. Ainsidistinguons -nous deux types de contraintes : - Les contraintes que l'analyse linguistique a mises en lumière sont descontraintes que l'on pourrait qualifier de positives ,étant donné qu'elles se présentent sous la forme d'une description des élémentsmorpho-syntaxiques qui composent les structures étudiées; - Les contraintes de surface que l'observation des occurrences en corpus révèlese présentent quant à elles sous la forme d'un ensemble d'éléments qu'il s'agitd'exclure, aussi parlerons -nous de contraintes négatives. Nous avons pu dégager à cette occasion les limites d'une approche quiconsisterait à envisager au préalable ces variations, et qu'une plus grandeefficacité est atteinte en raisonnant négativement, i.e. en excluant certainesoccurrences plutôt qu'en énumérant celles qui sont acceptables. Les fonctionnalités avancées d'un outil comme Yakwa ont pu être évaluéesquantitativement. La progression de nos patrons est, nous l'avons vu, rythméepar la possibilité d'exprimer des contraintes de plus en plus complexes .Notamment, l'utilisation de corpus annotés constitue un avantage évident parrapport aux textes bruts. Enfin, nous avons également démontré les limites d'une approche fondée sur descritères de surface, pour le repérage de structures ayant une forte composantesémantique, comme c'est le cas des énoncés définitoires de classification. Mêmesi pour ce type de phénomènes une analyse syntaxique complète serait de peu desecours, il est probable qu'un enrichissement de l'analyse de surfaceaméliorerait notablement les résultats dans le cas général. La mise àdisposition de méthodes robustes d'analyse syntaxique partielle, capablesd'aborder de larges corpus (voir Bourigault et Fabre dans ce volume), est doncune piste à suivre .
Cet article propose, pour le cas spécifique des énoncés définitoires, une démarche qui s'échelonne depuis une étude linguistique du phénomène jusqu'à la constitution de patrons permettant un repérage automatique des énoncés. Une attention particulière est portée aux technologies d'analyse de corpus, et l'accent est tout particulièrement mis sur les différentes pratiques à l'œuvre dans cette démarche: une pratique linguistique, une pratique des outils de repérage, et une pratique spécifique à l'étude des corpus.
linguistique_524-02-11494_tei_article_98_CDG.xml
termith-569-linguistique
Les notions de lexicalisation, de figement et de catachrèse diffèrent, tant du point de vue des approches dont elles relèvent que des faits étudiés. Elles ont pourtant ceci de commun qu'elles renvoient à des changements touchant le lexique : en effet, toutes trois s'attachent de manière centrale à des processus diachroniques d'évolution et de « fixation » de la forme et/ou du sens de séquences discursives dans la compétence discursive collective, voire en langue. Cet article se donne pour objectif de cerner les acceptions de ces termes et de mesurer leur exploitation, explicite ou, parfois, plus implicite, dans différentes perspectives linguistiques. Ce faisant, nous chercherons à préciser leurs divergences, mais aussi à mettre en évidence quelques-uns de leurs points communs. Cette ambition se heurte évidemment au nombre et à la diversité des approches qui font usage d'un ou plusieurs de ces termes, tant pour ce qui est du domaine linguistique concerné (morphologie, syntaxe, études du lexique naturellement, mais aussi terminologie, analyse du discours, sociolinguistique, pragmatique, rhétorique, stylistique), que pour ce qui est de l'approche théorique. Qui plus est, les phénomènes correspondant aux résultats des processus recouvrent eux -mêmes des faits disparates, notamment du point de vue de leur empan ou de leur usage discursif et, conséquemment, relèvent de terminologies diverses, telles que locution, unité polylexématique, phraséologie, expression idiomatique, trope lexicalisé, ou encore proverbe, formule ou cliché. Nous commencerons par présenter les définitions des trois notions — pour lesquelles nous retenons le chapeau générique, adopté dans la présentation de ce volume, de procédés de fixation — et les cadres disciplinaires dans lesquels elles sont employées, avant de proposer plusieurs angles d'attaque destinés à mettre en évidence certains de leurs points de rencontre. En dernier lieu, nous aborderons, à travers les trois notions présentées, le cas particulier de la « fixation » des noms propres. Un coup d' œil à des dictionnaires de linguistique ou à des ouvrages généralistes permet de définir succinctement les termes. Le terme général semble bien être celui de lexicalisation : figement est nettement plus discret; quant à catachrèse, il est très spécialisé en rhétorique. Ainsi, chez Dubois et al. (1994), on observe une nette différence de « poids » entre les trois termes : la notice de lexicalisation est bien plus importante que celle des deux autres. La lexicalisation y est présentée comme un « processus par lequel une suite de morphèmes (un syntagme) devient une unité lexicale » et opposée à la grammaticalisation (elle est d'ailleurs assimilée à une dégrammaticalisation), car favorisant « le lexique aux dépens de la grammaire ». C'est l'avènement d'une unité lexicale qui semble ici déterminant, sa composition interne initiale étant considérée comme hors de portée de la grammaire. Mais, outre ce sens de « fixation » d'une séquence lexicale, lexicalisation peut renvoyer également à l'installation en langue d'un sens issu d'une figure, ou d'un trope; la syntaxe n'est alors plus concernée, puisqu'il s'agit de mots uniques. On trouve ce sens, dans le Grand Robert, au détour des verbes lexicaliser, se lexicaliser : il y est question de « sens figuré qui se lexicalise ». Enfin, on trouve dans le Grand Robert un troisième sens de lexicalisation, qui concerne « l'expression par le lexique d'un contenu sémantique » dans une langue donnée (par comparaison avec d'autres). Le point central est toujours l'unité lexicale, même s'il ne s'agit ici ni de processus ni d'avènement de cette unité lexicale. Le figement chez Dubois et al. est également défini comme un processus, « par lequel un groupe de mots dont les éléments sont libres devient une expression dont les éléments sont indissociables. Le figement se caractérise par la perte du sens propre des éléments constituant le groupe de mots, qui apparaît alors comme une nouvelle unité lexicale, autonome et à sens complet, indépendant de ses composantes ». Les exemples cités — pomme de terre, le heur de bonheur et malheur —, permettent de souligner la perte d'autonomie des éléments, mais ramènent le figement à la lexicalisation. Enfin la catachrèse est présentée dans les deux dictionnaires comme une figure de rhétorique à part entière, définie par sa capacité à « élargir le sens d'un mot au-delà de son domaine strict », mais aussi comme un état de figure (métaphore, métonymie) « dont l'usage est si courant qu'elle n'est plus sentie comme telle », une figure usée, passée dans l'usage, lexicalisée. L'une et l'autre de ces acceptions proviennent de la tradition rhétorique. Finalement, le panorama donné par les dictionnaires apparaît assez confus : les notions de figement et de lexicalisation sont mêlées, en particulier dans les exemples, tandis que la catachrèse est essentiellement définie par le biais de la lexicalisation. Globalement, c'est le terme de lexicalisation qui est le plus souple, celui dont l'extension est la plus importante. Bien entendu, les faits se précisent dès lors qu'on s'intéresse centralement à une des notions : selon les positionnements théoriques, selon les orientations linguistiques, l'une ou l'autre est préférentiellement sollicitée. Les termes de lexicalisation et de figement, ainsi que celui de catachrèse, peuvent être pris comme des descripteurs (ils servent alors, de manière athéorique, à décrire des phénomènes souvent adjacents) ou comme des décrits (ils sont alors thématisés et font l'objet de l'étude; ils sont parfois aussi comparés ou utilisés en regard l'un de l'autre). Nous commencerons, dans cette section, par adopter cette seconde position, avant d'appliquer les termes, comme descripteurs, à la question du nom propre (infra § 3). Comme nous l'avons déjà remarqué, le terme lexicalisation, sans doute du fait de la transparence de son sens compositionnel, est le plus souvent utilisé comme descripteur. La notion ellemême a un rattachement disciplinaire et théorique très étendu, puisqu'on la retrouve aussi bien dans les approches lexicologiques, qu'il s'agisse de sémantique lexicale ou de morphologie constructionnelle (cf. Apothéloz 2002, Corbin in Martins-Baltar (éd.) 1997), que dans des approches « discursives » : énonciation, analyse de discours ou linguistique textuelle. Selon les approches, la notion de lexicalisation peut renvoyer à des phénomènes d'évolution sémantique (on parle alors de néologisme de sens), ou de création morphologique (installation en langue d'une nouvelle unité lexicale, créée par un procédé morphologique quel qu'il soit), à des phénomènes de cristallisation sémique en contexte ou encore à des « discours en circulation », ou à des faits de citation (Perrin 2004). Du fait de cette diversité des points de vue, on peut considérer comme relevant de la lexicalisation des unités beaucoup plus diverses, et naturellement bien moins clairement classées, que celles qui sont concernées par le figement (cf. infra). En effet, la lexicalisation peut affecter un terme unique, des unités polylexicales ou des séquences beaucoup plus larges comme les formules, les « façons de dire » ou les fragments de discours. Le processus diachronique de lexicalisation consiste, comme son nom l'indique, à intégrer au lexique quelque chose qui n'en relevait pas. En effet, une propriété souvent invoquée est celle de la codification et de l'insertion sociolinguistique de la séquence concernée dans la pratique des locuteurs d'une part, de sa valeur dénominative d'autre part (cf. notamment Corbin op. cit., Habert 1998, Valentin in Greciano (éd.) 2000, Mortureux 2003) — c'est cette acception que nous retenons. Évidemment cela donne lieu à des interprétations diverses selon ce que l'on considère comme lexique et non-lexique. Ainsi, si l'on considère que le lexique revient à la langue, dans une acception, assez stricte, d'ensemble d'unités lexicales, codées et pourvues de sens, qui sont « reconnues » et mémorisées, un nom propre peut être dit « lexicalisé » dès lors qu'il entre dans un dictionnaire avec un sens codé comme celui d'un nom commun (hercule, malabar, poubelle, etc.); un sens nouveau issu d'une figure, ou encore une création néologique peuvent aussi se « lexicaliser » lorsqu'elles quittent le domaine du discours individuel pour passer dans celui de la langue commune… Mais si l'on envisage le lexique comme une catégorie linguistique (lexicale) qui s'oppose à une autre (grammaticale), alors la lexicalisation s'oppose à la grammaticalisation considérée comme « la transformation d'un élément lexical en un élément grammatical » ou encore « le passage d'un élément autonome au rôle d'élément grammatical » (Meillet 1912, cité par De Mulder 2001). La lexicalisation est alors vue et théorisée comme un parcours qui va de la grammaire au lexique, tandis que la grammaticalisation va, en sens inverse, du lexique à la grammaire, ou du « moins grammatical » au « plus grammatical ». Tout comme la lexicalisation, le figement est un processus diachronique, mais ce n'est généralement pas sous cet angle qu'il est abordé, les auteurs s'intéressant plutôt au « résultat » de ce processus, i. e. les séquences figées. La notion de figement ainsi entendue est déjà présente chez Bally (1951) qui s'attache à décrire des combinaisons de mots relevant de la phraséologie. On la retrouve sous divers termes chez différents auteurs (synapsie chez Benveniste, synthème chez Martinet, locution le plus souvent…), tandis que se développe parallèlement une pratique lexicographique des « expressions figées » (cf. Duneton & Claval 1999, Rey & Chantreau 1990). En France, ce sont les travaux s'inscrivant dans le cadre du Lexique-Grammaire (Gross 1996, Buvet (éd.) 1998, Mejri et al. (éd.) 1998, etc.), qui ont le plus développé l'observation du figement comme « résultat ». Il s'agit dans ces cadres d'une notion relevant d'approches syntactico-sémantiques et combinatoires du lexique, visant souvent des développements en traitement automatique des langues, en particulier pour le domaine de la traduction. Ces études sur le figement ont permis tout d'abord l'établissement de listes conséquentes, de sommes lexicales emmagasinées et classées; elles ont surtout été l'occasion de mise en place de critères formels du figement linguistique, et d'une organisation générale des phénomènes concernés. On dispose donc de repères assez solides pour ce qui relève du figement : outre qu'il concerne exclusivement des unités polylexicales, le figement se caractérise d'une part par une fixation formelle et syntaxique (blocage des paradigmes synonymiques et inséparabilité, blocage des propriétés transformationnelles) et d'autre part par une modification sémantique (perte de la compositionnalité du sens) et référentielle (non actualisation des composants), celles -ci ayant pour conséquence la démotivation — l'opacification — du sens (cf. Gross 1996). À partir de ces critères, plus ou moins vérifiés selon les cas, peuvent se mettre en place des classifications articulées, soit autour de la relativité du figement (degré de figement, portée du figement), soit autour de la catégorie de la séquence figée (noms ou déterminants composés/figés, locutions verbales, adjectivales, adverbiales, prépositives et conjonctives). Finalement, la notion de figement répond à une approche essentiellement syntaxique du lexique, qui ne s'intéresse à l'établissement en langue d'une unité codée que de façon secondaire, soit par l'intermédiaire des pratiques lexicographiques (dictionnaires et listes) soit encore dans les retombées traductologiques, avec la notion d'idiomaticité de la séquence figée. Ici le « figé » s'oppose au « libre », cette liberté pouvant concerner la combinatoire, mais aussi la créativité lexicale : le figement est obligatoirement l'effet d'une communauté linguistique donnée, qu'il résulte ou non d'une innovation individuelle. On retrouve alors des points communs avec la catachrèse, qui elle aussi s'oppose au « libre » de la figure vive. Le figement rencontre aussi la lexicalisation et la grammaticalisation par le biais des phénomènes traités : en effet, le phénomène de figement subsume l'opposition grammaticalisation/lexicalisation relevée plus haut. Notons que, parallèlement à ces analyses du figement comme « résultat », le figement comme « processus » est au cœur de différents travaux d'analyse du discours, comme ceux de Fiala sur les formules, celui sur la formule purification ethnique chez KriegPlanque (2003), ceux de Moirand (2004) sur les « moments discursifs » et la circulation des discours. La stylistique, avec le cliché, recourt également à la notion de figement, comme processus, ou comme résultat, par exemple envisagé dans son exploitation discursive (cf. Cabot ici même). Le terme de catachrèse relève incontestablement de la rhétorique, et plus spécifiquement de l ' elocutio, partie de la rhétorique qui s'articule le plus étroitement avec une appréhension logico-grammaticale du lexique. Elle y connaît deux principales acceptions : trope forcé ou figure libre lexicalisée. Dans sa première acception, elle est définie comme un « abus », c'est-à-dire une extension du sens d'un mot, destinée à pallier l'absence de mot « propre » à une idée ou une chose (les exemples classiquement retenus depuis Dumarsais puis Fontanier — feuille de papier, aile du moulin et autres pied de la table — sont métaphoriques). Quant à la métonymie (un Rubens, un masque pour /une personne masquée/), elle possède souvent cette fonction de suppléance en discours. Cette première définition de la catachrèse doit donc être envisagée dans une perspective de dénomination et d'adéquation mot/chose ou pensée/expression, liée à la conception substitutive du « trope en un seul mot ». Dans l'optique rhétorique, elle est considérée comme répondant « au défaut des langues naturelles par rapport à la langue idéale » (Kuentz 1980 : 68). Comme on le voit, ainsi définie, la catachrèse est éloignée des notions processuelles de lexicalisation et de figement, et c'est pourquoi, à première vue, elle parait ne concerner qu'assez peu notre propos. Pourtant, et c'est ici qu'elle peut nous intéresser, cette première acception est souvent amalgamée ou confondue, y compris par Dumarsais et Fontanier, avec une seconde, plus connue, qui l'appréhende comme la perte du sens premier sous l'effet du temps et de l'usage. C'est alors qu'on emploie ce terme pour le trope lexicalisé (ce qui nous ramène à un des sens, déjà mentionné, du terme lexicalisation). Dans ce second cas, contrairement au premier, le sens d'un mot transite par le discours par le biais de la figure ou du trope avant de trouver son intégration dans le code, éventuellement dans un sens dit « figuré ». Depuis la tradition rhétorique et jusqu' à aujourd'hui, la catachrèse est donc au centre d'une double opposition, selon le choix opéré entre l'une ou l'autre définition; sont ainsi opposés trope d'invention/ catachrèse d'une part (choix, donc figure, par opposition à non-choix selon Fontanier), et trope vivant/catachrèse d'autre part. Au-delà du cas de la figure, cette double opposition et le caractère processuel qu'elle suppose implicitement nous paraissent rejoindre des faits (parfois abordés en termes de figement ou de lexicalisation) d'intégration de la parole d'individus (homme politique, artiste ou sportif) dans la compétence discursive collective par la circulation des dires, notamment dans les médias. Bien que la catachrèse soit fortement associée à la rhétorique, cette notion est utilisée dans certains travaux linguistiques, soit qu'ils soient centrés sur les tropes et envisagent leur devenir (par exemple chez Bonhomme 1987, Prandi 1992, Le Guern 1973), soit qu'ils s'attachent à la valeur dénominative d'une unité : Corbin in Martins-Baltar (éd.) (1997) et Corbin et al. (1993) en font un emploi tout à fait particulier, repris de Morier (1981), indépendant de la notion de trope, et qui combine valeur dénominative et perte de motivation du mot construit. De fait, les cas de conservation dans l'usage d'une forme construite démotivée, que mentionne Le Guern en termes de rémanence, sont légion : si l'exemple passage clouté de Corbin et al. semble être devenu obsolète, citons plombage (heureusement, les plombages actuels ne comportent plus de plomb); le cas dépasse d'ailleurs le cadre de la morphologie constructionnelle : ainsi, bien que l'écran des téléphones portables nous enjoigne de raccrocher, nous ne reposons aucun combiné sur aucun support pour clore notre communication téléphonique… Dans ces faits, pour lesquels Ullmann (1959 : 247249) parle du « rôle conservateur de la langue », nous retrouvons de nouveau la question essentielle de la démotivation, qui sous-tend aussi bien la problématique du figement que celle de la lexicalisation. Mais curieusement, l'emploi par Corbin et al. du terme catachrèse dans ce cadre particulier inverse la perspective, puisque la catachrèse de la tradition rhétorique reposait précisément sur la motivation initiale, par une dérivation sémantique (un trope), de la dénomination; ici, seule demeure la conception dénominative attachée à la catachrèse. De l'ancrage de la catachrèse dans une tradition considérée comme dépassée par les sciences du langage et de l'emploi délimité de la notion, on pourrait conclure à sa non-pertinence. Il nous semble pourtant que, en se limitant au palier du mot, et en s'attachant à l'évolution et à l'aboutissement des tropes — au changement sémantique selon leurs différents « vecteurs » (Prandi 1992) —, elle couvre un champ laissé partiellement libre par le figement, et par la lexicalisation dans son acception d'avènement d'une unité lexicale. C'est pourquoi nous y voyons une notion distincte, que nous emploierons à propos du nom propre (cf. notre proposition infra). On le voit, lexicalisation, figement et catachrèse renvoient à une grande diversité de phénomènes, tout en ayant chacun une spécificité. Dans ce qui suit, nous chercherons à privilégier ce qui fait converger les notions, en laissant de côté certains de leurs aspects discriminants — notamment la question, importante, de l'empan de la séquence concernée. Toutes trois relèvent d'un phénomène transversal de « fixation » d'une séquence discursive, qui articule discours et langue, singulier et collectif, synchronie et diachronie, qui concerne aussi bien les dimensions syntagmatique que paradigmatique, qui révèle une grande porosité entre niveaux linguistiques — porosité entre syntaxe et morphologie, entre lexique et syntaxe — mais aussi entre langue et encyclopédie, qui engage des questions liées à l'arbitraire et à la motivation (démotivation); bref, un phénomène linguistique majeur, dont chacun des trois éléments étudiés éclaire un aspect, une facette, sans le couvrir entièrement. La question est alors d'aborder ces faits de fixation dans leur ensemble, et, partant, de souligner la prégnance du phénomène à travers la diversité des domaines qui ont à le rencontrer. Pour ce faire, nous privilégierions la mise en lumière de ce qui, rappelé ci-dessus, nous semble faire l'unité des phénomènes rassemblés sous les trois notions, et qui se rapporte aussi bien, selon les termes de Gross (1996), au « figement linguistique » (niveau de l'unité lexicale) qu'au « figement discursif » (niveau phraséologique et textuel). Nombreux seraient les points de convergence, mais nous concentrerons notre attention sur trois d'entre eux. Les processus de fixation ne sont pas secondaires, ou hors système, mais proposent un regard renouvelé sur le lexique. Comme le souligne Mejri (2000a), leur étude a « une fonction heuristique » pour la description du lexique. Envisagés sous l'angle diachronique, ces processus de fixation peuvent tous trois être vus comme relevant d'une dynamique de renouvellement de la langue, pour laquelle on peut envisager une régularité, en dépit d'une apparente irrégularité : c'est bien sûr le cas pour la catachrèse, au sens de trope lexicalisé, pour laquelle les « vecteurs » fournissent un principe sémantique de fixation d'un sens nouveau (cf. Ullmann 1959). Mais au-delà de ce seul cas, on peut voir avec Mejri la dynamique de la « fixation » (« figement » dans ses termes) comme un fait explicatif général, un phénomène englobant, en ce qu'il concerne toutes les parties du discours, toutes les dimensions syntagmatiques et tous les lectes. Le figement permet en effet de renouveler les possibilités référentielles de nomination; il assure une fonction expressive (pensons aux expressions figées et aux clichés, hautement figuratifs, et par exemple aux comparaisons signalées par Bally (1951), qui fonctionnent comme intensificateurs (boire comme un trou, sourd comme un pot) et relèvent d'une « esthétique de la plénitude » (Riffaterre 1971 : 171-172)); il reflète la cristallisation, mais aussi la dynamique des références culturelles, des croyances et représentations partagées à l'intérieur d'une communauté linguistique. Parmi les processus de fixation, certains entretiennent un rapport privilégié avec la référence — on l'a vu à propos de la catachrèse. Ainsi la lexicalisation, envisagée dans le sens précis d'intégration en langue d'une unité lexicale (c'est-à-dire lorsque cette unité relève du plan « sémiotique » au sens de Benveniste (1966 : 119 sqq.)), s'articule étroitement avec la dénomination. Si on adopte un point de vue diachronique, on dira alors que la lexicalisation, mais aussi naturellement la catachrèse, peuvent être vues comme un processus qui ramène une désignation libre en discours à une dénomination, codifiée en langue (cf. Kleiber 1984). Enfin, la perspective dénominative attachée à la lexicalisation permet notamment d'envisager finement le rapport entre système et création néologique (cf. Corbin 1997, Habert 1998). Les phénomènes de fixation s'articulent naturellement à des questions de contrainte (routine et « carcan » du préconstruit), mais aussi de créativité lexicale : dès lors qu'une création dépasse l'idiolectal, elle peut se figer et entamer un processus de lexicalisation; c'est ainsi que les unités de la langue pénètrent dans un cycle de créativité : création (néologismes de forme, néologisme de sens), démotivation et usure, entraînant parfois la grammaticalisation — Meillet (1912, cité par De Mulder 2001) parle de « développement en spirale » —, mais aussi récupération, et utilisation éventuellement « déviante » de ces unités par le sujet parlant ou la communauté linguistique : variation paradigmatique, défigement, remotivation… Au-delà de la question des seules unités lexicales, cette dialectique entre usure et créativité, qui caractérise aussi bien le destin des figures mortes que le figement, sous-tend les approches contemporaines du cliché, vu alors comme « agent d'expressivité » (Riffaterre 1971, Mathis (éd.) 1998). La créativité s'observe aussi sous l'angle du rapprochement, souvent souligné, entre fixation, sous toutes ses formes, et figuralité (entendons par là aussi bien le caractère « figural » dû aux figures et aux tropes que le sens dit « figuré », inscrit en langue — catachrétique). Se présentent alors plusieurs cas. (a) La figuralité peut intervenir au niveau de la genèse de certaines séquences figées : le trope, et en particulier la métaphore, est à l'origine de la locutionalité (c'est le cas par exemple de la moutarde lui monte au nez, ou briser la glace discutés par Ruwet 1983). (b) Certaines unités composant la séquence figée sont elles -mêmes figurées : se casser/se creuser la tête. (c) Le composé résultant a globalement un sens figuré (métaphorique : étoile de mer, ou métonymique : cordon-bleu). (d) La forme construite est dérivée d'un des sémèmes, métaphorique, d'un lexème; elle devient, de la sorte, inanalysable : cassation provient d'un sens métaphorique de casser (Apothéloz 2002 : 105). Enfin, (e), la figuralité peut reposer sur un transfert de domaine entre un « énoncé lié » à une situation d'énonciation et un autre : c'est le à nous deux ! de l'infirmière entreprenant un soin (Fonagy in Martins-Baltar (éd.) 1997). Dans tous ces cas, concurremment à la présence d'archaïsmes dans la séquence et à la démotivation étymologique, également relevées, la figuralité participe très certainement à l'opacité sémantique de certaines séquences figées, que cette opacité soit complète ou relative (cf. notamment Ruwet 1983, Rey in Martins-Baltar (éd.) 1997). Comme nous l'avons déjà signalé, les phénomènes de fixation discursive de séquences se construisent en référence à des valeurs culturelles partagées, à des slogans et formules, à des auteurs : ils supposent tous un « ailleurs », et surtout un « avant », une « mise en conserve » (Riffaterre 1971). Ils renvoient à une mémoire ancrée dans des valeurs collectives historiques, sociales, culturelles propres à une collectivité donnée. La reprise de « déjà-dit » pouvant contribuer à la formation ou à la transmission de préjugés et autres lieux communs, la fixation en discours peut être rapprochée du stéréotype comme « schème collectif figé » organisateur de la cognition, mais aussi dans son aspect doxal (cf. Amossy in Mathis (éd.) 1998, Herschberg-Pierrot 1980, Amossy & Herschberg-Pierrot 1997). Cette valeur cognitive et/ou doxale sous-tend les approches cognitives de la métaphore, mais elle est surtout relevée par les approches du cliché, lesquelles soulignent leur polarisation autour de grands thèmes archétypiques, qui « sollicitent de tous temps l'imagination humaine » (Riffaterre 1971 : 171-172). La dimension naturelle de l'étude des faits de fixation est alors intertextuelle et interdiscursive. C'est dans ce cadre qu'on peut relever les nombreuses séquences figées, parfois métaphoriques, dont les médias et le monde politique sont grands producteurs. Voici, parmi de nombreux autres, quelques exemples contemporains du discours politico-médiatique, avec leurs variations : un message fort/un message clair; un signal fort/un signal clair; repli communautaire … Ces associations de termes, qui relèvent indéniablement d'une routine en production, sont susceptibles, du côté de la réception, d'inscrire durablement des représentations figées, ou au contraire de connaître l'usure et la démotivation. Elles servent également de base, comme autant d'échos, à des déformations paradigmatiques (cf. chez Moirand (1999 et 2004) le colza fou sur le modèle de la vache folle; le dégraisseur de mammouths comme désignation du ministre Claude Allègre, en référence à sa parole). Relevant du « déjà-dit », les faits de fixation éclairent les procédés de reprise qui, tissant intimement le discours, y prennent parfois une dimension polémique : cette dimension discursive et polémique est un trait définitoire de la notion de « formule » qui, dans la présentation qu'en donne Krieg-Planque (2003 : 14), correspond certes à « une séquence relativement figée », mais aussi et surtout possède un « caractère de référent social […] et [un] fonctionnement polémique dans l'univers discursif ». Envisagée dans cette perspective, la formule a un réel statut d'acte de discours. Nous terminons ce panorama en envisageant, à titre de perspective, la question de la lexicalisation du nom propre (Npr), déjà évoquée ci-dessus (§ 1. 2.). En effet, le Npr est un lieu où se pose crucialement la question de la catachrèse et de la lexicalisation, voire celle du figement, et notamment parce que cette question illustre de manière flagrante la porosité des niveaux d'analyse impliquée par les phénomènes de fixation dans leur ensemble. Catachrèse. Le Npr est concerné par des paradigmes réguliers de métonymies telles que, pour les principales, celle du lieu de production d'un produit (bordeaux, camembert) ou celle de l'auteur d' œuvres (Proust, Rubens). Les deux catégories de métonymies sont marquées par des indices linguistiques bien connus, comme la présence de déterminant dans le syntagme nominal par exemple (cf. Bonhomme 1987). Cependant les premières et non les secondes aboutissent à la perte du principal signe formel du Npr (majuscule); celles -là sont susceptibles de se lexicaliser (dans le sens que nous avons retenu), mais sans doute pas celles -ci, tributaires de l'individualité du porteur du Npr (l'auteur). On les qualifiera cependant toutes deux de catachrétiques. On peut ajouter à ces cas de catachrèse, et sous ce terme, d'autres types de métonymies qui instaurent durablement dans la mémoire discursive collective le sens dérivé, par exemple événementiel, d'un toponyme (Tchernobyl, le Rwanda). Dans ces cas, on ne parlera nullement de lexicalisation puisqu'on n'a pas affaire à la création d'une unité lexicale; le nom reste un Npr, mais passe de manière stable du statut sémantique de nom de lieu à celui de nom d'événement. Ce glissement sémantico-référentiel, qui relève d'une forme spécifique de fixation, se manifeste notamment par l'installation dans la compétence discursive du « scénario » de l'événement, et confère alors au toponyme une fonction résomptive (cf. Lecolle à paraître) : ainsi nommer Tchernobyl, c'est souvent aussi faire référence à son contexte, ses causes et conséquences, mais aussi l'utiliser comme « type » — Tchernobyl connaît alors de nombreuses possibilités d'emploi antonomasiques, comparatifs, prédicatifs, voire de dérivations : ainsi, à partir de la valeur événementielle du Npr Rwanda : On aurait pu craindre un épisode rwandais (France Culture 14-09-05). Lexicalisation. Nous rattacherons la question de la lexicalisation du Npr aux tropes, et plus spécifiquement à la métonymie (certaines métonymies). En effet, plus encore que pour les séquences composées de noms communs (cf. § 2. 2.), la figuralité semble occuper une place déterminante dans le changement de statut lexical du Npr, voire dans son intégration à un dictionnaire de langue (sa lexicographisation). En se basant sur la perte de majuscule, considérée comme un premier indice de cette lexicalisation, on peut rapporter à certains critères la prévisible lexicalisation de certains Npr. Nous avons remarqué ci-dessus la différence entre plusieurs catégories de Npr métonymiques eu égard à la majuscule (camembert mais aussi poubelle vs Proust) et au changement de statut lexical de ces noms. Plusieurs phénomènes concourent sans doute à cette « communisation » du Npr, pour laquelle nous proposons quelques pistes : (a) le référent métonymique de camembert ou poubelle, en tant que produit de consommation, est multiplié. Le nom ne désigne donc plus alors un individu mais une classe. (b) Si le référent initial du Npr est un « inventeur » (ou assimilé), il a perdu sa notoriété en tant que tel dans la mémoire commune (Poubelle). (c) Peut-être doit-on également invoquer la trivialité du produit inventé, par opposition à la « noblesse » de l' œuvre, nécessairement rattachée au statut individuel de l'artiste (Proust). Quant au référent événementiel d'un toponyme, l'unicité de l'événement nous paraît à elle seule susceptible de garantir au toponyme son statut de Npr. En résumé, sont ici à envisager les critères croisés que sont le référent initial du Npr, le référent métonymique et le rapport métonymique lui -même, ancrés dans l'univers culturel. Quant au figement, pensons ici aux Npr formés d'unités polylexématiques (noms d'institutions, de partis politiques, noms de mouvements comme Sauvons la Recherche), qui relèvent souvent d'une stratégie motivée de dénomination, qu'elle soit attachée à l'histoire ou en rupture délibérée avec elle, et possèdent tout à la fois compositionnalité syntagmatique des éléments et motivation — ce pour quoi le Npr est choisi —, mais qui, en usage référentiel, fonctionnent en bloc, à l'instar des noms composés (ce dont témoigne d'ailleurs leur siglaison, terme ultime du figement). Ces formes au statut intermédiaire mériteraient une étude particulière, qui pourrait tout à la fois tirer parti des approches spécifiques au Npr et de celles du figement, et plus généralement des phénomènes de fixation. Nous avons cherché ici à cerner les termes de lexicalisation, figement et catachrèse, et leur extension dans des phénomènes extrêmement divers de « fixation » du/dans le lexique. Nous avons en chemin pointé la variété des faits concernés, qui relèvent aussi bien du discours que de la langue, et, avec le nom propre, de ses marges. Cependant, bien que largement explorées, comme en témoignent les références que nous avons citées et celles que nous avons dû inévitablement laisser de côté, les questions abordées restent d'autant plus ouvertes qu'elles engagent, comme nous l'avons dit, différents domaines de la linguistique, mais aussi, comme nous ne l'avons pas (ou peu) dit, d'autres disciplines—psychologie sociale, psychologie cognitive, théorie littéraire, philosophie, anthropologie…
Cet article se donne pour objectif de cerner les acceptions des trois termes lexicalisation, figement et catachrèse, comme processus et comme résultat du processus et, sous le terme générique de « phénomène de fixation », de préciser leurs points communs et leurs divergences. Après avoir défini les termes et présenté le panorama de leur exploitation dans les Sciences du Langage, on s'intéresse à ce qui rapproche les notions, en choisissant trois axes: phénomènes de fixation et lexique; phénomènes de fixation et créativité; phénomènes de fixation et discours. Enfin, on propose une application des trois phénomènes de fixation au cas particulier des noms propres.
linguistique_10-0147025_tei_431.xml
termith-570-linguistique
En quelques pages, il est impensable de pouvoir traiter de toutes les expressions de la causalité que l'on pourrait trouver au travers des textes. Nous allons insister sur quelques aspects dans ce bref article, en particulier sur la relation entre l'abduction et la causalité, d'une part et d'autre part, la nécessaire prise en charge des relations causales par un énonciateur, lorsqu'on examine leur expression dans des textes. Ces deux points semblent éloignés, mais finalement un raisonnement abductif est toujours lié à une prise en charge énonciative de celui qui oriente un raisonnement vers une cause plausible à partir d'indices dûment explicités ou explicitables, par exemple dans une justification ou une explication. Par ailleurs, l'analyse des textes montre que la causalité n'est pas toujours exprimée par des connecteurs comme parce que, puisque et car, mais également par des verbes comme provoquer, déclencher, conduire à … Cependant, il faut remarquer que les relations causales ne sont pas toujours de même nature et qu'une typologie serait souhaitable, comme nous le montrons dans la deuxième partie de l'article. Nous commencerons par repréciser la notion d'abduction au sens de Peirce, qui conduit à formuler la plausibilité d'une hypothèse et non sa possibilité. Nous mettrons en œuvre le raisonnement abductif sous-jacent à un énoncé, qui sera repris dans la deuxième partie et opposé à des énoncés où la prise en charge énonciative est plus explicitement manifestée. La seconde partie insistera plus sur la construction d'une relation causale telle que l'on peut l'observer à travers sa mise en texte. La notion de « causalité » avec l'expression d'une justification, exprimée ou implicite, est souvent la trace d'un raisonnement abductif. Or, la notion d' « abduction » est souvent mal comprise. Le mathématicien Georges Polya, dans son ouvrage Comment poser et résoudre un problème ? (1989), distingue les raisonnements démonstratifs des raisonnements heuristiques : Le deuxième raisonnement heuristique est en fait une abduction. Georges Polya prend pour exemple le raisonnement de Christophe Colomb énoncé par : La terre doit être proche puisqu'on voit des oiseaux. Ce raisonnement fait appel, premièrement, à un constat d'observation : « on voit des oiseaux », puis à un savoir commun « Si on est près d'une terre, alors on voit des oiseaux », d'où l'hypothèse plausible : « la terre doit être proche » et, finalement, son énonciation accompagnée de sa justification. Précisons ce que C.S. Peirce, qui a proposé le terme d ' abduction, entendait par ce genre de raisonnement, qu'il opposait à l'induction et à la déduction : L'induction généralise à partir de corrélations particulières; son objet : formuler une loi générale. La déduction utilise une loi générale et une prémisse; son objet : déduire une conclusion vraie à partir d'une loi vraie et d'une prémisse acceptée pour vraie. L'abduction utilise une loi générale et un constat pour remonter à une « hypothèse causale »; son objet : remonter à une hypothèse plausible à partir d'indices identifiés. Prenons un exemple, emprunté à Peirce. Considérons un sac qui contient des haricots et quelques haricots autour. Nous pouvons avoir les situations suivantes : Supposons qu'un certain nombre de haricots qui ont été tirés de ce sac soient tous blancs; donc, par généralisation inductive, « tous les haricots du sac sont blancs ». Supposons que l'on sache que tous les haricots dans ce sac sont blancs; or, je tire un haricot du sac; par déduction, je puis affirmer que « cet haricot est (nécessairement) blanc ». Supposons que je sache que tous les haricots dans ce sac sont blancs; or, voici un haricot à côté du sac, qui est percé; par abduction, je peux en inférer que « cet haricot vient du sac » est une proposition plausible. Nous résumons cela dans le tableau 1, ce que nous généralisons dans le tableau 2. Prenons quelques exemples très simples. S'il pleut, alors le sol est mouillé [expression d'un savoir commun] Or, le sol est mouillé [constat] Donc, il a plu ! / Il a dû pleuvoir. / Il aurait donc plu. Les derniers énoncés expriment un état résultatif d'un événement passé reconstruit, par abduction jugé simplement plausible. Remarquons que la conclusion énoncée à la suite d'une abduction, peut être contestée, comme en témoigne le dialogue suivant : – Il a dû pleuvoir ! – Pourquoi dis -tu cela ? – Eh bien, parce que le sol est mouillé. – Oui, je vois mais tu fais erreur. Si le sol est mouillé, c'est parce que l'arroseuse municipale est passée dans la rue il y a quelques minutes. – Ah bon ! Je comprends. Prenons un autre exemple : – Tiens, le directeur est déjà arrivé ! – Pourquoi ? – Pourquoi ? Mais, sa voiture est déjà au parking. – D'accord mais ce n'est pas une raison [suffisante ], d'autant, qu'hier soir, sa voiture est tombée en panne : elle n'a pas pu démarrer. – Donc, le directeur n'est pas encore là. – Cela m'étonnerait. Sitôt ! Mais, après tout, pourquoi pas ! Le raisonnement mis en jeu dans l'énonciation de Tiens, le directeur est déjà arrivé !, se présente comme suit : appel à un savoir partagé : « lorsque le directeur est là, sa voiture est toujours au parking »; constat : « J'ai observé que la voiture du directeur est au parking », d'où (par abduction) : « Paul est arrivé » est un fait plausible, bien que, habituellement, il arrive plus tard, ce qui constitue une certaine surprise, marquée par Tiens. Ainsi, le raisonnement abductif laisse toujours place à une négociation, éventuellement à l'expression d'un doute, contrairement à l'assertion qui bloque toute négociation (Le directeur est arrivé, c'est vrai !), en mettant dans deux mondes opposés celui qui asserte et celui qui le conteste. Dans une déduction, on ne peut pas contester la conclusion dès lors que l'on a accepté comme étant vraie, ou supposée telle, la prémisse, c'est-à-dire l'hypothèse. Reproduisons, à titre d'exemple, le raisonnement intérieur d'un juge, peu expérimenté et influençable par les seules rumeurs : « si quelqu'un est coupable alors la rumeur rapporte généralement qu'il a un comportement suspect; or, la rumeur rapporte justement que Untel a (aurait eu) un comportement suspect. Je ne puis donc pas affirmer qu'il est coupable mais la rumeur est un indice, suffisant à mes yeux, pour le considérer comme suspect; je vais donc le mettre en examen, le procès devra alors apporter la preuve qu'il est coupable ». Un raisonnement abductif remonte à une hypothèse ‘ H ' à partir non pas d'un seul indice mais à partir d'un faisceau d'indices convergents : (1) on a observé les indices C 1, C 2, …, C n; (2) on formule une hypothèse ‘ H ' (par un acte abductif créatif); (3) on se réfère à une loi générale : ‘ SI H ALORS on a C 1 ET C 2 ET ….ET C n ' (4) on pose, par un raisonnement abductif, la plausibilité de l'hypothèse ‘ H ', avancée comme étant une cause plausible des constats, puisque on a effectivement C 1 ET C 2 ET ….ET C n.. Plus le faisceau d'indices ‘ C 1, C 2, …, C n ' est abondant, plus la plausibilité de l'hypothèse ‘ H ' s'en trouve renforcée. C'est pourquoi les juges, les policiers, les médecins, les archéologues, les géologues, les évolutionnistes, les historiens, les linguistes comparatistes qui reconstruisent un état de langue – non observable directement –, qui ont tous recours, dans leur pratique, à des raisonnements abductifs, chercheront à accumuler les indices pertinents, en procédant à des analyses complémentaires, en déclenchant de nouvelles observations, en recherchant de nouveaux documents, pour mieux étayer une hypothèse avancée qui deviendra ainsi, progressivement, une « cause explicative » des phénomènes constatés et décrits. Analysons maintenant le raisonnement abductif sous-jacent à une autre énonciation : Ce médicament a certainement agi puisque l'électrocardiogramme s'est stabilisé. Nous devons faire appel, ici, à une analyse aspecto-temporelle, avec plusieurs référentiels temporels, en mettant en jeu : (a) un savoir partagé général (connaissance médicale) « le cœur est en bon état si on observe que l'électrocardiogramme est stable »; (b) une relation causale exprimée dans le référentiel des situations possibles (actualisables mais non nécessairement actualisées) : « le processus impliqué par la prise du médicament recommandé CAUSE normalement un changement de l'état du cœur (qui de mauvais devient bon) ». Dans le référentiel actualisé de l'énonciateur, ce dernier a une connaissance de la période temporelle déjà réalisée : (c) « l'état du cœur était mauvais » (état passé) et (d) « le malade a pris le médicament recommandé » (événement passé). Toujours dans ce référentiel énonciatif, un constat présent s'est établi : (e) « l'électrocardiogramme est maintenant stabilisé ». La conclusion s'impose alors par reconstruction abductive de l'événement plausible (f) « Le médicament a agi », cet événement est considéré alors comme étant la cause de l'état constaté « le cœur est maintenant en bon état », par le biais d'une mesure indicatrice (« l'électrocardiogramme est stable »), d'où l'énonciation, avec une marque modale : le médicament a dû agir / a certainement agi /a sans doute agi … Il serait nécessaire, pour justifier complètement cette analyse, d'introduire beaucoup plus d'éléments théoriques aspecto-temporels. Nous pouvons néanmoins représenter ce raisonnement qui articule des propositions relevant de deux référentiels temporels à la fois distincts et synchronisés entre eux, par le diagramme de la figure 1. Comment les moyens d'expression langagiers rendent-ils compte des représentations des relations causales qu'un locuteur humain se fait ou construit et choisit de transmettre ? Nous défendons l'hypothèse (Jackiewicz 1998, 1999, 2004) que la causalité encodée dans la langue peut être vue comme une relation complexe intégrant d'une part, une relation efficiente entre situations et d'autre part, une relation subjective entre cette relation efficiente et le locuteur qui la prend en charge. Les différentes modalités de prise en charge énonciative présentes dans les énoncés causaux sont à divers degrés liées, tant conceptuellement que sur le plan de l'expression avec la notion de causalité. Les études linguistiques portant sur la causalité sont menées traditionnellement à l'intérieur de deux champs distincts. Le premier s'intéresse à l'argumentation et donc à l'organisation raisonnée du discours. Cette organisation est marquée entre autres par certains connecteurs considérés comme causaux, tels que parce que, puisque et car. Le deuxième champ d'investigation est celui de la sémantique lexicale, dont l'objet est la description de verbes qualifiés d'efficients ou de causatifs, selon le mode de participation du sujet à l'action, donc exprimant une certaine agentivité. Ces deux approches de la causalité, fort différentes entre elles, reflètent assez nettement la distinction que la langue opère entre la causalité que l'on établit et la causalité que l'on exploite (figure2). En effet, la langue semble réserver les moyens grammaticaux ou grammaticalisés à l'expression des enchaînements discursifs fondés sur des liens causaux bien établis, notamment sur des lois causales communément partagées, souvent implicites (a). Elle fait appel à des moyens lexicaux (essentiellement verbaux), plus riches en possibilités d'expression, notamment pour exprimer différentes manières d'agir, quand il s'agit de construire une telle relation ou d'en parler (b). (a) Ce médicament a certainement agi puisque l'électrocardiogramme s'est stabilisé. (b) On sait que la cataracte – première cause mondiale directe de cécité absolue – est provoquée par une lésion de l' œil, qui peut être le fait, entre autres facteurs, d'une pollution aérienne lourde. Considérons maintenant la partie gauche de la carte, pour nous intéresser aux moyens d'expression lexicalisés, et notamment aux verbes qui sont situés à l'intersection des domaines de l'agentivité et de la causalité. Ce très vaste ensemble de verbes efficients permet d'exprimer tant une action intentionnelle effectuée avec contrôle et téléonomie qu'une action privée de toutes ces propriétés. Avant de considérer les exemples illustratifs de ce phénomène de polysémie, précisons les critères définitoires des notions d'agentivité et de causalité. Les énoncés agentifs expriment une situation unique avec deux participants (l'agent et le patient) et un état résultant. L'agent qui effectue une action affectant le patient n'est pas en relation causale avec l'état résultant du patient. Les capacités d'effectuation directe, de contrôle et de téléonomie qu'il met en œuvre dans l'action, sont autant de propriétés qui rendent son acte difficilement séparable de l'effet produit. Un exemple d'énoncé agentif prototypique serait Marie écrit un poème. La causalité, quant à elle, sera vue comme une relation entre deux situations que l'on peut appréhender, conceptualiser et verbaliser d'une manière indépendante. Une situation par excellence est un état, un processus ou un événement (une lésion de l' œil dans b), mais aussi toute entité susceptible d'une interprétation processuelle ou événementielle (une pollution, une mer… qui ravage les côtes). Regardons comment les verbes efficients interagissent avec leurs arguments et avec d'autres éléments, notamment modaux, présents dans leurs contextes.Quand les arguments correspondent à des processus, la lecture causale s'impose (1, 2). (1) Sécheresse et incurie politique provoquent une famine en Afrique. (2) Les délocalisations d'activités industrielles vers Pékin et Shanghaï augmentent les inquiétudes des Européens. Dans le cas où le premier argument, exprimant l'entité qui agit, est une entité intentionnelle a priori, deux lectures sont possibles selon le contexte.Une lecture préférentiellement agentive pour l'énoncé 3, où l'on note l'influence d'une modalité d'action (inchoactive) commencer à. Une lecture causale, dans (4), où la présence de l'adverbe modal incontestablement focalise l'information sur l'existence possible (incontestable ?) d'un lien entre l'attitude de certains enseignants et la dépression scolaire. (3) Les conseillers économiques de Clinton commencèrent dès février 1994 à provoquer la baisse du dollar. (4) L'anxiété de l'élève est constituée de trois éléments : la tendance anxieuse, l'anxiété de sa famille, l'anxiété (éventuelle et diversement exprimée) des maîtres. Incontestablement, quelques enseignants – de moins en moins nombreux – provoquent une sorte de ' dépression ' scolaire. Quand l'argument qui exprime l'entité qui agit est tout simplement un objet ou une entité, nous avons à choisir entre une lecture instrumentale, qui semble s'imposer pour l'énoncé 5, et une lecture causale, dans l'exemple 6. (5) La science évolue sans cesse et les laboratoires travaillent sans relâche sur de nouveaux moyens capables de modifier les comportements et d'augmenter les performances. (…) Si les produits dopants augmentent la masse musculaire… (6) Pensez -vous que les produits financiers de plus en plus sophistiqués augmentent la volatilité des marchés ou, au contraire, qu'ils ont permis aux institutions financières d'absorber plus facilement le krach ? En effet, les produits dopants, comme le précise le contexte qui précède la proposition, sont fabriqués pour augmenter les performances des sportifs. Ils constituent un instrument employé dans une visée précise. L'action des produits financiers fait, quant à elle, l'objet d'un questionnement. L'augmentation de la volatilité des marchés, comme effet, est un effet possible qui est discuté et pesé dans la suite du texte. Au sein de la relation prédicative, on observe donc une interaction (un ajustement mutuel) entre les significations respectives des différents lexèmes qui jouent le rôle de prédicat, d'arguments et de modalités. Parmi les éléments qui interviennent dans la caractérisation distinctive de la notion de causalité par rapport à celle d'agentivité, les modalités méritent à nos yeux une attention particulière. Il s'agit d'une part des modalités d'action qui spécifient le degré d'implication de l'agent humain dans l'action qu'il effectue (elle peuvent toucher à l'intentionnalité, au contrôle, à la téléonomie, à la manière de faire, à l'appréciation normative). D'autre part, il y a des modalités de prise en charge qui focalisent l'attention sur la plausibilité et sur l'intelligibilité du lien établi entre deux situations distinctes. Plusieurs linguistes ont signalé, montré ou exploité le lien qui existe dans la langue entre la catégorie des modalités et celle de la causalité. Citons le constat fait à ce sujet par Ferdinand Brunot. Il est peu de rapports qu'on ait plus souvent besoin de mettre en relief. Plus le rapport de causalité entre deux faits est douteux, plus on peut avoir besoin d'y insister (Brunot 1922, p. 823). Le rapport de cause peut être lui -même dans toutes sortes de modalités; on peut le présenter comme certain, possible, irréel. Pour assurer, on dira : c'est sûrement, certainement. .. parce que. Pour présenter avec réserve au contraire, on se servira des moyens ordinaires : peut-être, sans doute : s'il est si timide, c'est peut-être manque d'habitude (Brunot 1922, p.827). Leonard Talmy (1988), quant à lui, regroupe les catégories de causation et de modalité dans une catégorie plus générale à ses yeux que constitue la dynamique des forces. Notons également que la terminologie causale est, elle -même, riche d'expressions qui renvoient, soit à une construction intellectuelle, soit à un jugement subjectif : imputation causale, impression de causalité, suspicion de causalité, interprétation causale, assignation causale, assertion du lien causal, attribution causale, jugement de causalité, degré de certitude du lien causal, détection de causalité, établissement du lien causal …. La prise en charge énonciative est une notion linguistique qui représente la dimension modale (modus) emboîtant la dimension prédicative (dictum) de l'énoncé. C'est une opération complexe, qui comme l'ont montré (Desclés et Guentchéva 2000), peut se décomposer en plusieurs opérations élémentaires, paraphrasables comme suit : – Je dis que ce qui est dit est vrai (assertion); – Je dis que ce qui est dit est vrai selon une certaine modalité (possible…); – Je dis que ce qui est dit est vrai dans un contexte déterminé; – Je dis que ce qui est dit est dit par un autre, déterminé ou indéterminé (médiation); – Je dis que ce qui est dit est inféré à partir d'indices; – Je dis que ce qui est dit est attesté par un témoin (vu ou entendu). En français, quand le dictum exprime une relation causale, ce sont les quatre premières opérations énonciatives qui l'on atteste en priorité. Chacune d'entre elles colore différemment l'information causale exprimée et rend compte d'une vision particulière qu'un énonciateur se fait de cette relation et choisit de transmettre. L'énonciateur produit souvent des assertions de relations causales qui sont pleinement assumées par lui. Cette prise en charge peut prendre plusieurs nuances, selon la manière dont l'énonciateur choisit de légitimer le savoir causal qu'il exprime. L'assertion peut être fondée sur un constat empirique direct, lié à la perception. Elle peut puiser sa légitimité dans le fait d' être assumée collectivement par une communauté déterminée. Elle peut aussi s'appuyer sur le fait que l'énonciateur tient le lien causal pour explicable ou intelligible. L'adhésion au contenu prédicatif atteint son degré maximal quand l'énonciateur déclare être lui -même à l'origine de la relation prédicative exprimée. (7) De telles difficultés m'ont alors semblé révélatrices d'une faiblesse de notre démocratie dont j'attribue la cause à une politique constante d'éducation nationale qui mériterait d' être corrigée. Le savoir causal est souvent asserté comme dépendant d'un point de vue ou d'un contexte particulier, qui déterminent ainsi son cadre de validité. Ce type d'assertion contextualisée est toujours assumé par l'énonciateur. Celui -ci assume directement non pas la relation causale, mais le fait de la rendre dépendante d'un contexte. Plusieurs cas de figure, relativement proches les uns des autres, peuvent se présenter selon les circonstances dans lesquelles le contenu prédiqué peut être considéré comme valide. Une connaissance causale peut être vraie uniquement à l'intérieur d'un cadre spatial ou temporel, au sein d'une discipline ou une théorie particulière, ou encore peut n' être tenue pour fondée que par certaines personnes ou par certains groupes de personnes (critère énonciatif). Le contexte de validité restreint permet de comprendre pourquoi plusieurs explications causales différentes (voire concurrentes) peuvent être proposées en même temps, chacune relativement à son contexte (relativité explicative). Les rédacteurs ont en général à cœur que leurs lecteurs reconnaissent correctement les limitations de validité du savoir transmis. (8) Dans la théorie standard, dite « néoclassique », le libre fonctionnement du marché conduit l'économie dans son ensemble à un état optimal. La prise en charge médiatisée introduit un tiers plus ou moins déterminé. L'énonciateur prend de cette façon de la distance par rapport à ce qu'il énonce. Ne pouvant être légitimées par une origine reconnue, les relations causales ainsi médiatisées sont généralement incertaines et restent à vérifier. Pour exprimer un désengagement, l'énonciateur peut recourir au conditionnel, ainsi qu' à des expressions telles que d'après, selon les rumeurs; il paraît que, il paraîtrait que; paraît-il (en incise); dit-on (en incise); le bruit court que. (9) Une enquête de l'Assistance publique de Paris révélait en mars 1993 que près de 10 % de malades étaient victimes d'une infection contractée durant leur séjour. D'après diverses sources, cette calamité serait responsable de six mille à dix-huit mille morts par an auxquels on peut ajouter les accidents thérapeutiques qui feraient quelque dix mille victimes selon l'Association des victimes d'actes médicaux. Le contenu d'une proposition causale peut également se trouver modifié par une idée de nécessité, d'impossibilité, de possibilité ou de contingence. On peut noter par exemple que les modalités du possible et du nécessaire renforcent la réalité du lien causal en le présentant comme inhérent aux choses. Leur présence dans un énoncé causal traduit généralement une efficience causale latente, plutôt réalisable que réalisée. (10) La tyramine qui est un facteur biochimique migrainogène cité plus haut est susceptible de provoquer des crises de migraine authentique et il faut connaître les aliments riches en tyramine. Quand un énoncé causal est modifié par une modalité épistémique, il rend compte d'un état de connaissance ou d'un degré de certitude de l'énonciateur par rapport à la réalité du lien causal prédiqué « je dis que ce qui est dit est certain ou probable ou improbable… ». L'énonciation causale modalisée par des modalités de fréquence ou d'habitude suppose un savoir sur des événements déjà accomplis et marque la possibilité d'extrapolation sur du encore possible. La présence significative des éléments modaux dans l'expression de la causalité, nous amène à considérer la causalité langagière comme une relation complexe qui intégrerait deux relations constitutives, d'une part une relation efficiente entre deux situations (R1), et d'autre part, une relation subjective (R2) entre cette relation efficiente et celui qui la prend en charge (H). De nombreux marqueurs témoignent de différentes manières de cette double dimension de la causalité dans la langue. Certains encodent directement la relation complexe, où R1 et R2 sont intriquées (11a). Dans (11b) et (11c), la co-présence de R1 et de R2 est plus transparente, notamment grâce à la co-présence du prédicat verbal qui exprime le lien causal et d'un marqueur qui exprime une certaine modalité portant sur le contenu prédicatif. (11a) Arrhénius lie définitivement la dérive de l'effet de serre et l'utilisation des combustibles fossiles. (11b) L'ingestion de vin aurait un effet protecteur sur l'organisme. (11c) Selon Freud, l'oubli est le fruit d'un refoulement. La relation subjective et la relation efficiente sont étroitement liées entre elles. Tout d'abord, la relation subjective peut modifier sensiblement le contenu de la relation efficiente, ensuite ces deux relations sont souvent indissociables sur le plan de l'expression, enfin, la relation subjective guide l'interprétation de la relation efficiente quand cette dernière est exprimée par des marques polysémiques. La dimension modale, si présente dans l'expression de la causalité, rend compte des représentations de cette notion que le locuteur humain se fait ou construit et choisit de transmettre. La causalité naît de l'interprétation du monde. L'énonciateur ne se contente pas de « lire » le monde qui l'entoure, mais cherche activement à construire des relations à la fois signifiantes et opératoires. Et cette causalité, laquelle se construit le plus souvent collectivement et progressivement, apparaît dans la langue comme une notion dialogique .
L’A. traite quelques expressions de causalité trouvées au travers de textes. Il insiste sur quelques aspects, en particulier sur la relation entre l’abduction et la causalité, d’une part et d’autre part, la nécessaire prise en charge des relations causales par un énonciateur, lorsqu’on examine leur expression dans des textes. Ainsi, dans un premier temps, l’A. reprécise la notion d’abduction au sens de Pierce. Ensuite il met en œuvre le raisonnement abductif sous-jacent à un énoncé et opposé à des énoncés où la prise en charge énonciative est plus explicitement manifestée. Enfin, il insiste sur la construction d’une relation causale telle que l’on peut l’observer à travers sa mise en texte.
linguistique_11-0080463_tei_36.xml
termith-571-linguistique
À la suite de l'effondrement du bloc communiste en Europe centrale et orientale, et parallèlement au développement d'un nationalisme linguistique, le « nationalisme scriptural » a également fait son apparition. Ce dernier est moins virulent, peut-être moins souvent objet d'actualité ou de débat hors des aires culturelles concernées, bref, moins visible, mais ses conséquences sont tout aussi importantes. Certes, la géographie des écritures est incontestablement moins complexe que la géographie des langues. L'Europe « des quinze » n'a -t-elle pas plusieurs langues officielles et deux alphabets seulement, dont l'un, latin, largement majoritaire et l'autre, hellénique, réduit au territoire de la Grèce ? L'écriture apparait, en Europe en tout cas, comme une modalité particulière du contact de langues, comme une dimension située bien au-delà des langues et de leurs corrélats nationaux. Un système d'écriture (alphabet, écriture syllabaire, idéogrammes) peut couvrir de nombreuses langues, sur une aire culturelle étendue. Il nous semble que les écritures ont une autre dimension, une dimension de rayonnement culturel, et en tant que telles, elles sont plus sensibles à la reconfiguration des blocs stratégiques. Si l'on considère que les trois principaux pôles de cette reconfiguration sont le pôle de la cyrillisation, celui de la latinisation et celui de l'arabisation, correspondant à trois aires culturelles, nous pouvons nous donner pour objectif de les analyser sur un espace restreint, comme celui de l'espace yougoslave autrefois et aujourd'hui. Ce territoire est un véritable carrefour de plusieurs civilisations où se sont « rencontrés » les langues et les alphabets au fil de l'histoire. En effet, on peut observer, dans cet espace, une situation paradoxale : les Serbes et les Croates ne parleraient plus la même langue; la langue bosnienne a émergé et s'ébauche même une langue monténégrine… De plus, chacune de ces langues devrait une fois de plus se doter d'un système d'écriture propre et unique et le bialphabétisme (coexistence et pratique des deux alphabets) de la langue serbo-croate ne suscite plus l'enthousiasme chez ses locuteurs. L'histoire de chacun de ces peuples devrait recommencer en opposition avec les modèles passés. Par ailleurs, les nations participant à ce qui fut la communauté linguistique serbo-croate se lancent, après l'éclatement du pays, dans une lutte contre le symbole même de leur passé commun, la langue serbo-croate qu'ils ont partagée autrefois, et à travers elle, ses deux alphabets, cyrillique et latin. Le dernier cycle de guerres sanglantes balkaniques a montré que les alphabets étaient particulièrement la cible des nationalistes. L'alphabet latin et l'alphabet cyrillique se sont vus identifiés à l'ethnie et à la nation ou à la religion ennemies (Thomas, 1998, p. 113), mobilisés désormais dans le cadre des représentations identitaires des langues et des nationalismes, et ont été traités comme emblèmes nationaux ou confessionnels, si bien que le bialphabétisme n'est plus perçu comme double compétence de lecture et d'écriture qui contribue à la richesse culturelle d'une communauté plurielle. Notre objectif est de montrer dans un premier temps, après avoir défini les types d'enjeux que représentent les alphabets dans un aménagement linguistique, comment ils ont été utilisés à travers l'histoire et manipulés à des fins de domination politique dans l'espace yougoslave. Dans un deuxième temps, nous envisageons de vérifier le degré de validité de notre observation en comparant cette situation avec des situations similaires, ailleurs. Il est bien connu que la diversité des langues est bien plus grande que la diversité des États, qu'il n'y a pas de concordance entre les frontières étatiques et les frontières linguistiques. Pourtant, on a pris l'habitude de considérer « qu'un État se devait d'avoir, bien protégées derrière ses frontières, une seule nation, une seule langue » (Calvet, 1993, p. 10). On a pris également l'habitude de considérer qu' à la langue devait correspondre un système d'écriture dont le choix n'est pas neutre. Il est clair que derrière l'envie ou l'obligation d'écrire en cyrillique ou en alphabet latin, peuvent se cacher aussi bien les enjeux politiques et géostratégiques des États que les revendications identitaires de la population – encore faudrait-il définir de quelle tranche de population l'on parle. Avant de pousser plus loin notre réflexion, il convient de s'arrêter un moment sur ce que recouvrent les expressions politique linguistique et planification linguistique. Louis-Jean Calvet distingue la notion de politique linguistique comme détermination des grands choix en matière de rapports entre les langues et la société, de la planification linguistique, qui désignerait la mise en pratique d'une telle politique. Nous considérons la politique linguistique comme l'ensemble des choix conscients effectués dans le domaine des rapports entre langue et vie sociale, et plus particulièrement entre langue et vie nationale, et la planification linguistique comme la recherche et la mise en œuvre des moyens nécessaires à l'application d'une politique linguistique(Calvet, 1987, p. 154-155). En français on préfère aujourd'hui au terme de planification linguistique celui d ' aménagement linguistique, qu'il est possible d'articuler globalement autour de deux pôles d'action. On peut d'une part aménager le statut des langues et leur corpus. Dans le premier cas, selon Heinz Kloss, l'intervention vise le statut social de la langue « par rapport à d'autres langues ou par rapport à un gouvernement national » (cité par Daoust, Maurais, 1997, p. 10). Dans le deuxième cas, H. Kloss considère qu'il s'agit de l'aménagement de la langue elle -même, quand « un organisme, une personne ou des groupes de personnes visent un changement au niveau de la forme ou de la langue elle -même en proposant ou en imposant soit l'utilisation de nouveaux termes techniques, soit des changements au niveau de l'orthographe, soit encore un nouvel alphabet » (ouvrage cité, 1997, p. 9). Nous nous intéressons à ce deuxième volet de l'aménagement linguistique qui concerne, entre autres domaines, la graphie de la langue, la création d'une écriture ou d'un système de transcription, le changement d'un type d'écriture à un autre, etc. qui font partie plus spécifiquement de l'élaboration linguistique, ou de l'élaboration du corpus. C'est précisément dans cette perspective que l'ex-Yougoslavie nous apparait comme un observatoire, un prisme à travers lequel on peut observer à quel point l'aménagement des langues est devenu une réalité du monde contemporain. Nous allons reprendre maintenant les trois phénomènes qui touchent à l'écriture à travers l'histoire, ceux de la cyrillisation et de la latinisation, largement présents dans cet espace, à différentes époques et à des degrés divers, et celui de l'arabisation, dont on ne peut parler qu'avec une certaine réserve dans la mesure où ce phénomène est limité à une époque très précise, d'une durée réduite, et sur un territoire restreint. Le domaine de l'emploi de l'alphabet cyrillique peut paraitre de prime abord moins vaste que celui de l'alphabet latin, mais il recouvre un grand ensemble de langues, situé essentiellement au sud-est, à l'est de l'Europe et en Eurasie. Cet alphabet sert à noter les langues slaves de l'est, du sud et, de manière plus ou moins adéquate, un grand nombre de langues autres parlées dans l'ex-URSS, aussi diverses que des langues altaïques (langues turques d'Asie centrale, mongoles), finno-ougriennes (toutes, sauf les langues fenniques – finnois, estonien, carélien, live, vepse – et le hongrois), caucasiennes circassiennes (d'une complexité phonologique extrême) et dido-daghestaniennes, paléo-sibériennes. L'alphabet cyrillique, récent, établi par les disciples de Cyrille et Méthode pour adapter à la phonologie slave l'alphabet grec byzantin, a remplacé l'alphabet glagolitique. Le cyrillique fut ensuite, pour ceux qui ont subi les influences byzantines, l'alphabet qui représentait le lien avec la religion orthodoxe, et il est souvent mis en relation avec la « spiritualité » des peuples orthodoxes. Cet aspect -là a été largement exploité par les dirigeants nationalistes des pays de l'Est lors de la dernière décennie. En ce qui concerne précisément l'espace yougoslave, alors que dans la Yougoslavie de Tito, l'égalité des deux alphabets avait été proclamée, la situation changea radicalement après l'éclatement du pays, non seulement dans le domaine juridique, mais aussi dans la pratique, en fonction des représentations identitaires et nationalistes. La Constitution de la RFY comporte de nombreux articles qui entendent règlementer la question linguistique. La langue officielle de la fédération est indiquée dans l'article 15, qui généralise l'usage du cyrillique et mentionne celui de l'alphabet latin : En République fédérale de Yougoslavie, la langue serbe et ses parlers, l'ekavien et l'iékavien, ainsi que l'alphabet cyrillique sont officiels, tandis que l'alphabet latin est officiel selon les dispositions prévues par la Constitution et la loi (Ustav Savezne Republike Jugoslavije, 1992). En Serbie également, l'article 8 de la Constitution serbe fait du serbo-croate la langue officielle et du cyrillique l'alphabet officiel : Le serbo-croate et l'alphabet cyrillique sont officiellement en usage dans la République de Serbie, tandis que l'alphabet latin est officiel conformément aux conditions fixées par la loi (Ustav Republike Srbije, 1990). Dans la Yougoslavie actuelle, seule la République du Monténégro a proclamé l'égalité des deux alphabets dans sa Constitution. Autrement dit, deux dispositions ont remplacé dans la RFY le pluralisme scriptural qui précédait : régime à dominante cyrillique au niveau fédéral et en Serbie, régime pluraliste (latin et cyrillique) pour le Monténégro. Ce n'est pas seulement au niveau constitutionnel que le nationalisme scriptural est visible. En Serbie au début du régime de Milosevic, on tenta de « serbiser » la langue standard par le biais de l'alphabet : le régime ordonna l'impression des manuels scolaires exclusivement en cyrillique, excepté les manuels de langues étrangères, et les manuels en langues des minorités. En renonçant volontairement au bialphabétisme, on privait les enfants d'une formation qui ne pourrait être qu'un avantage pour leur avenir du point de vue de la diversité des compétences de communication écrite. Par ailleurs, certains périodiques imprimés jadis en alphabet latin passèrent l'un après l'autre au cyrillique. On insistait sur l'usage presque exclusif du cyrillique, en exigeant qu'il figure même dans la Constitution de la République de Serbie. Après une rectification qui devait modifier ce choix radical et la proposition que la Constitution « autorise » malgré tout l'alphabet latin dans certaines situations, ce projet fut abandonné. R. Bugarski souligne que cette politique ne pouvait aboutir, car « [elle] était appuyée par des émotions fortes, mais par des arguments faibles » (Bugarski, 1997, p. 38). Aujourd'hui, même après la chute du régime de Milosevic, le sentiment que l'alphabet cyrillique serait en danger continue d' être très présent dans certaines couches de la société serbe. Récemment a été formée une Association pour la protection du cyrillique qui sert davantage de forum pour des débats politiques nationalistes que de société savante, en travaillant à la promotion d'un élément culturel. À en croire certains observateurs, « leurs réunions servent à faire des tirades sur les complots mondiaux xénophobes » (Gluhonjic, 2002), où on peut entendre que seuls « les mauvais Serbes écrivent en alphabet latin » (Gluhonjic, 2002). Tout récemment, le 14 novembre 2002, l'Assemblée nationale serbe a même voté une déclaration sur la protection du cyrillique, inquiétée par l'idée que cet alphabet reculerait de plus en plus devant l'alphabet latin, et « le manque de conscience du besoin de sauvegarder ses propres valeurs culturelles, l'identité nationale et ce qui la caractérise » (« Deklaracija o za ?titi cirilice », 2002). Que le cyrillique recule devant les avancées de l'alphabet latin est effectivement un fait indéniable. Si l'on en croit les enseignants du secondaire, il arrive que les élèves leur demandent l'autorisation d'écrire leurs devoirs en alphabet latin, faute de connaitre suffisamment le cyrillique (« Mnogi ne znaju cirilicu », 2002). De même, il est vrai que 18,5 % seulement des enseignes à Novi Sad sont en cyrillique et 31,8 % à Belgrade (« Ne damo cirilicu », 2002). Mais de tels faits ne constituent pas en eux -mêmes la menace d'une modalité d'écriture sur une autre et dépendent des infrastructures éducatives, de la diversité d'origine des populations urbaines dans les Balkans et d'échelles de véhicularité relative, jouant en faveur de l'alphabet latin. Autant de causes qui peuvent se traiter par un investissement éducatif et la tolérance pluraliste, plutôt que par la prescription forcée et le repli identitaire. Après la christianisation effectuée par Rome, les Croates ont utilisé un certain temps le slavon croate et l'écriture glagolitique dans la liturgie avant de passer au latin. Dans l'ex-Yougoslavie, même si L'orthographe de la langue serbo-croate littéraire proclamait l'égalité des deux alphabets, il existait toujours une préférence en Croatie pour l'alphabet latin, comme d'ailleurs le cyrillique prévalait en Serbie. Pourtant, il est écrit dans ce livre de référence, publié en 1960, que « les deux alphabets, latin et cyrillique, sont égaux; pour cela il faut veiller à ce que les Serbes et les Croates apprennent au même titre les deux, ce qui peut se faire à travers le système éducatif » (Pravopis srpskohrvatskog knjizevnog jezika, 1960, p. 7). Après l'indépendance de la Croatie en 1991, les premières mesures du nouvel État sont prises : la République de Croatie ne s'appelle plus « socialiste », et la langue officielle est le croate, écrit en alphabet latin. La Constitution croate (art. 12) stipule que : L'usage de la langue croate et l'alphabet latin sont officiels dans la République de Croatie (« La politique linguistique de croatisation », 2002). Pourtant, l'usage officiel de l'alphabet cyrillique reste prévu dans les régions où les Serbes sont majoritaires. Ils peuvent continuer de nommer leur langue serbe, mais étant donné qu'ils représentent 12 % de la population totale, ils sont traités comme les autres minorités linguistiques. On constate là encore le choix d'abandonner le pluralisme que représentait le bialphabétisme pour promouvoir le monoalphabétisme dans le cadre de la séparation, ce qui renforce le cloisonnement culturel dans l'ex-Yougoslavie. L'alphabet arabe a connu une très grande diffusion au Proche-Orient et au Maghreb avec l'expansion de l'islam. Il s'est imposé avant tout pour des raisons culturelles. Cette écriture transcrira également les langues de l'Empire ottoman jusqu'au début du 20 e siècle. Sur le territoire de l'ex-Yougoslavie qui nous intéresse, l'islamisation de la population bosniaque du 15 e siècle a été d'une très grande importance pour l'évolution de la langue littéraire en Bosnie. Le superstrat turc et l'arabe comme langue religieuse, ont laissé des traces dans la langue parlée par la population musulmane (Franolic, 1972, p. 27). En ce qui concerne l'alphabet, une forme particulière du cyrillique appelée bosancica, ou « le cyrillique serbe » a été en usage au Moyen Age en Bosnie (Garde, 1996, p. 130). La poésie bosniaque de langue slave a été écrite à l'époque ottomane en alphabet arabe aussi, appelé arabica et approprié au système phonologique serbo-croate, mais l'alphabet latin l'a rapidement remplacé (Dérens, Samary, 2000, p. 185). Chaque État-nation proclamé après l'éclatement du pays commun veut se doter d'un emblème linguistique propre. La Bosnie-Herzégovine ne fait pas exception. Elle fut, comme d'ailleurs les autres républiques, une entité administrative officiellement multinationale où régnait un système complexe pour tenter de faire respecter les droits linguistiques et culturels de chacun. Dans le milieu musulman, on aspire aujourd'hui à souligner les éléments qui distinguent la langue bosnienne de la langue serbe. On garde pourtant l'alphabet latin et le parler iékavien, et cette variété se caractérise par beaucoup d'orientalismes, d'expressions locales, une abondance de termes d'origine turque ou arabe, surtout dans le domaine religieux. L'article 6 de la Constitution de la Fédération croato-musulmane de la République de Bosnie précise : Les langues officielles de la Fédération sont la langue bosniaque [sic] et la langue croate. L'écriture officielle est l'alphabet latin (« Les politiques linguistiques de la Bosnie », 2000). En revanche, la langue officielle de la République serbe de Bosnie est le serbe et l'alphabet officiel est l'alphabet cyrillique. Il est intéressant de noter que, dans le cas de la composante musulmane du nouvel État de Bosnie-Herzégovine issu des guerres nationalistes récentes, un retour à l'arabisation n'a pas été envisagé, et que c'est l'option de l'alphabet latin qui a été retenue. À travers le prisme yougoslave, on peut saisir les enjeux politiques et identitaires de pays qui, à un moment ou un autre, ont choisi de se tourner vers un autre alphabet ou de modifier le leur, manifestant une intention de convergence culturelle entre tradition européenne occidentale (latinisation) et orientale (cyrillisation), parfois en dépit des conflits religieux et nationaux à petite échelle (latinisation plutôt qu'arabisation en Bosnie). Le choix des alphabets traduit des polarisations d'un ordre supérieur à celui de l'individuation des variétés linguistiques. L'importance de l'alphabet latin est telle dans le monde occidental que l'on ne peut que comprendre ce qui a poussé Mustafa Kemal Atatürk à préférer l'alphabet latin à l'alphabet arabe, dans la volonté de tourner son pays vers l'Europe, de favoriser la communication internationale hors du seul monde musulman, et de marquer la fin d'un État théocratique en misant sur la laïcité. Cette réforme se justifiait aussi par des raisons structurales propres à la langue turque : l'alphabet arabe permettait difficilement de noter les voyelles de la langue turque et le système complexe et régulier de l'harmonie vocalique (palatale et labiale), mais il n'en reste pas moins que l'alphabet latin fut imposé en Turquie « moins parce qu'il transcrivait plus commodément les voyelles que parce qu'il permettait de bannir un grand nombre de mots du fond arabo-persan, traditionnellement notés en écriture arabe, et considérés par les Jeunes-Turcs comme les véhicules d'une idéologie archaïque, dont la modernisation du pays postulait l'abandon » (Hagège, 1994, p. 231). Les choix d'élaboration du corpus étaient donc multiples, et relevaient de l'intervention sur des facteurs inhérents (système vocalique et ses contraintes associatives) et contingents liés au contact de langues et de culture (rayonnement lexical arabo-persan). D'une manière analogue en termes de politique de convergence culturelle, mais avec une finalité assimilationniste plus que de simple rayonnement culturel, la décision de généraliser l'écriture cyrillique en Union soviétique a fini par aboutir à une politique systématique de russification des langues et des ethnies, car « en luttant contre l'analphabétisme, on a favorisé la diffusion du credo communiste » (Février, 1984, p. 554). Il est caractéristique qu'en ces temps de « lendemains d'empire », le passage de l'alphabet cyrillique à l'alphabet latin soit déjà effectué pour certaines nouvelles nations de l'ex-URSS. Il peut également être envisagé pour d'autres, engageant ces pays vers de nouvelles configurations sociolinguistiques d'ordre majeur, à savoir, l'ordre impliqué par les aires culturelles caractérisées, entre autres facteurs historiques et sociolinguistiques, par les alphabets et les choix scripturaux. C'est le cas de la langue azéri, appartenant au groupe turc, devenue langue officielle de l'Azerbaïdjan. Encore au 19 e siècle, cette région de Transcaucasie penche davantage vers la latinisation que vers l'alphabet arabe, et la transition d'un système graphique à l'autre se fera à Bakou avant même de s'accomplir à Istanbul (Constant, 2002, p. 8-9). Cette langue changera plusieurs fois d'écriture au cours de l'histoire : l'alphabet latin remplace les caractères arabes « mal adaptés à la phonologie des langues turques » en 1924 (ouvrage cité, p. 26), puis la russification accompagnée d'un cyrillique aménagé à la phonétique de la langue commencera en 1940. Après l'indépendance, le pays réintroduira de nouveau l'alphabet latin en 1993. Il est évident que par ce geste le pays a choisi en même temps de tourner le dos à la Russie et à l'Iran et de se rapprocher de la Turquie. Lors de la célébration de cet évènement, le président Gueïdar Aliev a déclaré au sujet de l'alphabet latin, « celui -ci est maintenant bel et bien le nôtre » (CDCA, 2001). On ne peut éviter de se demander pour combien de temps encore. C'est également le cas de l'ouzbek, autre langue turque qui a connu à peu près le même sort que l'azéri : passage relativement rapide de l'alphabet arabe à l'alphabet latin (de 1927 à 1940), puis au cyrillique (dès 1938), puis de nouveau à l'alphabet latin, après l'indépendance du pays. Si le cyrillique a été introduit pour juguler le panturquisme et rapprocher les nations turques d'Asie centrale du « grand frère » slave (Uhres, 1996), aujourd'hui l'intention est « surtout de s'en éloigner » (Uhres, 1996), et de tirer autant que possible un trait sur cette forme de colonialisme que fut le régime soviétique, et sur ses corrélats, comme la russification sous ses diverses formes. De même, le turkmène, langue officielle du Turkménistan, écrite en caractères arabes jusqu'en 1920, puis à partir de 1926, dans une variante d'alphabet latin proche de celle appliquée au turc anatolien de la Turquie kémaliste, puis en cyrillique depuis 1939 et les réformes staliniennes, se tourne de nouveau, en 1996, vers l'alphabet latin. Encore une fois, et ceci nous parait également vrai pour les pays voisins, « cette décision de changement d'alphabet traduit davantage une volonté politique affichée, plutôt qu'une décision linguistique qui exprimerait avec précision les réalités phoniques et phonologiques du turkmène moderne et standard » (Blacher, 1996). Un autre exemple est celui du tadjik, langue indo-iranienne d'Asie centrale qui appartient à l'ensemble des nouvelles langues nationales issues de l'effondrement de l'Union soviétique. Alors que le choix de l'alphabet latin dans d'autres pays d'Asie centrale ex-soviétique contribue à couper les racines religieuses dans les régions où l'islam est encore assez puissant et à faciliter la convergence culturelle avec l'espace turc anatolien, le choix tadjik de revenir à l'alphabet arabo-persan est tout autre. C'est certainement pour le Tadjikistan autant une manière de se défendre de l'influence du russe, que le désir de s'affirmer dans le monde islamique, voire de converger avec le reste du monde indo-iranien au-delà des divisions ethniques imposées par le découpage du pays lors de sa fondation dans le cadre soviétique (Roy, 1997, p. 115). Après une longue période de soviétisation, les Tadjiks ont de nouveau renoué avec leur tradition en découvrant un héritage littéraire et religieux rendu inaccessible pendant plusieurs décennies. Cette redécouverte du patrimoine peut aussi s'expliquer par le fait que « l'islam militant a connu une montée en puissance indéniable » ces derniers temps (Jeannot-Jahangiri, 2001, p. 104), particulièrement pour un pays dont l'indépendance récente s'est accomplie dans un contexte de guerre civile. Un dernier exemple pour illustrer le lien relatif entre langue, choix de modalité écrite et processus d'assimilation politique et culturelle, tiré de l'histoire européenne cette fois, sera celui du lituanien. Par rapport aux cas que nous venons d'examiner, dans le cadre soviétique récent, il est moins connu que le lituanien a été soumis à une politique de cyrillisation au 19 e siècle, précisément en 1840 quand « l'utilisation de l'alphabet latin pour écrire la langue lituanienne fut interdite » et remplacée par l'utilisation de l'alphabet cyrillique (Dumoulin, Vermès, 1997). Ce n'est qu'en 1904 que les « autorités russes permirent l'édition d'ouvrages lituaniens en caractères latins » (ibid.). La position de la Lituanie dans ce grand ensemble que fut l'ex-URSS, et la longue tradition de la langue lituanienne ont rendu la perspective d'une nouvelle cyrillisation impossible. Autant d'exemples qui montrent que le phénomène n'est pas propre aux Balkans et que les reconfigurations géostratégiques et politiques sont souvent accompagnées de reconfigurations sociolinguistiques qui incluent les systèmes d'écritures. Ce bref voyage à travers le temps, des Balkans à l'Asie centrale, montre que d'une part il a toujours été important pour tous de rattacher la langue à un alphabet particulier, et qu'il existe un lien entre l'expansion des écritures et le rayonnement culturel et politique d'autre part : celui des religions, mais aussi celui de la laïcité dans le cas du turc anatolien. Le cas de la communauté linguistique serbo-croate est, de ce point de vue des multiples modalités du rayonnement culturel et des choix de convergence, très révélateur. Nous avons surtout évoqué des exemples relevant des Balkans d'une part et des pays du Caucase et de l'Asie centrale d'autre part, tant les deux régions se ressemblent sur le plan géostratégique. Le Caucase, « les Balkans de l'Eurasie » selon les mots de Z. Brzezinski (Thual, 2001, p. 13), est également un carrefour de civilisations, un espace où le monde chrétien et le monde musulman se croisent et se rencontrent. Pour ce qui est de l'ex-Yougoslavie, la question que l'on se pose forcément est la suivante : s'arrêtera -t-on là ? Si « la désintégration une fois commencée impose une autre logique, différente » (Bugarski, 2001, p. 40), on peut effectivement supposer que la séparation politique de la communauté serbo-croate pourrait, à long terme, éloigner encore davantage ces langues si proches. Le choix de l'alphabet peut se révéler de ce point de vue très important, puisque les systèmes d'écritures apparaissent, tout comme la langue, comme des éléments relevant des attributs sociaux de l'identité. Un alphabet peut se transformer en symbole de l'identité d'un peuple et mobiliser à son tour en lui des sentiments collectifs, être l'objet d'un attachement, porteur d' « implications culturelles provoquant des sentiments d'identification aussi forts que celles de la langue elle -même » (Siguan, 1996, p. 115). Mais, il est très important de comprendre, nous semble -t-il, que ni le cyrillique ni l'alphabet latin ne peuvent être considérés comme des « alphabets nationaux » spécifiques ou essentiellement inhérents aux peuples qui se les arrachent aujourd'hui, dans le but de s'éloigner encore plus lorsque la langue est réinvestie comme un lieu de conflit .
À la suite de l'effondrement du bloc communiste en Europe centrale et orientale, et parallèlement au développement d'un nationalisme linguistique, le «nationalisme scriptural» a également fait son apparition. Ce dernier est moins virulent, peut-être moins souvent objet d'actualité ou de débat hors des aires culturelles concernées, bref, moins visible, mais ses conséquences sont tout aussi importantes.
linguistique_524-05-10797_tei_863.xml
termith-572-linguistique
L'objet de cet article est de s'interroger sur la nature des formalismes syntaxiques contemporains, et plus exactement de savoir s'ils répondent au projet de mathématisation qui a été initié dans les années 1950. Une des raisons essentielles pour lesquelles les connaissances sur les langues ont reçu une expression mathématique est la volonté d'effectuer des traitements informatiques de productions langagières. On sait (voir Cori et Léon, 2002) que dès l'apparition des premiers ordinateurs s'est posée la question de la traduction automatique, ce qui nécessitait de trouver des codages (numériques) des données linguistiques. Telle est l'origine reconnue du Traitement automatique des langues (TAL). C'est à peu près à la même époque, mais avec une claire volonté d'indépendance vis-à-vis du TAL, que Chomsky lance son programme de recherches. Il s'agit d'avoir une démarche scientifique en linguistique, sur le modèle des sciences de la nature. La mathématisation est présentée comme une composante sine qua non de la démarche. Les formalismes syntaxiques, ainsi qu'on les a appelés, s'inscrivent dans l'un ou l'autre de ces projets, si ce n'est dans les deux. Ces formalismes, qui se sont multipliés depuis un demi-siècle, ont permis de grandes avancées en linguistique, et ont donné lieu à des réalisations informatiques prometteuses. Néanmoins, il est légitime de s'interroger sur le lien entre ces formalismes et le projet de mathématisation. Dans ce qui suit, nous commençons par situer la mathématisation par rapport à la perspective des recherches linguistiques (§ 2) et par rapport à celle du TAL (§ 3), en précisant quels sont les critères propres à chacune de ces perspectives. Nous essayons ensuite (§ 4) de déterminer quels sont les courants qui, au cours des cinquante dernières années, ont été les porteurs du projet de mathématisation. Enfin (§ 5), le formalisme des HPSG est examiné de plus près, en tant que point d'aboutissement actuel et provisoire de l'évolution d'un certain nombre de tendances des formalismes syntaxiques. Chomsky a sans conteste joué un rôle fondamental dans le projet de mathématisation en linguistique. Il s'en est justifié dans les termes qui suivent (1957 : 5) : « Precisely constructed models for linguistic structure can play an important role, both negative and positive, in the process of discovery itself. By pushing a precise but inadequate formulation to an unacceptable conclusion, we can often expose the exact source of this inadequacy and, consequently, gain a deeper understanding of the linguistic data. More positively, a formalized theory may automatically provide solutions for many problems other than those for which it was explicitly designed. Obscure and intuition-bound notions can neither lead to absurd conclusions nor provide new and correct ones, and hence they fail to be useful in two important respects. I think that some of those linguists who have questioned the value of precise and technical development of linguistic theory have failed to recognize the productive potential in the method of rigorously stating a proposed theory and applying it strictly to linguistic material with no attempt to avoid unacceptable conclusions by ad hoc adjustments or loose formulation. » Qu'apportent des « modèles précisément construits » ? La réponse, à notre sens, tient en trois mots : falsifiabilité, prédictivité, objectivité. Tout d'abord, il est impossible de réfuter des propositions énoncées de manière imprécise. Seules des propositions formulées rigoureusement, dont on peut sans équivoque tirer des conséquences, peuvent être réfutées. Or la connaissance scientifique n'avance que par la falsification successive des hypothèses posées. Ensuite, une science doit pouvoir trouver des solutions qui s'appliquent à des faits qui n'ont pas été examinés ou à des problèmes qui n'ont pas été envisagés : c'est son caractère prédictif. Cela nécessite encore que puissent être tirées sans équivoque les conséquences des propositions énoncées. Il apparaît ainsi essentiel qu'un modèle soit objectif. Autrement dit, mises entre n'importe quelles mains, les mêmes hypothèses dans un même modèle doivent conduire aux mêmes conclusions, comme les mêmes calculs doivent conduire aux mêmes résultats quel que soit le calculateur. C'est dire qu'un modèle « précisément construit » ne peut être qu'un modèle mathématique. On peut se passer de l'auteur d'une théorie mathématisée pour la tester expérimentalement, ou pour essayer de l'appliquer à tel ou tel fait. On peut transmettre la théorie à d'autres personnes, qui en deviennent des dépositaires aussi légitimes que les auteurs originels. La théorie n'est plus attachée au théoricien. Cela ne signifie évidemment pas qu'en dehors de la modélisation (mathématique) il n'y a pas de pratique scientifique, et encore moins qu'avant Chomsky la linguistique n'était pas scientifique. Nous dirons, de manière très rapide, que la démarche scientifique consiste à observer, décrire, classer, généraliser, modéliser. L'observation est la toute première phase de la démarche scientifique, tandis que la modélisation en constitue la phase ultime, phase exclusive de la mathématisation. Toute mathématisation passe par un langage symbolique, mais l'usage d'un langage symbolique n'est nullement gage de mathématisation : il faut que sur les symboles puissent être effectués des calculs. Et un modèle (mathématique), exprimé dans un langage donné, ne s'identifie pas à ce langage. En effet, un même objet mathématique peut être exprimé selon différents langages. Prenons un exemple simple. L'addition de nombres entiers est une opération bien définie en mathématiques. Les propriétés de cette opération ne changent pas selon qu'on écrit a + b, plus(a,b) ou + a b. Ce qui importe, c'est la sémantique de l'addition, qui est régie par les axiomes qui définissent l'opération. Il en résulte que, si on confond modèles et langages, on risque de ne pas s'apercevoir que deux approches qui utilisent le même langage sont radicalement différentes, ou qu'il y a une rupture qui s'est produite au sein d'une même approche. Inversement, on peut être amené à penser que deux mathématisations n'ont rien de commun parce que les langages utilisés diffèrent. Sachant que des modèles mathématiques censés représenter les connaissances linguistiques ont été élaborés les uns indépendamment des autres dans des cadres distincts, il a fallu, a posteriori, étudier en quoi ces modèles se différenciaient. Mais il n'est pas toujours immédiat de démontrer que deux objets mathématiques sont différents ou identiques. La notion même d' « identité » ou d' « équivalence » entre objets mathématiques ne va pas de soi. Il est par conséquent spécialement important, si on veut comparer des cadres théoriques, de définir ce qu'on entend par « équivalence ». Nous renvoyons à Miller (1999) qui étudie le problème de la recherche d'équivalences entre formalismes syntaxiques. Il montre en quoi la notion d'équivalence faible est insuffisante, et en quoi la notion d'équivalence forte est au contraire trop stricte. Il définit en conséquence des fonctions ou des relations significatives, en vertu desquelles on détermine s'il y a équivalence ou non entre les descriptions structurales d'un même énoncé. Les relations significatives qu'il considère sont notamment la constituance, l'ordre linéaire, la dépendance. On observera que les résultats de ce type d'étude sont plus fins qu'un simple jugement d'équivalence ou de non-équivalence. Entre des théories non équivalentes, on peut établir des relations, de deux ordres différents. En premier lieu, on peut constater une sorte d'inclusion entre formalismes. Par exemple, les automates finis sont inclus dans les grammaires syntagmatiques indépendantes du contexte. Mais, en second lieu, on pourra s'apercevoir que certaines dimensions, autrement dit certaines relations significatives prises en compte dans le cadre d'un certain formalisme, ne sont pas définissables dans un autre cadre. Par exemple, la notion de gouverneur (et de dépendants) que l'on trouve dans les grammaires de dépendance ne peut être définie dans les grammaires indépendantes du contexte (Context-Free Grammars, CFG). De la sorte, les grammaires syntagmatiques, les grammaires de dépendance et les grammaires catégorielles, qui sont d'origines presque totalement distinctes, deviennent comparables. On peut définir de manière très simplifiée le traitement automatique des langues comme étant constitué des méthodes et des programmes qui prennent pour données des productions langagières, quand ces méthodes et programmes tiennent compte des spécificités des langues humaines. Ce n'est certainement pas un hasard si la mathématisation en linguistique a été concomitante du développement du TAL. Quand on informatise un problème, il est nécessaire d' être explicite, précis et objectif : les règles que l'on énonce devant entrer dans des processus automatisés, il n'est pas possible de rester dans le vague ou d' être ambigu. Une machine n'est pas susceptible d'interpréter en quoi que ce soit les informations qu'on lui communique. D'où la construction de systèmes de description rigoureux, ou le perfectionnement de systèmes existants pour les rendre plus proches des critères du TAL. Dès les origines du TAL, cependant, deux logiques se sont opposées : une logique « scientifique », qui cherche à s'appuyer sur les recherches linguistiques et à faire progresser celles -ci, face à une logique que l'on peut qualifier d' « utilitariste », selon laquelle la fin justifie les moyens. L'opposition se poursuit aujourd'hui (cf. Bès 2002), la logique utilitariste se manifestant dans les travaux dits de TAL robuste, avec notamment les outils de désambiguïsation fondés sur les statistiques et les probabilités, ou les analyses partielles qui cherchent uniquement à délimiter certains constituants dans les phrases en ignorant les ambiguïtés. Ces travaux, même s'ils font appel à des outils mathématiques, sont très éloignés d'une mathématisation des connaissances linguistiques. Prenons les modèles probabilistes markoviens : ils peuvent servir aussi bien à prédire le prochain mot que va prononcer un locuteur que le temps qu'il fera demain. Quant aux automates finis, très utilisés par les systèmes d'analyse robuste, leur inadéquation en tant que modèle de la syntaxe a été démontrée par Chomsky (1957). Quoi qu'il en soit, l'objet des travaux de TAL robuste n'est pas de construire des généralisations sur les langues. Or ces dernières années, en raison du développement des industries de la langue, le TAL a plutôt penché du côté de la logique utilitariste. Une conséquence semble être une moindre demande de formalismes syntaxiques qui soient mathématiquement rigoureux. La syntaxe occupe une place à part dans le TAL, car centrale. Centrale, cela signifie que, si on décompose les traitements automatiques en des successions de sous-traitements, elle constitue un passage presque obligé, avec par exemple en amont des prétraitements qui permettent d'obtenir des découpages en unités de l'ordre du mot, et en aval des tâches spécifiques aux applications envisagées. Historiquement, on notera que, après l'échec reconnu de la traduction automatique, les algorithmes d'analyse syntaxique sont devenus, pendant les années 1960, l'axe des recherches en traitement automatique. Cela en lien avec l'importance prise par la mathématisation de la syntaxe, importance provenant des travaux de Chomsky, mais également des recherches qui se sont développées indépendamment du programme de la grammaire générative. Depuis la fin des années 1970, il est admis qu'une réalisation informatique est d'autant meilleure que la séparation est bien marquée entre les algorithmes ou les programmes (procéduraux) et la représentation des données, effectuée de manière déclarative, et qu'un maximum des connaissances humaines sur lesquelles s'appuie la réalisation figurent dans les données (et par conséquent un minimum dans les programmes). Nous allons illustrer cette remarque par un exemple simplifié à l'extrême de traitement automatique des langues. Supposons que l'on veuille trouver les étiquettes catégorielles d'une suite de mots dont on connaît les étiquettes lexicales, un fragment de programme dans lequel seraient intégrées les informations linguistiques pourrait se présenter comme suit : Cela signifie que l'on demande à l'ordinateur de vérifier si le premier mot de la suite est un verbe. Si oui, on lui demande de vérifier si tous les mots qui suivent forment un SN (ce qu'il effectue à l'aide d'instructions non présentées ici). Auquel cas l'ordinateur aura reconnu que la suite de mots forme un SV. Si tous les mots à partir du deuxième ne forment pas un SN, l'ordinateur vérifie s'ils forment un SP. Auquel cas, il reconnaît encore un SV. Ces instructions intègrent, à l'évidence, des connaissances linguistiques. Connaissances qui pourraient être représentées par les règles d'une CFG sous la forme : Les règles de la CFG peuvent être prises comme les données d'un programme qui, alors, n'aura pas à intégrer de connaissances linguistiques spécifiques. On obtient en ce cas un traitement automatique dans lequel la représentation des connaissances est déclarative, alors que dans le premier cas elle était procédurale. Le premier avantage d'un traitement automatique déclaratif est que celui -ci est plus général. Les programmes, écrits une fois pour toutes, ne sont pas à modifier quand on veut réviser une grammaire. Reprenons l'exemple ci-dessus. Si on veut admettre la possibilité d'un complément d'objet direct suivi d'un complément indirect dans le SV, il suffit d'ajouter une règle à la grammaire : On peut même envisager d'avoir des programmes qui ne soient pas à modifier si on change la langue sur lesquels ils s'appliquent. Dans le cas du traitement procédural, il faut évidemment des programmes différents selon les langues traitées, et la mise à jour des informations linguistiques, qui revient à la correction d'un programme, est une opération techniquement complexe. Un deuxième avantage du traitement déclaratif est qu'il permet une division du travail entre l'informaticien (qui n'a pas nécessairement à connaître la linguistique et les langues) et le linguiste en mesure de définir les grammaires et les lexiques (qui n'a pas à savoir programmer). Le linguiste exprime ses connaissances dans un ordre indifférent, et indépendamment de ce que le système informatique aura à en faire. On se trouve alors placé dans la logique des systèmes experts : l'expert est un utilisateur privilégié qui communique des données au programme. Cet utilisateur est à opposer à l'utilisateur naïf qui, lui, fournit des données ne témoignant pas d'une quelconque science : par exemple un texte à traduire d'une langue dans une autre. En TAL l'expert est le linguiste, c'est-à-dire quelqu'un qui a des compétences en linguistique et/ou qui a des connaissances sur une langue donnée. L'expert doit être capable d'exprimer ses connaissances dans un format imposé par le traitement automatique. C'est-à-dire connaître le formalisme dans lequel représenter ses données – en définissant ici le formalisme comme étant composé du modèle mathématique en vertu duquel les données sont structurées et du langage permettant de traduire le modèle. Le traitement automatique, si du moins il se place dans une optique déclarative, requiert donc bien la mathématisation des connaissances linguistiques. Le formalisme constitue de la sorte une « langue commune », à la fois « comprise » par l'expert-linguiste et par la machine, une interface entre l'étude linguistique et le traitement automatique. Il s'ensuit que, même dans le contexte du traitement automatique, l ' expressivité des formalismes, leur lisibilité, est importante. Il ne suffit pas d'avoir des modèles mathématiques rigoureusement définis et susceptibles d' être traités par des machines : encore faut-il que les êtres humains qui ont à intervenir soient susceptibles d'écrire des représentations dans le cadre du formalisme et de comprendre celles qui sont écrites sans trop de difficulté. Le projet de mathématisation en linguistique, énoncé par Chomsky, n'a pas été réellement suivi par son auteur. Ce sont plutôt des courants issus du chomskysme mais opposés à Chomsky qui ont tenté de le mener à bien, ainsi que des praticiens issus du TAL et des courants dont l'origine est indépendante du chomskysme. Selon le programme de la grammaire générative, élaboré par Chomsky, il ne s'agit plus d'établir le répertoire de tous les énoncés attestés, mais de décrire les processus de construction ou de compréhension de tous les énoncés possibles. Grâce à la récursivité, une grammaire permet d'engendrer, à l'aide d'un nombre fini de règles (de réécriture), la description structurale d'un nombre infini d'énoncés. Plusieurs types de grammaires récursives sont définies, qui fondent la hiérarchie de Chomsky. Chomsky introduit ainsi les grammaires syntagmatiques (Phrase Structure Grammars, PSG) et, parmi ces grammaires, les grammaires indépendantes du contexte (Context-Free Grammars, CFG), censées modéliser l'analyse en constituants immédiats. Chomsky se sert des propriétés des CFG afin d'invalider l'analyse en constituants immédiats. C'est dire que Chomsky se sert de la mathématisation à des fins de réfutation, et non dans la démarche positive de construction des grammaires transformationnelles qu'il promeut et qu'il va développer. Les transformations, en effet, ne donneront pas lieu à une réelle mathématisation, pas plus que les travaux ultérieurs successifs de l'école chomskyenne orthodoxe. Ceci a été noté par nombre de chercheurs, dont G. Pullum (1991 : 53) : « Government-binding syntax (or principles-and-parameters syntax; who cares, it's only words) no longer makes any pretense at being formally intelligible. It is set to develop into a gentle, vague, cuddly sort of linguistics that will sit very well with the opponents of generative grammar if they compromise just enough to learn a little easy descriptive vocabulary and some casually deployed and loosely understood labelled bracketing for which no one will be held accountable. » Chomsky est accusé d'avoir tourné le dos aux principes qu'il avait lui -même posés, d'avoir bâti un système non réfutable. à l'inverse, les CFG connaîtront un destin que le rejet par leur propre concepteur comme inadéquates à la représentation des langues ne laissait pas présager. Ainsi, ces grammaires seront très largement exploitées par le TAL. Les algorithmes d'analyse syntaxique définis dans les années 1960 seront à base de CFG, et ce sont ces algorithmes qui seront adaptés aux formalismes développés par la suite. Formalismes dont la majorité partira des CFG ou des PSG. On peut dire que, dans la perspective de la mathématisation et du traitement automatique, les CFG se sont révélées bien plus fécondes que les grammaires transformationnelles. Très tôt des linguistes (Yngve, 1960 et Harman, 1963) ne se sont pas satisfaits des transformations et ont proposé de conserver les grammaires syntagmatiques en accroissant leur capacité descriptive. Pour eux, comme pour d'autres linguistes à leur suite, il fallait enrichir les grammaires syntagmatiques de telle sorte qu'elles permettent l'expression claire et distincte des principes organisateurs des langues. Les auteurs de ce type de démarche se sont présentés comme les plus fidèles continuateurs du programme initial de Chomsky, que celui -ci aurait trahi. C'est pourquoi nous les regroupons dans le courant de la réforme (Cori et Marandin, 2001). Bresnan (1982), en définissant les LFG (Lexical-Functional Grammar), joue un rôle majeur dans l'affirmation de ce courant. Les arguments contre les grammaires transformationnelles, et donc en faveur des LFG, sont linguistiques et psycholinguistiques. Le formalisme est inspiré de travaux menés en TAL. Mais le modèle le plus achevé dans ce cadre est constitué par les GPSG (Generalized Phrase Structure Grammars, Gazdar et al., 1985). Gazdar (1982 : 131) critique lui aussi les grammaires transforma­tionnelles sur le plan de la rigueur mathématique, observant notamment qu'elles ne donnent pas lieu à des procédures de décision indépendantes de l'intuition des auteurs de grammaires. L'innovation clef des GPSG est la définition des catégories syntaxiques comme des ensembles de spécifications de traits, où les traits sont des couples <attribut, valeur>. Cette définition des catégories autorise la prise en compte de catégories plus ou moins spécifiées, et par conséquent l'écriture de règles à plusieurs niveaux de généralité. Par ailleurs, des principes permettent d'énoncer des connaissances générales sur le langage. On rattachera également au courant de la réforme les TAG (Tree Adjoining Grammars, Joshi, 1985) qui ont la particularité de redéfinir l'opération de composition des arbres. De même, les Grammaires d'arbres polychromes (Cori et Marandin, 1993, 1994) se rattachent au courant « réformateur » en redéfinissant aussi la composition des arbres. Dans la période qui débute vers 1970, des dispositifs de TAL dont l'idée directrice était de s'affranchir des limites des CFG ont été bâtis. Ces dispositifs se sont posés comme des formalismes linguistiques ou ont inspiré des formalismes linguistiques. Les réseaux d'automates augmentés, ou ATN (Woods, 1970), constituent le premier de ces dispositifs, se présentant à la fois comme une implémentation des grammaires transformationnelles et comme un modèle alternatif. Certaines caractéristiques des ATN seront reprises par les formalismes ultérieurs, mais les ATN seront rejetés au début des années 1980 car ne satisfaisant pas aux exigences de déclarativité : en effet, dans les ATN les connaissances grammaticales sont mêlées aux opérations constitutives de la reconnaissance. C'est au nom de la déclarativité que les DCG (Definite Clause Grammars, Pereira et Warren, 1980) seront défendues en tant que candidates à la succession des ATN. En fait, les DCG résultent du projet de traduire les CFG dans la logique du premier ordre afin d'effectuer l'analyse syntaxique des langues naturelles, projet qui a conduit à l'élaboration du langage de programmation Prolog (Colmerauer et al., 1973). Les règles de grammaire (CFG) sont remplacées par des formules logiques (clauses de Horn), formules qui portent sur des termes logiques plutôt que sur des catégories. Ce qui permet de prendre en compte d'autres informations que l'étiquette catégorielle (des traits, comme le nombre, le genre, la personne, le temps, etc.) et de construire des interprétations des syntagmes. Ainsi, il est possible d'écrire une formule qui reprend la règle (2.a) en lui adjoignant des informations supplémentaires : Cette formule indique que si on a un verbe entre les positions t 1 et t 2, et un SN entre t 2 et t 3, alors on a un SV entre t 1 et t 3, à condition que le verbe soit transitif. En ce cas, le temps, le nombre et la personne du verbe et du SV sont identiques, tandis que le SN possède un genre, un nombre et une personne qui sont indépendants. Les termes logiques ont été considérés trop rigides pour les représentations. En effet, tous les traits pertinents pour une catégorie doivent accompagner chaque occurrence de la catégorie dans chaque formule, dans un ordre qui est fixe. Par exemple, dans la formule (3) ci-dessus, l'indication du genre, du nombre et de la personne du SN est obligatoire, bien que sans utilité. C'est pourquoi on a introduit de nouveaux formalismes à base de structures de traits, qui permettent de représenter de l'information partielle sur des objets. Les structures de traits sont représentées par des matrices, ou des graphes sans circuit quand elles autorisent le « partage de valeurs » (alors que les termes logiques sont représentés par des arbres). Le prototype de ces formalismes est PATR II (Parse and Translate, Shieber, 1986). PATR II, comme les DCG, s'appuie sur des CFG. Aux règles de la grammaire s'ajoutent des contraintes, et les représentations structurales construites sont des structures de traits (comme elles sont des termes pour les DCG). On trouvera en (4) la double représentation possible d'une structure de traits qui rend compte d'une contrainte de compatibilité d'accord accompagnant la règle S  SN SV. Les grammaires d'unification fonctionnelle (Functional Unification Grammars, FUG) de Kay (1985) constituent un tournant, car elles font disparaître les grammaires en tant qu'objets distincts. Les règles sont incluses dans les structures de traits, et une grammaire n'est elle -même qu'une structure de traits obtenue par la disjonction de structures plus élémentaires, qui chacune correspond à une ou plusieurs règles. D'autres augmentations sont apportées aux structures de traits, par exemple l'utilisation de listes (écrites dans des parenthèses), la possibilité de représenter n'importe quelle suite de valeurs (à l'aide de points de suspension), etc. En (5) est donné un exemple simplifié à l'extrême de grammaire. La disjonction est marquée par des accolades. On envisage trois catégories possibles, S, SN et Verbe, mais les catégories SN et Verbe ne sont pas décomposées. Les phrases (CAT = S) commencent par un sujet, de catégorie SN, suivi d'un verbe. Il y a ensuite deux possibilités (disjonction) : soit pas de complément phrastique, soit un complément phrastique, de catégorie S, qui termine la phrase. Les formalismes issus du TAL et les formalismes de la réforme ayant des caractéristiques communes (des structures de traits sont utilisées dans les GPSG ou les LFG, le mécanisme de l'unification a été étendu des formules logiques aux structures de traits), cela a permis d'en faire une présentation unifiée sous la dénomination de grammaires d'unification (Shieber, 1986), puis de grammaires de contraintes (Shieber, 1992). Néanmoins, derrière cette apparente unité il faut observer de sérieuses différences en ce qui concerne les modèles mathématiques sous-jacents et l'usage qui en est fait. Les structures de traits ne sont ainsi que marginales dans les GPSG et elles restent arborescentes. Quant à l'augmentation la plus importante introduite dans les FUG, c'est-à-dire la disjonction, elle confère une puissance bien plus grande au modèle qu' à celui par exemple sous-jacent à PATR II. Les modèles évoluent ainsi vers une puissance de plus en plus grande, et les HPSG seront dans une certaine mesure un aboutissement de cette évolution. Il ne faut pas oublier de mentionner les courants qui, indépendamment du chomskysme, ont développé des modèles mathématiques du langage, modèles qui ont évolué jusqu' à aujourd'hui. Citons en premier lieu les grammaires de dépendance, dont on peut fixer l'origine à Tesnière (1959), mais qui ont connu des variantes à la mathématisation plus rigoureuse, sous l'influence du traitement automatique. En second lieu, les grammaires catégorielles, nées essentiellement de préoccupations de logiciens, ont évolué en liaison avec les formalismes d'origine chomskyenne. Inversement, les formalismes d'origine chomskyenne ont adopté certaines solutions issues des grammaires catégorielles. Il est intéressant de s'attarder un peu plus longuement sur les HPSG qui constituent un formalisme sans aucun doute actuel, résultat d'une évolution qui s'est produite au cours des dernières décennies. Les HPSG ont essayé de s'approprier et d'unifier les héritages des différents formalismes qui ont précédé (GPSG, FUG, grammaires catégorielles et même grammaires transformationnelles). Ainsi, ce formalisme peut être vu comme un héritier tout à la fois des courants issus du TAL et des courants de la réforme. Pollard et Sag (1994) s'inscrivent d'ailleurs explicitement dans la lignée de Chomsky (1957) et de son projet de mathématisation. Ce qui s'observe, tout d'abord, c'est la volonté de donner des descriptions uniformes des différentes dimensions du langage. L'uniformité de la modélisation se manifeste de deux façons. D'une part, le modèle de toute unité est construit sur le même patron quelle que soit sa taille : un mot (c'est-à-dire une unité du lexique) est représenté de la même manière qu'un syntagme ou qu'une phrase, voire un discours, tous ces objets étant des signes. D'autre part, les propriétés de ces entités, quelle que soit leur nature, sont exprimées dans le même format. Les grammaires intègrent ce qui relève du signifiant, du signifié et de l'usage des expressions linguistiques. Cette multidimensionnalité des objets linguistiques permet de ranger les HPSG dans le cadre des « grammaires de construction ». Comme dans les FUG, les règles de grammaire et les grammaires sont des structures de traits. Mais, l'implication entre structures de traits devenant une opération autorisée, les principes généraux sont aussi des structures de traits. On trouvera ci-dessous une formulation du principe des traits de tête, tirée de (Pollard et Sag, 1987) : à gauche et à droite du signe d'implication se trouve une structure de traits, et on admet que l'ensemble forme également une structure de traits. Il est dit que si un syntagme a parmi ses constituants (daughters, DTRS) une structure à tête (reconnaissable par son type), alors le syntagme et son constituant tête (HEAD-DTR) partagent les mêmes traits de tête. Ces traits de tête se trouvent, selon la version du formalisme considérée ici, dans les traits syntaxiques (SYN) et, parmi ces traits, dans les traits locaux (LOC). Le modèle mathématique qui autorise de telles représentations est nécessairement très peu contraint. Cela ne peut être autrement si on veut, par un formalisme unique, représenter des dimensions distinctes et hétérogènes. Le formalisme des HPSG s'inspire ainsi largement des systèmes informatiques de représentation des connaissances, définis pour représenter n'importe quelle forme de connaissance. Plus précisément les HPSG se fondent sur des structures de traits typées. Un modèle constitue le cadre mathématique dans lequel il est possible d'exprimer l'analyse des faits que l'on observe. Plus précisément, définir un modèle, cela consiste à se donner une ou plusieurs classes d'objets mathématiques, les occurrences d'objets permettant de donner des représentations du monde réel. Par exemple, un modèle peut déterminer la forme que doivent prendre les différentes grammaires censées décrire chacune une langue différente. Ce n'est d'ailleurs pas nécessairement aux mêmes personnes qu'il revient de définir un modèle et de construire des grammaires. Cependant, le plus souvent, les concepteurs des modèles sont aussi les auteurs des grammaires, ce qui entraîne de la confusion sur ce qu'est un formalisme ou ce qu'est une théorie linguistique. Il y a aussi de la confusion quant à l'usage du terme grammaire. Ainsi, les auteurs des HPSG, à la suite des auteurs des GPSG ou des LFG, emploient ce terme au singulier, identifiant de la sorte grammaire et formalisme. Mais, habituellement, on considère qu'un formalisme autorise une classe de grammaires possibles qui peuvent décrire des langues différentes. Il s'ensuit des formulations un peu étonnantes, comme « une grammaire HPSG », où le terme grammaire prend deux sens différents. Nous préférons quant à nous, sans doute un peu abusivement en regard de la volonté des auteurs, systématiquement employer le pluriel pour désigner le formalisme quand dans l'intitulé de celui -ci se trouve le terme grammaire. Un formalisme est pour nous, rappelons -le, constitué d'un modèle et du langage dans lequel est exprimé le modèle. Selon qu'un modèle est plus ou moins contraint, c'est-à-dire selon que la classe d'objets qu'il autorise est plus ou moins étroite, il y a un déplacement dans la prise de décision. Un modèle contraint minimise le nombre de décisions à prendre dans l'écriture des grammaires. On peut dire en ce sens que choisir un modèle contraint, c'est affirmer une position sur la structure des langues humaines. Avec le risque, si le modèle est trop contraint, de rendre impossible la représentation de certains phénomènes linguistiques. À l'inverse, choisir un modèle très peu contraint, comme dans le cas des HPSG, cela s'apparente à ne pas définir de modèle du tout. L'auteur de grammaires dispose d'une très grande liberté, mais il se trouve un peu dans la même situation que s'il travaillait dans un cadre non mathématisé. Les décisions qu'il doit prendre ne se fondent sur aucun critère explicite, ou en tout cas aucun critère propre au modèle. Au mieux, elles peuvent être guidées par des commentaires fournis par les concepteurs des modèles, commentaires évidemment non mathématisés ! Un modèle trop peu contraint n'est pas susceptible de définir une théorie linguistique, puisque à l'intérieur d'un tel modèle toutes les options restent possibles. On pourrait par conséquent donner une nouvelle définition de la théorie linguistique : elle ne résiderait plus dans le choix de l'outil mathématique de représentation, et donc dans le choix des grammaires possibles, mais dans les grammaires effectivement choisies. Une théorie serait ce que Bès (2002 : 64-65) appelle un « système d'hypothèses ». La théorie ne s'identifie pas au formalisme mais aux hypothèses qui sont écrites dans le formalisme. Et il est vrai que nombre de travaux fondateurs d'une théorie linguistique, en même temps qu'ils introduisent le formalisme qu'ils font leur, indiquent la manière de l'utiliser. Ainsi, Pollard et Sag (1987) décrivent les structures de traits qui sont à la base des HPSG et, dans le même ouvrage, énoncent des principes comme le principe des traits de tête ou le principe de sous-catégorisation, des règles de dominance immédiate, etc. Il reste cependant en ce cas parfois très difficile de cerner les théories. Si, pour une raison ou pour une autre, on modifie le principe de sous-catégorisation des HPSG, tout en conservant les structures de traits typées, sommes -nous toujours dans les HPSG ? Plus globalement, si une théorie est définie par le choix des grammaires à l'intérieur d'un formalisme – très libéral –, y a -t-il des principes, argumentés scientifiquement, clairement énoncés et transmissibles, qui fondent ces choix ? Dit autrement, quel est exactement le système d'hypothèses des HPSG ? La conséquence, sinon, n'est-elle pas l'identification d'une théorie linguistique aux auteurs de cette théorie et à leurs disciples, autrement dit à une « école », avec ses leaders dotés du pouvoir d'excommunier ? Ou bien l'identification de la théorie au langage de représentation ? La conscience d'appartenir à un même groupe passe en effet par des signes de reconnaissance, dont les notations – qui constituent le langage de représentation – ne sont pas les moins importants. Deux mouvements convergents semblent conduire à un recul de la mathématisation des formalismes syntaxiques : le développement des méthodes de TAL robuste au détriment des méthodes fondées sur la linguistique et la recherche d'un traitement unifié de toutes les dimensions du langage qui entraîne la puissance grandissante des formalismes. Les arguments en faveur de la mathématisation ne sont toutefois nullement remis en cause. Ce que l'on peut déceler, plutôt, c'est quelque chose comme un abandon à leurs « penchants naturels » des spécialistes du traitement automatique d'un côté et des linguistes non informaticiens de l'autre. Pour les premiers, il s'agit d'aller au plus vite afin de résoudre des problèmes pratiques, tandis que pour les seconds la mathématisation apparaît quelquefois comme une contrainte inutile, qui les empêcherait de décrire correctement et complètement les phénomènes qu'ils observent. Il semble donc nécessaire, tout particulièrement dans la période actuelle, de rappeler les enjeux de la mathématisation .
L'A. s'intéresse dans cet article au développement des formalismes syntaxiques contemporains, en se penchant plus particulièrement sur la question de savoir si ces formalismes répondent au projet de mathématisation initié à partir des années 1950. La démarche poursuivie par l'A. est de situer la mathématisation par rapport à la perspective des recherches linguistiques et celle du Traitement Automatique des Langues (TAL), en les caractérisant toutes deux. Parallèlement, il tente de déterminer les courants porteurs de la mathématisation, et focalise ensuite son attention sur le formalisme des HPSG (grammaire syntagmatique menée par la tête).
linguistique_524-06-10852_tei_632.xml
termith-573-linguistique
Notre réflexion porte sur la construction de savoirs professionnels d'enseignants du premier degré dans le cadre de la formation continue. Par nature composites, les savoirs professionnels s'appuient sur une série de savoirs scientifiques (disciplinaires et didactiques) et expérientiels, ces derniers étant issus de l'action et non toujours mis en mots (Altet, 2008). L'enjeu de la formation veut que des savoirs nouveaux proposés « de l'extérieur » acquièrent le statut de ressources devant être progressivement incorporées à l'action enseignante (Mayen, 2008). Toutefois, des recherches récentes montrent que ni leur rationalité scientifique ni même leur caractère réglementaire n'accordent d'office à ces savoirs « un droit d'entrée dans l'organisation de l'action » (Mayen, 2008). Au contact avec la réalité du métier, les enseignants doivent les « convertir » et les « reconfigurer » et c'est finalement, conclut Altet (2008, p. 94), « dans l'expérience du travail enseignant [que] se réalise le métissage de ces différents savoirs ». S. Vanhulle (2009, p. 261) insiste sur le rôle des stages qui, en formation initiale, permettent de penser les liens entre la formation scientifique et l'apprentissage par l'expérience, à condition que les experts des différents domaines scientifiques et de la profession collaborent « pour que la pluralité des regards se mette au service de cette intégration sur la base des situations réelles de travail ». Les choses se passent différemment en formation continue où l'enseignant-stagiaire ne bénéficie d'aucun accompagnement pour reconfigurer ses « formats de travail scolaire » (Bautier, 2006) à la sortie d'un stage. Ceci peut expliquer – en partie au moins – que les connaissances apportées en formation continue se trouvent si difficilement intégrées aux formes d'actions déjà en place. D'où notre problématique qui rejoint celles d'Altet (2008), lorsqu'elle cherche à comprendre les processus de configuration des savoirs dans l'action, et de Mayen (2008, p. 46) lorsqu'il se demande « comment insérer du savoir dans le faire ». Notre recherche, qui se situe au carrefour de la didactique professionnelle et de la didactique des disciplines, interroge les effets d'un savoir pratique routinisé – l'utilisation du tableau noir – sur l'intégration dans l'agir enseignant d'un savoir didactique nouveau : une démarche de conceptualisation en grammaire. Cette démarche, reprise à Barth (1987) pour accompagner la résolution de problèmes de langue (Sautot et Lepoire-Duc, 2010) a été expliquée au cours d'un stage à un groupe de professeurs des écoles volontaires, qui ont accepté d' être filmés en train de la mettre en œuvre. L'observation directe a mis en évidence des manières différentes de s'approprier ce nouveau geste professionnel. Nous faisons l'hypothèse qu'un des obstacles qu'ont pu rencontrer ces enseignants pour utiliser la démarche que nous leur proposions tient à sa confrontation avec des gestes professionnels routinisés, notamment l'utilisation du tableau noir. Le modèle proposé par Barth correspond à une démarche intellectuelle qui permet de faire élaborer aux élèves un concept : on leur demande de catégoriser les données d'un corpus pour qu'ils identifient la combinaison d'attributs qui le définissent. Cette démarche d'apprentissage repose sur la comparaison d'exemples « oui » et d'exemples « non » qui se distinguent par la présence ou l'absence d'attributs essentiels déterminant le concept. Cette comparaison, réalisée collectivement, suscite des conflits socio-cognitifs qui se traduisent par des échanges argumentatifs et explicatifs. L'outil proposé par Barth correspond donc à un schème d'actions qui modélise une démarche cognitive et il développe une démarche opératoire susceptible d'apporter des réponses aux dérives du constructivisme qui, selon Bonnette (2006), manque de gestes professionnels « codifiés ». Il présente alors un intérêt pour toutes les disciplines scolaires, dont la grammaire. La démarche de conceptualisation de Barth repose sur l'utilisation d'un langage oralo-graphique, dont les caractéristiques sont relativement normées. Le tableau noir (désormais TN) joue en particulier un rôle central dans cette démarche. Plusieurs recherches menées sur le TN (Nonnon, 1991, 2000; Hassan, 2008) décrivent un certain nombre de routines d'utilisation récurrentes chez les enseignants. Elles le font apparaitre comme un médiateur d'action qui joue un rôle dans la chronogenèse et la topogenèse des savoirs. Le tableau est un outil qui s'inscrit dans des schèmes d'actions partagés entre enseignant et élèves. Mais ce qui peut être considéré comme un outil « est moins le tableau comme objet matériel que l'ensemble des modes de discours et des tâches intellectuelles installés dans la culture d'une microsociété scolaire autour de l'écriture au tableau » (Nonnon, 2000, p. 95). On en déduit que les modalités d'utilisation du TN sont susceptibles de changer selon les types de tâches intellectuelles et selon les codes de fonctionnement de la classe. Ainsi le TN joue -t-il un rôle dans la structuration des discours et des démarches d'apprentissage, de même qu' à l'inverse certains dispositifs d'apprentissage déterminent des modalités particulières d'utilisation du tableau. L'incorporation de nouvelles démarches d'apprentissage dans l'activité enseignante peut donc susciter la construction de nouveaux gestes professionnels liés à l'utilisation du TN. Mais il s'agit de « savoirs de la pratique » (Altet, 2008), qui correspondent à des savoirs d'expériences. Initialement issus du contact avec d'autres enseignants, ils continuent à se construire de manière implicite dans une logique de la mise en œuvre. Le TN est donc lié à l'action enseignante selon des pratiques typifiées et/ou émergentes (Filliettaz, 2002) et l'on peut supposer que l'introduction d'un nouvel outil d'apprentissage peut faire survenir de nouvelles pratiques, susceptibles d'entrer en conflit avec les routines déjà existantes. La démarche de conceptualisation repose sur trois modes de représentation de la connaissance que Barth (1987, p. 95) reprend à Bruner : mode enactif (sensori-moteur), celui de l'observation-exploration; mode iconique (visuel), qui fait accéder à la clarification; mode symbolique, qui permet d'atteindre le stade de l'abstraction. Les deux premiers relèvent du domaine de l'intuition. En grammaire, ils supposent la possibilité d'observer et de manipuler des énoncés. C'est une première fonction du TN qui est ici sollicitée : il « donne à voir » et sert de support au corpus, au matériau à analyser. L'espace du TN est dédié à la présentation du corpus écrit et à sa catégorisation en exemples « oui » / exemples « non ». Cette entrée binaire peut être remplacée par des variantes proposant des formes de tris plus complexes, présentés, par exemple, dans des tableaux à plus de deux colonnes. La phase d'observation et d'exploration suppose aussi différents types de manipulations : des déplacements, des ajouts, des remplacements qui sont rendus possibles par le caractère effaçable du TN. Ce premier type d'activité débouche sur la formation de concepts que Barth distingue de l ' acquisition de concepts où « il ne s'agit plus de chercher un mode de groupement selon des critères subjectifs mais d'identifier la combinaison de critères selon laquelle un concept est déjà défini » (p. 47). Cette procédure, ajoute -t-elle, « nécessite une interaction verbale » destinée à « vérifier la règle de classification ». Le mode symbolique induit alors une approche oralo-graphique qui contraint les règles d'utilisation du TN. Ces règles conduisent à créer un second espace, dédié à des prises de notes et aux traces de l'activité métacognitive du groupe, produites lors de l'observation des écrits du premier espace. Deux enseignants, N et V, ont choisi d'utiliser la démarche de Barth lors de l'étape de structuration des connaissances dans un apprentissage de la grammaire par résolution de problèmes. Au cours de cette étape, les élèves ont exploré les concepts de « groupe nominal » (classe N) et de « complément essentiel » (classe V) en s'appuyant sur des activités de catégorisation et de mise en tableaux de corpus d'énoncés. Dans la classe N, un tableau de quatre colonnes a été construit pour comprendre « comment apporter des précisions sur un objet que l'on décrit » : noms propres, nom + adjectif, nom + complément du nom, nom + proposition relative. La classe V a catégorisé des COD et des COI dans un tableau à deux colonnes pour repérer la présence de la préposition. Les séquences mises en œuvre ont été filmées et transcrites. Nous avons déjà analysé la classe N sous l'angle de la didactique de la grammaire (Lepoire et Sautot, 2008, 2009), et mis en évidence qu'une bonne connaissance de la substance grammaticale est une condition sans doute nécessaire, mais non suffisante, pour que les enseignants instaurent des pratiques réflexives d'étude de la langue. La maitrise de gestes professionnels transversaux est également indispensable pour mettre en place de telles pratiques. Un de ces gestes professionnels porte sur la gestion du TN. Nous faisons donc l'hypothèse que les gestes professionnels d'utilisation du TN ont une incidence sur la mise en œuvre de la démarche de conceptualisation de Barth. L'analyse des séquences filmées sera conduite en vue de répondre aux deux questions suivantes : Peut-on observer une corrélation entre les gestes professionnels d'utilisation du TN et la mise en œuvre de la démarche de Barth ? Le recours à cette démarche d'apprentissage est-il compatible avec des « routines » d'utilisation du TN ? Hassan (2008) montre que « les écrits du tableau sont à la fois pré-construits par l'enseignant et co-construits avec les élèves » (p. 5). Nous aborderons successivement ces deux modalités d'utilisation du TN. Les enseignants anticipent en général la notation au TN des contenus qui bornent la séance : définition de l'activité et institutionnalisation des savoirs. Les deux se retrouvent effectivement dans les classes N et V, mais traités différemment par les enseignants. Dans les deux classes, le TN sert d'abord de support à l'élaboration progressive de la consigne. Dans la démarche d'apprentissage de Barth (p. 67), celle -ci « a pour but de structurer la tâche et de motiver l'élève en montrant qu'il y a un problème à résoudre ». Dans un premier temps, l'enseignant met explicitement en avant l'existence d'un concept que les élèves vont devoir découvrir. Puis il indique la procédure qui va être utilisée pour comparer les exemples « oui » et « non », avant d'inscrire les premiers au tableau. Dans les deux classes, la finalité de l'activité et la procédure sont mêlées dans une unique présentation qui sert en même temps d'ancrage dans la séquence. N et V débutent la séance par un rappel de ce qui a été fait lors de la séance précédente et annoncent l'objet de celle du jour. Cette phase initiale, presque exclusivement orale chez N, fait référence à une fiche de travail distribuée à chaque élève en fin de séance précédente : « il fallait classer ces groupes de mots / on avait eu différents classements / aujourd'hui on va s'intéresser à celui de la grammaire / je vous avais distribué cette fiche -là / je vous réécris un petit peu ce qui est dessus. » Le TN reproduit sommairement les quatre colonnes du tableau de classement des groupes nominaux, les trois premières faisant figurer les premiers exemples « oui »; la dernière est mise en attente par un point d'interrogation : Dans la classe de V, les propos de l'enseignant s'accompagnent d'uneutilisation importante du TN qui sert de support à un enchainement d'actions pour situer la séance dans l'ensemble de la séquence (TN gauche), noter la consigne par écrit (TN central), reproduire le tableau de classement qui figure sur la fiche distribuée aux élèves (TN droit), recopier la liste des exemples qu'il va falloir classer dans ce tableau (TN central). V met ainsi en œuvre un schème d'action décrit comme typique par Hassan (2008, p. 8) : « l'espace du tableau est divisé en deux ou trois dimensions symboliques [… ], chaque espace ayant une fonction dans la progression de la séance. » Dans chaque classe, la consigne orale indique un espace problème et une explication à construire (V : « Il va falloir comprendre comment on fait pour refaire une sous-famille dans cette famille -là »; N : « aujourd'hui on va s'intéresser au classement de la grammaire »), mais aucun des deux enseignants n'a indiqué que le classement a pour finalité de découvrir un nouveau concept. Quant au TN, N l'utilise pour initier l'activité de tri, alors qu'il sert chez V de support à une « mise en espace » et une « mise en scène pédagogique » de l'activité à venir. Ainsi, N entre directement dans la démarche de conceptualisation alors que V recourt à une utilisation du TN qui semble faire partie des habitus de la classe et qui intègre l'activité cible dans une routine du type « exercice de recherche ». Cette posture est renforcée par la consigne « classe les phrases dans la bonne colonne », l'adjectif « bonne » prenant une valeur normative de vérité qui n'est pas d'emblée compatible avec la dialectique des exemples « oui » / « non » censée stimuler la réflexion des élèves. Dans les deux classes, la forme écrite des tableaux complète, de manière implicite, les consignes invitant à effectuer un classement. V a tracé des colonnes devant servir à trier les compléments essentiels en COD et COI. Ce tableau existe en fait en deux exemplaires (cf. fig. 2). Une première fois sur le TN gauche, sous les en-têtes 1 et 2; une seconde fois sur le TN droit, où chaque colonne comporte un ou deux énoncés « pré-classés » de type exemples oui / non, sous les en-têtes Compl Ess 1 et Compl Ess 2. Alors que le premier tableau inscrit l'activité dans l'ergonomie générale de la séquence, le second va servir de support à l'activité elle -même. Cependant, ces en-têtes contiennent des inscriptions qui, bien qu'ayant la même fonction et le même sens, sont réalisées avec des codes différents. Rien n'indique par ailleurs qu'il s'agit d'inscriptions provisoires et que l'activité a pour but de remplacer les signes 1 et 2 par des concepts énoncés verbalement. Le tableau tracé par N est beaucoup plus sommaire : il figure quatre colonnes comportant chacune un exemple « oui »; les en-têtes sont laissés vides. Ainsi, dans les deux classes, les tableaux sont pré-tracés pour guider l'entrée dans la démarche de conceptualisation. Les premiers exemples « oui » vont permettre d'engager l'activité de catégorisation et les en-têtes serviront à noter les concepts intermédiaires proposés par les élèves. La gestion de ces en-têtes fait toutefois apparaitre une différence notable : N fait figurer des espaces à remplir sur lesquels va se construire la réflexion, alors que chez V, ces espaces sont déjà remplis par des titres que l'on sait provisoires mais qui ne sont pas forcément considérés comme tels par les élèves, rien ne l'indiquant dans l'énoncé oral de la consigne. Dans les deux classes, la manière de réaliser le tableau de classement sert de relais à la consigne orale et contribue à fonder le contrat didactique. Mais les modalités de réalisation graphique de ces tableaux rendent la consigne plus explicite chez N : elle crée un espace qui invite à être rempli, la logique du tableau voulant qu'aucune case ne reste vide (Nonnon, 1991). Pour construire le cadre de l'activité, V recourt aux deux dimensions, mémorielle et heuristique, des inscriptions au TN, tandis que N n'exploite que la seconde. Cette dimension heuristique fait l'objet de la partie suivante qui s'intéresse au rôle du TN pour soutenir la pensée dans l'activité de conceptualisation. N et V ont distribué aux élèves une version papier du corpus d'énoncés à classer et du tableau à remplir; tous deux auront, en fin de séance, reproduit et complété cette fiche au TN. Mais le moment où chaque classe travaille sur le TN n'est pas le même. Cette variable chronogénétique a -t-elle une incidence sur l'élaboration collective du savoir ? Dans la classe de N, le TN sert d'emblée de support à une activité de recherche collective : M : « comment ça se fait que ça (montrant “les sapotilles sucrées ”) c'est dans une colonne et ça (montrant “la prédiction de Nadia ”) c'est dans une colonne / on voit bien que ça (montrant “Nadia ”) c'est différent on a même compris ce que c'était / ça (montrant “les sapotilles sucrées ”) et ça (montrant “la prédiction de Nadia ”) c'est deux colonnes différentes ». Le TN prend la forme d'un écrit de travail socialisé au sein d'une communauté scientifique scolaire. Il est un « brouillon public » et le lieu d'une « écriture intermédiaire » qui, comme en témoigne le dixième état relevé dans la classe, lui confère une fonction d'aide à la pensée (Hassan, 2008) : À l'issue de cette séance, N a reproduit l'état final du TN sur affiche. Celle -ci a servi de référence collective pour se remémorer et relancer la réflexion lors des étapes ultérieures de la séquence. Chez V, les élèves réalisent une première fois l'activité individuellement : « tu vas faire tout seul dans ton cahier / tu vas me donner la preuve et puis on en discutera au tableau. » Cette étape correspond chez Barth (p. 68) à « un temps de réflexion individuelle » qui permet ensuite à l'élève de participer aux échanges « à partir de son cadre de référence personnel ». V met cette phase à profit pour observer les classements des élèves et ainsi préparer le guidage de la phase collective en s'appuyant sur leurs conceptions. Sa démarche renvoie à un schème d'actions proposé par Barth (p. 70) pour qui « c'est par le choix et l'ordre des exemples que l'enseignant peut influer sur les décisions de l'élève ». L'activité cognitive de V se traduit de fait par l'ajout de deux nouveaux exemples à droite du TN central (fig. 4), pour relancer la réflexion d'élèves ayant inventé un classement qu'elle estime cohérent mais non pertinent. Mais son intervention ne repose que sur sa propre interprétation de ce classement (« je vais en profiter pour en mettre un autre [exemple] parce que je crois que j'ai compris ») et elle adopte une posture très surplombante qui court-circuite, à ce moment -là, tout échange verbal : elle infère le non-dit pour faire progresser l'activité. La phase de travail individuel débouche sur une étape au cours de laquelle la classe manipule à nouveau les énoncés du corpus, mais cette fois collectivement et avec des échanges verbaux censés placer la procédure de conceptualisation sur le mode symbolique (cf. section « Le tableau noir dans la démarche de conceptualisation »). Le TN doit servir à noter les traces des recherches individuelles pour enrichir la réflexion collective. Mais les élèves, qui ont déjà fait ce travail une fois sur papier, ne perçoivent pas cette fonction du tableau. Ils ont du mal à discuter leurs classements et à porter le regard sur d'autres propositions. D'où le reproche fait par la maitresse à l'un d'entre eux : « tu n'as eu de cesse que de faire passer ton propre classement ». Le TN a été secondarisé par une affiche dans la classe N, alors qu'il est lui -même un écrit second chez V. Ce glissement semble produire des effets très différents sur le déroulement de la démarche de conceptualisation. Avec N, la classe investit l'espace ouvert du TN qui est l'objet de nombreux retours en arrière et de reformulations se traduisant par divers types de ratures (ajouts, déplacements, suppressions, remplacements) et commentaires. Plusieurs états provisoires du tableau jalonnent les étapes de la recherche d'un critère de classement des énoncés du corpus. À cette « effervescence » s'oppose un écrit plus conventionnel (cf. fig. 4) que V a sans doute davantage anticipé et qu'il associe à une routine pédagogique classique (recherche individuelle - mise en commun - institutionnalisation du savoir) davantage tournée vers la recherche de la solution attendue. C'est ici le travail individuel des élèves qui sert de brouillon à un écrit collectif – mais peu coopératif – quasi définitif, tandis que N fait du TN un brouillon qu'il recopiera ensuite « au propre ». L'utilisation du TN par V obéit à un schème d'action assez normé, mais en définitive peu compatible avec la mise en œuvre de la démarche de conceptualisation. L'usage qu'en fait N, sans doute plus improvisé et moins typique, s'appuie quant à lui sur des procédures de gestion du brouillon qui correspondent davantage aux caractéristiques de la démarche de conceptualisation. On cherche à comprendre dans ce dernier paragraphe comment N corrèle le travail du brouillon avec la gestion des interactions. L'analyse des échanges montre en effet de fréquents phénomènes de co-énonciation, parfois de sur-énonciation (Rabatel, 2004) chez les élèves, dont on peut se demander s'ils sont liés aux modalités d'utilisation du TN. Dans une étude antérieure (Sautot et Lepoire-Duc, 2009), nous avons montré que la classe N obéit aux règles d'une « communauté discursive scientifique scolaire » (Bernié, 2002) sémiotisée par des pratiques langagières en relation avec celles de la communauté de référence : confrontation de théories avec celles de pairs et production d'écrits de travail servant à élaborer une analyse. On situe le TN à la charnière entre ces deux dimensions de l'activité : en tant que « signal indicateur du contexte » (Nonnon, 1991), il sert de point d'appui et de référence à la communauté dont il guide la réflexion collective qui se réalise dans les échanges langagiers. De récentes théories du contexte (van Dijk, relayé par Micheli, 2006) l'abordent comme un processus objectivable pris en charge par les participants au cours même de l'interaction. Dans cette théorie, le contexte est une construction des interactants; il est évolutif et son évolution est un indice de leur activité cognitive. Il semble alors que les transformations successives du TN conditionnent la réflexion des élèves parce que leur réflexion conditionne à son tour l'évolution du TN. Dit autrement, c'est le fait de coopérer à la gestion conjointe du TN abordé comme un brouillon qui stimule l'activité cognitive et langagière des élèves. Le TN visualise un état de savoir à la fois complexe et en construction, et il sert de relais entre les destinataires directs et indirects (Kerbrat-Orecchioni, 1990) du polylogue scolaire. D'où une utilisation abondante de déictiques et de gestes de monstration qui permettent de se comprendre en désignant des objets langagiers que l'on ne sait pas nommer avec exactitude (M : « ça Elise nous dit ça va là »; M : « on reviendra sur ce petit mot que pour l'instant vous appelez déterminant ») ou de procéder, dans un premier temps, à des classements analogiques intuitifs (M : « rue des vautours il va où rue des vautours »; E : « dans la même [colonne] »); d'où également des échanges initiés par des élèves lorsqu'ils poursuivent l'analyse d'un élément noté au tableau que la dérive des échanges a fait perdre de vue (E : « de et qui c'est pas la même chose »; M : « attends je pose une question et après c'est promis je te donne la parole / ben vas -y »). À la fin de la séance, les initiatives des élèves portent aussi bien sur des propositions spontanées de classements (E : « l'affaire Caius ça va là-bas ») que sur l'énoncé des attributs d'un concept qu'ils proposent de faire figurer en en-tête du tableau (E : « entre parenthèses on met adjectif »). L'enseignant orchestre l'activité de la classe en faisant graviter la réflexion et les interventions des élèves – qui sont impliqués, mais ne réfléchissent pas sur les mêmes objets ni au même rythme – autour du TN qu'il gère comme un « brouillon collectif ». N et V recourent à deux modalités différentes d'utilisation du TN. On peut parler de « routine pédagogique » pour V qui l'utilise de manière relativement indépendante de la démarche d'apprentissage envisagée. Dans ce type de routine, les inscriptions au TN sont programmées – et dans certains cas réalisées – avant la mise en œuvre de la séance. Le TN est monogéré par l'enseignant et peu évolutif. Il sert donc avant tout à guider l'élève dans un programme d'activités, individuelles ou collectives, qui peut dépasser le cadre de la séance d'apprentissage. N s'en sert plutôt pour enrôler les élèves dans une réflexion collective. Cet enseignant n'a pas programmé les inscriptions au TN; les premières sont minimalistes et le TN, en tant que brouillon collectif, constitue un point de repère écrit évolutif et co-géré par le groupe classe (enseignant-élèves). On peut alors parler de « routine didactique » en ce sens que l'utilisation du TN est ajustée aux caractéristiques de la démarche d'apprentissage. La comparaison des deux classes montre que les « routines pédagogiques » d'utilisation du TN peuvent avoir pour effet de transformer la nature de la situation d'apprentissage; la gestion du TN semble en effet, dans le cas que nous avons étudié, faire obstacle à l'activité cognitive et communicationnelle de la classe normalement attendue lors de la mise en œuvre d'une démarche de conceptualisation. Ce constat invite à affiner les études sur le TN sous l'angle des didactiques, en vue de circonscrire et de corréler des gestes d'utilisation du TN avec des démarches d'apprentissage prototypiques. Routines « pédagogiques » et « didactiques » n'en constituent pas moins deux gestes professionnels d'égale importance et c'est au bout du compte la complémentarité entre ces deux modalités d'utilisation du TN qu'il semble nécessaire de rechercher .
Incorporer un nouveau geste professionnel à la pratique enseignante peut conduire à reconfigurer des routines, comme l'utilisation du tableau noir. Nous observons l'usage que deux enseignants font de ce dernier pour appliquer, en grammaire, une démarche de conceptualisation qu'ils viennent de découvrir. La comparaison montre que les modalités d'utilisation du tableau ont une incidence sur la mise en œuvre de cette démarche. Elles peuvent modifier la nature de l'activité pour, par exemple, transformer une situation problème en une activité du type «exercice». À l'inverse, le tableau peut stimuler l'activité langagière et cognitive de la classe lorsqu'il est géré comme un brouillon collectif. Ainsi, nous distinguons les «routines pédagogiques» d'utilisation du tableau, transférables à différentes situations d'apprentissage, et les «routines didactiques », spécifiques à un type de démarche.
linguistique_12-0173335_tei_606.xml
termith-574-linguistique
Le petit d'homme ne naît pas avec le langage. Pour communiquer avec son entourage, il doit apprendre la langue parlée autour de lui, qui est l'un des quelque 6000 systèmes symboliques conventionnels utilisés dans le monde. Et, compte tenu du haut niveau de sophistication des systèmes linguistiques, il y parvient en un laps de temps relativement court. L'enfant commence, en effet, à produire ses premiers mots conventionnels vers le début de sa seconde année, et, deux ou trois ans plus tard, il sera parvenu à mettre en place un système de communication efficace où il aura progressivement intégré la plupart des contraintes de base de la langue : il maîtrise alors les principaux aspects de la phonologie, il connaît à peu près le sens et les conditions d'emploi de plusieurs milliers de mots, et il sait utiliser correctement les principales règles morphologiques et syntaxiques de sa langue maternelle. Il y a donc tout lieu de se demander comment pareille performance est possible… Le présent article apporte une contribution à cette interrogation. Nous espérons montrer que l'étude systématique des corpus de production naturelle des jeunes enfants est une voie d'accès féconde pour aider à comprendre les processus d'émergence et d'acquisition du langage, en particulier la mise en place des contraintes fondamentales de la langue. Nous illustrerons notre propos en présentant une étude où nous analysons, dans les productions langagières précoces des enfants français, le développement de la catégorie de mots appelés « noms », qui engage tout à la fois l'acquisition de contraintes lexico-sémantiques et grammaticales de base. L'étude de la production spontanée des jeunes enfants, versant le plus visible de la capacité langagière, est le moyen le plus ancien auquel les chercheurs aient eu recours pour tenter de comprendre l'acquisition du langage à ses débuts. Les premières investigations – tels les travaux pionniers de W.F. Léopold (1939-1949) ou de A. Grégoire (1947) – reposaient sur les journaux que les auteurs tenaient en observant généralement leurs propres enfants. L'entrée dans l'ère de la méthodologie moderne se produit vers les années soixante, avec l'innovation que représente la possibilité d'enregistrement des données sonores. Cette innovation va ouvrir la voie aux études qui, à l'instar du projet mené à l'Université d'Harvard par R. Brown et son équipe sur trois enfants devenus célèbres sous les noms d'Adam, Eve et Sarah (Brown, 1973), examinent le développement langagier à travers l'analyse intensive des productions réelles des jeunes enfants. Au cours des dernières décennies, les études de production se sont à nouveau profondément renouvelées, bénéficiant cette fois de l'essor des moyens audio-visuels et surtout informatiques. L'enregistrement vidéo modifie les conditions de recueil des données et permet l'analyse des indicateurs non linguistiques – situations, actions, gestes, regards – associés aux interactions verbales. L'informatisation des données permet des opérations de stockage, de traitement automatique et de transfert qui entraînent un véritable changement d'échelle dans la perspective de recherche. Les études de production naturelle s'appuient ainsi maintenant sur des corpus diversifiés et systématiquement recueillis, constitués des productions verbales spontanées des jeunes enfants, enregistrées en audio ou préférentiellement en vidéo au cours de séances où l'enfant est en situation de vie quotidienne et en interaction avec son entourage. Les enregistrements sont ensuite exhaustivement transcrits et informatisés, les transcriptions comportant non seulement les productions de l'enfant et de ses interlocuteurs mais aussi des informations sur la situation et le contexte de ces productions. Les productions de l'enfant, voire de ses interlocuteurs, peuvent être ainsi diversement codées selon les dimensions souhaitées, et conformément aux objectifs des recherches. Comme on le voit, le recueil et l'analyse des données de production naturelle sont extrêmement coûteux en temps et en énergie, ce qui limite nécessairement la taille des échantillons. Mais en contre-partie, ces données sont d'une fiabilité élevée et d'une très grande richesse, donnant accès à l'analyse en contexte de tous les aspects du développement langagier, phonologique aussi bien que lexical, morphosyntaxique ou pragmatique. L'une des manifestations les plus significatives de la révolution informatique dans l'étude de la production naturelle a été la création de réseaux et systèmes informatisés destinés à gérer la transcription, le codage et l'analyse des données. Le plus connu de ces réseaux est sans doute le Child Language Data Exchange System dit C hildes, fondé en 1984 par B. MacWhinney et C. Snow grâce au financement de la Fondation MacArthur. Le C hildes, dont la vocation est de favoriser les échanges entre chercheurs à travers la communauté scientifique internationale, fournit trois principaux instruments progressivement mis au point au cours des années et présentés en détail dans plusieurs ouvrages (MacWhinney, 2000) et mis à jour sur Internet. Le premier instrument, le CHAT Manual, est un guide pour l'informatisation des données de production naturelle et fournit un ensemble d'instructions ou normes destinées à assurer une standardisation des procédures de transcription et de codage. Les règles minimales concernent la présentation de la transcription, tandis que des conventions plus élaborées sont proposées pour le codage (phonologique, morphologique, codage des actes de parole par exemple). Le deuxième instrument est un ensemble de programmes informatiques permettant l'analyse automatique des données transcrites dans le format CHAT. Enfin le troisième instrument est la base de données elle -même, constituée d'un nombre croissant de corpus transcrits dans ce format. L'intérêt de principe d'une telle base de données est évident, puisqu'elle permet au chercheur qui veut examiner une question ou tester une hypothèse d'avoir accès à un vaste ensemble de données d'origines variées et traitables automatiquement. Cette base de données s'étend dans diverses directions : au départ centrée sur les données d'enfants anglophones tout-venants, elle cherche à s'ouvrir aux données provenant d'autres langues, de langues secondes et d'enfants présentant des désordres du langage, et vise à associer de plus en plus aux transcriptions écrites les documents audio et vidéo digitalisés. Nous menons depuis plusieurs années un programme de recherche sur l'émergence du langage chez l'enfant et les premières étapes de l'acquisition, entre 1 et 3-4 ans environ, étude menée à travers l'analyse de la production naturelle. Ce programme, principalement centré sur l'acquisition du français comme langue maternelle (mais pouvant faire appel à des comparaisons inter-langues), a pour objectif général de dégager les processus de constitution du système linguistique chez l'enfant. Pareil objectif définit un domaine de recherche qui, s'il est bien représenté au plan international, est encore relativement peu exploré en France, où les travaux consacrés aux premières étapes du développement se sont surtout concentrés sur la communication prélinguistique et les interactions conversationnelles (Marcos, 1998; Veneziano, 2000) ou sur l'étude de la perception et de la production de la parole (Boysson-Bardies, 1996; Bertoncini & Boysson-Bardies, 2000). Par contraste, nos recherches sur la constitution du système linguistique ont pour but de déterminer les processus par lesquels l'enfant intègre les contraintes fondamentales de la langue, telles par exemple les contraintes lexicales et morphosyntaxiques, voire les contraintes pragmatiques. Nos travaux ont ainsi porté principalement sur la structuration du lexique (Bassano, 1998a; 2000a; Bassano, Maillochon & Eme, 1998; Bassano, Eme & Champaud, 2005), et sur certains processus de grammaticalisation, concernant notamment les noms et les verbes (Bassano, 1998b; 1999; 2000b; Bassano, Maillochon, Klampfer & Dressler, 2001a, b; Bassano, Laaha, Maillochon & Dressler, 2004). L'ensemble du programme développe une approche fonctionnaliste intégrative de l'acquisition du langage. Apparues en psycholinguistique autour des années quatre-vingt, les approches fonctionnalistes (Bates & MacWhinney, 1982; Elman, Bates, Johnson, Karmiloff-Smith, Parisi & Plunkett, 1996; MacWhinney, 1999; Tomasello, 2003) offrent une alternative aux modèles syntaxiques, modulaires et innéistes de l'acquisition du langage. Ces approches mettent l'accent sur les déterminants environnementaux et sociaux ou sur les déterminants cognitifs généraux, sans pour autant nier l'existence de prédispositions ni les particularités linguistiques de l'acquisition du langage. Elles conçoivent ainsi le développement langagier comme un phénomène global et interactif, auquel contribuent ensemble facteurs génétiques et facteurs environnementaux. Éclairée par la théorie des systèmes dynamiques (Van Geert, 1991; 1994), notre approche se définit plus précisément par deux caractéristiques. La première est sa perspective intégrative. L'idée de base, au cœur des débats sur modularité et interaction, est que, dès le début, l'acquisition du langage est gouvernée, non seulement par le jeu des interactions entre facteurs génétiques, environnementaux et cognitifs, mais aussi par celui des interactions « internes » à l' œuvre entre les divers composants de la capacité langagière. L'une des questions centrales est, par exemple, celle des relations entre développement lexical et développement grammatical, que nous examinons de façon conjointe et dont nous recherchons les lieux d'interface et d'interdépendance. La deuxième caractéristique est l'intérêt accordé à la variabilité : non seulement à la variation inter-linguistique, mais aussi à la variation inter - et intra-individuelle. L'analyse de ces différentes sources de variation permet de repenser la recherche des universaux, mais également, comme le montrent les modèles fondés sur la théorie des systèmes dynamiques, d'apporter un éclairage nouveau sur l'examen des changements, moments critiques et transitions dans les processus de développement (Bassano & Van Geert, 2005). Pour mener notre programme de recherche sur l'acquisition du système linguistique par les enfants francophones, nous avons entrepris de constituer une base de données sur le français, en relation avec le C hildes mais de façon indépendante. Cette base est formée d'un ensemble de corpus de productions de jeunes enfants, enregistrés, transcrits et informatisés pour l'essentiel conformément aux standards du C hildes (à titre d'exemple, un extrait de corpus transcrit est donné en annexe). À ce jour, notre base de données C orpus français de productions langagières précoces comporte : les corpus longitudinaux de Benjamin (de 21 à 48 mois) et de Pauline (de 14 à 39 mois). Dans les corpus longitudinaux, l'évolution du langage d'un même enfant est suivie au cours d'une longue période de temps - plusieurs mois ou plusieurs années - au moyen d'enregistrements régulièrement espacés et assez rapprochés (une ou deux sessions par mois, chacune d'une durée allant jusqu' à 2 heures). les corpus transversaux ou mixtes de la base dite « TRL » (transverso-longitudinale), constituée par les enregistrements de différents enfants étudiés à certains moments privilégiés du développement. Nos données sont recueillies à 20 mois, 30 mois, 39 mois, et 48 mois, chaque groupe d' âge comportant 20 enfants (les séances ont ici une durée de 30 à 45 minutes). Parmi ces enfants, dix d'entre eux se retrouvent d'un groupe à l'autre, formant la composante longitudinale du corpus. Ce corpus permet d'élargir la portée des résultats obtenus dans les corpus longitudinaux, et d'examiner la variabilité inter-individuelle au sein d'un groupe d' âge. le corpus « Autisme », constitué par les données langagières d'enfants atteints d'autisme. Ces données sont transversales (30 et 39 mois d' âge de développement verbal, 8 enfants par groupe d' âge), et longitudinales (4 enfants suivis depuis 30 mois d'ADV à 3 reprises, à intervalle de 9 mois). Après le recueil des données, une étape essentielle dans l'étude de la production naturelle est celle de l'élaboration et de la mise en œuvre de systèmes de codage des productions des enfants. Comme nous l'avons indiqué, le Childes propose des systèmes de codage très complets. Nous avons cependant préféré élaborer nous -même des codages qui soient le plus possible appropriés aux objectifs et hypothèses de nos recherches. Pour chaque session transcrite, un fichier de codage comportant les productions de l'enfant est constitué; en règle générale, il consiste en un échantillon formé d'un nombre constant d'énoncés extrait de la transcription, en l'occurrence 120 énoncés pour chaque enfant et chaque mois d' âge. Cet échantillon est choisi de manière la plus « écologique » possible, en respectant l'organisation des séquences discursives et en privilégiant les séquences les plus riches, tout en conservant l'idée que l'échantillon doit être représentatif du langage de l'enfant. Chaque énoncé est soumis à plusieurs séries de codages correspondant aux différents objectifs des recherches. Les codages sont réalisés en référence constante à l'ensemble de la transcription et aux informations fournies par les productions des interlocuteurs et les indications du transcripteur. Un programme informatique de traitement des codages (PROCOD) permet une première analyse automatique des données. Nous nous proposons maintenant d'illustrer nos recherches sur l'étude de la production naturelle précoce et la constitution du système linguistique en présentant un ensemble d'analyses sur le développement des noms. On considère généralement que les noms constituent, avec les verbes, l'une des deux catégories linguistiques fondamentales qui structurent l'organisation d'un très grand nombre de langues, parmi lesquelles le français. Les noms servent à désigner les entités du monde, animées ou inanimées, tandis que les verbes permettent de faire référence aux événements, actions ou états attribués aux entités. Les noms, ancrés dans la dimension spatiale, remplissent le plus souvent des fonctions de sujet ou d'objet, tandis que les verbes, ancrés dans la dimension temporelle qu'ils expriment par des variations morphologiques, ont le plus souvent une fonction prédicative. Figurant parmi les premiers mots conventionnels produits par les jeunes enfants, les noms ont un statut privilégié dans l'acquisition. En même temps que les enfants, au début de leur deuxième année, commencent à se servir de petits mots fonctionnels à valeur socio-pragmatiques tels qu'interjections, routines, particules d'interaction comme « oui » ou « non », ils se mettent aussi à utiliser des éléments qu'on désigne sous le terme de « noms » dans la langue adulte. Bien qu'elle ait été récemment questionnée par certaines études sur l'acquisition de langues comme le coréen ou le chinois (Choi & Gopnik, 1995; Tardif, 1996), l'idée que l'acquisition des noms est précoce et précède celle des verbes ne peut guère être mise en doute pour un bon nombre de langues qui partagent l'opposition verbo-nominale. L'existence du « noun bias », ou prédominance initiale des noms, a été tout particulièrement mise en évidence dans des études qui, en utilisant les questionnaires parentaux standardisés du Communicative Development Inventories (Fenson, Dale, Reznick, Bates, Thal & Pethick, 1994) ont examiné le développement lexical d'enfants acquérant comme langue maternelle l'anglais, l'italien, l'espagnol ou l'hébreu, par exemple (pour une revue, voir Bassano, 2000a et Bassano et al., 2005). Diverses hypothèses ont été avancées pour expliquer la prédominance initiale des noms. La plus connue est l'hypothèse de la Partition Naturelle proposée par D. Gentner (Gentner, 1982; Gentner & Boroditsky, 2001) : les noms sont acquis précocement en raison de leur simplicité notionnelle et cognitive, parce que, contrairement aux verbes et aux autres termes relationnels, ils réfèrent généralement à des entités perceptives distinctes, d'une grande cohésion interne et hautement individualisées – des personnes, des objets concrets –, qui formeraient ainsi le marche-pied logique de l'acquisition lexicale. L'assignation du sens des noms est aussi beaucoup moins variable à travers les langues que celle du sens des verbes, moins dépendante des procédés de lexicalisation et des organisations spécifiques aux langues particulières, ce qui en faciliterait l'acquisition. Nos études de production naturelle sur la structuration lexicale nous ont permis de mettre en évidence la place qu'occupent les noms dans le lexique des enfants français au cours des premières étapes du développement du langage, montrant en particulier leur précocité et leur haute fréquence initiale, ainsi que leur relatif décours par la suite. Ainsi, l'analyse du corpus de Pauline (Bassano et al., 1998) a fait apparaître que, parmi les quatre macro-catégories lexicales distinguées, deux prédominent largement en fréquence jusqu' à 18 mois au moins : les noms, qui forment 40 % des mots types, et les éléments que nous avons appelés « para-lexicaux » (interjections, particules oui/non, formules) qui en forment plus de 30 %. En revanche, les prédicats (verbes et adjectifs) sont à cette étape nettement moins représentés (15 %), et les mots grammaticaux moins encore (10 %). Par la suite, au cours du développement, les proportions de noms et d'éléments para-lexicaux diminuent tandis que les proportions de prédicats et de mots grammaticaux augmentent, de sorte qu'autour de deux ans les quatre catégories lexicales occupent à peu près la même part du lexique, et qu' à 30 mois, ce sont les mots grammaticaux qui sont le plus représentés (40 % des mots-types), suivis par les prédicats et les noms (26 % et 23 %) et finalement les items para-lexicaux (11 %). Ces tendances développementales ont été confirmées par une étude transversale impliquant un grand nombre d'enfants (20 par groupe d' âge) observés à 20, 30 et 39 mois (Bassano et al., 2005). La proportion moyenne de noms trouvée dans les productions des enfants diminue significativement entre 20 et 30 mois (de 31 % à 23 %), de même que la proportion d'items para-lexicaux (de 30 % à 17 %), tandis qu'augmentent significativement les proportions de prédicats (de 17 % à 23 %) et de mots grammaticaux (de 23 % à 38 %). Il est à noter que les changements développementaux observés entre 30 et 39 mois sont nettement moins drastiques qu'entre 20 et 30 mois : les changements entre 30 et 39 mois ne sont significatifs ni pour les noms (dont la proportion passe de 23 % à 26 % des mots-types), ni pour les prédicats (dont la proportion reste de 23 %), ni pour les mots grammaticaux (de 38 % à 41 %). Ces résultats indiquent que c'est au cours de la troisième année que se produisent les réorganisations les plus importantes dans la structuration du lexique, en particulier le déplacement d'accent de la production des noms vers celle des verbes, et l'explosion des mots grammaticaux. Nous allons maintenant examiner plus précisément comment émerge et se développe la catégorie des noms, au plan lexico-sémantique d'abord, puis au plan grammatical, en nous appuyant principalement sur l'analyse des données issues du corpus de la petite Pauline. L'évolution de la production des noms chez Pauline entre 14 et 30 mois est présentée dans la figure 1 selon les deux indicateurs fournis par l'analyse de la production naturelle, le nombre de mots-types (les mots différents) et le nombre d'occurrences (tous les mots) relevés dans les échantillons mensuels. Cette analyse fait apparaître que la production des noms, en quantité relativement importante dès le début de la période analysée, reste, malgré des variations conjoncturelles, à peu près stable jusqu' à 25 mois, pour connaître à partir de 25 mois une assez nette augmentation, sensible au regard des deux indicateurs. Le décrochement qui se produit à cet âge dans la production des mots-types est particulièrement intéressant, parce qu'il dénote un phénomène d'accroissement non linéaire de la masse du lexique des noms. Pour aller plus loin dans l'analyse du lexique des noms et de son développement, nous avons recherché quelles sous-classes sémantiques étaient produites par les jeunes enfants. Appliquant des distinctions classiques, nous avons considéré trois dimensions dans l'organisation sémantique de cette classe de mots : la dimension principale est la distinction « animé » vs « inanimé », qui se combine hiérarchiquement avec les dimensions « nom propre » vs « nom commun » et « concret » vs « abstrait ». Les six sous-classes ainsi obtenues par combinaison sont, pour les noms animés, des noms propres (Edouard, Babar), des noms communs concrets (papa, garçon, oiseau), et des noms communs plus abstraits, tels que, par exemple, ceux qui expriment une relation de parenté (père, sœur), une profession (policier), ou ont une valeur relationnelle (copain, mari) ou générique (foule, animal). Les sous-classes de noms inanimés sont des noms propres (Paris), des noms communs concrets, qui sont les classiques noms d'objet (pomme, chausson, pied), et des noms communs plus abstraits, tels que ceux qui codent des séquences d'action (dodo, histoire), des émotions et des sentiments (peur, faim) ou encore certains noms génériques ou collectifs (lumière, bruit). Le développement des différentes sous-classes sémantiques de noms trouvées dans le corpus de Pauline est représenté dans la figure 2 selon une distribution en cinq périodes successives, la première constituée de 4 mois, et les suivantes formées chacune de 3 mois (nombre mensuel moyen de mots-types pour chacune des sous-classes et pour les échantillons de 120 énoncés). Durant la première période, c'est-à-dire avant 18 mois, trois sortes de noms sont produits. On trouve en majorité des noms concrets inanimés, c'est-à-dire les fameux noms d'objet désignant des aliments, des vêtements, des parties du corps, des objets quotidiens. Mais on trouve aussi, en bonne fréquence, des noms communs animés concrets, qui désignent, soit des humains – et ce sont alors souvent des « quasi noms propres », comme « maman », « papa », « bébé » –, soit des animaux – et ce sont alors souvent des animaux sous forme symbolique représentés par des images ou des pièces de puzzle. On trouve aussi des noms propres animés, qui réfèrent de façon assez répétitive à l'entourage immédiat. Après 18-20 mois, les noms concrets inanimés restent les plus nombreux dans chacune des périodes, et ils augmentent en particulier dans la dernière période : ce sont eux qui sont responsables de « l'explosion lexicale » des noms observée à partir de 25 mois. En revanche, les noms communs animés tendent à diminuer au cours du développement. Les noms d'inanimés abstraits apparaissent vers 18-20 mois, référant essentiellement, au début, à des séquences d'action (dodo, histoire), et, ultérieurement, à des émotions et des sentiments, ce qui montre combien le début de l'abstraction est enraciné dans l'expérience. Les noms d'animés abstraits sont les plus tardifs et les plus rares. Et enfin, il n'y a pas de noms propres inanimés dans les échantillons de Pauline. En conclusion, cette analyse accrédite en bonne partie l'idée classique que les noms d'objets concrets forment le substrat du lexique des noms chez l'enfant, dans la mesure où ce sont eux qui constituent la sous-classe majoritaire (au total 60 % des mots-types et 50 % des occurrences). Mais cette idée est seulement en partie vraie : nous avons souligné le rôle important joué dans les premiers mois, au moment de l'émergence du langage, par les noms d'animés, en particulier les noms propres et quasi noms propres, qui sont produits en bonne fréquence jusqu' à 20 mois; ce n'est qu'après cet âge que la différence de fréquence entre animés et inanimés devient significative, à l'avantage des inanimés. Nous avançons l'idée que le développement de la fonction référentielle du langage a une double origine, puisée, d'une part, dans l'identification des individus personnalisés, et, d'autre part, dans l'identification des objets et classes d'objets. La fréquence initiale des noms d'animés, particulièrement des noms propres, s'accorde avec l'interprétation du « noun bias » comme une tendance naturelle de l'enfant à apprendre d'abord les termes qui désignent des entités fortement individualisées. La question se pose maintenant de déterminer quand et comment les mots identifiés comme « noms » au vu de leur propriétés lexico-sémantiques acquièrent pour l'enfant les propriétés grammaticales de la classe des noms. Ce processus développemental, que nous appelons « grammaticalisation des noms », se manifestera par l'intégration, dans les productions de l'enfant, de la contrainte d'emploi du déterminant. En effet, dans la langue française orale, la caractéristique grammaticale du nom est que celui -ci est, en règle générale, accompagné par un déterminant. Cette contrainte est double : le déterminant est antéposé (il précède le nom), et il porte les marques du genre et du nombre. Cependant, la contrainte n'est pas absolue, puisqu'il est assez fréquent que l'omission du déterminant soit acceptable et même obligatoire, par exemple devant les noms propres ou dans certaines expressions verbo-nominales. Pour examiner cette question, nous avons défini un indice de grammaticalisation des noms, qui mesure la capacité de l'enfant à utiliser un déterminant prénominal dans les contextes où celui -ci est obligatoire. L'indice est donc le taux des noms employés avec déterminant par rapport à tous les noms pour lesquels le déterminant serait requis dans la langue adulte. La figure 3 représente l'évolution de cet indice dans le corpus de Pauline entre 14 et 30 mois, calculé selon deux versions, l'une stricte et l'autre « accommodante ». La version stricte de l'indice mesure le taux d'utilisation de vrais déterminants, clairement spécifiés, comme dans « un chat », « le chien », « donne les chaussures », « c'est mon chausson ». Cette analyse indique que l'enfant ne commence pas à utiliser de déterminant en bonne et due forme avant 18 mois, et qu'entre 18 mois et deux ans, elle les utilise avec beaucoup de modération, puisque l'indice conserve une valeur moyenne d'environ 0.10. Ce n'est qu'après deux ans que sa valeur va augmenter très vite, de manière explosive, puisqu'il atteint la valeur de 0.75 à 28 mois et de 0.95 à 29 mois. Le taux de 95 % d'usage correct du déterminant permet de dire que le processus de grammaticalisation des noms est achevé à 2 ans et demi pour cette enfant -là. On remarquera que la version stricte de l'indice de grammaticalisation fait apparaître un typique phénomène d'explosion grammaticale, se manifestant par une accélération brusque du processus d'intégration de la contrainte, et localisé pour cette enfant entre 27 et 28 mois. Mais nous avons établi aussi une autre version, appelée « accommodante », qui tient compte non seulement des vrais déterminants, mais aussi des fillers. Les fillers (ou « remplisseurs ») sont les éléments monosyllabiques qu'on observe le plus souvent devant les noms ou devant les verbes dans les productions des jeunes enfants, et dont on peut faire l'hypothèse qu'ils sont la préfiguration d'un morphème grammatical. Devant un nom – par exemple dans « e nez », « c'est a chat », « am lit », « mettre é chausson », « eum boîte » – le filler préfigure vraisemblablement un déterminant dont la place est bonne mais dont la nature et la forme ne sont pas clairement définies. Le calcul de la version accommodante de l'indice montre que le processus de grammaticalisation est plus précoce et plus progressif que ne le laissait penser la version stricte, et que l'explosion dans l'emploi du déterminant est en réalité préparée par des phénomènes précurseurs. Ce type d'analyse conduit ainsi à repenser les notions de continuité ou discontinuité de développement, en montrant que, selon la finesse de l'examen, un processus qui apparaît comme discontinu (explosif) à un certain niveau d'analyse peut se révéler en continuité à un autre niveau. L'examen d'une dernière question, celle des relations entre développement grammatical et développement lexical, apportera quelques arguments en faveur de la conception intégrative de l'acquisition du langage que nous soutenons : nous souhaitons montrer que l'émergence de la grammaire, ou du moins de certains aspects de la grammaire, est liée à certains aspects du développement du lexique. Une première série d'arguments concerne les aspects quantitatifs de la relation entre lexique et grammaire. Le point de départ de cet examen est la vérification de l'hypothèse avancée par Bates et ses collègues, l'hypothèse « de la masse lexicale critique », qui propose que la constitution d'un certain stock lexical est une condition nécessaire, voire suffisante, au déclenchement des acquisitions grammaticales (Marchman & Bates, 1994). Le développement grammatical serait de la sorte dans une relation de dépendance par rapport au développement lexical. Cette relation de dépendance est notamment montrée, dans des études fondées sur les données du CDI américain, par la mise en évidence de fortes corrélations non-linéaires entre l'accroissement du lexique et divers aspects de l'émergence de la grammaire, par exemple le début des combinaisons de mots ou de la complexité syntaxique (Fenson et al., 1994; Bates & Goodman, 1999). Pour établir l'existence de telles relations de dépendance, plus spécifiques, dans nos données longitudinales sur les noms, il nous faut établir, d'une part, qu'il existe des moments « critiques » remarquables dans l'accroissement de la production lexicale et dans l'essor du processus de grammaticalisation, et, d'autre part, montrer que ces moments critiques sont en décalage temporel. Or nos analyses ont en effet montré que, dans le corpus de Pauline, la production lexicale des noms était marquée par un accroissement à partir de 25 mois, et qu'une explosion dans la grammaticalisation des noms se produisait entre 27 et 28 mois. Il existe donc entre les deux processus – expansion lexicale et grammaticalisation – un parallélisme d'évolution avec un léger décalage temporel, puisque l'explosion lexicale précède de deux mois l'explosion de la grammaticalisation. Cela permet de penser que, conformément à l'hypothèse de la « masse critique », l'accumulation d'un certain stock lexical est nécessaire pour que la grammaticalisation d'une classe de mots s'enclenche. Nous voudrions maintenant avancer une hypothèse supplémentaire, qui concerne les aspects qualitatifs de la relation entre développement lexical et grammatical. Cette hypothèse est celle d'un « amorçage lexico-sémantique de la grammaticalisation » (Bassano, 2000b). C'est l'idée que la grammaticalisation pourrait être liée, non seulement à la taille du lexique, mais aussi à la structure et la nature de celui -ci : ainsi, certains types sémantiques de noms pourraient être plus propices que d'autres à former le substrat des processus de grammaticalisation. Cela revient à rechercher si certaines propriétés lexico-sémantiques sont susceptibles de favoriser la grammaticalisation des noms. Et en effet, l'analyse présentée dans la figure 4 montre que, dans le corpus de Pauline, c'est pour les noms animés que l'omission du déterminant est proportionnellement la plus forte (64 %), tandis que c'est pour les inanimés concrets que la proportion d'emploi d'un vrai déterminant est la plus forte (28 %) (les contrastes sont significatifs). Cela suggère que les noms d'objets concrets, s'ils ne sont pas les seuls à être produits précocement, pourraient constituer des candidats privilégiés pour entraîner la contrainte d'utilisation du déterminant et ainsi « amorcer » la grammaticalisation de la classe des noms. Nous espérons que les quelques analyses que nous venons de présenter sur le développement des noms auront illustré l'apport de l'étude de la production naturelle précoce à l'analyse de la constitution du système linguistique par le jeune enfant. Nous espérons aussi qu'elles illustrent notre approche fonctionnaliste intégrative de l'acquisition du langage. Nous avons, en effet, non seulement examiné les transformations qui s'opèrent, au cours des deuxième et troisième années, dans la production quantitative des noms et dans le développement de leurs propriétés lexico-sémantiques, mais aussi analysé le processus d'intégration de la contrainte grammaticale de base caractérisant cette catégorie linguistique, en l'occurrence l'emploi du déterminant antéposé. En analysant le corpus d'un enfant, nous avons apporté des arguments à l'appui de l'hypothèse de « la masse lexicale critique », d'une part, et de l'hypothèse de « l'amorçage lexico-sémantique de la grammaticalisation », d'autre part, et nous avons ainsi montré qu'il existait certaines relations de dépendance entre le développement grammatical et le développement lexical des noms, ce qui est directement au cœur de l'approche intégrative. Elargissant l'investigation à un nombre conséquent d'enfants, de nouvelles analyses, actuellement en cours, sur la production des noms dans la base de données transversale à 20, 30 et 39 mois, confirment l'incidence du facteur lexical sur la grammaticalisation et en précisent la portée au cours du développement. En outre, plusieurs recherches menées sur le français (Bassano, 1998b, 1999, 2000) et sur d'autres langues (Bassano et al., 2004; Bates & Goodman, 1999; Marchman & Bates, 1994) ont établi l'existence d'interactions similaires pour la production des verbes, ce qui suggère que la relation entre lexique et grammaire concerne des sous-domaines variés du développement langagier, et que les interdépendances entre ces deux dimensions constituent un phénomène robuste et bien étayé .
L'A. exploite des corpus oraux d'usages enfantins avec les conventions CHILDES aménagées. Dans la première partie de son article, elle présente d'abord l'étude de la production naturelle précoce - analyse de corpus de productions spontanées de très jeunes enfants (de 1 à 3-4 ans) -, puis, son programme de recherches et la base de données sur l'émergence du langage et la constitution du système linguistique chez les enfants français. La troisième partie illustre ce programme avec un ensemble d'analyses portant sur le développement des noms, qu'elle étudie conjointement du point de vue lexico-sémantique et grammatical
linguistique_524-06-10300_tei_791.xml
termith-575-linguistique
Profaner c'est restituer à l'usage commun ce qui a été séparé dans la sphère du sacré. (Agamben, 2005) « Le pamphlet devrait être la forme littéraire par excellence d'une époque comme la nôtre. Nous vivons un temps où les passions politiques sont vives, où les canaux d'une expression libre se raréfient et où le mensonge organisé existe à une échelle encore jamais vue. Pour remplir les blancs de l'histoire, le pamphlet est la forme idéale » (Orwell, 1943, p. 356). George Orwell assignait au pamphlet une double propriété : incarner, tout d'abord, l'historicité singulière d'un mode d'écriture, lier un genre littéraire à l'expérience particulière d'une époque; combler, ensuite, les béances d'une période de crise en mettant le logos pamphlétaire au service de la liberté et de la vérité. Nous retrouvons cette idée d'un « pamphlet symptomatique » chez Marc Angenot pour qui ce type de discours agonique, pertinent dans une certaine société, accompagnerait « dans le champ social de brusques ruptures entre un ensemble de valeurs et des pratiques concrètes » (Angenot, 2005, p. 39). Voilà qui semble lier la forme pamphlétaire à un moment précis, défini par l'épaisseur des contradictions idéologiques, les conflits d'idées et la complexité des rapports aux pouvoirs symboliques de la part de certains agents sociaux. Pour le dire autrement, le pamphlet serait donc mortel. Notre propos n'est pas de signer une fois de plus l'acte de décès du pamphlet, ni d'ailleurs de convaincre de son indémodable permanence, mais de formuler un certain nombre d'hypothèses relatives à la généalogie d'une parole vitupérative, que nous entendons définir principalement autour de deux éléments. Tout d'abord, un mode d'énonciation publique du blâme à l'encontre d'une autorité/institution politique ou sociale. Il s'agit donc ici de repérer le montage de la vitupération comme agencement de contraintes discursives, de conditions de mise en publicité et de finalités critiques. Ensuite et surtout, une appartenance au répertoire plus général des « dramatiques de la vérité » dont Michel Foucault avait commencé à entreprendre la vaste archéologie. La vitupération dessine, selon nous, les contours plus ou moins flous d'un espace public de la critique, dont il ne faut certes pas exagérer le degré d'institutionnalisation, mais qui témoigne néanmoins, dans le cadre de configurations précises, de manières particulières de dire vrai, ou, pour reprendre le lexique de la pragmatique linguistique, un « je vrai » qui revendique le statut du « on vrai » (Berrendonner, 1981). Dès lors, le pamphlétaire serait la figure sociohistorique d'une formule plus générique, une manière parmi d'autres de témoigner du scandale de la vérité. Par son écriture polémique et son franc-parler, par ses accents indignés et ses poses héroïques, il entrerait, certes sous une forme bien altérée, dans la grande famille de ceux qui par le verbe et le corps ont illustré, ou cru illustrer, « le courage de la vérité » (Foucault, 2008, 2009). Ce jeu d'hypothèses va nous permettre d'organiser notre réflexion autour de trois séries de questions. Est-il pertinent d'envisager l'inscription du pamphlet politique dans une mémoire longue du genre vitupératif ? De quel âge d'or pamphlétaire serions -nous aujourd'hui orphelins ? Comment se recompose, dans le cadre de la démocratie contemporaine et de ses actuelles mutations, un nouvel espace de la vitupération ? Vituperare : trouver des défauts, blâmer, réprimander, critiquer, faire le procès de; vituperator : censeur, détracteur, critique; vituperabilis : répréhensible, digne d' être critiqué. La notion de vituperatio renvoie à une activité extrêmement banale, la capacité de chaque individu d'émettre un jugement dépréciatif sur l'action ou la personnalité d'autrui. La dimension sociale et politique est également présente dans la définition. La vitupération repose en effet sur l'existence nécessaire de standards de justice au nom desquels se réfère plus ou moins consciemment le jugement (Tilly, 2008). Vitupérer entend rappeler une loi morale et marquer une distance entre celui qui blâme et celui qui est blâmé. La vitupération participe donc du processus de conflictualité des mondes qui traverse chaque société et qui voit chacune d'entre elles organiser un espace public du blâme au sein duquel la critique s'institutionnalisera dans des discours de la vérité qui revendiqueront au nom de celle -ci le pouvoir de tout dire (Boltanski, Thévenot, 1991). L'éloquence romaine, au premier siècle avant notre ère, réservait une place importante à l'éloge des amis et à l'invective contre l'adversaire. Avec la laudatio, la vituperatio constituait un registre discursif à part dans la rhétorique, le genre démonstratif ou épidictique. Elle venait illustrer la violence normale d'une éloquence où l'amplification était la règle, où le discours se voyait volontiers comparé à un feu, à un torrent, où il était conseillé de simuler les passions les plus fortes. La vitupération tire une grande partie de ses effets du langage judiciaire, notamment de l'impératif d'accusation qui construit la diatribe comme une indignation et une dénonciation. Elle fait de l'orateur le juge éloquent d'un scandale (Achard, 1981). Cicéron élèvera la vitupération au rang d'un art civique destiné à moraliser la cité et à dissuader les citoyens de rejoindre le camp des improbi. Il mobilisera un répertoire considérable de fondements à l'invective dont la plupart ont traversé les siècles pour constituer le jeu pamphlétaire de l'insulte et de la caricature (l'origine étrangère, l'immoralité, les traits physiques, l'incompétence et l'impuissance, les méfaits). La vitupération délivre un blâme public au nom d'un abandon de la morale en politique. Faiblement idéologique, elle apparait bien souvent comme une sorte de compensation à l'impossibilité d'agir, et met en scène une frustration que l'orateur s'efforce de conjurer en livrant alors le combat des mots. La théâtralité de la vitupération romaine témoigne de l'existence et de la reconnaissance d'un espace discursif public livré au jeu des critiques, des assauts et des charges (Dupont, Valette-Cagnac, 2004). Foyer de l'éloquence, cet espace dessine également les contours d'une politique du franc-parler, avec en son cœur le geste de celui qui prend la parole en son nom propre. Michel Foucault a montré l'importance de la notion de parrêsia (de deux mots grecs, pan « tout » et rhema « ce qui est dit ») : d'abord, dans le cadre des vertus et des techniques que l'on doit rencontrer chez celui qui dirige la conscience des autres et les aide à constituer leur rapport à soi (Foucault, 2001); ensuite, dans le champ politique, où le concept désigne une certaine manière de dire la vérité, une manière qui ne porte pas sur la structure interne du discours, ni sur ses finalités visées, mais qui est à rechercher du côté de celui qui parle, et plus précisément du risque que le dire vrai ouvre pour le locuteur lui -même. « Il y a parrêsia lorsque le dire vrai se dit dans des conditions telles que le fait de dire la vérité, et le fait de l'avoir dite va ou peut ou doit entraîner des conséquences coûteuses pour ceux qui ont dit la vérité. » (Foucault, 2008, p. 46) En effet, dans la Grèce de Démosthène et des Philippiques, le parrèsiaste est celui qui donne son opinion, signant en quelque sorte lui -même la vérité qu'il énonce, mais cette vérité qu'il marque comme étant son opinion doit en plus affronter le risque de blesser l'autre, de l'irriter. L'espace public discursif dont nous recherchons ici la généalogie est donc un espace de risque. La parole de vérité ouvre un danger et celui qui parle le fait en connaissant l'existence du péril. La vitupération se ressource ainsi au cœur d'une dramaturgie du défi et de la liberté. Il y a parrêsia lorsqu'il y a liberté dans l'énonciation de la vérité, liberté de l'acte par lequel le sujet dit la vérité, et liberté aussi de pacte par lequel le sujet qui parle se lie à l'énoncé et à l'énonciation de la vérité. Et dans cette mesure -là, au cœur de la parrêsia, on ne trouve pas le statut institutionnel du sujet, on y trouve son courage. (Foucault, 2008, p. 63) Michel Foucault parlera même d'une sorte de contrat entre celui qui prend le risque de dire toute la vérité et celui qui accepte de recevoir comme vraie la vérité blessante qu'il entend (Foucault, 2009). On peut formuler l'hypothèse selon laquelle la parrêsia constitue la matrice originelle des différentes expériences du dire vrai en politique, le creuset où se forgent les multiples expressions du « courage de la vérité », où se noue enfin la longue chaine des diverses figures de la critique publique qui ont toutes en commun de s'obliger à la vérité et de s'obliger par la vérité. Il était donc une fois une exigence de dire vrai, une prise de parole courageuse de vérité apparue chez les Grecs et qui connaitra au fil des configurations historiques de nombreux réinvestissements. On notera que la parrêsia ne se pense jamais comme un droit fondamental du citoyen, ni même comme une compétence technique à inclure dans l'art de gouverner des dirigeants. En revanche, elle semble s'enraciner dans l'expérience d'une tension agonistique qui voit l'orateur engager dans les affaires de la cité sa parole libre au nom d'une vérité irréductible. C'est parce que le parrèsiaste prend l'allure d'un homme qui se dresse en face d'un tyran et lui dit la vérité, qu'il inaugure, de façon paradigmatique, la longue histoire de ceux qui un jour ont incarné ou prétendu incarner le scandale du « tout dire ». Michel Foucault, dans ses deux derniers cours au Collège de France, avait commencé à dessiner quelques figures historiques de cette subversion qui consiste non seulement à tout dire mais aussi à démasquer le non-dit et à passer outre la difficulté de dire : l'ascète chrétien, le révolutionnaire militant, l'artiste maudit. Il voyait en eux les fils héritiers des Cyniques qui avaient réussi à faire de leur forme de vie le lieu d'émergence même de la vérité. La vie d'artiste, celle du révolutionnaire ou du moine ont en commun de reposer sur deux principes : l'art, l'idéologie ou la foi sont, tout d'abord, capables de donner à l'existence une forme en rupture avec toute autre, une expérience ontologique de la limite comme l'ont éprouvée le nihiliste, le maudit ou le franciscain; et ensuite, l'idée selon laquelle la pratique de l'art, de l'idéologie ou de la foi constitue une expérience de mise à nu de soi, de retour à l'authentique, comme si la vérité témoignait à travers la vie même de ces acteurs. Bien entendu, la liste des descendants du parrèsiaste n'est pas close, et nous souhaitons l'entrouvrir à la grande famille des vitupérateurs. À tous ceux qui ont pris la parole, par le verbe ou l'écriture, et ont un jour clamé publiquement leur indignation en dénonçant, ici, le despote déguisé en monarque, là, le prince corrompu, ailleurs, la trahison des élites. À tous ceux qui, libellistes, satiristes, caricaturistes, libertins, pamphlétaires et autres polémistes, ont, au fil des siècles, rejoué la scène primitive de la parrhésie, en indexant parfois leur vie au pouvoir revendiqué de tout dire. Prenons deux exemples. Soit, tout d'abord, les mazarinades, c'est-à-dire cet ensemble hétéroclite de textes, chansons, récits, placards, publiés lors des temps troublés de la Fronde, et qui témoignent paradoxalement, par leur écriture libérée et débridée, des impasses de la pensée critique face à l'absence d'alternative politique. La tonitruance du verbe fonctionne alors bien souvent comme un trompe-l'œil, comme l'aveu d'un échec à pouvoir faire changer les choses. Cette littérature, dont les auteurs recherchaient le plus souvent l'anonymat pour se protéger des risques de châtiment, est destinée à circuler et donc à dessiner les contours d'un espace public où les opinions s'affrontent au gré des évènements. Les mazarinades sont profondément périssables, éphémères, portées par les rumeurs et les faits divers, mais ce corpus, qui se prête si peu aux études sérielles, riche d'insultes et d'imprécations, met en scène, comme l'a très bien démontré Christian Jouhaud, une sorte de radicalisme de l'impuissance et de l'ostentation (Jouhaud, 1985). Le dire vrai s'épuise dans un excès de virulence et se met au service de la tactique. Le « courage de la vérité » est certes ici totalement happé par la dynamique des coups qu'il convient de porter à l'adversaire, mais il inaugure un vaste et double mouvement de politisation de la littérature et de littérarisation du politique, qui permettra, au 18 e siècle, à la littérature de devenir à la fois un refuge critique et un tribunal moral (Koselleck, 1979; Jouhaud, 2000), et à l'écrivain d'entamer dans l'ombre contraignante des Académies sa progressive montée en singularité. Les auteurs de ces textes, empêtrés dans leurs ruses discursives et leurs jeux de la faux-semblance, n'ont pas l'allure flamboyante des héros de la vérité, et pourtant ils l'incarnent, à leur manière et dans le cadre sociohistorique complexe de structures d'opportunité réduites. Ils blâment Mazarin, vitupèrent contre sa clique, prennent des risques au nom d'un dire vrai réduit à l'horizon de leur faction. Ils sont les figures appauvries d'une parrêsia, certes abâtardie, mais qui fonctionne néanmoins comme un référentiel lointain prêt à alimenter de nouveaux avatars. Soit, ensuite, Donatien-Alphonse-François de Sade qui, à l'ombre des Bastilles, aura le temps de méditer sur ce qu'il en coute non seulement d'outrager la loi, mais aussi de s'entêter dans l'irrédemption (Ost, 2005, p. 10). Au cœur du dispositif sadien, il y a « une écriture sans merci » dont l'entière logique consiste à tout dire et notamment là où se construisent les frontières sociales de l'indicible et de l'innommable. Le tout dire de Sade est le paroxysme d'une violence d'autant plus forte qu'elle est simple. Une parole sans équivoque, sans métaphore, privée de toute arrière-pensée et qui n'épargne rien. La subversion conduit Sade à rechercher la vérité là où elle se tait, à l'écrire avec outrance quand elle préfère se cacher, à la trouver dans la nature plutôt que dans la loi : « Le motif qui m'engage à me livrer au mal est né chez moi de la profonde étude que j'ai faite de la nature. Plus j'ai cherché à surprendre ses secrets, plus je l'ai vue uniquement occupée de nuire aux hommes. » (La Nouvelle Justine) Le dire vrai chez Sade est tout entier porté par un idéal de révélation et sa vitupération trouve dans le blasphème la seule catégorie à ses yeux acceptable de véridiction. La parole transgressive dévoile la vérité et c'est par la profanation langagière que le libertin accède à l'immoralité institutrice. Sade ne cesse de corrompre l'autorité de la loi en la poussant aux limites de ses contradictions : « J'ose assurer, en un mot, que l'inceste devrait être la loi de tout gouvernement dont la fraternité fait la base. » (Français, encore un effort si vous voulez être républicains) La Révolution ne va décidément pas jusqu'au bout de ses idéaux ! Sade entend donc faire éclater une vérité en se lançant à l'assaut des lois sociales dont il entend dénoncer les crimes, les mensonges et les impostures, faire éclater la vérité jusqu' à l'emmurement de sa vie. Ne souscrit-il pas lui aussi au pacte originel de la parrhésie ? Tel un filigrane, l'esprit de la parrêsia semble donc parcourir les siècles. Chaque époque construit son dire-vrai, son scandale de la vérité et ses témoins indignés. Chaque époque possède ses vitupérateurs, son répertoire du blâme et ses irrépressibles besoins de tout dire. Bien entendu, au regard du modèle originel de la Grèce antique, les héritages apparaitront parfois bien altérés, dégradés, les héritiers donneront l'impression souvent désagréable de jouer « petits bras » et d'investir des vérités à leur mesure, médiocres. L'essentiel ne réside cependant pas, selon nous, dans la comparaison avec un quelconque prototype. L'intérêt de construire une généalogie de la parrhésie consiste à faire apparaitre une structure élémentaire des sociétés politiques : la présence d'un lieu critique d'où émerge une collection de figures historiques de la vitupération. Le pamphlétaire en est une, tout aussi passagère que les autres, mais également tout aussi exemplaire. L'hypothèse de l'actuelle disparition des pamphlets politiques se fonde en partie sur la référence à un âge d'or. La vitupération pamphlétaire aurait ainsi connu en France ses riches heures entre 1850 et 1940, un siècle au cours duquel la littérature de type agonique se développa, enrichissant le discours social d'une parole polémique et violente, assurant la gloire de quelques bretteurs avides de scandales à dénoncer, consacrant enfin le règne d'un champ de la critique à la croisée des mondes journalistique, politique et littéraire. Revenir sur le pamphlet, c'est non seulement comprendre de quoi nous sommes aujourd'hui privés, mais c'est aussi prendre conscience des mutations profondes qui ont remodelé le paysage de la vitupération. Nous appellerons « opération pamphlétaire » une activité à la fois discursive, sociale et politique qui ne se réduit pas à l'énonciation d'un texte a fortiori fugace et bien souvent anecdotique, mais qui entend au contraire restituer les dynamiques internes et les enjeux d'un « monde » du pamphlet que nous structurons ici autour de trois principaux éléments. L'opération pamphlétaire se caractérise, tout d'abord, par un travail d'écriture. Parole aisément reconnaissable dont Marc Angenot a très bien analysé les invariants lexicaux et les trucs rhétoriques (Angenot, 2005) mais dont il exagère quelque peu l'originalité. Il nous semble en effet que tant les lexiques que les effets de la parole pamphlétaire ressortissent à une famille vitupérative beaucoup plus ancienne, aux origines composites. Si l'on a rapproché l'écriture des pamphlets antisémites de l'entre-deux guerres d'une matrice (contre-)révolutionnaire illustrée notamment par les libelles de Marat, Hébert et du Père Duchesne (Roussin, 2005), il conviendrait également de souligner les emprunts de la rhétorique de l'invective aux techniques de la prédication misant sur les effets les plus pathétiques, ainsi qu'aux langages mondains de la critique développés dans certains segments sociaux aristocratiques (Chartier, 2005). Un pamphlet, c'est peut-être ensuite et surtout un pamphlétaire. C'est-à-dire un personnage qui inscrit son être et son agir dans un « registre de la singularité », et qui revendique un ethos fait d'irréductibilité, d'héroïsme, de solitude et d'indignation. Il est le réfractaire qui défie les autorités et dont le franc-parler fait trembler les puissants. En ce sens, le pamphlétaire épouse le processus plus général de singularisation qui voit au 19 e siècle l'éthique artistique mobiliser le régime vocationnel, miser sur la croyance en sa propre élection pour conforter son idéal d'autonomie. Une anthropologie de l'admiration permettrait probablement de comprendre la manière dont s'est constituée à l'époque la gloire, puis l'oubli du pamphlétaire (Heinich, 1991). Cette posture qui consiste à juxtaposer l'ego et l'universel, sans aucune médiation, sans jamais parler au nom d'une quelconque collectivité, cette façon de sermonner au nom d'une morale venue du for intérieur, ne fait-elle pas du pamphlétaire une « paraphrase », pour parler comme Clifford Geertz, une figure sécularisée de la prédication et du prophète wébérien ? En ce sens, le pamphlétaire incarnerait celui qui peut, « à la différence du porte-parole institutionnel, représenter les autres sans mandat, qui tirerait argument de son indépendance, de sa solitude, de sa position hors la cité, pour réclamer d' être suivi et écouté » (Boltanski, 1985, p. 31). Le projet pamphlétaire ne saurait enfin se confondre avec l' Œuvre du Grand Homme, sauf à faire abstraction de l'ensemble des conditions et déterminations qui rendent possible et pensable toute cette opération. Il existe au 19 e siècle une condition pamphlétaire, ce qui permet de ne plus considérer le pamphlet comme un acte isolé, mais inséré dans le réseau de ses interdépendances, dans les cadres pratiques de sa création. Ainsi définie, l'opération pamphlétaire montre une forme de vitupération profondément redevable d'un ordre politique, social et culturel marqué tout d'abord par l'affirmation des processus de démocratisation, de politisation et de nationalisation qui affectent la compétition politique (Joanna, 1999), également par les mutations touchant à la définition du rôle de l'écrivain comme subjectivité triomphante, par le développement enfin de la presse populaire, lui -même soumis à une forte circularité entre les formes littéraires et les formes journalistiques (Thérenty, 2007). La vitupération pamphlétaire se déploie donc dans un nouvel espace public du tout dire où le rôle de « conscience observante » singularise la parole politique, héroïse l'indignation et prophétise l'horizon national. Le pamphlétaire se transforme en chef d'orchestre d'un discours social et politique qui s'enivre de ses premières libertés. Il distribue les blâmes et fustige les mœurs politiques. Mais ses insolences le conduisent très souvent à se reposer sur des rituels de vitupération, à jouer l'acteur d'un théâtre politique bien huilé. On peut donc faire l'hypothèse d'une parrhésie tribunitienne qui, loin de déstabiliser les autorités, aurait plutôt eu pour effet de les conforter, en verbalisant de manière routinière les indignations, en les canalisant vers des dénonciations de plume, en permettant aux institutions judiciaires et politiques d'ajuster les frontières de l'acceptable et de l'interdit. On illustrera cette hypothèse en liant le pamphlet à l'histoire sociale de la colère. La forme pamphlétaire de la vitupération, ses succès et ses limites, peuvent en effet s'analyser à la lumière du projet de l'époque, consistant à construire l'affectivité révolutionnaire autour du sentiment de colère. Vers la colère doit confluer toute la misère des humiliés – c'est ainsi que le militantisme du 19 e siècle entendait inscrire son action. Comme l'a très bien montré Peter Sloterdijk, parce que la société souffre avant tout d'un manque impardonnable de colère manifeste contre sa propre situation, développer une culture de l'indignation en encourageant méthodiquement la colère devient la principale mission psychopolitique de l'époque qui commence au cours de la Révolution française. (Sloterdijk, 2007, p. 164) Une grande partie des pratiques militantes devient impensable sans la mobilisation d'une rhétorique thymotique (thymos prend ici le sens d' « élément ardent de l' âme » ouvrant le terme à toutes les variations autour de la « bile noire », de la colère, du courage et de la gloire). La colère exprime le sentiment du siècle, elle envahit progressivement l'ensemble du discours social et les entrepreneurs de colère se dressent en figures rassembleuses autour de projets où la violence, la guerre civile, la révolution s'énoncent comme autant de réponses aux justes colères du peuple. L'imaginaire littéraire mais également les sciences sociales naissantes (notamment l'anthropologie criminelle) construisent leurs préjugés et leurs représentations du peuple autour du spectre d'une foule furieuse, ivre et dangereuse, dont les terribles colères deviendront les sources de récits hallucinants (Barrows, 1990). Taine, Zola, Sighele et Le Bon communient tous autour du même fantasme : la dangerosité des foules. « Et c'était sous l'air glacial, une furie de visages, des yeux luisants, des bouches ouvertes, tout un rut de peuple… » (Germinal). La colère alimente les angoisses bourgeoises, elle définit aussi la geste gréviste, transformant « l'échappée belle des usines » en de formidables rêves d'incendies et de Grand Soir. Les masses ouvrières se socialisent et se conscientisent comme classe au travers de ce pathos colérique. Au tournant du 19 e siècle, la colère participe enfin du grand récit socialiste où se diffusent les topoi de la vengeance, de l'amertume et du soulèvement salutaire. La colère est saine car la cause est juste (Angenot, 1997). La colère revêt donc une forme doxique et semble ponctuer l'ensemble des discours politiques et sociaux d'une époque où la neutralisation des violences physiques et verbales par la morale démocratique n'est pas encore achevée. C'est à cette culture thymotique qu'il convient de rapporter la vitupération pamphlétaire. C'est en effet bien souvent au nom d'une colère qu'il veut rendre publique que le pamphlétaire prend la plume, c'est elle également qui justifie et excuse les outrances verbales de l'assaut et de l'insulte (Bouchet, 2005; Chauvaud, 2008; Deleplace, 2009). L'irrigation du champ social et politique par la colère correspond probablement à une étape du processus de démocratisation, caractérisée par la faible institutionnalisation des organes de médiation. La posture colérique concentre sur elle un potentiel revendicatif au moment où les entreprises de représentation font encore défaut. Lorsque celles -ci se développeront, le statut de la colère changera. Peter Sloterdijk montre en effet comment les partis politiques et les syndicats ouvriers vont progressivement se transformer en « banques » nationales de la colère, la collectant et la travaillant afin de la soumettre aux impératifs nouveaux de l'idéologie. La colère des défavorisés fera ainsi l'objet d'un processus d'administration et de rationalisation. Ces organisations donnent à la liaison entre les avoirs en colère et l'exigence de dignité une forme pragmatique, médiale et politique. La base de leur commerce est la promesse faite à leurs clients de déverser un profit thymotique sous forme d'une hausse du respect de soi et d'une capacité élargie à faire face à l'avenir s'ils renoncent au défoulement instantané de leur colère. (Sloterdijk, 2007, p. 199) On peut donc faire l'hypothèse que ce déplacement de la colère, et surtout son entrée dans le répertoire discursif et programmatique des partis politiques, entrainent une certaine civilisation des mœurs militantes. Le tout faire, mais aussi le tout dire feront progressivement l'objet de critiques. Le droit et la morale vont circonscrire les expressions hier encore légitimes de la colère. Le pamphlet n'est-il pas dès lors victime de ce processus d'euphémisation qui fait de la colère l'indice archaïque d'une culture populaire prédémocratique ? Désormais, la colère va se trouver piégée par des dispositifs d'invocation parfaitement ritualisés (la fameuse « colère des travailleurs ») mais aussi de plus en démonétisés. Certes, de grandes relances colériques auront lieu entre les deux guerres de la part notamment du Parti communiste (la grève de Douarnenez, les mobilisations contre le fascisme), et les pamphlets se mettront à proliférer à l'extrême droite pour ce que l'on peut considérer comme leur chant du cygne. Mais la haine s'est alors déjà depuis longtemps substituée à la colère. En renouant ainsi les liens entre l'histoire sociale de la colère et la production pamphlétaire, nous avons essayé de rappeler que l'expérience de la vitupération s'inscrivait dans une tradition de « courage de la vérité » dont l'expression s'accompagne d'un risque pour l'énonciateur. L'indignation solitaire du parrèsiaste se convertit, avec le phénomène de démocratisation politique, en un sentiment de colère à faire partager. Le pamphlétaire est l'une des dernières figures de la révolte individuelle en un siècle qui inaugurera la massification des affects. La vérité commence à sortir du nombre. La question semble entendue, le pamphlet serait mort. Le genre aurait disparu, les grandes figures de la plume acerbe auraient aujourd'hui rendu l' âme. On peut certes encore discuter de la date de décès ou du nom du dernier « véritable » pamphlétaire (Jean-Edern Hallier ? Oriana Fallaci ? Éric Zémour ?), mais le constat est partout identique : il n'existerait plus aujourd'hui une production littéraire susceptible de prolonger le genre pamphlet. N'allons pas trop vite. D'une part, le pamphlet ne saurait-il pas déborder le champ littéraire ? D'autre part, en faisant du pamphlet une formule sociohistorique particulière de la critique vitupérative, ne pourrait-on pas envisager l'hypothèse d'une recomposition de l'espace public de la vitupération ? Où et comment aujourd'hui s'exprime le pouvoir de tout dire ? Le dire vrai a -t-il trouvé ses nouveaux héros ? Assisterions -nous à un nouvel âge de la parrhésie, tenant compte aussi bien des révolutions technologiques dans le monde des médias, des bouleversements qui affectent l'individu hypermoderne que des nouvelles modalités de concevoir le lien démocratique ? Bref, le pamphlet, loin de s' être éteint, pourrait continuer sous des formes nouvelles, en des lieux inédits, à souffler les braises de la parole incendiaire. Ce nouvel espace agonique semble se caractériser par un processus de « démocratisation » du pouvoir de blâmer. L'activité vitupérative, si longtemps portée par la figure du parrèsiaste et ses nombreux avatars historiques dont le pamphlétaire serait le dernier en date, connait actuellement dans les régimes démocratiques une reconfiguration profonde qui touche non seulement les qualités du locuteur, mais aussi les propriétés mêmes de la critique et probablement le sens accordé au dire-vrai. Depuis plusieurs années, il est fait état d'une crise de la démocratie représentative. De nombreux symptômes viennent illustrer cette thèse : abstention structurelle forte, érosion des militantismes partisans et syndicaux, défiance à l'encontre des autorités sociales et politiques traditionnelles, montée des radicalités, etc. Les observateurs constatent également un renouvellement des formes de participation politique et d'engagement, des demandes en faveur d'une plus grande transparence des décisions publiques. Le citoyen entend désormais se montrer plus vigilant, en complétant son rôle d'électeur par un ensemble de pratiques de surveillance, d'empêchement et de correction (Rosanvallon, 2006). Les conséquences de ces mutations ont été longuement analysées tant au niveau de l'art de gouverner que des redéfinitions de la citoyenneté démocratique. Mais peu d'études ont prolongé l'enquête, en s'interrogeant sur ce qui avait changé concernant l'espace public de la critique. Deux éléments peuvent être versés au dossier. Tout d'abord, l'espace de la vitupération ne se réduit plus aujourd'hui à la presse, au livre et aux différents tréteaux du discours oral. La nouvelle géographie du blâme se situe désormais sur la toile, dans le foisonnement des blogs, des chats et des forums. Protégée par l'anonymat des pseudos, une parole décomplexée s'affranchit de certaines des contraintes de la discursivité classique (orthographe, style, argumentation) pour inaugurer, semble -t-il, un mode contemporain de la critique. L'outil Internet offre en effet de nouvelles opportunités pour publiciser la vitupération, la faire circuler, telle une nouvelle monnaie d'échange. L'interactivité des sites accroit l'impression de dialogue et surtout favorise une logique de surenchère, une montée en invective. La nouvelle topographie de la vitupération combine donc la totale dissimulation de l'énonciateur et l'extrême publicité de l'énoncé, redessinant ainsi les contours d'un pouvoir de tout dire dont la seule responsabilité réside désormais dans les limites imposées par le modérateur. Dès lors, la notion de risque, si consubstantielle à la notion de parrêsia, disparait, ou se reporte juridiquement sur l'opérateur du site. Ce déplacement de la scène vitupérative modifie donc l'essence même du pouvoir de tout dire. Ce dernier demeure plus que jamais recherché par les acteurs médiatiques, mais il est désassorti de toute prise de risque. A contrario, on peut se demander si de nouvelles formes de militantisme et de construction de la critique, pour l'heure encore minoritaires et qui requièrent l'anonymat, l'invisibilité, et surtout la double démythification du héros militant et de la parole publique, ne renouent pas d'une certaine manière avec l'expérience de la parrhésie, en jouant à la fois la prise de risque et la parole franche (sur le modèle de L'insurrection qui vient). Un second élément doit être pris en considération dans la réévaluation actuelle de l'espace agonique : la consécration de l'individu ordinaire dont le témoignage aujourd'hui valorisé par les médias, les professionnels de la politique, mais aussi les sociologues, devient une vérité en soi, censée justement tout dire, en court-circuitant l'analyse et la démonstration. Un nouvel impératif de réaction traverse désormais l'économie des discours sociaux. Les journaux d'information radiophoniques, les articles de journaux mis en ligne font tous un appel à « réagir » à l'actualité, à l'article, c'est-à-dire à ne pas commenter, mais à formuler une réponse courte, fondée sur le ressenti, l'affectivité primaire, ouverte au jeu de mots, à l'insulte, à l'amalgame. Des auditeurs ou internautes, que l'idéal médiatique de la convivialité réduit à des prénoms et des tutoiements, deviennent les nouvelles figures de la critique vitupérative dans ces arènes « mosaïques » (François, Neveu, 1999). Le jeu du témoignage réactif exige des énoncés pathétiques, violents et sans nuance. Tout dire sur tout, sans préjuger de sa compétence à dire, telle pourrait être l'espace d'une nouvelle opinion publique, plus authentique car d'origine plus ordinaire. On disait hier populaire. La vitupération serait donc démocratisée au sens où l'énonciation de la critique semble désormais ne requérir ni figure héroïque, ni prise de risque. Le blâme public serait devenu, grâce aux nouveaux outils de communication, l'expression d'une citoyenneté directe et réactive. Le pouvoir de tout dire serait aujourd'hui délogé des porte-parole pour se voir réapproprié par les gens ordinaires. La parole vitupérative, comme syndrome de l'immédiateté, ne supporterait plus aucune représentation, aucune autre incarnation que celle de la figure du citoyen banal et inquisiteur. Tel est aujourd'hui le récit enchanté tenu par certains médias et sociologues naïfs qui imaginent que l'homme sans titre accéderait désormais aisément à l'espace de la parole publique. Le nouvel âge de la vitupération, ainsi remodelé par les mutations du champ médiatique et des règles du jeu démocratique, doit également tenir compte d'un autre facteur, autrement plus problématique, que l'on pourrait appeler le statut actuel de la vérité. Souvenons -nous en effet que c'est au nom d'une vérité, souvent incandescente, que se réalisait le contrat de la parrêsia. La question n'étant pas bien entendu de chercher à objectiver cette vérité, mais de la considérer comme une sorte de voix intérieure et impérieuse qui conduit l'énonciateur à engager sa personne dans une logique du risque. L'individu hypermoderne, dont les sociologues ont montré les métamorphoses de l'identité contemporaine, vit dans des sociétés qui connaissent un brouillage des repères, une tendance à l'effacement des frontières entre intime, privé et public. Dans ces conditions générales de vulnérabilité accrue, l'une de ses principales caractéristiques consiste en un besoin inassouvi de reconnaissance, qui prendra différentes formes : renforcement des ancrages identitaires, revendication d'authenticité, droit à la différence (Le Bart, 2008). Ces demandes de singularité affectent l'opération même de véridiction. Elles accroissent les sentiments de suspicion à l'encontre des vérités présentées comme incontestables ou officielles, et conduisent à des expressions de plus en plus élaborées de relativisme et de mise en perspective des vérités. La vérité n'est plus portée par un Grand Récit militant, historique ou religieux, elle énonce un point de vue personnel et entre donc désormais dans le monde du discutable. Cela est certes aujourd'hui bien connu, mais ce qui nous intéresse ici concerne les effets de cette polyphonie des vérités sur l'expérience de la critique vitupérative. Ou pour le dire autrement, comment se forge l'opération du dire vrai dans un tel régime de véridiction ? Le marché des vérités ne risque-t‑il pas de diluer la performance critique de la parrhésie ? Le pamphlétaire de la seconde moitié du 19 e siècle évoluait dans un champ limité et sa parole singulière pouvait plus aisément faire entendre sa vérité. Position institutionnelle, efficacité rhétorique le rendaient audible, mieux, identifiable. « Ça c'est du Rochefort ! » disait-on alors. Il est désormais beaucoup plus difficile dans l'espace public de la critique de mobiliser un pouvoir de tout dire autour d'une vérité socialement considérée comme indiscutable. La tangibilité des valeurs diffuse une sorte de doute épistémologique sur ce genre de prétention. Les seules vérités susceptibles de recueillir des soutiens unanimes aujourd'hui renvoient à la manière dont nos sociétés construisent les frontières de leur espace moral et réinventent les figures de l'intolérable : l'enfant maltraité, la victime, etc. (Fassin et Bourdelais, 2005). En dehors de ce périmètre de la sacralité, la prise de parole au nom d'une vérité, la sienne, celle de son groupe de référence, est à la fois de plus en plus accessible aux individus et de moins en moins susceptible de se voir accréditer une légitimité plus élargie. Le pamphlet hier défendait une vérité objective à la fois sociale et morale; aujourd'hui, le nouvel espace de la vitupération délivre une vérité subjective, une sorte de voix intérieure irrépressible qui démonétise la notion même de vérité. La vitupération se diffracte en micro-réactions acrimonieuses, en actes de vandalisme verbal, où le tout dire sur tout ressemble davantage à une invitation à ne rien faire. Comme si la liberté de ton inhibait tout pouvoir d'agir. Nous sommes parti d'un modèle matriciel d'énonciation de la critique. Expression première, mais profondément inscrite dans la configuration sociohistorique qui la vit naitre, la parrêsia fonctionne comme la mémoire d'un genre vitupératif en constante recomposition. Il n'y a en effet pas d'essence de la parole qui blâme et qui dénonce, mais une généalogie de modalités capables à la fois de partager des mêmes airs de famille et de s'inscrire dans des processus de mutation. Le pamphlet est donc l'une de ces expressions historiques et localisées. Nous avons surtout essayé de montrer comment aujourd'hui l'esprit d ' agôn peut à la fois participer des « arts de la résistance » à la domination (Scott, 1990), et d'une relative démocratisation du débat public où celui qui prétend désormais pouvoir tout dire, revendique en réalité qu'aucune parole n'a de valeur, et que l'interdit relève de son seul jugement (Descombes, 1977). L'émergence contemporaine du « vitupérateur sans qualité » accrédite donc l'idée d'un nouvel impératif critique et plaintif comme expression de démocratie directe. Elle fait peut-être partie de ces différentes expériences actuelles de réappropriation par les citoyens de la démocratie, au sein desquelles figurent des espaces critiques alternatifs dotés d'une parole plus politisée donc plus risquée, mais il nous semble qu'elle ne répond pour l'instant qu'imparfaitement au souci éthique du dire-vrai que portait la parrêsia des anciens Grecs .
Cet article s'efforce de présenter une généalogie du pamphlet en l'inscrivant dans une filiation à la fois philosophique et discursive de la prise de parole risquée. En sollicitant plus particulièrement la notion de parrêsia travaillée par Michel Foucault, on peut analyser le pamphlet comme l'avatar historique, et quelque peu dévoyé, d'un exercice de franc-parler porté par une figure solitaire et missionnaire. Dès lors, la question se pose des évolutions du genre pamphlétaire au prisme des mutations sociologiques des sociétés démocratiques contemporaines.
linguistique_11-0368540_tei_466.xml
termith-576-linguistique
Comment présenter Luis J. Prieto à son avantage ? Déclarerais -je qu'il a été, avec Roland Barthes, un pionnier de la sémiologie ? Dès 1964, paraissaient ses Principes de noölogie, exposé aussi succinct qu'ambitieux d'une sémantique formelle. En 1966, deux ans après les « Éléments de sémiologie » de Barthes, Prieto publia Messages et signaux, ouvrage d'introduction générale à la sémiologie. Il fut également chargé de rédiger l'article « La sémiologie » pour le volume Le Langage dans l'Encyclopédie de La Pléiade (paru en 1968). Nommé professeur de linguistique générale à Genève, il devenait en quelque sorte l'exécuteur testamentaire de Saussure, appelé à réaliser la sémiologie que ce dernier avait tant méditée. Et sans doute, par ses ouvrages, Prieto réalisa -t-il une partie considérable de ce projet. Pourtant, dans l'histoire de la discipline, comme dans l'histoire générale des sciences humaines, son nom est rarement cité. Rappellerais -je alors qu'il a été, avec Greimas, l'un des théoriciens les plus puissants de la sémiotique ? Pertinence et pratique. Essai de sémiologie (1975) est le maître-ouvrage de Prieto. Compact, l'ouvrage poursuit la réflexion des concepts issus de la linguistique structurale dans la double direction de leur extension à d'autres objets et d'une interrogation de type philosophique. Il y est question de la langue et des signes, mais également des sciences humaines et de l'idéologie. Autant que par l'ampleur de vues, l'ouvrage en impose par la maîtrise de son argumentation théorique. Et le style est d'une parfaite clarté. Néanmoins, là encore, au contraire de la théorie greimassienne, il faut convenir que la théorie sémiotique présentée dans Pertinence et pratique n'a guère fait école. Si Luis J. Prieto fut tout cela — un des premiers sémioticiens et un grand théoricien —, il demeure dans nos mémoires tel un outsider magnifique. Combien de fois n'ai -je entendu cette phrase assassine, qui a l'air d'admettre par principe ce qu'elle dénie par le fait : — Prieto ? Ah oui, mais plus personne ne le lit. Je voudrais tenter pour cet oubli un début d'explication. Il me paraît que Prieto, par bien des côtés, n'est pas tant le contemporain de Greimas que celui de Hjelmslev. Et son œuvre relève des signes avant-coureurs de la sémiotique plutôt que de ses débuts effectifs. Le terme de sémiologie auquel est attachée cette œuvre en est un symptôme : Prieto faisait encore de la sémiologie quand la sémiotique avait entrepris de se constituer en tant que discipline. Herman Parret, dans Language and Discourse, a bien décrit la singularité de cette position : l'héritage théorique de Saussure doit être partagé entre Hjelmslev et Prieto, et fonde par là même une opposition qui, bien qu'elle dénote un certain anachronisme, se justifie sur le plan des considérations théoriques (cf. Parret 1970). Car c'est bien de Hjelmslev que Prieto s'est fait, avec le plus de constance, le contradicteur. Du reste, Prieto partage avec le maître de Copenhague un même langage : un style « abstrait » et classique, un vocabulaire technique pris dans une syntaxe non formalisée, un intertexte de références qui comprend l' œuvre de Saussure, les travaux de phonologie structurale et les projets du logicisme. En revanche, comme ceux de Hjelmslev, les textes de Prieto sont à peu près dénués d'érudition philosophique explicite. Et ils font peu allusion aux travaux d'autres sémioticiens. Plus globalement, ce qui apparaît ici est un certain rapport entre la linguistique et la sémiotique, qui rend peut-être compte également de l'ambivalence de la sémiotique / sémiologie. Prieto est de ceux -là, ayant traversé un océan, pour qui il n'y a qu'une rive — la linguistique — devant le large — la sémiologie. De fait, Prieto a toujours fait ses réflexions sémiologiques depuis la linguistique, en particulier depuis la phonologie structurale; c'est là que trouvent leur origine la plupart de ses exemples et de ses concepts théoriques. Et en son temps il a pris parti, résolument, pour une théorie linguistique particulière, celle défendue par André Martinet. Son œuvre parcourt ainsi une double trajectoire : de la linguistique à la sémiologie; de la sémiologie à la linguistique. À l'aller : la linguistique fournit une batterie de concepts et de conceptions que le sémiologue tire vers le général : généralisation des concepts et généralisation de leurs applications. La linguistique prend alors le rôle de science-pilote parmi les sciences sémiologiques à venir, c'est-à-dire parmi les sémiologies des systèmes particuliers que sont, par exemple, la musique, le cinéma, l'architecture, le récit. Au retour : cette généralité cherche à fournir à la linguistique une assise théorique d'un type différent de celle que les linguistes peuvent élaborer. Et en ce sens, il est vrai, les travaux sémiologiques de Prieto se montrent fidèles au projet saussurien. La sémiologie accomplit d'abord un programme d'applications particulières mais, ce faisant, elle assure aussi à la linguistique un statut épistémologique qui, sans elle, lui ferait défaut. Reste à déterminer quelle est la réflexion théorique offerte par la sémiologie de Prieto. Il est communément admis que les vues de Prieto consacre dans le milieu intellectuel français l'opposition entre Prague et Copenhague. Le point de vue adopté est en effet explicitement un point de vue « substantialiste » (1975 : 88). Mais les guillemets qui entourent le qualificatif montrent qu'il ne va peut-être pas de soi. Les questions que je voudrais poser à l'endroit de l' œuvre de Prieto sont dès lors les suivantes : Que peut apporter la réflexion sémiologique à la linguistique ? Qu'est -ce qui différencie celle -ci des propositions théoriques internes à la discipline linguistique ? Comment, à quel niveau et par quels moyens, se règle un différend dans ce type de réflexion ? Enfin, de tout cela, quel enseignement les sémioticiens contemporains peuvent-ils espérer ? Pour donner quelque substance à ces questions, il faut entrer dans les textes. Et pour ne pas avoir à répéter la monumentale analyse de Parret déjà citée, je propose d'examiner ici un des derniers articles de Prieto, consacré au problème de la syntaxe. Intitulé « Caractéristique et dimension. Essai de définition de la syntaxe », cet essai n'a pas encore fait, à ma connaissance, l'objet d'une discussion. Marie-ClaudeCapt-Artaud affirme toutefois qu'il représente « l'aboutissement de l'effort mené par les Saussuriens pour définir les traits pertinents » (1994 : 10). C'est là, comme on va le voir, un avis que je suis loin de partager. Je compte montrer que la théorie de Prieto, toute brillante qu'elle soit, manifeste au contraire une sorte de capitulation, par rapport aux préceptes épistémologiques de Saussure, devant la toute puissance de la théorie chomskyenne et de l'épistémologie logicienne à laquelle celle -ci est asservie. Néanmoins, je prie le lecteur de ne pas perdre de vue que, menant ici une critique de la sémiologie selon Prieto, mon objectif est de faire ressortir les différents aspects argumentatifs qui dans cette pensée sont destinés à la linguistique. La théorie sémiologique de Prieto part d'une définition de l ' objet en tant qu ' unité. En tant qu'unité, un objet est pourvu d'une caractéristique, grâce à laquelle il diffère d'autres objets sur la base d'une dimension. La dimension, que Prieto appelle également élément contrastif, est « un point de vue duquel on considère l'objet auquel on reconnaît la caractéristique en question » (1988 : 30). Par exemple, l'objet /porte/ a une caractéristique d'avoir « 2,8 mètres de hauteur » : la « hauteur » constitue la dimension sur laquelle se caractérise l'objet, en s'opposant aux autres objets par le fait d'avoir une hauteur particulière, « 2,8 mètres ». Prieto appelle cette partie distinctive de la caractéristique l ' élément oppositionnel. Apprécions les prémisses épistémologiques d'une telle définition. D'abord, elle relève pleinement d'une épistémologie, et non d'une ontologie, puisque la description de la caractéristique constitue exclusivement la description de l'objet, et qu'il s'agit par conséquent d'un objet-pour la connaissance, dont on ne présuppose que l'appréhension phénoménologique. Ensuite, elle pose directement la question de l ' unité de l'objet : est un l'objet qui est connu comme constant dans sa différence vis-à-vis des autres objets. Encore appelle -t-elle une définition des possibilités de la connaissance, sans quoi le risque d'hypostase à un monde pré-donné resterait trop menaçant. Cette définition est celle de l ' univers du discours : […] seules apparaissent à un sujet comme constituant des objets les portions de la réalité qu'il reconnaît comme faisant partie d'un univers du discours. Une portion de la réalité étant donnée, qui apparaît à un sujet comme constituant un objet, les autres objets dont le premier diffère ou non sont les autres portions de la réalité que le sujet reconnaît comme faisant partie du même univers du discours, grâce à quoi elles lui apparaissent comme constituant elles aussi des objets (1988 : 26-27). Dans cette définition, on le voit, rien n'induit la nécessité d'une connaissance qui soit homogène. Pas davantage, l'univers du discours n'est-il préexistant ou sa connaissance préalable à la connaissance des objets qu'il constitue. Au contraire, la possibilité y est laissée bien grande pour un savoir pluriel et dynamique, évitant autant que nécessaire une naturalisation chosiste des objets, quels qu'ils soient. Les caractéristiques sont donc tout à la fois intrinsèques à cet objet et inconsistantes. Bien qu'il s'agisse là d'une définition de l'objet en général, Prieto vise aussitôt un objet particulier : le son langagier. Ainsi, le son [e ], en français, sera constitué de deux caractéristiques — la position antérieure de la langue et la position non arrondie des lèvres — de façon à ce qu'il se distingue de [ε] et de [o ]. En revanche, en italien, comme [ε] et [e] ne sont pas des objets, la position antérieure de la langue et la position non arrondie des lèvres ne constituent pas deux caractéristiques mais une seule, permettant de distinguer [e] de [o ]. Cette procédure d'analyse linguistique est très semblable à l'analyse promue par les phonologues pragois. L'univers de discours y joue le rôle de système, les objets étant définis par des caractéristiques de la même façon que les phonèmes le sont par des traits pertinents. L'inconsistance de l'objet ne l'empêche pas, dans un second temps, de prendre une identité. Pour Prieto, l'identité d'un objet est liée à une intentionnalité empirique : elle est constituée par la caractéristique de l'objet que le sujet considère comme pertinente. Et, fait-il remarquer, c'est « la dimension elle -même qui est pertinente pour le sujet logiquement avant que ne le soient des caractéristiques comportant cette dimension comme élément contrastif » (1988 : 35). Ainsi, l'identité d'un objet est-elle arrêtée par un état de pertinence qui le présentifie à l'égard d'un sujet en fonction prioritairement du point de vue contrastif, lequel est lui -même identifié. La caractéristique « 2,8 mètres de hauteur » n'est pertinente que pour autant que d'autres portes soient déterminées par le même élément contrastif que constitue la « hauteur ». Sans doute la « hauteur » n'est-elle pas une caractéristique « en soi » de la porte; il a fallu néanmoins l'identifier afin que, dans un temps logiquement second, on puisse à partir d'elle comparer différentes portes et différentes hauteurs de portes. En ce sens, le point de vue peut se « détacher », tout au moins analytiquement, de l'objet qu'il constitue. On retrouve alors l'acception ordinaire d'une classe entendue comme « ensemble » rassemblant des objets communs. La classe ne trouve d'extériorité vis-à-vis de l'objet à la constitution duquel elle participe qu' à condition de cette intention de pertinence qui l'affuble d'une identité positive. Mais cette extériorité et cette identité sont secondaires par rapport à l'espèce d'intériorité différentielle ou non consistante dans laquelle sont d'abord constitués l'objet et sa caractéristique. Il existe toutefois d'après Prieto un type particulier de caractéristiques qui va permettre de spécifier l'objet linguistique parmi les objets en général. Dans ces caractéristiques « spéciales » « l'élément oppositionnel est constitué à son tour par un objet déterminé, c'est-à-dire un objet possédant une certaine identité et possédant donc à son tour certaines caractéristiques » (1988 : 38). Deux sortes d'objets sont déterminées par ce type particulier de caractéristiques. La première sorte est attendue : il s'agit des objets composés; la seconde, en revanche, nous interpelle : sont syntaxiques, pour Prieto, les objets qu'on appelle les sens. Toutes deux concernent de façon éloquente l'étude linguistique et permettent de dégager dans le contexte de cette étude une définition inédite pour le concept de « syntaxe ». Car, pour Prieto, l'élément contrastif d'une caractéristique dont l'élément oppositionnel constitue un objet correspond à ce que doit être nécessairement (et exclusivement, pour peu qu'on veuille bien étendre l'application du terme à toutes les possibilités ouvertes par le concept ainsi défini) une dimension syntaxique. Commençons par présenter un exemple non linguistique d'objets composés. Soit un numéro de téléphone. C'est un objet composé dont les objets composants – les chiffres – ont pour dimension syntaxique la position qu'ils occupent dans l'objet composé, et pour élément oppositionnel eux -mêmes, en tant qu'ils sont identifiés comme des objets. Deux précisions définitionnelles limitent la portée du concept d'objet composé. Seule la première, toutefois, a été prise en compte par Prieto. Premièrement, les objets composés sont toujours des objets matériels. On ne pourrait, sans cela, parvenir à identifier les objets composants, tels que les chiffres. Le numéro de téléphone identifié comme objet composé doit par conséquent être inscrit dans une matière — par exemple la matière lumineuse des chiffres digitaux — dans laquelle il est possible d'identifier, effectivement, les différents chiffres qui le composent. Pour ce faire, il faudra considérer que le chiffre digital est à son tour un objet composé, dont le nouvel objet composant a pour élément oppositionnel l'objet identifié comme étant un /bâton lumineux/ et pour nouvel élément contrastif les sept positions que peut occuper ce bâton lumineux. Il apparaît que par le truchement de cette analyse des objets composés on ne puisse parvenir à identifier ce qu'est un numéro de téléphone « en général », c'est-à-dire tel qu'il peut se présenter à nous sans trouver à s'inscrire dans aucune matière particulière. Selon Prieto, cet objet général n'est pas un objet composé, mais bien une « idée » ou un « sens », c'est-à-dire un objet appartenant à la deuxième catégorie d'objets dotés d'une dimension syntaxique. C'est donc là, lors de la présentation de cette catégorie d'objets, que nous retrouverons le numéro de téléphone « général ». La seconde précision à indiquer quand on fait l'analyse d'un objet composé est qu'il ne faut pas confondre l'objet composant avec son élément oppositionnel. L'objet composant d'un numéro de téléphone, ce n'est pas /tel chiffre/ — cela, c'est seulement son élément oppositionnel — mais plus exactement /tel chiffre dans telle position/. Mais dans ce cas, en opposition avec le premier point de précision, la qualification de matériel n'est pas tout à fait adéquate; il aurait mieux valu dire que l'objet composé est, comme ses composants, phénoménal. Voyons à présent une application dans le domaine de l'expression linguistique. On conviendra sans peine, sur le modèle du cas précédent, que le mot écrit est un objet composé des objets composants que sont les graphèmes. En français, ces graphèmes peuvent connaître jusqu' à 25 dimensions syntaxiques (d'après le nombre de lettres du mot ordinairement admis pour être le plus long de la langue française). Les dimensions syntaxiques du graphème correspondent aux différentes positions qu'il peut occuper dans le mot écrit. Ces dimensions syntaxiques, et les régularités qu'elles observent, constitue ce qu'on pourrait appeler, avec Prieto, une syntaxe graphique. Plus intéressante est l'application à l'expression phonolinguistique. Une syntaxe phonologique, d'après Prieto, doit partir de la syllabe, unité première de cette phonosyntaxe (tout au moins concernant la langue française), retrouvant par là la théorie phonologique de Saussure, en accord également avec les développements cénématiques de la glossématique. Cette syllabe est l'objet composant d'une cadence; son élément contrastif désigne /telle position/ dans la cadence; elle -même constitue un objet composé, dont les objets composants ont pour élément contrastif /telle position (prévocalique, vocalique ou postvocalique)/ dans la syllabe. Le son est l'élément oppositionnel de cet objet composant, mais lui -même, on l'a vu, n'est pas un objet composé. La stratification des analyses d'identités syntaxiques finit donc par s'arrêter à des objets minimaux qui n'appartiennent pas à la catégorie particulière des objets composés. Voyons à présent la seconde catégorie particulière d'objets dotés d'une dimension syntaxique. Il s'agit, comme annoncé, de la catégorie du sens. Ou plutôt des sens, puisque pour Prieto, il n'y a que des sens identifiés, des sens qui sont « une connaissance de l'émetteur que celui -ci essaie de transmettre ou de communiquer au récepteur, c'est-à-dire de faire devenir aussi une connaissance de celui -ci » (1988 : 47). Il faut donc au sens une pertinence attribuée par un sujet empirique. Cette pertinence est fonctionnelle : le sens a une fonction de communication. En dehors de cette fonction, pas de sens possible, pour Prieto, mais seulement des connaissances. Or, en cette fonction, l'émetteur et le récepteur reconnaissent au sens deux identités. L'une relève de l'univers du discours de la compréhension; l'autre, de l'univers du discours linguistique. Par exemple, si l'on désire communiquer qu'on « préfère le vin rouge », la référence au vin est une caractéristique du sens communiqué qui est pertinente au niveau de la compréhension. « Ensuite, » poursuit Prieto, selon que l'émetteur, pour transmettre le sens, produit, par exemple, la phonie [ʒɘ pʀefεʀ lɘ vε̃ ʀuʒ] (Je préfère le vin rouge) — qui indique la présence dans le sens de la caractéristique en question — ou la phonie [ʒɘ pʀefεʀ lɘ vε̃ ʀuʒ] (Je préfère le rouge) — qui ne l'indique pas —, cette caractéristique devient ou non pertinente aussi au niveau linguistique. (1988 : 48; j'ai transcrit les énoncés selon l'alphabet phonétique international, et non comme dans l'original.) L'identité du sens pertinente au niveau linguistique est le signifié, le signifiant n'étant rien d'autre, écrit Prieto, « que l'identité linguistique de la phonie » (ibidem). La dimension syntaxique apparaît dès lors comme suit : dans la phonie /Il a perdu votre numéro de téléphone/, on identifie notamment un objet dont l'élément oppositionnel est « le numéro de téléphone de l'interlocuteur » (sans précision d'une quelconque matière qui rendrait sensible ce numéro de téléphone) et l'élément contrastif la dimension « (objet direct) ». L'élément oppositionnel correspond au référent, qui appartient à l'univers de compréhension du locuteur, tandis que l'élément contrastif, exprime une dimension syntaxique affirmant l'univers linguistique du même locuteur. Voici donc qu'avec Prieto la seule préoccupation qui soit assignée à la linguistique, c'est la syntaxe (à laquelle, certes, est annexée une syntaxe phonologique). En, revanche, la notion de paradigme linguistique est totalement évacuée. L'analyse paradigmatique relève pour lui d'un autre univers de discours, concomitant dans la phonie à l'univers linguistique : à savoir celui identifié par les locuteurs comme l'univers des référents. Qui s'inquiéterait de voir ainsi l'univers linguistique assujetti à un univers extra-linguistique peut se rassurer. Prieto prend soin en effet d'ajouter que la langue joue un rôle déterminant dans la constitution des identités du sens pertinentes au niveau de la compréhension. La « forme » du sens au niveau de la compréhension est donc éminemment linguistique, même si, une fois devenue instrument de la pensée (on pense « avec sa langue », ce qui veut dire avant tout, à mon avis, que nos contenus mentaux sont déterminés par des caractéristiques dont les éléments contrastifs sont ceux qui ont été imposés par la langue), elle n'est pas toujours entièrement (re)rendue pertinente au niveau linguistique lorsqu'il s'agit de communiquer cette pensée. (1988 : 50.) Ce que la langue cède d'une main, elle le reprend par conséquent de l'autre. Le signifié dépend certes de l'identité du sens au niveau de la compréhension, mais celui -ci a été lui -même rendu antérieurement pertinent par la langue. Cette circularité du sens discrédite toute approche ontologique du langage, ainsi que de la réalité « extra-linguistique ». L'analyse linguistique ne serait ni référentielle ni tout à fait immanente, mais « pseudo-référentielle », en ce sens qu'elle embrasse in fine l'ensemble des analyses dites « extralinguistiques ». Au demeurant, les retombées de cette « délégation » à l'univers de compréhension d'une partie du sens transmis par la phonie bouleversent considérablement la tradition de la sémantique lexicologique. Ainsi, pour Prieto, les verbes n'ont pas de dimension syntaxique. Ils ne sauraient par conséquent avoir à proprement parler de sens (puisque le sens est défini par le fait d'avoir une dimension syntaxique). De fait, l'élément oppositionnel des verbes ne constitue pas, dans l'univers de compréhension, un objet. Tout au plus participent-ils au sens, sans trouver à s'en distinguer (et donc sans dégager de forme qui puisse valoir généralement au niveau linguistique). À l'inverse, les pronoms renvoient à une identité au niveau de la compréhension qui n'est pas reprise au niveau linguistique. Leur analyse ne saurait donc se limiter au seul niveau linguistique. Ainsi, dans /Il a perdu votre numéro de téléphone/, le pronom renverrait nécessairement, au niveau de la compréhension, à un quidam particulier mais, au niveau linguistique, seule serait pertinente la caractéristique « (sujet) il ». (Mais qu'arrive -t-il à ce niveau de compréhension, si, comme dans le cas présent, la phonie sert simplement d'exemple dans une étude théorique et n'entend pas le moins du monde référer le /il/ à quelque quidam que ce soit en particulier ?) Quant à « (verbe) perdre », il présenterait un élément oppositionnel, « perdre », qui n'est pas un référent, et n'est donc nullement pertinent au niveau de la compréhension. (Mais comment passe -t-on alors de /a perdu/ à « perdre » ? Comment identifie -t-on une connaissance qui ne fait pas sens ?) Il est à craindre que dans ces derniers aspects, l'analyse impliquée par cette conception très originale de la syntaxe, et la délégation du sens qu'elle permet à un univers non linguistique, posent autant de problèmes qu'elles n'en résolvent. Laissons -lui néanmoins le bénéfice d'un perfectionnement virtuel. Je voudrais à présent approfondir quelques-uns des points théoriques impliqués dans la définition générale, sémiologique, de la syntaxe. En guise de contrepoints, je me servirai de certains arguments sémiotiques de Hjelmslev afin de montrer, par comparaison, que les options théoriques de Prieto s'avèrent plus problématiques qu'elles n'y paraissent à première vue. Tout d'abord, on peut se demander sur quelle base exactement se définit un univers de discours. Que cet univers soit nécessaire, cela ne fait pas de doute; il constitue un préalable à toute connaissance, puisqu'il permet de rassembler ce qui est irrémédiablement particulier dans un geste, un postulat, de généralisation. Hjelmslev, semblablement, a été tenu d'indiquer par le terme de texte le fait dont l'analyse linguistique tâche de décrire la spécificité — entendue : la spécificité générique, la spécificité permettant précisément de l'appré­hender sous le concept général de texte. Mais Hjelmslev a pris soin de bien distinguer le texte de l'objet décrit par la linguistique, à savoir les formes et le système linguistiques; faute de quoi il aurait été bien en peine d'expliquer comment cette généralisation, qui, comme toute généralisation, est une généralisation relative, peut atteindre la spécificité du fait linguistique. Car, de deux choses l'une : ou la spécificité du texte est établie préalablement à l'analyse, et alors on est en droit de se demander à quoi celle -ci peut encore servir; ou la généralisation relative qui atteint cette spécificité n'est reconnue qu'une fois l'analyse réalisée, et on ne peut dès lors poser a priori que le texte, ou l'univers du discours, comme on voudra bien le nommer, est le dépositaire de la spécificité que lui assigne sa connaissance. De ce petit syllogisme, il doit ressortir une chose bien claire : il n'est pas licite de fonder une analyse sur la distinction, identifiée comme pertinente préalablement à cette analyse, de deux univers de discours. Et, pour le dire avec une précision théoriquement superflue, mais qui dissipera peut-être tout malentendu : ce n'est pas que deux univers de discours ne puissent être pertinents; bien au contraire, il faut saluer l'ouverture épistémologique apportée par Prieto, avec ce concept d'univers du discours, vers une connaissance plurielle, hétérogène et dynamique. Ainsi, pour reprendre un exemple familier à Jean-Marie Klinkenberg, un trait de fumée est-il certainement pertinent dans l'univers du discours pictural quand il s'agit de dessiner un bateau à vapeur; il ne l'est pas dans l'univers de description scientifique de ce bateau. Plusieurs univers de discours peuvent donc coexister dans le chef d'un même individu, qu'ils y apportent ou non le germe de la contradiction. Mais ils ne pourront jamais être pertinents en même temps. C'est cela, néanmoins, qu'entend proposer Prieto quand il aborde le sens. Le sens est pour lui un objet auquel on reconnaîtrait en même temps deux identités. C'est à mon avis indéfendable; car l'identité intentée à un objet est dépendante de la phénoménalité de cet objet, toujours absolument particulière; aussi cette identité ne peut-elle pas se dédoubler sans remettre en cause l'idée même de phénomène. On en vient alors à douter que soient suivies par Prieto les prémisses épistémologiques qu'il a pourtant explicitées et qui ont si bon air. Par exemple, dans le commentaire sur la pertinence, lit-on sous sa plume : « […] la pertinence d'une caractéristique d'un objet suppose la pertinence dans au moins un des objets dont il diffère par la caractéristique en question de la caractéristique comportant le même élément contrastif que ce dernier objet présente nécessairement » (1988 : 34; je souligne). De quelle forme de « présence » s'agit-il ? Il y a dans ce mot présence au moins un choix malheureux, encore aggravé par la condition exprimée par dans au moins un des objets, car il entre en contradiction avec la définition de la caractéristique. Est -ce à dire, en effet, qu'un élément contrastif saurait être « présent » tout en n'étant pas pertinent ? Ce serait permettre la réintroduction d'une ontologie que la défini­tion de la caractéristique avait permis d'éviter : une présence qui n'est pas reconnue par le sujet connaissant sort nécessairement du cadre tracé par l'épistémologie. Or la séparation qu'autorise le concept de présence entre l'objet et sa caractéristique est encore beaucoup plus embarrassante dans l'autre sens; qui plus est, ce n'est pas seulement un risque qu'elle suscite alors, mais une contradiction explicitement soutenue par Prieto. Selon lui, en effet, il serait possible qu'une caractéristique soit pertinente tout en n'étant pas présente dans l'objet ! C'est ce que donne à lire en tout cas un passage déjà cité, selon lequel la phonie [ʒɘ pʀefεʀ lɘ vε̃ ʀuʒ] n'indique pas la présence dans le sens de la caractéristique que constitue la référence au vin, laquelle est pertinente au niveau de la compréhension (cf. 1988 : 48). L'objet qui présenterait une telle caractéristique serait non phénoménal et découvrirait une intentionnalité constituante. Comment, dans ces conditions, pourrait-on encore maintenir que le sens est une connaissance communiquée ? À moins de prévoir un univers de discours préalablement constitué à la communication linguistique et en fonction duquel une caractéristique pourrait être transmise jusqu'en son absence — ce qu'infirme la définition de l'univers de discours —, une telle possibilité n'existe plus. On ne saurait donc constituer un objet — fût-il le sens transmis dans la communication linguistique — en fonction de deux identités appartenant chacune à un univers de discours distinct. Encore moins pourra -t-on mettre l'un de ces univers — celui que Prieto prend comme spécifiquement linguistique — sous la dépendance de l'autre. Le point qui est discuté ici emporte avec lui la cohérence de l'appareil théorique de Prieto tout entier. Ce sont, en effet, dans les fondements de cette théorie, qui sont restés à peu près inchangés depuis les premiers essais de l'auteur, que se situe le problème de la caractéristique et de sa « présence » dans l'objet. Abandonnons un instant l'examen de l'article consacré à la définition de la syntaxe pour revenir sur un autre essai, imposant à tous égards, où Prieto a longuement développé sa conception de la caractéristique; il s'agit, dans Pertinence et pratique, du chapitre intitulé « Langue et parole ». Pour Prieto, la caractéristique est le corrélat nécessaire de la différence : On ne reconnaît pas en effet un objet comme étant différent d'un autre objet sans lui reconnaître une caractéristique qu'il comporte et par laquelle il diffère de cet autre objet, et on ne reconnaît pas à un objet une caractéristique qu'il comporte sans reconnaître qu'il diffère, par cette caractéristique, d'un autre objet. (1975 : 82.) Cette proposition serait irréprochable si elle n'entraînait Prieto à inférer directement de la différence la définition de la classe logique : L'identité qu'un sujet reconnaît à un objet est déterminée par la classe à travers laquelle il le connaît, c'est-à-dire par les objets dont il le reconnaît comme étant différent et par les caractéristiques qu'il lui reconnaît en conséquence. Deux objets apparaissent à un sujet comme étant identiques entre eux lorsqu'il leur reconnaît la même identité, c'est-à-dire lorsqu'il les connaît à travers une même classe et qu'il les reconnaît donc comme étant respectivement différents des mêmes autres objets. (1975 : 83.) Que deux objets soient différents d'un troisième, il ne s'ensuit pas nécessairement, contrairement à ce qu'infère Prieto dans cette citation, qu'ils aient la « même » caractéristique, telle que la définit la citation précé­dente. La question de l ' identité de la caractéristique doit être distinguée de la corrélation entre caractéristique et différence. Prieto remarque d'ailleurs, mais sans en tirer parti, que reconnaître une différence entre deux objets, ce n'est rien d'autre que de reconnaître l'un comme membre d'une classe et l'autre comme membre du complément corres­pondant. Or cela montre encore une fois la faiblesse de la notion traditionnelle d' « extension » d'une classe. Une classe apparaît en effet comme « unimembre » ou comme « plurimembre » et, dans ce dernier cas, comme différemment « plurimembre », selon les classes avec lesquelles on est capable d'opérer. (1975 : 84.) Une « classe » dans son acception logique est toujours une classe homogène. On y traite toujours de la même manière les différences entre membres appartenant à une même classe et les différences entre membres appartenant à des classes distinctes. Or la corrélation entre caractéristique et différence ne découle que du seul type de rapport de différences entre membres de différentes classes; de sorte que la classe unimembre que pourrait définir le rapport de différence entre membres de cette classe n'implique aucunement la possibilité de la classe plurimembre. Il s'ensuit deux corollaires. Premièrement, l'identité que l'on reconnaît aux membres d'une classe plurimembre est nécessairement secondaire par rapport aux différences qui constituent cette classe comme plurimembre. Deuxièmement, il ne saurait y avoir de caractéristique universelle sinon purement axiomatique visant à déterminer une classe plurimembre comme univers de discours. C'est pourtant cette caractéristique universelle qui étaie la thèse « substantialiste » de Prieto : Le schéma : ua ≠ uã par lequel on peut représenter le calcul que suppose le fait de reconnaître une caractéristique qu'un objet comporte, est aussi, par conséquent, le schéma selon lequel s'établit toute différence; autrement dit, une diffé­rence s'établit toujours, certes, grâce à une présence (a) et à une absence (ã), mais entre deux objets qui apparaissent comme tels grâce à une présence (u). (1975 : 90.) Cette caractéristique universelle n'est pas autre chose, concernant l'opposition expression vs contenu, qu'une détermination ontologique. Pour Prieto, un phonème est distinct d'un autre phonème à condition qu'ils soient tous deux d'abord déterminés comme des phonèmes possibles en ce qu'ils participent de la substance phonique. La caractéristique universelle circonscrit le champ de l'analyse linguistique. Cette analyse a alors une immanence relative : relative à un champ déterminé ontologiquement. La négativité des formes y est également relative : c'est la négativité de formes dans un champ d'abord défini par une caractéristique positive. On pourrait maintenir encore que l'analyse linguistique est immanente, et négatives les formes de cette analyse, à condition de reconnaître qu'il s'agisse d'une analyse régionale. Cette analyse n'a pas alors à se munir d'une épistémologie qui lui soit propre, car la spécificité de son objet est déterminée en dehors d'elle. Mais, surtout, l'acceptation d'une caractéristique universelle détermi­nant dans la substance l'expression et le contenu implique une analyse formelle conduite en terme d'invariabilité. Si la substance est déterminée, l'unité précède nécessairement les relations entre unités, et c'est alors dans un sens tout à fait impropre, qui confond substance et système, que l'on affirme que le système précède les unités du système. Et si l'unité précède les relations qu'elle connaît avec d'autres unités dans le système, sa formalisation ne peut plus admettre qu'elle varie, puisque c'est sa « stabilité » qui permet d'établir ses relations (syntagmatiques comme paradigmatiques) avec les autres unités du système. Certes, l'identification de l'unité « dépend » encore dans cette perspective de l'identité attribuée aux autres unités, mais seulement en fonction d'une identité préalablement attribuée par « corrélation » avec les unités de l'autre plan. Dans cette optique, l'antécédance n'est plus vraiment fixée entre système et unité, mais entre système et corrélation d'une unité d'expression avec une unité de contenu, c'est-à-dire que l'opposition expression vs contenu est devenue une détermination ontologique. Ici se découvre le véritable enjeu de la théorie de la pertinence : qui n'est pas seulement de reconnaître qu'il n'y a d'analyse de l'expression qu'en fonction d'une analyse de contenu, mais qui entend également imposer que le contenu et l'expression existent l'un et l'autre de façon distincte avant la formalisation linguistique que permet leur analyse. Prieto accorde ici un crédit illimité à une image du Cours de linguistique générale selon laquelle les formes linguistiques sont prises entre deux zones amorphes qui ont l'air de préexister à leur formalisation, le plan indéfini des idées confuses et celui non moins indéterminé des sons (cf. Saussure 1916 : 162). Il est alors extrêmement regrettable que les rédacteurs n'aient pas suivi ici à la lettre les notes des étudiants. Dans le CLG, l'image est précédée de cet avertissement : « La substance phonique n'est pas plus fixe ni plus rigide; ce n'est pas un moule dont la pensée doive nécessairement épouser les formes ». (Saussure 1916 : 161). Les notes de Riedlinger du deuxième cours ne concordent pas tout à fait avec cet avertissement : « Mais il ne faut pas tomber dans l'idée banale que le langage est un moule : c'est le considérer comme quelque chose de fixe, de rigide, alors que la matière phonique est aussi chaotique en soi que la pensée. » (Saussure 1968, 1.252.1826.2). Il est clair, selon ce texte, non seulement que la substance phonique n'est pas un moule mais que le langage n'en est pas un non plus; qu'il n'a rien de fixe. Juste après, Riedlinger ajoute d'ailleurs, sous la dictée de Saussure — le professeur Saussure, non le narrateur du CLG où les propos qui suivent sont également déformés : Ce n'est pas la matérialisation de ces pensées par un son qui est un phénomène utile; c'est le fait en quelque sorte mystérieux que la pensée-son implique des divi­sions qui sont les unités finales de la linguistique. Son et pensée ne peuvent se combiner que par ces unités. (Saussure 1968, 1.253.1830.2) Est-il un seul passage du CLG où soit fixée de manière aussi explicite l'antécédance des relations ou divisions — qui sont les unités finales de la linguistique — sur les unités que constituent la combinaison d'un son et d'une pensée ! De fait, lorsqu'on se résigne à faire de l'opposition expression vs contenu une détermination ontologique, c'est-à-dire quand on croit pouvoir en faire une pensée et une masse sonore qui existeraient en soi comme des sortes de nébuleuses indifférenciées, on se résigne également à faire de la langue un facteur de stabilité entre ces deux nébuleuses. On cantonne a priori la langue aux limites de la représentation que l'on peut s'en faire. Or la langue est tout le contraire : c'est une activité, une énergétique, un événement; un ordre, certes, et une hiérarchie, mais un ordre et une hiérarchie dynamiques, incessamment variables, constamment remis en cause. Et ce n'est que la représentation qui saisit (comme on dit tout à la fois du gel qu'il saisit la nature et de l'esprit qu'il saisit un raisonnement) la variabilité invariable de la langue en une coupe invariable de variétés. On peut revenir alors à la critique de « Caractéristique et dimension ». Les effets d'une analyse résignée à l'invariabilité formelle, telle qu'elle est impliquée par la détermination ontologique de l'expression et du contenu, apparaît nettement dans la présentation théorique que fait Prieto de la syntaxe. Quand, chez Hjelmslev, la syntagmatique est théoriquement antérieure à la paradigmatique et que leurs actions analytiques sur le fait linguistique se contiennent mutuellement, chez Prieto, au contraire, la syntaxe vient nécessairement après le classement paradigmatique ou, plus exactement, après ce qui en tient lieu, à savoir l'identité du sens pertinente au niveau de la compréhension (que plus loin l'auteur désigne également sous le terme de sémantique, retrouvant ainsi la conception logicienne de l'opposition syntaxe vs sémantique). Souvenons -nous, en effet, que le sens d'après Prieto est un objet possédant une dimension syntaxique parce que son élément oppositionnel est lui -même un objet. C'est le « référent », pertinent au niveau de la compréhension, qui est cet objet tandis que l'identité pertinente au niveau linguistique forme la dimension syntaxique du sens. L'identité du sens pertinente au niveau linguistique, c'est-à-dire le signifié du signal employé pour le transmettre est donc une identité que l'on reconnaît à un objet — le sens — déjà déterminé par une autre identité logiquement antérieure — l'identité pertinente au niveau de la compréhension. (1988 : 49.) Mais, paradoxalement, bien que la syntaxe soit dépendante de la sémantique, elle développe également la partie universelle du sens : […] la distinction qui permet le mieux de délimiter le domaine de la syntaxe n'est pas à mon avis la distinction entre « forme » et « substance » mais la distinction, à l'intérieur même de la substance, entre ce qui, dans la construction cognitive que l'on en fait, apparaît comme étant universel et ce qui, dans cette même construction, apparaît comme ne l'étant pas et comme étant par conséquent distinctif. […] À l'encontre de la syntaxe, qui étudierait ce qui est universel dans la construction cognitive du sens, la sémantique étudierait ce qui y est distinctif. (1988 : 62.) À première vue, on serait porté à penser que Prieto donne raison ici à un sentiment ordinaire à propos du langage. La sémantique y fait le partage entre les mots, chacun distinct des autres, alors que la syntaxe considère que ces mots, rassemblés en grandes catégories, se valent quant à leur fonction dans la phrase. Selon ce sentiment ordinaire, il y a moins de sens dans « verbe » que dans chaque verbe particulier; si « verbe » appartient à la syntaxe (à son « métadiscours »), chaque verbe particulier, en revanche, est redevable d'une analyse sémantique qui le distingue des autres et lui permet d' être identifié sur le plan de l' « indication » phonique. À y regarder de plus près, on se rend compte que cette interprétation n'est pas rejetée tout à fait par Prieto, mais que celui -ci la récupère au bénéfice d'un rapprochement avec la syntaxe « à arbres » de Chomsky. Mais, dans ce rapprochement avec la grammaire universelle, on peut pressentir que la spécificité des langues n'est pas tenue pour très importante et qu'elle cède le pas sur l'uni­versalité de la pensée. Contrairement à ce que laissait accroire un sentiment premier, ce n'est donc pas une syntaxe et une sémantique linguistiques qui sont ici visées, mais bien une syntaxe et une sémantique de la « construction cognitive ». Et, de fait, en s'efforçant de s'y retrouver tout à fait, que constate -t-on ? Premièrement, que la sémantique ne répond pas de la pertinence linguistique mais de la pertinence des référents. Deuxièmement, que la syntaxe, « pôle » linguistique de l'identification du sens, est entièrement sous la dépendance de la sémantique; on ne voit pas dès lors comment elle pourrait rendre compte de la diversité des langues, si ce n'est par une « re - » particularisation. Troisièmement, que la syntaxe a néanmoins vocation d'universalité; en conséquence de quoi, l'ouverture envisagée au second point est rendue caduque et l'on ne voit plus du tout dès lors en quoi la syntaxe est linguistique, si ce n'est en fin de compte pour la simple raison qu'elle est liée à la phonie, c'est-à-dire à la « matière » nécessaire pour transmettre le sens. Prieto a beau jeu alors de reconnaître que l'univers de compréhension est informé par la langue. Dans la pratique de son analyse, cet univers de compréhension est bien coupé de sa constitution linguistique originelle et constitue un préalable à l'analyse linguistique. Or, à tout le moins, ce préalable n'est-il pas plus aisément descriptible dans l'univers de compréhension que lorsqu'on en vise le contenu par l'analyse lexicologique traditionnelle. En fonction de quels critères, en effet, se constitue l'identité du sens pertinente au niveau de la compréhension ? Le référent dépendra toujours du contexte d'énonciation de la phonie qui le signale. Comment dans ce cas peut-il conserver une « identité » ? [ʒɘ pʀefεʀ lɘ vε̃ ʀuʒ] et [ʒɘ pʀefεR lɘ vε̃ blã] portent sur des référents différents. Comment, dans l'analyse proposée par Prieto, l'identité du vin est-elle reconnue ? Il y a chez Prieto un déni de formalisation qui n'est pas tenable et qui remonte des profondeurs sous l'aspect d'une évidence naturelle. L'analyse par la pertinence, bien loin de dégager les identités du sens, ne fait le plus souvent que les confirmer en fonction d'une formalisation non reconnue mais néanmoins effective. Cela est vrai a fortiori pour la dimension syntaxique. Si l'identité du sens au niveau linguistique dépend du référent, elle ne peut être stabilisée qu'en fonction d'une formalisation déjà accomplie avant l'analyse que Prieto en propose. [lɘ vε̃ ʀuʒ] n'a l'identité « (objet direct) le vin rouge » et ne constitue une dimension syntaxique dans [ʒɘ pʀefεʀ lɘ vε̃ ʀuʒ] que si « le vin rouge » constitue une forme identifiée, que ce soit en fonction de l'univers de compréhension ou que ce soit en fonction d'une analyse paradigmatique (linguistique). On voit bien que c'est parce qu'est ignorée, tout au moins du point de vue de l'analyse linguistique, la généralisation qu'effectue « vin » par rapport aux occurrences phoniques [vε̃] et parce qu'au contraire ce général qu'est le sens identifié en fonction des référents est donné comme un particulier d'ores et déjà « distinctif », que la syntaxe a pu apparaître comme la part d'universel dans l'identité du sens. En réalité, s'il est si facile d'ignorer la nécessité, concomitante à l'analyse lexicologique, de la formalisation syntagmatique, c'est seulement parce que le langage, dans son analyse lexicologique, est susceptible de présenter une forme invariable autonymique qui a la même « substance » que les manifestations variables d'une forme linguistique. Par exemple, vin, autonyme de /vin/ et « vin », est ainsi confondu avec ces formes linguistiques. L'identification des référents dans l'univers de compréhension n'est évidemment pas autre chose que cette identification des autonymes, tels qu'ils pourraient apparaître comme « dégagés » des faits linguistiques, en lieu et place du sens que l'analyse lexicologique permet de formaliser. Il se confirme ainsi que ce que vise Prieto, c'est une grammaire de la pensée, et non une grammaire linguistique. Du reste, Hermann Parret a bien montré comment, des propositions équivoques du CLG, la pente était facile vers un sémantisme pur. Ce sémantisme, à la recherche d'un signifié transcendantal, va de pair avec une téléologie du langage (qui, pour le moins, est également une ontologie) : la langue y est considérée comme transmission de significations. Le « fait mystérieux de la pensée-son » sur lequel méditait Saussure est devenu un fait transparent de sons transmettant « arbitrairement » du sens déjà constitué. La formalisation consiste alors à établir des invariables, de façon à maintenir ce sens préexistant en dépit de l'arbitraire linguistique, responsable des variations (dites syntaxiques) du sens spécifique à chaque langue. Il est, de plus, facile de voir que phonologisme et sémantisme vont de pair […] : ils isolent la factualité de la langue du contexte argumentatoire global chez Saussure, où le signe n'est pas seulement la relation sémiologique du signifiant et du signifié, mais en même temps le terme du système linguistique et l'unité de l'ordre syntagmatico-discursif. (Parret 1987 : 28-29.) On ne s'étonnera plus dès lors que la sémiologie de Prieto se soit rapprochée de la théorie fonctionnaliste de Martinet, toutes deux issues de l'orientation pragoise de la linguistique structurale. En effet, quand une détermination ontologique « sépare » la pensée et le son préalablement à l'analyse linguistique, selon que le domaine de recherche est strictement limité à la linguistique ou bien qu'il s'étende vers la sémiologie, la théorie linguistique va pencher soit du côté de l'analyse phonologique et d'une analyse en « monèmes » de langues particulières, soit du côté d'une analyse universelle qui permette de comprendre comment se transmet le sens corrélé à « l'identité linguistique de la phonie » (le signifiant). Il suffit de désavouer la détermination ontologique de l'opposition pensée vs son, variété du dualisme platonicien, pour refuser le partenariat du sémantisme et du phonologisme. Je crains que le lecteur aura trouvé cette suite théorique bien aride, et peu éclairante sur les questions que j'ai soulevées au début de mon article. Il est vrai que, dès qu'on s'aventure dans une argumentation de type sémiotique, la quantité d'abstraction qui y est requise risque à tout moment de faire perdre pied. On aurait sans doute souhaité que les exemples fassent voir un peu plus clairement ce dont il retourne, ou bien qu'apparaissent des formalisations de type logique auxquelles on puisse se raccrocher, ou bien encore que les concepts philosophiques évoqués le soient à partir d'un système de référence plus notoire. Mais justement, ce sont là des outils qui font ordinairement défaut aux sémioticiens. L'argumentation sémiotique a son langage propre, auquel il faut s'accoutumer. Quant aux exemples, ils sont rarement satisfaisants, dès lors que la sémiotique envisage une généralisation sur des exemples tirés d'une discipline où ils ont déjà, et souvent bien mieux, leur pertinence. Ainsi, ce qui permet davantage de « voir » un argument de théorie sémiotique, ce sont souvent, hélas, les contre-exemples qu'on avance à son encontre. Au reste, je ne prétends pas que cette présentation critique permette de faire l'économie d'une lecture des textes de Prieto. Je souhaite au contraire que le lecteur qui ne s'y sera pas tout à fait retrouvé soit soucieux de retourner aux textes mis ici en examen et qu'il juge du bien-fondé de mes observations. Car je reste convaincu qu'il pourra y trouver son profit : la lecture de l' œuvre de Prieto reste d'une grande force de suggestion pour un grand nombre de questions philosophiques qui se rapportent aux sciences humaines, quand bien même on ne serait pas d'accord avec certaines de ses conclusions. Néanmoins, il me semble que les critiques avancées lors de l'examen entrepris ici permettent de préciser quelques-uns des rapports qu'ont entretenus la sémiotique / sémiologie et la linguistique. En développant sa sémiologie, Prieto a cherché à étendre certains concepts — tels le trait pertinent (ou caractéristique), la classe (ou dimension) et la syntaxe — issus d'une théorie linguistique pour les appliquer à d'autres phénomènes que les faits de langage verbal. Il a pu montrer ainsi leur puissance, mais il n'a pas toujours convaincu de leur adéquation. En effet, nombre des applications sémiologiques qui ont eu lieu dans les années soixante sont assez rudimentaires, et pour ainsi dire évidentes, en comparaison de l'analyse des faits de langage. Tel est le cas de l'analyse sémiologique du code de la route, des sémaphores, de la numérotation des chambres dans un hôtel ou encore des chiffres d'un cadran digital comme il en est question dans l'article examiné. La généralisation des concepts linguistiques n'est donc pas directement profitable à l'analyse de faits non linguistiques. En réalité, l'élargissement sémiologique des concepts linguistique n'est pas requis par des besoins d'analyse mais bien plus sûrement en raison de considérations théoriques relatives à ces concepts. On constate d'ailleurs qu'aussitôt après avoir donné quelques exemples non linguistiques qui assurent la validité des généralisations conceptuelles ainsi visées, Prieto revient assez vite à des exemples linguistiques. L'exemple non linguistique n'aura été finalement qu'une sorte de détour, de prétexte, pour atteindre quelque considération particulière dans le domaine de la linguistique. De quelle manière alors la sémiologie entend -elle redoubler la réflexion linguistique ? Par un effet d'extension, assurément, mais non pas tant relatif aux objets qu'au registre spéculatif de la connaissance. Ce à quoi prétend le sémiologue, c'est à inscrire les propositions théoriques qu'il explicite à propos de l'analyse linguistique dans un champ épistémologique plus large, celui des sciences humaines, sinon celui de l'ensemble du savoir. En retour, une telle ouverture épistémologique permet d'examiner les concepts linguistiques sous un angle inhabituel au sein du système théorique qui les a engendrés. Tel est le cas, par exemple, du concept de syntaxe qui, dans la visée sémiologique de Prieto, se voit articulé de façon singulière aux concepts de sens et de phonie. Les arguments sémiologiques ont des caractéristiques formelles, un vocabulaire, des stratégies d'exposition qui leur sont propres et ils peuvent dès lors acquérir une certaine autonomie vis-à-vis des discours linguistiques. Et la critique qui d'aventure s'exerce à leur endroit emploie des chemins étrangers aux routines analytiques des linguistes. Ces critiques, qui ont ici mis en avant un différend global « entre Prague et Copenhague », sont développées sur le principe de la nécessité d'une cohérence épistémologique et en fonction des répercussions philoso­phiques de tels arguments. En l'occurrence, se réitère en sémiologie le débat infini entre positivistes et sceptiques, universalistes et relativistes. Apparue avec le structuralisme, la sémiologie a eu un projet philosophique : elle a cherché à raisonner et situer la place des sciences du langage, et plus généralement celle des sciences humaines, dans une théorie de la connaissance renouvelée. La sémiotique peut-elle reprendre à son compte et actualiser un tel projet ? Je ne pense pas qu'elle puisse le faire en tant que discipline constituée, et par des objets dont elle se réserverait l'étude — tout légitime que soit par ailleurs son programme. Néanmoins, par son histoire et par son approche du sens, elle est susceptible de contribuer à une réflexion d'épistémologie générale où les présupposés logiques céderaient enfin le pas devant les contraintes du langage naturel et les modalités culturelles de l'action sémiotique et herméneutique .
Dans Caractéristique et dimension (1988), Luis J. Prieto propose une définition sémiologique de la syntaxe. La présente étude est consacrée à son examen. Dans un premier temps, on situe cette définition dans son contexte théorique, en l'articulant notamment avec les définitions du sens et de l'univers de discours et en mettant en avant ses conditions épistémologiques. Dans un second temps, cette même définition est portée à la critique, en fonction du principe de cohérence théorique et en considérant d'autres options théoriques, proposées par L. Hjelmslev. Enfin, dans un troisième temps, on tente de montrer en quoi cette définition est sémiologique, c'est-à-dire qu'elle est la fonction assignée par Prieto à la sémiologie par rapport à la linguistique d'où dérive évidemment la notion de syntaxe.
linguistique_524-04-10153_tei_657.xml
termith-577-linguistique
De l'espace clos du stade à l'espace virtuel du tube cathodique, le sport se regarde et se montre. Les retransmissions télévisuelles des matchs et la couverture médiatique extensive dont bénéficient les principaux « événements » sportifs ont fait entrer les athlètes et le sport dans les salons. Or, en faisant du sport un événement médiatique, les journalistes ont brouillé les limites entre culture populaire et culture sportive. Aguerri aux images sportives, le (télé)spectateur anglo-saxon dispose d'une représentation visuelle et mentale de la culture sportive. Se pose alors d'emblée la question de la spécificité de cette culture, et avec elle, celle des limites floues et mouvantes entre culture spécialisée et culture générale. Si l'emprise des médias sur le sport témoigne d'un premier point de passage entre culture professionnelle et culture populaire, le discours sur le sport en sous-entend un second. Aux États-Unis, le sport se relate autant qu'il se montre. Preuve en est le nombre croissant des écrits sur le sport. Au côté des chroniques sportives dans des quotidiens nationaux et des magazines dédiés au sport en général (Sports Illustrated), on assiste à un véritable foisonnement de magazines plus pointus consacrés à un sport particulier ou à un aspect spécifique d'un sport : Boating, Sail, Yachting World, Classic Boats, Wooden Boat, Waterski, WakeBoarding, Windsurfing, Surfing, KiteBoarding, Watercraft World pour ne mentionner que les principaux liés aux sports nautiques. Chaque nouveau sport (le « kite-board »), chaque nouveau développement dans un sport (une nouvelle forme de ski-nautique) entraîne dans son sillage la parution d'un nouveau magazine (KiteBoarding et WakeBoarding respectivement). Si la presse fait la part belle au sport, les professionnels du sport prennent aussi la plume. Outre la publication de règlements et d'ouvrages explicitant ces règlements, on trouve des anthologies, des ouvrages techniques, des manuels sportifs pour néophytes ou encore des autobiographies. Cette diversité d'approches et de genres est complétée par des études sociologiques, des études philosophiques et des histoires. Enfin, c'est la fiction qui prend le sport comme objet, faisant du « roman de football » et « du « roman de baseball » des sous-genres à part entière. Dans la mesure où le sport s'écrit de plus en plus en dehors du milieu sportif il serait réducteur d'envisager la « langue du sport » comme une donnée isolée. « La langue spécialisée n'est rien d'autre que la langue ‘ en spécialité ' », à savoir, « une langue en situation d'emploi professionnel » (Lerat 1995 : 40, 21). Aussi claire que puisse être la définition de Pierre Lerat, elle ne va pourtant pas de soi dans le domaine du sport. Le discours est en effet toujours second par rapport à la performance athlétique. Dans le cadre d'un sport individuel il se surajoute à la performance en forme de commentaire ou de description. En poussant cette logique à l'extrême, une épreuve de natation pourrait très bien se passer de toute parole. Réglée par un premier coup de sifflet qui invite les nageurs à monter sur les plots, elle démarre au coup de pistolet du « starter », et s'achève par le temps inscrit sur le chronomètre. La « langue du sport » serait-elle alors celle des règlements et commentaires plus que celle des athlètes ? Si la question semble évoquer le stéréotype de l'athlète illettré, elle souligne surtout la difficulté qui préside à toute étude de la langue du sport, à savoir celle de sa définition. Lorsqu'un écrivain emploie une terminologie sportive stricte, sa fiction est-elle moins du domaine de la langue de spécialité qu'un article destiné au grand public mais écrit par un sportif ? Cette logique pourrait aisément aboutir à une vision réductrice de langue du sport, où seuls les ouvrages écrits par les sportifs et destinés aux sportifs (règlements, explications techniques. ..) constitueraient un champ d'étude légitime. Catherine Resche envisage le passage de la langue générale à la langue spécialisée comme un « continuum » (2001 : 37). Cette notion de continuum est particulièrement utile dans le domaine du sport. Elle souligne les passages et emprunts entre plusieurs espaces linguistiques et nous invite à repenser la notion de langue spécialisée au travers de ses limites. Il ne saurait alors s'agir ici d'opérer une classification des différents écrits par sous-genre, ni même de tenter une classification par degré de spécialisation, mais plutôt d'interroger l'espace d'intersection où la langue de spécialité rejoint la littérature. Au premier abord, rien ne semble plus opposé que littérature et écrits spécialisés. Là où la littérature se veut création poétique et où le langage poétique se démarque de la fonction de communication du langage, les écrits spécialisés à l'inverse revendiquent leur fin comme « vecteur de connaissances spécialisées » (Lerat 1995 : 20). Si la distinction semble aller de soi, dans le domaine du sport, la limite est plus floue qu'il n'y paraît. Ainsi, lorsque Sports Illustrated propose une liste des 100 meilleurs livres sur le sport de tous les temps (« Top 100 Sports Books of all Time » 16 décembre 2002), le magazine ne dissocie pas les écrits spécialisés de la fiction. Les apologies de légendes du baseball (Joe DiMaggio : The Hero's Life, 2000; Babe : The Legend Comes to Life, 1974) alternent ainsi avec les romans de baseball de Bernard Malamud (The Natural), de Philip Roth (The Great American Novel) ou de Robert Coover (The Universal Baseball Association, Inc.). La même logique opère pour la boxe et le football, puisque les romans de Norman Mailer (The Fight) et Don Delillo (End Zone) figurent au côté d'ouvrages écrits par des sportifs. La liste nie la séparation qu'écrivains et critiques s'efforcent de tracer entre les romans et le matériau sportif qui en est à l'origine. Interrogés sur leur œuvre, les écrivains en affirment en effet avant tout la fonction métaphorique. Coover souligne ainsi la fonction mythique du baseball (« mythic quality ») et Malamud décrit The Natural comme le récit d'un héros mythologique (« I wrote The Natural as a tale of a mythological hero »). Pourtant la liste de Sports Illustrated invite à une nouvelle lecture. Il n'est plus question de déplacement, de projection, ou de traduction, mais uniquement de sport. De fait, le rapprochement inattendu qu'opèrent les journalistes nous incite à relire le texte spécialisé en nous attachant à ses limites. La voile offre un exemple particulièrement significatif à cet égard. Naviguer au large en solitaire ne nécessite ni écrit, ni discours. Écrire la voile c'est donc se situer d'emblée à la limite du texte spécialisé. Les éditeurs de recueils sur la voile ne s'y seront pas trompés. Classic Sailing Stories et The Sailing Book donnent ainsi à lire aussi bien les écrits de navigateurs, que ceux de journalistes, ou que ceux de Melville, Conrad ou London. Ils réunissent textes spécialisés, écrits journalistiques et littérature, suggérant une proximité textuelle que nous nous proposons d'examiner ici. Afin d'envisager les limites du texte spécialisé, nous avons délibérément écarté les règlements de course et les instructions à l'intention des skippers, pour nous concentrer sur les écrits des navigateurs en solitaire. Du livre de bord, aux autobiographies nautiques en passant par les récits d'une étape ou d'une course autour du monde, le navigateur-auteur donne à lire sa course. Se pose alors avec force la question de savoir ce qui différencie son texte du texte littéraire. Les quatrièmes de couverture apportent un premier élément de réponse. En définissant un ouvrage publié par un journaliste de « chef d' œuvre de la voile » et en soulignant à l'inverse que l'autobiographie nautique de la navigatrice britannique Ellen MacArthur n'est pas un livre sur la voile (« This is not a sailing book » Nichols 2002), les critiques brouillent les limites entre écrits spécialisés et écrits journalistiques. Cette vision paradoxale est aussi celle que propose la navigatrice : « I have not tried to write a sailing book, nor a book about the Vendée Globe » (MacArthur 2003 : xix). Devant cette inversion, on serait tenté de conclure avec Walker Cronkite « The book is in the ‘ can't put down ' category » (The Proving Ground). De fait, la course au large a ceci de particulier par rapport à des sports comme le football ou le baseball qu'elle fait appel à plusieurs domaines d'activité. « A ‘ Jack of all trades ' », voici comment se définit Ellen MacArthur. Outre son rôle de skipper, elle cumule les fonctions de voilier, d'électricien, d'ingénieur et de journaliste. Un métier à la croisée entre navigation et ingénierie où la mer est reléguée à une note en bas de page, telle est aussi la vision de Peter Nichols : [Ellen MacArthur] becomes, with concentrated application and training, an engineer and technician who, alone at sea, in addition to famously climbing a mast (many times) unaided during stormy weather, can strip down and repair broken hydraulic gear, computer circuitry, and by intelligence and mechanical aptitude, overpower and control the gigantic physical forces generated around her. This is what ocean racing is all about now, and the sea and its mystical, sweeping, moody magnificence is relegated to a footnote. It is just a condition to be noted and handled properly, like the surface of a grand prix race-course in rain. On l'aura compris, les compétences en jeu dépassent largement le cadre du milieu nautique, et la course au large n'a plus rien à voir avec la voile. C'est du moins ainsi que l'envisage le navigateur britannique Pete Goss lorsqu'il retrace la première édition du BT Global Challenge auquel il a pris part : « the race had little to do with sailing —it was simply the medium through which the crew would realise the challenge of a lifetime » (1998 : 60). La remarque de Pete Goss nous fournit une indication supplémentaire. Si les skippers se défendent d'écrire des livres sur la voile, ce n'est pas tant parce que la course au large nécessite la maîtrise de plusieurs domaines, que du fait de la représentation qu'ils cherchent à en donner. Pete Goss y voit avant tout une aventure : « This was an adventure in the true sense of the word » (1998 : 64). Cette définition montre à quel point la limite se brouille entre texte spécialisé et fiction. Pour Christian Messenger, auteur de deux ouvrages sur le sport et la littérature, la fiction sur le sport n'est autre qu'une manière d'inscrire le matériau sportif dans des schémas narratifs traditionnels (« ways in which conventional story patterns establish ways of dealing with sport material » (1981 : xviii)). On serait alors tenté de déduire, a contrario, que le matériau sportif constitue le cœur même des écrits de Pete Goss ou d'Ellen MacArthur, qu'il informe leur récit sans se couler dans des schémas préexistants. Et pourtant, la remarque de Pete Goss sous-tend une mise en récit qui ne s'appuie pas sur la voile. C'est donc cette mise en récit qu'il importe d'examiner ici. L'introduction à Classic Sailing Stories suggère que l'ensemble des textes rassemblés dans le recueil, qu'ils soient écrits par des professionnels de la voile ou par des écrivains, s'appuie sur une représentation de la mer comme scène, une scène sur laquelle se déroule leurs récits : « the sea is a wonderful stage on which to unroll a dramatic narrative or introduce a heroic character » (McCarthy 2003 : ix). La mer d'abord, donc, sur fond de tempête : The Nan-Shan was being looted by the storm with a senseless, destructive fury : trysails torn out of the extra gaskets, double lashed awning blown away, bridge swept clean […] My main concern was the waves. A large and menacing sea had been whipped up from the southwest. […] Individually they presented nothing more than one would expect — it was when they combined that they erupted into an unpredictable brute of tumbling water. Steep, savage seas, with 45-knots blasts right on the Cape of NW Spain. Last night was the toughest I've spent on board. […] The seas were just horrific, I couldn't stop her leaping over each wave and crashing down on to the next. Dans tous les cas le milieu est hostile (« looted », « large and menacing » « unpredictable brute »), sauvage (« savage »), violent (« senseless, destructive fury » « horrific »). Pourtant, si la première citation provient de Typhoon de Joseph Conrad (1903 : 44), la seconde est extraite de Close to the Wind de Pete Goss (1998 : 270), et la troisième du livre de bord d'Ellen MacArthur lors du « Vendée Globe » 2001. En personnifiant ainsi la mer le texte spécialisé rejoint la littérature. À l'instar du texte littéraire, il fait appel à l'imaginaire, et s'appuie sur une symbolique de l'océan déchaîné. Dès lors, si la mer est le point de départ de la mise en récit, la dimension mythique en est le principe structurant. Il suffira pour s'en convaincre d'examiner les récits du passage du Cap Horn, cap mythique s'il en est. Ainsi pour le narrateur de White-Jacket, doubler le Cap Horn s'apparente à une descente aux enfers : « Was the descent of Orpheus, Ulysses, or Dante into Hell, one whit more hardy and sublime than the first navigator's weathering of that terrible Cape ? » (in McCarthy 2003 : 103). Avec ces mots, Melville ancre définitivement son récit dans le mythe. De manière plus inattendue sans doute, un siècle plus tard Melville encore et le capitaine Ahab sont devenus les mythes à l'aune desquels se mesure la quête des navigateurs en solitaire. Un article de Sports Illustrated à la mémoire d'Alain Colas compare ainsi l'aspect physique du navigateur à celui d'Ahab : « he walked with a limp the result of a sailing accident. The limp gave him an Ahab-like mystique » (Johnson 1979 : 121). De fait les courses autour du monde en solitaire se prêtent à une exploitation mythique. La quatrième de couverture de Taking on the World annonce « A story of mythic shape ». Un homme / une femme seul(e) face à la furie des éléments déchaînés dans l'espace mythique qu'est le Grand Sud et dont la simple évocation suggère le danger, et déjà le myth point. Les textes produits par les navigateurs présentent une étonnante proximité avec les textes littéraires. C'est cette similitude dans le schéma narratif que nous voudrions montrer par le biais de la mise en récit d'une tempête. Les textes considérés sont d'une part Typhoon de Conrad et « MS found in a Bottle » d'Edgar Allen Poe, et d'autre part Taking on the World, Close to the Wind et un récit intitulé To the Great Southern Ocean écrit par un constructeur de navires à propos de sa propre navigation dans le Grand Sud. La mise en récit de la tempête comporte deux mouvements. Premier mouvement : le texte présente une série de signes annonciateurs de la tempête, à commencer par la chute de pression barométrique. It would have been idyllic if it hadn't been for the barometric pressure, which was dropping fast. A fall of thirty-six millibars in twenty-four hours, and most of that had been in the last twelve. The forecast looked horrifying — the isobars on the weather chart were so close together that they seemed to merge into a solid black line. (Goss 1998 : 266) The barometer was falling fast. (Robinson 1982 : 97) The barometer was still dropping. (MacArthur 2003 : 275) Observing the steady fall of the barometer (Conrad 1903 : 20) […] the barometer is rumbling down like anything. (Conrad 1903 : 24) Barometer still falling. (Conrad 1903 : 27) Viennent ensuite les nuages menaçants et noirs : « a dense black cloud became visible to the northward » (Conrad 1903 : 26); « Sunset threatening, with low bank of clouds to N. and E. Sky clear overhead » (Conrad 1903 : 26); « I observed a very singular, isolated cloud » (Poe 2002 : 147); « the dark sky wasn't listening » (MacArthur 2003 : 304) et une mer formée (« she wallowed in the massive swell of the approaching storm » (MacArthur 2003 : 315)). C'est enfin le vent qui augmente graduellement jusqu' à déchaîner toute sa furie : « the wind was upon the increase » (Poe 2002 : 150); « As night fell, both wind and sea were worse » (Robinson 1982 : 98). La description qu'en fait Pete Goss est particulièrement significative. L'augmentation constante du vent rythme son récit : « the wind […] was rising at an alarming rate » (1998 : 267); « The wind was still rising […] still the storm hadn't settled – it continued to rise » (1998 : 269) et il propose deux images caractéristiques. D'une part il offre la vision d'un vent hurlant cher à la fiction (« The wind was a screaming banshee lashing the ocean into a frenzy of spume and spray » [Goss 1998 : 269]), et d'autre part il souligne son aspect inquiétant par une référence aux enfers qui n'est pas sans évoquer la description de Melville dans White Jacket : « the wind was rising faster than I had ever experienced. I clambered back to the mast, put the third reef in and still the wind rose. Hell's teeth » (Goss 1998 : 267). Ensemble, ces signes visent d'abord à montrer le danger qui se profile à l'horizon (« I had a deep sense of impending doom […] I had experienced many severe blows over the years but this one, for some reason, held a heavy sense of foreboding. » [Goss 1998 : 266]), ils cherchent ensuite à convaincre le lecteur qu'il s'agit d'une tempête unique, mythique, une tempête dont la force défie l'imagination. C'est en tout cas ce que professent les textes : [I]t was to be the culminating storm experience of my life. Anything I had previously seen was child's play compared with what was in store for us during the next forty-eight hours (Robinson 1982 : 97). still more terrific than any tempest I had before encountered. (Poe 2002 : 150) Le décor ainsi planté, reste alors à l'auteur à placer son/ses personnage(s), et c'est là la deuxième étape. Gaston Bachelard voit dans « l'eau violente […] un schème de courage » (1991 : 226). Et c'est bien de cela qu'il s'agit, mettre en scène le courage de l'homme face à la furie des éléments. La quatrième de couverture de Close to the Wind résume admirablement ce dessein : « The story of a brave man; a man who turned into the teeth of a hurricane to save the life of a fellow competitor » (in The Spectator). Sur le même mode, la quatrième de couverture de Taking on the World souligne les qualités héroïques d'Ellen MacArthur : « The first true heroine of the twenty-first century » (in The Observer). En effet, si ces deux ouvrages sont des textes spécialisés, ce sont aussi les autobiographies des skippers. À ce titre, ils se donnent à lire comme une mise en scène de leur auteur. L'océan est alors le miroir qui renvoie et révèle tout à la fois l'image de leur héroïsme. « I ventured on deck and the fight began » (Goss 1998 : 273). Dans la lutte contre les éléments, l'exploit sportif prend des allures d'épopée. The sport hero in American fiction has been a special figure, a man apart from mass man. [….] Because of peculiar skills, he is lionized and given heroic status. (Messenger 1981 : 1) Le texte spécialisé obéit aux mêmes règles. La course autour du monde en solitaire se prête particulièrement bien à cet exercice. Pour mieux projeter l'exploit, il convient d' être seul. Les navigateurs ne s'y seront pas trompés. Des titres en forme de programme, tel Alone against the Atlantic (Spiess : 1981), aux remarques qui balisent leur textes (« one man, one boat against the elements » (Goss 1998 : 1); « except I was on my own » (Goss 1998 : 266), les skippers mettent en scène la solitude. Relater une course autour du monde à la voile revient certes à ancrer un texte dans le milieu de la voile, mais aussi à construire un récit. Or, dès lors que la mise en récit des textes spécialisés obéit à la même logique que celle des textes littéraires, se pose aussi la question de la langue employée. Et avec elle, celle de savoir s'il est possible de définir un style des autobiographies nautiques. « For better or for worse there is a language of sailing, » affirme Dennis Conner (1994 : 8). Quand ce spécialiste, quadruple vainqueur de la Coupe de l'America, s'adresse au néophyte il commence par définir la terminologie propre à la voile « We start with terminology » (1994 : 8). Sur le même mode, un article de The Guardian visant à initier les lecteurs à la voile se conclut, sous le titre de « Sailing Talk », par un petit glossaire des termes employés (5 août 2000). De fait si les navigateurs se défendent d'écrire des livres sur la voile (« I have not tried to write a sailing book, nor a book about the Vendée Globe » MacArthur 2003 : xix), c'est en partie parce que le grand public partage la vision de James Thurber sur la terminologie de voile, à savoir qu'elle pourrait tout aussi bien être du Sanscrit : […] the rigging of the modern sailing ship has become complicated beyond all necessity. If you want proof of this, you only have to look up the word rigging in the Encyclopaedia Britannica. You will find a drawing of a full-rigged modern ship and under it an explanation of its various spars, masts, sails, etc. […] The tendency of the average landlubber who studies this diagram for five minutes is to turn to Sanscrit in the encyclopaedia and study up on that instead. (1982 : 323-324) Afin d'atteindre le plus grand nombre de lecteurs possible, le professionnel de la voile revendique alors la transparence de la terminologie employée. Son texte se lit comme un roman et n'a pas besoin d' être décrypté, ou du moins telle est l'idée qu'il cherche à projeter. Cherchant à se rendre plus accessible, Ellen MacArthur définit son objet par le biais d'un glossaire : « I have assumed basic sailing knowledge in the text, but for those of you who have not yet experienced the feeling of water beneath you, there is a glossary at the back » (2003 : xviii). Mais ce glossaire a également une autre fonction, celle d'éliminer toute polysémie. Chaque terme renvoie à un signifiant unique qui fait consensus du fait même de sa définition. P. Lerat (1995 : 91) cite Guilbert à ce propos : « Le trait spécifique de la terminologie technique est la recherche de la monosémie par opposition à la polysémie généralisée des termes du lexique général de la langue ». C'est sans doute là également la différence essentielle avec la littérature. La littérature laisse résonner les mots et ouvre le texte sur de multiples lectures, alors qu' à l'inverse le texte spécialisé vise un sens univoque. Il suffit pour s'en convaincre d'examiner deux textes : d'une part un extrait du livre de bord d'Ellen MacArthur et, d'autre part, une référence à un autre livre de bord celui du navire de Typhoon : 10/11/00 (ellenmacarthur.com/day2) Position 44°51.8N 006°48.1W Heading/speed 264 0 Wind from 219 at 13.1 knots Pressure of 1016 Sea Temperature 10 Sail configuration is Full main Genoa Percentage performance 0 Tonight the moon is out, the sky close to clear — gazing the deck with moonlight. We're close hauled on port tack, and with a wind shift in our favour we're now heading towards Finisterre. All is well on board, I feel very relaxed […] (MacArthur 2003 : 252) At eight o'clock Jukes went into the chart room to write up the ship's log. He copied out neatly out of the rough-book the number of miles, the course of the ship, and in the column for “wind” scrawled the word “calm” from top to bottom of the eight hours since noon. He was exasperated by the continuous, monotonous rolling of the ship. The heavy inkstand would slide away in a manner that suggested perverse intelligence in dodging the pen. Having written in the large space under the head of “Remarks,” “Heat very oppressive,” he stuck the end of the penholder in his teeth, pipe fashion, and mopped his face carefully. “Ship rolling heavily in a high cross swell,” he began again, and commented to himself, “Heavily is no word for it.” Then he wrote : “Sunset threatening, with low bank of clouds to N. and E. Sky clear overhead.” (Conrad 1903 : 26) MacArthur et Conrad mentionnent la distance parcourue, le cap et la force du vent, pourtant la première impression est d' être confronté d'une part à une liste brute et d'autre part à sa mise en forme textuelle. Le texte de Conrad ne serait alors rien de plus que la mise en récit du livre de bord du Nan-Shan, le décodage d'une procédure technique. Pourtant, si l'on s'en tient à cette analyse, il est difficile de rendre compte de manière adéquate de Taking on the World. Mêlant des extraits de livre de bord à des passages narrés, Mac Arthur propose un texte hybride où alternent texte codifié et narration à la première personne. La différence est ailleurs. Pour ce qui est du vent, « calm » s'oppose à « 13.1 knots ». Si le premier laisse la place à l'interprétation, le second propose une lecture univoque. La logique qui prévaut ici est la même que pour l'inclusion du glossaire, le texte spécialisé vise la monosémie. De manière plus évidente encore pour ce qui est du cap, là où Conrad relate les actions effectuées et mentionne le cap sans le livrer au lecteur (« copied out neatly out of the rough-book […] the course of the ship »), MacArthur transmet précisément la position du bateau (« Position 44° 51.8N 006° 48.1W »). Le flou laissé par la phrase de Conrad interdit au lecteur de placer le navire sur une carte. Dépourvu de repères spatiaux stricts, son sort est alors de l'ordre de la métaphore. À l'inverse les indications précises de Mac Arthur sur la force du vent et le cap ancrent le récit dans la logique de course. Elle nous livre sans les modifier les éléments, consignés dans le livre de bord, qui lui ont permis de déterminer ses options tactiques. Ce choix n'est pas sans importance. Ailleurs elle fera le choix inverse d'occulter certaines informations : « I remembered that at one point we were sailing with a fair amount of wind with three reefs in. We were under-canvased » (183). On peut donc émettre l'hypothèse que l'extrait de Taking on the World nous plonge dans une logique de course, alors qu' à l'inverse, l'extrait de Typhoon invite à une lecture poétique. C'est du reste ainsi qu'il faut comprendre les commentaires que Conrad insinue entre les indications techniques. Ses remarques sur l'encrier et sur le stylo sont autant d'indications sur l'état d'esprit du personnage. La dernière phrase de l'extrait mérite qu'on s'y arrête : « Sunset threatening, with low bank of clouds to N. and E. Sky clear overhead ». Isolée du reste du texte, la phrase ne se distingue d'un écrit spécialisé ni au niveau du lexique employé, ni au niveau de son style. On serait peut-être même plus enclin à la considérer comme un texte spécialisé que la phrase de MacArthur qui évoque l'état du ciel : « Tonight the moon is out, the sky close to clear — gazing the deck with moonlight. » Ce qui caractérise le texte de Conrard par rapport à celui de MacArthur, ce n'est donc ni la technicité des termes employés, ni la structure de phrases isolées, mais son agencement. L'ensemble du texte tend vers la remarque finale en forme d'écho au titre « And then he closed resolutely his entries : ‘ Every appearance of a typhoon coming on. ' » (Conrad 1903 : 27). Au final, le texte s'appuie sur une organisation poétique. À l'inverse, l'architecture du texte spécialisé obéit à une logique professionnelle. Dans la première partie de l'extrait de Taking on the World, l'ordre des termes est prédéfini par l'usage et est donc strictement identique d'un skipper à l'autre. Le livre de bord doit comporter un certain nombre de rubriques, rubriques qui chacune appellent un nombre limité de possibles. À « Sail configuration » répond ainsi un nombre précis de combinaisons, où « full main », « 1 st reef », « 2 nd reef » et « 3 rd reef » peut être associé à « solent », « genoa », « code 5 » et « spinnaker ». MacArthur se conforme ici à l'usage professionnel usuel et l'architecture interne du passage est de l'ordre du code. En revanche, la seconde partie de l'extrait et l'agencement des extraits de carnet de bord dans la narration n'est plus de l'ordre de la procédure technique. Et c'est là tout son intérêt. MacArthur aura voulu nous donner à voir sa logique de course, ses options tactiques propres. Une course ne se gagne pas en reproduisant des procédures techniques attestées mais par des options tactiques personnelles. C'est bien cela que reflète le texte, la part du personnel dans le technique. Lorsque le professionnel du sport emprunte à la littérature ses schémas narratifs, et inversement lorsque l'écrivain emprunte au sportif sa terminologie, les limites entre langue spécialisée et littérature s'estompent. Loin de compromettre l'étude de la langue spécialisée, ce brouillage permet au contraire de mieux la définir. Il interdit de réduire le milieu professionnel à une pure technicité, de limiter l'étude de la langue à celle des caractéristiques de sa terminologie. Dans le cas d'une course autour du monde en solitaire, l'aventure, la quête, et la compétition sont partie intégrante du sport au même titre que la maîtrise technique du navire et du milieu dans lequel il évolue. Ils influent donc sur la langue de la voile et sur les écrits spécialisés. En montrant l'influence du skipper sur le texte spécialisé, cette étude aura surtout voulu envisager la langue spécialisée comme un milieu mouvant. Si le texte spécialisé est codifié, il n'est pas figé .
L'objet de cet article est d'interroger l'espace d'intersection òu la langue de spécialité rejoint la littérature. Puisant son inspiration dans la voile, la littérature en revendique une exploitation métaphorique. À l'inverse, les professionnels de la voile s'arrogent l'unique maîtrise de l'expertise technique. Rien ne semble donc plus éloigné que littérature et langue de spécialité. Pourtant, dès lors que l'on examine les textes, les limites se brouillent. Les récits des courses au large en solitaire d'Ellen Mac Arthur (Taking on the World) et de Pete Goss (Close to the Wind) rejoignent Melville et Conrad dans leur exploitation de la mer comme espace mythique. C'est ce que cette étude montre dans un premier temps en examinant comment la fonction mythique influe sur la structure des textes spécialisés. L'article s'attache ensuite à savoir ce qui différencie et rapproche tout à la fois « la langue de la voile » et la langue littéraire quand celle-ci traite de la voile. Au travers de Taking on the World et de Typhoon l'auteur montre que c'est moins l'emploi de termes techniques qui différencie le texte spécialisé du texte littéraire, que l'influence de la visée poétique ou professionnelle sur la structure globale des textes.
linguistique_524-06-11082_tei_501.xml
termith-578-linguistique
Les dictionnaires et les glossaires du français répertorient au moins 130 expressions verbales en faire, dans lesquelles le verbe faire régit un verbe à l'infinitif et s'analyse comme un opérateur causatif. Les expressions sont du genre de celles qui figurent dans les phrases suivantes : Jean fait marcher Léa, Cette histoire fait jaser, Léa fait bouillir la marmite, Max a fait mourir Léa à petit feu, Max s'est fait secouer les puces par Luc, Le succès se fait attendre, etc. Ces phrases peuvent être considérées comme figées à des degrés variables en fonction tout d'abord du degré d'autonomie de la phrase élémentaire vis-à-vis de l'opérateur causatif N faire #. Ainsi, Léa a marché, On va jaser, On lui a secoué les puces sont des phrases parfaitement acceptables, avec le sens qu'elles ont dans la structure causative, même si leur emploi est plus fréquent dans la structure causative. A l'inverse, dans les phrases Léa fait bouillir la marmite ou Max a fait mourir Léa à petit feu, il paraît plus difficile de dissocier les phrases La marmite bout ou Léa est morte à petit feux de l'opérateur causatif, et de considérer qu'elles sont porteuses d'une interprétation particulière entrant en combinaison avec celle de l'opérateur causatif. Par ailleurs, dans ces phrases considérées globalement, on peut observer soit le figement de tout le groupe verbal à l'infinitif avec le verbe faire, comme dans Léa fait bouillir la marmite ou Marie fait danser l'anse du panier, soit le figement d'une partie seulement du groupe verbal à l'infinitif avec le verbe faire, la position unique de complément, ou l'une des positions de complément, restant libre, comme dans Max fait marcher Léa et Max a fait entendre raison à Léa. Dans notre classification générale des phrases figées en faire, inspirée des travaux de M. Gross sur le lexique-grammaire du français, nous désignons cette classe sous l'intitulé FV. Sa structure définitionnelle est : N 0 faire V W et, plus spécifiquement : N 0 (N 0 = : Nhum + N-hum) faire V-inf N 1 (E + Prép N 2) (E + Adv) Nous étudierons essentiellement ici la structure syntaxique de ces phrases, en recourant systématiquement à la comparaison avec la structure des phrases libres. Le sujet des expressions verbales figées de notre classe FV est soit un Nhum soit un N-hum (N 0 = : Nhum + N-hum). Son rôle sémantique est tout à fait semblable à celui du sujet de l'opérateur causatif N faire # appliqué à une phrase élémentaire libre (M. Gross 1981). Ainsi, dans l'exemple (1), où l'on a N 0 = : Nhum : (1) a. Max a fait # Léa travailler b. Max a fait travailler Léa le sujet est agentif. Il intervient auprès du sujet humain de la phrase élémentaire pour lui imposer un comportement ou une action (cf. L. Tasmowski 1985 : 339). Dans l'exemple (2), où l'on a N 0 = : N-hum : (2) a. La pluie a fait # Le terrain glisser b. La pluie a fait glisser le terrain le sujet est causatif. Il désigne le phénomène qui est à l'origine du processus ou qui a provoqué le processus décrit dans la phrase élémentaire. Dans les exemples suivants, où N 0 = : Nhum, N 0 est dépourvu de toute interprétation agentive et l'opérateur causatif a pour seul effet de conférer une sorte de voix passive à la phrase élémentaire. N 0, coréférent au C.O.D. ou au C.O.I. de la phrase élémentaire, hérite du rôle sémantique qui est celui du C.O.D. ou du C.O.I. dans celle -ci. Ainsi, dans (3), N 0 est un patient comme le C.O.D de la phrase élémentaire : (3) a. Max a fait # Le directeur réprimander Max b. Max s'est fait réprimander par le directeur et dans (4), N 0 est un bénéficiaire, comme le C.O.I. de la phrase élémentaire : (4) a. Max a fait # Le directeur reprocher à Max son incompétence b. Max s'est fait reprocher son incompétence par le directeur D'un point de vue sémantique, le rôle de l'opérateur causatif revient essentiellement ici à placer en position de topique l'un des arguments de la phrase élémentaire. Cependant, à toute phrase élémentaire dont l'un des arguments est C.O.D. ou C.O.I. ne peut s'associer une phrase à opérateur causatif ayant pour rôle de topicaliser l'un de ces arguments. Ainsi, si N 1 le C.O.D. de la phrase élémentaire, n'est pas un vrai patient, i.e. un Nhum affecté par le processus décrit, alors il ne peut pas être topicalisé au moyen de l'opérateur causatif à fonction de topicalisation : Max a fait # De nombreuses personnes ont aperçu Max * Max s'est fait apercevoir par de nombreuses personnes vs Max a fait # De nombreuses personnes ont abordé Max Max s'est fait aborder par de nombreuses personnes Remarque. Le verbe voir a des emplois semblables à celui de l'opérateur causatif dans cette dernière fonction : Max s'est vu expulser de la salle par les vigiles Max s'est vu confier une mission délicate par le directeur Nous retrouvons dans les phrases figées de type N 0 faire V W du français, pour le sujet N 0 de l'opérateur causatif, les mêmes valeurs que pour celui des phrases libres : Léa fait marcher la boutique Ce fait divers a fait couler beaucoup d'encre Max s'est fait trouer la peau Dans les constructions libres N 0 faire V-inf W, il convient de distinguer, comme le font Damourette et Pichon (1911-1950, t. III § 1107 et t. V § 2046), deux types de construction, la seconde pouvant à son tour se subdiviser en deux sous-types. Le premier type de construction – désormais construction de type 1 – peut être représenté par les exemples : (1) Je le ferai criembre (2) Je le ferai chanter cette chanson (3) Je ferai chanter Louis Le verbe faire est ici suivi d'une véritable proposition infinitive, comparable à celle de la phrase latine Jussit Trimarchiden facere aestimationem. Cette proposition infinitive est formée d'un C.O.D. de faire (le pronom préverbal = : le en (1) et (2), le GN = : Louis en (3)), accompagné d'un groupe verbal à l'infinitif « attribut » du C.O.D. Le second type de construction se caractérise par la « coalescence » entre le verbe faire et l'infinitif placé immédiatement à sa droite. Deux sous-types sont distingués, le premier – désormais construction de type 2a – peut être représenté par les exemples : (4) Je lui ferai criembre (5) Je lui ferai chanter une chanson le second – désormais construction de type 2b – peut être représenté par l'exemple : (6) Je ferai chanter une chanson par Louis Dans les constructions de type 2, les arguments de la phrase élémentaire acquièrent un nouveau statut par rapport au complexe verbal faire V-inf. En (4) et (5), dans la construction de type 2a, les compléments datifs désignent l'individu « intéressé » par le procès global (Damourette et Pichon, § 1080) et sont syntaxiquement liés au verbe faire. En (6), dans la construction de type 2b, le complément d'agent désigne l' « agent d'exécution » du procès global (Damourette et Pichon, § 1080) et est syntaxiquement lié au verbe infinitif (Damourette et Pichon, § 1599). Ces distinctions valent aussi pour les constructions figées N 0 faire V-inf W. Cependant, pour les constructions figées, la situation est modifiée du fait que la phrase prend généralement un sens global non réductible à celui d'un opérateur causatif appliqué à une phrase élémentaire et que le complexe faire V-inf tend à s'assimiler, sémantiquement, dans tous les types distingués, à un verbe unique pourvu de ses propres arguments. Dans les phrases figées, pour les deux types de construction, V-inf est beaucoup plus étroitement lié au verbe faire. Considérons la phrase (7), dans son sens idiomatique « exercer un chantage sur quelqu'un » : (7) Je ferai chanter Louis « J'exercerai un chantage sur Louis » Le V-inf = : chanter figure obligatoirement à droite du verbe faire et ne peut en aucun cas être précédé du GN = : Louis, dans quelque variété de français que ce soit : (8) *Je ferai Louis chanter « J'exercerai un chantage sur Louis » Par ailleurs, faire chanter est perçu comme un prédicat sémantique unique, muni de deux arguments, un agent et un patient. Considérons à présent la phrase (3), dans son sens littéral : (3) Je ferai chanter Louis Dans certaines variétés de français contemporain (français de la Guyane, des Antilles, de la Réunion), ainsi qu'en français classique, on rencontre couramment, parallèlement à (3) : Je ferai Louis chanter De même, alors qu'au sens littéral, et ce dans toutes les variétés de français, on dit aussi bien (9) que (10) : (9) Paul a laissé Marie tomber (10) Paul a laissé tomber Marie le sens idiomatique « abandonner » n'est possible que dans le cas où V-inf = : tomber figure directement à droite du verbe laisser. Nous présentons sous forme de table l'ensemble des phrases figées de la classe FV. Ces phrases sont segmentées en une suite linéaire de champs dont l'intitulé précise la nature. Le codage de la nature du sujet de V-inf permet de distinguer trois grandes sous-classes de phrases figées FV, qui correspondent aux constructions 1, 2a, et 2b spécifiées en fonction des analyses de Damourette et Pichon. Les phrases figées N 0 faire V 1 - inf W sont celles dont le sujet de V-inf est le GN, libre ou figé, placé normalement à droite de V-inf et noté N 1. Ces phrases sont donc du type On a fait chanter Louis ou Léa fait bouillir la marmite. Les phrases N 0 faire V 1 - inf W sont les plus nombreuses (72 sur les 132 de notre corpus). Plusieurs cas sont à distinguer pour le sujet N 1 de V 1 - inf W : – Le sujet est fixe, il est figé avec V-inf dans l'expression verbale. Ce cas est le plus fréquent : Léa fait bouillir la marmite Léa fait bruire ses fuseaux Léa fait danser l'anse du panier Léa fait durer le plaisir Léa fait jouer la corde sensible Léa a fait sauter les scellés etc. – Le sujet est un groupe nominal libre humain (N 1 = : N-hum) : Max fait chanter Luc Max fait damner ses parents Max fait marcher Luc Max a fait mourir Luc à petits feux Max fait suer le burnous etc. ou un groupe nominal libre non humain (N 1 = : N-hum) : Max fait marcher (la boutique + l'usine + la ferme + …) La pluie a fait périr (les plantes + les arbres + les fleurs + …) etc. – Le sujet correspond au pronom réfléchi se, coréférent au sujet N 0 de faire et placé à gauche de faire. Dans ce cas, la position N 1 de la table est vide : Max se fait hier Max ne se fait pas chier Max se fait pousser etc. – Le sujet, non exprimé, est indéfini. Considérons à titre d'exemples les phrases suivantes : (1) Cette histoire fait jaser (2) Max fait parler de lui (3) On fait aller En (1), le sujet de jaser, non exprimé, est un sujet humain à référence arbitraire. On peut le rapprocher d'un GN générique tel que les gens : en effet, parallèlement à Cette histoire fait jaser, on accepte, avec le même sens Cette histoire fait jaser les gens. Dans la phrase (2), le sujet non exprimé est également un sujet humain à référence arbitraire, mais l'introduction d'un GN générique tel que les gens est impossible ici, en raison vraisemblablement de la présence du complément indirect de lui : ? Max fait parler les gens de lui ? Max fait parler de lui les gens Dans la phrase (3), le sujet de aller semble être assimilable au pronom démonstratif non humain ça. En effet, (3) s'associe naturellement à la question stéréotypée Comment ça va ? N 1 sujet peut être cooccurrent avec un complément indirect à N 2 (N 2 = : Nhum). N 2 représente alors l'individu affecté par le procès : Max a fait passer le goût du pain à Luc Max a fait rentrer les mots dans la gorge à Luc Max a fait toucher les épaules à Luc Max fait tourner la tête à Léa Max a fait sauter le plafond à Luc et N 1 est souvent lié à N 2 par une relation partie-tout, comme dans quatre des cinq exemples ci-dessus. Du point de vue du fonctionnement syntaxique, pour les phrases relevant de la structure N 0 faire V 1 - inf W, il n'existe aucune différence entre phrases libres et phrases figées, notamment pour la passivation. Ainsi, lorsque V-inf est un inergatif, la passivation de la phrase, avec placement de N 1 en position sujet, est totalement interdite, qu'il s'agisse de phrases libres : Max a fait travailler Luc = *Luc a été fait travailler par Max ou de phrases figées : Max a fait marcher Luc « Max a berné Luc » = *Luc a été fait marcher par Max Mais elle est beaucoup mieux acceptée lorsque V-inf est un inaccusatif, qu'il s'agisse indifféremment de phrases libres : On a fait parvenir ce message à Luc = ?Ce message a été fait parvenir à Luc ou de phrases figées : On a fait venir Luc à Jubé = ?Luc a été fait venir à Jubé On a fait mourir Luc à petits feux = ?Luc a été fait mourir à petits feux Il apparaît donc que l'unité sémantique que semble manifester faire Vinf dans les expressions figées (cf. faire marcher, « berner ») ne permet pas de conférer le statut de C.O.D. au GN qui suit. Celui -ci demeure, dans les cas observés ci-dessus, le sujet d'un verbe inaccusatif ou d'un verbe inergatif et fonctionne comme tel. On rappelle pour mémoire qu'en italien, en occitan, et en français jusqu'au 17 ème siècle, la passivation est parfaitement courante dans les phrases de structure N 0 faire V 1 - inf W lorsque V-inf est un inaccusatif : Italien Hanno fatto (morire + venire) Giovanni = Giovanni è stato fatto (morire + venire) Occitan An fach (morir + venir) Max = Max es estat fach (morir + venir) Français classique On fit (mourir + venir) Max = Max fut fait (mourir + venir) Les phrases figées de structure N 0 faire V 2 - inf W sont beaucoup moins nombreuses que les phrases figées de structure N 0 faire V 1 - inf W (21 sur les 132 de notre corpus). Le sujet de V-inf, N 2, figure à titre de complément prépositionnel en à, et il s'agit d'un N humain (N 2 = : Nhum). N 2 est nécessairement cooccurrent à un complément d'objet direct de V-inf, (N 1). Ces phrases relèvent de la construction 2a, et pour elles, toute autre construction est interdite. Ainsi, dans le cas de la structure libre, les phrases suivantes relevant des constructions 1, 2a et 2b sont toutes trois acceptées avec les nuances de sens et de registre signalées plus haut : Je le ferai chanter une chanson Je lui ferai chanter une chanson Je ferai chanter une chanson par lui L'expression verbale faire chanter une autre chanson « faire baisser le ton, faire adopter un comportement moins agressif » (Rey-Chantreau 1979) relève de la construction 2a et est incompatible avec une autre construction : *Je le ferai chanter une autre chanson Je lui ferai chanter une autre chanson *Je ferai chanter une autre chanson par lui De même, si les phrases suivantes sont acceptées avec la nuance « langue vieillie » ou « langue classique » : Elle le fit (boire + avaler) son médicament la phrase suivante dans laquelle avaler la pilule signifie « supporter un désagrément, une insulte … » (Furetière) n'est compatible qu'avec la construction 2a : *Elle le fit avaler la pilule Elle lui fit avaler la pilule On peut distinguer deux sous-classes de phrases figées N 0 faire V 2 - inf W en fonction de la nature du complément d'objet direct de V-inf : – Le complément d'objet direct occupe la position N 1, le plus souvent il est figé avec V-inf : Max a fait avaler la pilule à Léa Max a fait baisser la chanterelle à Léa Max a fait danser la carmagnole à Luc Max a fait entendre raison à Luc Max a fait passer un mauvais quart d'heure à Luc Max a fait perdre le goût du pain à Luc Max a fait avaler (ce bobard + cette histoire + Qu P) à Luc etc. – Le complément d'objet direct est un pronom préverbal placé à gauche de faire. Dans ce cas, dans la table, la position N 1 demeure vide en général : Max en fait accroire à Léa Max en fait baver à Léa Max en fait voir de toutes les couleurs à Léa Max la fait fermer à Léa Je ne (te + vous) le fais pas dire etc. Dans les trois premiers exemples, le pronom en a une interprétation indéfinie. Il pronominalise un GN non humain générique du type des choses. Dans l'exemple Max en fait voir de toutes les couleurs à Léa, de toutes les couleurs, que nous avons fait figurer dans la position N 1, est un élargissement attributif du C.O.D. en, comme douce dans Max se la coule douce. Dans Max la fait fermer à Léa, la pourrait pronominaliser la gueule, les phrases Max la fait fermer à Léa et Max fait fermer sa gueule à Léa étant synonymes : le pronom la jouerait un rôle euphémique par rapport au GN. Les phrases formulaires Je ne (te + vous) le fais pas dire supposent une situation d'interlocution, mais on peut les trouver à la troisième personne, dans le cas d'un locuteur parlant de lui à la troisième personne (e.g. Alain Delon) : Il ne vous le fait pas dire, ou dans le cas du style indirect libre : Il ne le lui faisait pas dire, ou même à la deuxième personne dans le type d'interlocution adopté par M. Butor dans La modification : Tu ne me le faisais pas dire. Tout comme dans le cas des phrases relevant de la structure N 0 faire V 1 - inf W, il n'existe aucune différence entre phrases libres et phrases figées au regard de la passivation. La passivation de ces phrases, avec placement de N 1 en position sujet, est acceptée avec même degré d'acceptabilité que la passivation des phrases N 0 faire V 1 - inf W lorsque V-inf est un inaccusatif – ce qui confirme l'identité de traitement pour N 1 sujet d'un verbe inaccusatif et N 1 complément d'objet direct d'un verbe transitif : On a fait boire du lait à Max = ?Du lait a été fait boire à Max On a fait avaler la pilule à Max = ?La pilule a été faite avaler à Max On rappelle pour mémoire qu'en italien, en occitan et en français jusqu'au 17 ème siècle la passivation est pleinement acceptée pour les phrases de structure N 0 faire V 2 - inf W : Italien Hanno fatto stampare questo documento a spese dello statu = Questo documento è stato fatto stampare a spese dello stato Occitan An fach estampar aquel document als fraisses del estat = Aquel document es estat fach estampar als fraisses del estat Français classique On a fait amener Jean Ricous en une salle du château de l'Arsenal = A été fait amener en une salle du château de l'Arsenal Jean Ricous Les phrases figées de structure N 0 faire V-inf W par N sont comparables en nombre aux phrases figées de structure N 0 faire V 2 - inf W (29 sur les 132 de notre corpus). Elles relèvent de la construction 2b. Par N, « complément circonstanciel » pour Damourette et Pichon qui lui assignent pour rôle celui d' « agent d'exécution » est noté dans la colonne Adv. La plupart du temps, il est non exprimé. Sont des phrases N 0 faire V-inf W par N les phrases notées « - » dans la colonne V 1 - inf W (i.e. les phrases dont le sujet de V-inf n'est pas N 1) et notées « - » également dans la colonne V 2 - inf W (i.e. les phrases dont le sujet n'est pas non plus N 2). Le sujet ne peut donc être que le GN exprimé ou susceptible d' être exprimé par le complément en par. Dans l'ensemble de ces phrases, l'opérateur causatif N 0 faire # joue deux rôles différents : soit il garde son rôle d'opérateur causatif, comme dans la phrase libre Max s'est fait arracher une dent, soit il sert à topicaliser un actant complément de la phrase régie par l'opérateur causatif, en conférant à la phrase figée une sorte de voix passive, comme dans la phrase libre Max s'est fait écraser par une voiture ou Max s'est fait piquer par un serpent. Dans les phrases suivantes, N 0 faire # est un opérateur causatif fonctionnant comme tel : Max se fait mal voir Max se fait oublier Max se fait prier Max s'est fait porter pâle etc. N 0 est l'agent instigateur ou responsable du processus décrit dans la proposition élémentaire (être mal vu, être oublié, être prié, être porté pâle, etc.). Dans les phrases suivantes N 0 faire # est un opérateur causatif à fonction de topicalisation : Max s'est fait enguirlander Max s'est fait trouer la peau Max s'est fait secouer les puces Max s'est fait remonter les bretelles Max s'est fait appeler Jules etc. N 0 a un rôle de patient ou de bénéficiaire, celui -là même du C.O.D. ou du C.O.I. de la phrase élémentaire – représenté par se – et auquel N 0 est coréférent. Notons en outre que ces phrases, quoique moins courantes que les phrases correspondantes à opérateur causatif, sont généralement admises, avec le même sens : ?On l'a enguirlandé, Max On lui a troué la peau, à Max On lui a secoué les puces, à Max On lui a remonté les bretelles, à Max ?On l'a appelé Jules, Max L'opérateur causatif à fonction de topicalisation peut être considéré comme une sorte d'opérateur à lien (M. Gross 1981). Comme tout opérateur à lien, il exige en effet un rapport de coréférence entre son sujet et un GN complément de la phrase élémentaire, et l'effet sémantique obtenu est de faire de ce GN de la phrase complément le point de départ et le centre d'intérêt de l'énoncé, autrement dit son topique. Rappelons le fonctionnement de l'opérateur à lien classique N 0 avoir # : Max a # Luc est dans le collimateur de Max = Max a Luc dans le collimateur Léa a # Le fils de Léa est malade = Léa a son fils malade Ces emplois montrent que phrases élémentaires et phrases à opérateur causatif ont même sens, mais l'organisation de l'information est différente. Ainsi, dans les phrases élémentaires, il est question respectivement de Luc et du fils de Léa, tandis que dans les phrases à opérateur causatif à fonction de topicalisation, il est question respectivement de Max et de Léa, mis au premier plan. L'analyse syntaxique des expressions causatives figées du français fait apparaître trois types de construction qui correspondent à ceux là même que distinguent Damourette et Pichon pour les phrases causatives libres : – La construction directe, dans laquelle la phrase élémentaire est représentée par une proposition infinitive (cf. Paul le fait chanter une chanson, Paul le fait marcher). – La construction à groupe verbal coalescent faire V-inf, dans laquelle le sujet de la phrase élémentaire est représenté par un complément datif (cf. Paul lui a fait chanter une chanson, Paul lui a fait sauter le caisson). – La construction à groupe verbal coalescent faire V-inf, dans laquelle le sujet de la phrase élémentaire est représenté par un complément en par/de (cf. Paul a fait chanter une chanson par Louis, Paul s'est fait oublier des autorités). Dans le dernier type de construction, seule est attestée – pour les phrases figées – la structure dans laquelle un complément de la phrase élémentaire est coréférent au sujet N 0 de l'opérateur causatif. Toute les structures observées sont donc en se faire V-inf. Cependant, pour les phrases figées comme pour les phrases libres, deux fonctions se distinguent clairement pour l'opérateur causatif : soit l'opérateur causatif joue son rôle classique d'opérateur causatif (le sujet N 0 de faire agit en sorte qu'un tiers exécute une action particulière ou se trouve dans une situation particulière) : Jean s'est fait soigner par un médecin, Jean s'est fait oublier de la police, soit l'opérateur causatif a une fonction de topicalisation pour un actant de la phrase élémentaire qu'il régit : Jean s'est fait piquer par un serpent, Jean s'est fait enguirlander par le patron. Dans le cas des phrases libres, les trois types de construction sont en certains cas possibles, avec les nuances sémantiques signalées plus haut. Dans le cas des phrases figées, seule l'une des trois constructions est observable, ce qui permet de répartir l'ensemble des phrases en trois sous-ensembles naturels. Le caractère idiomatique de ces phrases et les spécificités de sens propres à chacune des constructions expliquent l'appartenance des phrases figées à une seule des trois constructions .
Les dictionnaires et les glossaires du français recensent environ 150 expressions causatives figés ou semi-figées du genre « Léa fait bouillir la marmite », « Paul a fait avaler la pilule à Léa », « Luc s’est fait enguirlander », etc. L’analyse syntaxique permet de dégager trois grands types de construction pour ces phrases, identique à ceux des phrases libres à savoir : - la construction direct (« Léa fait cuire le poulet / Léa fait bouillir la marmite ») - la construction à groupe verbale « coalescent » faire-V-inf dans laquelle le sujet de la phrase élémentaire est représenté par un complément en « à » (« Léa a fait boire le sirop à Luc / Léa a fait avaler la pilule à Paul ») - la construction à groupe verbale « coalescent » faire-V-inf dans laquelle le sujet de la phrase élémentaire est représenté par un complément en « par » (« Léa a fait traduire le texte par Paul / Paul s’est fait enguirlander par Léa ») L’A. montre les spécificités des phrases figées par rapport aux phrases libres.
linguistique_11-0057861_tei_849.xml
termith-579-linguistique
Les réflexions proposées ici, qui développent des hypothèses présentées par ailleurs (par exemple dans Boyer, 2003), mobilisent plusieurs paradigmes notionnels, empruntés pour l'essentiel aux champs de la sociolinguistique, de la psychologie sociale, de la sémiotique et de l'analyse des discours médiatiques. Il s'agit d'une ébauche de modélisation transdisciplinaire, immanquablement hétérodoxe. Elle s'appuie sur la sollicitation de démarches qui, en général, s'ignorent. Si une convergence a pu avoir lieu, c'était avant tout pour nourrir une réflexion à visée didactique en direction d'un public d'étudiants mais aussi de formateurs de formateurs à qui il fallait présenter la structuration de notre imaginaire national et démontrer l'utilité de la fréquentation des discours médiatiques à cet effet. Le cœur de la réflexion étant bien entendu le repérage et le fonctionnement en discours des représentations partagées (collectives, sociales) au sein d'une communauté nationale donnée : en l'occurrence la France. Mais la « francité » (Barthes, 1957), bien qu'exemplaire à plusieurs titres, n'est qu'un imaginaire communautaire parmi d'autres (cependant assez facile à circonscrire), ce que met bien en évidence la démarche interculturelle. Eliseo Verón a montré (Verón, 1991) le changement culturel qu'avait supposé le dépassement d'une société « médiatique » et l'avènement d'une société « médiatisée ». En effet, le fait que des médias (presse, radio essentiellement) occupent un espace institutionnel national important au même titre que d'autres instances globales de production de discours n'a pas grand-chose à voir avec le fait que les médias – et l'installation de l'hégémonie télévisuelle y est pour beaucoup (Boyer, Lochard, 1998b) – sont devenus les institutions par excellence de production de l'interdiscours dominant dans la société concernée, supplantant largement dans cette fonction des institutions comme les partis politiques ou même l' École. Les médias, singulièrement aujourd'hui la télévision, sont bien des lieux de production de discours fonctionnellement promotionnels : même s'ils ne créent pas de toutes pièces de la matière représentationnelle (socioculturelle), ils en sont les principaux pourvoyeurs, sélectifs bien entendu, c'est-à-dire filtrants, minorants, mais aussi redondants et emphatiques, avec une tendance appuyée, on le sait, à la conformité et au figement. Et il y a donc, comme le souligne Verón, un risque d' « exclusivité ». Cependant ces mêmes médias, qui sont autant de lieux d'élaboration de produits signifiants (verbaux, verbo-iconiques, audiovisuels…) particulièrement impliqués dans la diffusion de représentations partagées (composantes de base, selon moi, de l'imaginaire collectif – ou des imaginaires collectifs), demeurent par ailleurs incontournables pour le repérage et l'analyse de ces représentations sous leurs diverses modalités de manifestation en discours. À partir d'une libre lecture des modélisations en matière de fonctionnement des structures sociocognitives présentées par la sémiologie et surtout par diverses tendances de la psychologie sociale, j'ai proposé un paradigme au sein duquel s'articulent les concepts qui tentent d'éclairer la connaissance qu'on peut avoir de la nature d'un imaginaire collectif (ou des imaginaires collectifs) propre(s) à une société donnée ou à tel ou tel de ses sous-ensembles. Le concept pilier est sans conteste le concept de représentation. La « représentation », « collective » ou « sociale » (Rouquette, Rateau, 1998, p. 15; Moscovici, 2002, p. 16), est un mode de connaissance des objets sociaux qui relève du sens commun et qui a une « visée pratique » (Jodelet, 1989, p. 36). On sait que l'une des orientations de la psychologie sociale a développé la théorie dite du « noyau central » qui identifie deux ensembles de constituants de la représentation : le système central, fermé, qui garantit à la représentation sa stabilité et un système périphérique où les traits, de nature contextuelle et donc instables, permettent l'adaptabilité de la représentation. On sait par ailleurs que c'est la « mise en cause d'éléments centraux [qui] entraîne […] une transformation de la représentation, mais ceci uniquement si la situation est perçue comme irréversible » (Abric, 2002, p. 91; c'est moi qui souligne). On peut considérer que l'idéologie « [est] constituée […] d'un système (réseau) de représentations en interconnexion » (Mannoni, 1998, p. 54), qu'elle est « l'instance de raison des représentations » (Rouquette, Rateau, 1998, p. 24). En définitive, il s'agit d'une construction sociocognitive spécifique, établie sur la base d'un ensemble plus ou moins limité de représentations : une construction à visée dominatrice (qu'elle soit ostensible ou occultée) proposant une certaine vision du monde et susceptible de légitimer des discours performatifs et normatifs et donc des pratiques individuelles et des actions collectives dans la perspective de la conquête, de l'exercice, du maintien d'un pouvoir (politique, culturel, spirituel…), ou à tout le moins d'un fort impact (coercitif ?) au sein de la communauté concernée ou face à une autre/d'autres communauté(s) (Boyer, 2003, p. 17). Et l'on ne peut que dénoncer la « forte tentation […] de limiter l'usage du concept d'idéologie aux discursivités politiques » : bien évidemment, les activités socioculturelles, les productions médiatiques… ou encore les sports ou l'action humanitaire « sont, au même titre, susceptibles d' être interrogées systématiquement dans leur inconscient idéologique » (Ansart, 2006, p. 211). Quant à la notion d'imaginaire, notion caméléon par excellence au sein des sciences humaines et sociales, on propose ici qu'elle coiffe le paradigme considéré : l'imaginaire, « nourri des contenus d'imaginaires individuels et influant fortement sur eux […] renferme les paradigmes de base d'une situation culturelle donnée – en ce qu'ils peuvent avoir de commun et de différent d'une culture à l'autre – imaginés par consensus au sein de groupes humains et normant les détails des contenus des démarches cognitives tant que les apports de ces dernières ne finissent pas par entraîner une modification de ces paradigmes » (Deschamp, 1996, p. 161; voir également Lecointe, 1996 [c'est moi qui souligne]). Un constituant de l'imaginaire dont il vient d' être question, constituant associé, comme la représentation, à une ou plusieurs idéologie(s) et qui a un impact sur l'action des individus et des groupes et leurs discours (parfois via un certain type d'attitude : le préjugé) a fait et fait toujours l'objet de toutes les attentions, scientifiques comme militantes : le stéréotype. Il s'agit bien d'une notion très visitée par les sciences de l'homme et de la société. On considérera ici qu'il n'est pas utile de lui conférer un statut sociocognitif fondamentalement différent de la représentation au sein du paradigme proposé (Doise, 1985) : les deux modalités peuvent d'ailleurs fonctionner au même niveau au sein d'une même construction idéologique. Le stéréotype est ici considéré comme une sorte de représentation que la notoriété, la fréquence, la simplicité ont imposée comme évidence à l'ensemble d'une communauté (ou d'un groupe à l'intérieur de la communauté). Il s'agit donc d'une structure sociocognitive figée, dont la pertinence pratique en discours est tributaire de son fonctionnement réducteur et univoque et d'une stabilité de contenu rassurante pour les usagers. Cependant, « on le développe et le confirme de cas en cas, on le nourrit d'exemples, on lui reconnaît s'il le faut des exceptions, on l'adapte selon les circonstances en jouant plus ou moins sur l'accentuation de ses traits, et il se pourrait même qu'on le perfectionne à force de s'en servir » (Rouquette, 1997, p. 33). La question est de savoir, dans cette façon de considérer le stéréotype, quelle est son organisation par rapport à celle de la représentation. Peut-on toujours parler avec le stéréotype de « noyau central » et de « système périphérique » ? En mobilisant « deux cadres théoriques bien différents », « celui de la catégorisation sociale » qui « fait appel à la notion de stéréotype » et « celui des représentations sociales » qui « fait appel à la notion de noyau », il est possible, si l'on suit Pascal Moliner et Julien Vidal (2003, p. 158-164), de faire l'hypothèse que « les éléments centraux de la représentation d'un groupe social sont identiques aux éléments stéréotypiques de la catégorisation de ce même groupe ». Dans cette façon d'envisager le stéréotype (qui restreint cependant sa pertinence sociocognitive pratique aux groupes), ce dernier « peut se comprendre comme un schéma simplifié de la catégorie tandis que le noyau doit s'entendre comme la base même de la représentation sociale » (ibid., p. 164). Mais ce partage très (trop) net entre représentation et catégorisation ne va pas de soi car « le propre d'une représentation est [bien] de produire un système de catégorisation » (Abric, cité par Moliner et Vidal, 2003, p. 158). Par ailleurs, il semble difficile de traiter sur un même plan un fonctionnement sociocognitif in vivo, le stéréotypage et son produit : le stéréotype, susceptible de gloses et de mises en scène (le stéréotype du Marseillais / Provençal / Méridional par exemple, dans les spots publicitaires) et une structure discrète, susceptible d' être observée in vitro, au travers d'une expérimentation : le noyau central. En fait, on est sûrement fondé à « envisager que le stéréotype soit ainsi structuré et/ou qu'il possède une structure hiérarchique comparable à celle de la représentation avec, pourquoi pas, des croyances du stéréotype centrales et périphériques » (Vidal, 2003, p. 56). Pour ma part (Boyer, 2003), je fais l'hypothèse d'un fonctionnement sociocognitif analogue de la représentation et du stéréotype, sur la base de la contribution au confort identitaire et communicationnel des membres d'un groupe et/ou d'une communauté. Simplement, dans le cas de la représentation, la structure doit être envisagée comme complexe et dynamique, et le partage fonctionnel entre le noyau central et le système périphérique comme fondamental pour assurer la pertinence sociocognitive mais aussi la souplesse d'usage de ladite représentation. Dans le cas du stéréotype, cette souplesse aurait disparu au profit de la pertinence pragmatique. En fait, la structure du stéréotype ne ferait plus un partage fonctionnel entre noyau central et système périphérique (comme si le noyau avait absorbé le système périphérique) : pour une efficacité maximale, elle serait réduite à un ensemble figé (et donc forcément limité) de traits, totalement solidaires et donc, en définitive, selon des degrés divers, aléatoires en discours. Il en va ainsi, par exemple, avec le stéréotype du Marseillais / Provençal / Méridional déjà mentionné. Même s'ils peuvent être regroupés selon le type de référent concerné (traits phonétiques, traits kinésiques, traits naturels…), il serait vain de vouloir établir une hiérarchie dans les traits constitutifs : qu'il s'agisse de l'intonation « chantante », de l'articulation caricaturale du « e » muet, de l'exubérance gestuelle, de la disposition naturelle au repos, du tempérament hâbleur/fabulateur…, les spots publicitaires diffusés sur les chaines de télévision ne font pas dans la nuance. L'association de traits, à géométrie variable, n'est plus liée au contexte d'exploitation : le contenu du stéréotype est compact. Et le stéréotypage, processus de figement représentationnel dont le stéréotype est le produit, semble bien être un processus sociocognitif inéluctable au sein des communautés humaines. Économe, stable, consensuel : autant de qualités qui rendent le stéréotype communicationnellement rentable. Il est évident que sa pertinence tient largement à son immersion totale dans la pensée sociale/commune. C'est du reste ce qui explique que les médias en font un usage immodéré, singulièrement dans les sociétés médiatisées. Si, comme on l'a indiqué, les médias ne créent pas de toutes pièces les stéréotypes, ils contribuent largement au processus de stéréotypage (Boyer, Lochard, 1998a). Les médias qui cultivent le second degré (flattant des lecteurs ainsi supposés avertis) peuvent fort bien se proposer de casser le stéréotype en dénonçant son fonctionnement réducteur et son objet étroitement circonscrit. Il n'en reste pas moins que c'est bien un privilège du discours médiatique, et encore faut-il que le média soit légitimé pour le faire. Il en est ainsi dans le dessin humoristique du Monde reproduit ci-dessous à propos du stéréotype du travailleur immigré. Il y a là comme une insistance sur le haut degré d'empathie affecté au stéréotype en discours médiatique. D'une manière générale, le stéréotype remplit indéniablement une fonction identitaire dans une communauté donnée (ou dans un groupe donné au sein d'une communauté). Qu'il soit négatif ou positif, il s'agit bien d'un filtre ethno-socioculturel. Il convient d'observer également que tout comme la représentation, mais avec encore plus de force, le stéréotype fonctionne plus ou moins ostensiblement comme un (pseudo -) argument : son efficacité dialogique, peu coûteuse, en fait un ingrédient (inter)discursif irremplaçable. Par ailleurs, le stéréotypage ne saurait être réservé aux groupes humains : il peut concerner un espace urbain, la banlieue (Boyer, Lochard, 1998a); un comportement sexuel, l'homosexualité; un sport, le rugby à XV; un animal, le dauphin… (voir par exemple Boyer éd., 2007). Je propose d'articuler le paradigme représentationnel dont il a été question plus haut à deux types de cognition sociale : la catégorisation et la symbolisation (collectives, sociales…). La catégorisation relève de l'identification, du classement, de l'étiquetage; la symbolisation relève de la distinction. Catégorisation et symbolisation font subir, en particulier par l'efficace de la sémiotisation médiatique (au sein d'une société précisément ultra-médiatisée), un traitement de l'ordre du figement aux représentations partagées (relevant d'une ou de plusieurs idéologies) sur lesquelles les deux types de cognition sociale s'appuient. Si le figement est de l'ordre du stéréotypage pour ce qui concerne la catégorisation, il est de l'ordre de l'emblématisation et de la mythification pour ce qui concerne la symbolisation. C'est-à-dire que sur le même plan interdiscursif fonctionnent trois sortes de figements représentationnels : le stéréotype, l'emblème, le mythe. Les trois habitent les mises en discours / en scène médiatiques sous des formes plus ou moins spécifiques, selon la modalité du figement. Dans le cas du stéréotype, la diversité et la complexité des objets sociaux catégorisés sont neutralisées par une opération de simplification drastique. Il en a été largement question plus haut. L'emblème relève également du figement représentationnel et opère aussi bien sur des acteurs (Zinedine Zidane = « Zizou ») que sur des produits culturels (par exemple une chanson : « Douce France »). L'emblématisation s'applique à un singulier tellement notoire et représentatif qu'il incarne le général (l'intégration réussie; la France rurale, unie, paisible…). Le mythe opère sur un singulier hors-norme, non seulement saisi par une exemplarité indiscutable mais surtout transcendé par l'histoire ou/et la morale. Comme le souligne Ruth Amossy, le personnage d'exception mythifié est l'objet d'une « valorisation positive quasi-inconditionnelle » (Amossy, 1991, p. 101), d'une sublimation et le plus souvent d'un authentique culte (officiel). Ainsi, dans les deux derniers cas, il y a bien symbolisation : mais alors qu'avec l'emblématisation on reste dans le cadre d'une représentativité notoire (« Poitiers » = haut lieu et symbole de la lutte victorieuse contre une invasion étrangère), avec la mythification on passe dans l'ordre d'une exemplarité sublimée (« Jeanne d'Arc » = héroïne de la libération du territoire et martyre). Aux critères de permanence et d'unanimité au sein de la communauté culturelle concernée, avec la mythification s'ajoute souvent la nature tragique de la geste dont le personnage mythifié est le héros : Jean Moulin, héros et martyr de la Résistance, est un cas parfait de mythification achevée, dont toute mise en cause s'expose à une riposte autorisée. L'abbé Pierre a été soumis de son vivant à un processus de mythification continu (dû à la pugnacité et à la longévité de son action humanitaire en faveur des sans-logis et, au-delà, des plus humbles, à l'austérité de sa vie et de sa retraite… et quelque peu à son savoir-faire médiatique éprouvé). Reste à observer si l'abbé Pierre s'est installé durablement comme mythe après sa mort (très médiatisée) dans notre imaginaire collectif. Roland Barthes, dans ses Mythologies (ouvrage sur lequel je reviendrai), avait consacré un chapitre à l'abbé Pierre, axé sur son « iconographie », qui célébrait « la tête de l'abbé » (Barthes, 1957, p. 54-56). Il me semble que si le personnage était un « mythe » au sens sémiologique donné par Barthes à ce terme, il n'avait alors qu'un pied dans la mythification telle que je l'entends, mais un bon pied tout de même. Et en brillant pourfendeur de l' « idéologie bourgeoise », Barthes ne manque pas de « [se] demander si la belle et touchante iconographie de l'abbé Pierre n'est pas l'alibi dont une bonne partie de la nation s'autorise, une fois de plus, pour substituer impunément les signes de la charité à la réalité de la justice » (ibid., p. 56; c'est moi qui souligne). Un demi-siècle plus tard et une médiatisation télévisuelle en plus, la mythification semble consommée, même si l'abbé s'était offert le luxe de protester à la télévision (reportage de l'émission « 7 à 8 » sur TF1, le dimanche 13 janvier 2002) contre cette entreprise de mythification largement tributaire de sa surexposition laudative à la télévision. Quand l'abbé Pierre meurt, à l' âge de 94 ans, en janvier 2007, les journaux télévisés du soir de TF1 et FR2 rappellent le « célèbre appel » de l'hiver 1954 en défense des sans-logis et le fait que le fondateur d'Emmaüs fut durablement la personnalité préférée des Français; ils rappellent aussi son engagement dans la Résistance. Et l'on souligne un « consensus assez rare ». Comme l'écrit Henri Tincq dans Le Monde, « la France a besoin de figures consensuelles pour se donner l'illusion qu'elle reste unie et peut avancer en compagnie de tels mythes ». La Une de Libération du 23 janvier 2007 (voir ci-dessous), proprement spectaculaire (une mise en scène scripto-visuelle remarquable d'où est précisément absente la tête de l'abbé, déjà sanctifié), est à cet égard, sur le mode emphatique, tout ce qu'il y a de plus consensuel. Le palimpseste verbal (Galisson, 1995), Saint domicile fixe (modalité rhétorique particulièrement prisée du quotidien), souligne le point culminant de la mythification de l'abbé Pierre, certes homme d'église mais surtout objet d'un culte profane dans l'ordre de l'imaginaire ethno-socioculturel collectif. Même si les mythes doivent forcément être en nombre limité dans un imaginaire communautaire donné, il est permis de constater, dans notre communauté nationale, un certain déficit de mythes dans la dernière période. Comme le souligne Jean-Pierre Albert (1998, p. 26), « dans la France contemporaine, le panthéon officiel des héros nationaux est en déclin [… ]. Mais on voit parallèlement émerger de l'actualité de nouvelles figures investies, pour quelques jours ou quelques années, de la tâche de nourrir un sentiment satisfait d'appartenance à la nation : coureurs cyclistes, joueurs de football, lauréats d'un prix Nobel, vedettes du cinéma ou du music hall ». À cet égard, le dernier Top 50 des « personnalités qui comptent le plus pour [les Français] ou qu'ils aiment le mieux », publié dans Le Journal du Dimanche (23 décembre 2007), comme les précédents (en tête desquels a régné à douze reprises l'abbé Pierre), illustre bien la domination sans partage du vedettariat médiatique. Qu'on en juge par le tiercé gagnant : Yannick Noah, Zinedine Zidane (confirmés aux deux premières places depuis 2005), Mimie Mathy. Du reste, le fait que le duel Noah-Zidane ait tourné à l'avantage du premier, alors que « Zizou » a occupé cette position à plusieurs reprises (la première fois en août 2000), est instructif : bien que le footballeur de génie se maintienne à la deuxième place malgré une retraite médiatique (relative) forcée, il perd, sûrement à cause de cette retraite, la première place, conquise à… l'abbé Pierre. Lors de son intronisation à la première place du palmarès des « Français préférés des Français », l'éditorial du Journal du Dimanche célébrait d'une formule éminemment médiatique l' [union] « sur un même podium [des] symboles de deux mondes opposés : le short et la soutane ». (Et par la grâce de qui/de quoi cette union ? Des médias bien sûr !). La « starisation » médiatique ne correspond pas forcément à une emblématisation telle que je la conçois : à cet égard, le numéro trois du dernier palmarès, Mimie Mathy (symbole du retournement réussi d'un handicap doublé d'un stéréotype stigmatisant), me semble plus recevable comme emblème que le nouveau promu, Yannick Noah, ou que la plupart des autres retenus. De même l'emblématisation telle qu'elle est conçue ici n'est pas un degré inférieur à celui de la mythification sur l'échelle de la symbolisation ethno-socioculturelle communautaire. Il se peut que tel emblème soit candidat au statut de mythe : on songe à Brigitte Bardot, bien partie mais qui semble avoir échoué, et depuis longtemps, à franchir les dernières marches. Mais d'une manière générale, les deux processus de figement n'ont pas les mêmes caractéristiques dans l'ordre de la distinction. Pour reprendre le cas de Zinedine Zidane, on peut affirmer que le meilleur des Bleus est devenu, lui paradoxalement piètre communiquant, avec le concours efficace des médias (tous genres confondus), autre chose qu'une star. On ne peut que souscrire à l'analyse (sommaire mais pertinente) proposée par l'éditorial du Journal du Dimanche déjà cité : « Ce que les Français plébiscitent en Zidane, c'est le couronnement d'un joueur au sommet de son art mais qui a su rester lui -même, se souvient d'où il vient (l'Algérie, les faubourgs de Marseille). Père et époux attentif, il ne court ni après les honneurs ni après les micros. Un héros modeste, à visage humain, et un exemple – pourquoi le cacher ? – de l'intégration réussie. » On aura compris que dans l'édifice dont je viens d'exposer les grandes lignes (voir le schéma proposé ci-dessus), les médias (la sémiotisation médiatique) sont un élément décisif concernant la promotion et la circulation des constituants des imaginaires collectifs, singulièrement ceux qui sont figés, pour cause de recherche maximale d'empathie et donc de soumission au « discours anonyme », à cette « idéologie ambiante, une idéologie qui n'a pas de nom », « qu'il est difficile de […] saisir dans son ensemble, compte tenu précisément de sa nature impersonnelle et mouvante » : l' « idéologie anonyme » (Brune, 1993, p. 16). Cette idéologie, Roland Barthes (1957) la nommait « idéologie bourgeoise ». Pour lui, « le mythe est constitué par la déperdition de la qualité historique des choses : […] le mythe est une parole dépolitisée ». Et le sémiologue fait observer qu' « il faut […] donner une valeur active au suffixe - dé : il représente […] un mouvement opératoire, il actualise sans cesse une défection » (ibid., p. 230). Barthes précise le caractère idéologique de cette défection, de cette essentialisation : En passant de l'histoire à la nature, le mythe fait une économie : il abolit la complexité des actes humains, leur donne la simplicité des essences, il supprime toute dialectique, toute remontée au-delà du visible immédiat, il organise un monde sans contradictions parce que sans profondeur, un monde étalé dans l'évidence, il fonde une clarté heureuse : les choses ont l'air de signifier toutes seules. (ibid., p. 231) Questions : le mythe tel que je l'entends ici correspond -il au mythe barthésien ? Les produits du figement représentationnel décrits dans ce qui précède sont-ils au même titre des « paroles dépolitisées », in fine des productions/réductions idéologiques ? Si l'on observe la liste des objets traités dans Mythologies comme « mythes contemporains », on constate que le point commun de la plupart des objets en question, c'est d' être avant tout des composants de francité exposés à l'appétit (pour ne pas dire à la fringale) sémiologique de Barthes. Certains 0 peuvent être considérés comme des emblèmes – « La nouvelle Citroën » ? –, ou même des stéréotypes (Amossy, 1991, p. 102) – « Le bifteck et les frites » ? Les mythes, au sens où on entend ici ce terme, sont plutôt rares (« Le Tour de France comme épopée », « Iconographie de l'abbé Pierre » ?) La réponse à la première question est globalement négative. La tentation scripturale de se livrer à un inventaire mythologique est du reste largement partagée. On retrouve par exemple le même dessein chez Daniel Schneidermann, Nos mythologies (1995), où le journaliste passe en revue un certain nombre d'objets, de personnages ou de thèmes appartenant (plus ou moins) à l'air du temps : le « jambon-beurre », la « 2 CV », le « devoir de mémoire » … L'imposant Dictionnaire des mythes d'aujourd'hui (Brunel éd., 1999) va beaucoup plus loin (plus de quatre-vingts entrées) et intègre aussi bien des mythes au sens barthésien (« Allégés », « Internet », « Vache folle » …), que des emblèmes (« Astérix », « Service militaire », « Tapie » …) ou des mythes (« Callas », « Che Guevara », « Hiroshima » …) au sens où ces termes sont employés dans cet article. On doit signaler deux ouvrages circonscrits, non seulement à la France mais plus spécifiquement à la dimension patrimoniale de l'imaginaire ethno-socioculturel français (l'identité nationale). Il s'agit, d'une part, de l'ouvrage de Michel Pastoureau, Les emblèmes de la France (1998), dans lequel sont traités des emblèmes comme « le coq », « la fête nationale », « l'hexagone », « Liberté, Égalité, Fraternité », « Marianne » … et d'autre part de la somme Les lieux de mémoire, publiée sous la direction de Pierre Nora (1997), dans laquelle sont analysés sous l'angle mémoriel national (et donc de la patrimonialisation) des lieux de mémoire aussi divers que « La mairie », « Le code civil », « Alésia », « Charlemagne » ou encore « La galanterie ». Il y a là des entrées comme « La gastronomie » ou « L'Hexagone » qu'on peut qualifier d'emblèmes et d'autres comme « Jeanne d'Arc » ou « Verdun » qui relèvent manifestement du mythe. Les trois figures de figement qui viennent d' être observées ont bien en commun d' être pour une large part des « avatars médiaculturels » (Macé, 2006, p. 35). Certes, pour une large part seulement car « toute la sociologie de la réception des médiacultures montre que ce n'est pas le contenu des médias qui commande la production du sens, mais la rencontre entre des représentations et des discours médiatiques complexes avec l'expérience sociale et culturelle (elle -même complexe) de celui qui les interprète » (ibid., p. 34). Par ailleurs, « [les médiacultures] ne peuvent formuler et mettre en forme que des conformismes provisoires reflétant l'état supposé des tensions au sein de la sphère publique et de l'imaginaire collectif du moment ». C'est dire que les figements dont il a été question et leurs produits n'ont rien d'a-historique, pas plus qu'ils ne sont éternels. Ils sont des indicateurs de premier choix pour l'observation de l'état présent d'un imaginaire ethno-socioculturel collectif : de l'opinion publique, de l'air du temps, mais aussi des tendances lourdes de cet imaginaire et de la société avec laquelle il est en interaction (Boyer, 2003). Quant à la réponse à la deuxième question posée plus haut de savoir si les trois produits du figement représentationnel décrits sont ou non également des « paroles dépolitisées », la réponse est plutôt positive dans la mesure où l'on doit observer avec le mythe, mais aussi avec l'emblème et le stéréotype, une légitimation des « cadres d'interprétation idéologique à travers l'évidence non interrogée des “allant de soi” » (Macé, 2006, p. 114). S'il est bien question ici d'une « idéologie anonyme » (Brune, 1993), c'est une idéologie qui se donne comme anonyme : j'aurais une forte réticence aujourd'hui à souscrire à l'appellation utilisée par Barthes, dans les années cinquante, d' « idéologie bourgeoise » (Barthes 1957), en particulier parce qu'elle est évidemment trop réductrice et générique pour rendre compte de la réalité des fonctionnements idéologiques concernés par les « avatars médiaculturels » examinés dans cet article : « en dépliant […] les avatars médiaculturels, on montre les représentations qui président à la définition de soi des sociétés nationales » (Macé, 2006, p. 35), les représentations mais aussi les idéologies auxquelles participent ces représentations (cf. le dispositif présenté dans le tableau ci-contre). Et il faut bien insister sur la « valeur active » du - dé pour que la formulation barthésienne de « parole dépolitisée » soit pleinement recevable. Car des idéologies (diverses et variées) sont bien au cœur de cette dé politisation. Et les médias ont en la matière une responsabilité incontestable (bien que non exclusive), ce que l'interdiscours professionnel assume parfois (voir par exemple Boyer, Lochard, 1998a, en particulier la contribution d'André Bercoff) .
La réflexion proposée concerne trois modalités de sémiotisation (le stéréotype, l'emblème, le mythe) dont les médias sont les principaux pourvoyeurs. Il s'agit de trois types de figement représentationnel qui opèrent selon deux ordres de cognition sociale: la catégorisation (stéréotypage) et la symbolisation (emblématisation, mythification). Pour reprendre la qualification de Roland Barthes dans Mythologies, il y a bien dans les trois cas une « parole dépolitisée ». On peut également parler d'« avatars médiaculturels» (Éric Macé) qui sont, selon des caractéristiques propres, autant d'indicateurs de premier choix pour l'observation des tendances lourdes d'un imaginaire ethno-socioculturel donné et de la société avec laquelle il est en interaction.
linguistique_11-0251515_tei_843.xml
termith-580-linguistique
Le traitement de la campagne présidentielle de 2007 dans la presse écrite présente une particularité notoire : les principaux quotidiens français ont tous publié de longues séries de reportages dans lesquels sont mis en scène les propos de gens « ordinaires ». Aux 112 articles publiés en série dans Le Monde, La Croix, Libération, 20 Minutes, Le Parisien et Le Figaro peuvent être ajoutés des articles isolés, publiés dans la presse quotidienne et magazine. L'ampleur de ce traitement suggère que ces reportages dépassent le cadre du simple micro-trottoir, mais occupent au contraire une fonction propre au sein du discours journalistique dans son ensemble. Si la presse quotidienne utilise largement la citation du discours d'autrui pour construire son propre discours, le recours à une parole profane fait l'objet d'un usage particulier. Ce type de propos peut en effet être utilisé par un organe de presse pour « équilibrer » son discours et permettre ainsi aux journalistes de mettre en œuvre, au sein du discours journalistique, des arguments qu'ils reprennent tout en les mettant à distance. L'analyse de ce type de reportage se révèle particulièrement fructueuse pour étudier la place des représentations du genre (gender) dans l'élaboration du discours journalistique sur Ségolène Royal. En effet, l'usage de propos attribués aux gens « ordinaires » permet la mise en œuvre, à la marge, d'une représentation du genre en politique plus complexe et plus ambigüe que celle présente dans le discours dont les journalistes sont locuteurs. Les reportages de ce type peuvent être rattachés à un genre journalistique défini par Érik Neveu comme « journalisme ethnographique », dans lequel les journalistes font un « usage intensif de la citation, de la parole rapportée – et si possible colorée –, mais en contournant la forme “entretien ”, implicitement réservée à des interlocuteurs légitimes », et adoptent un « parti pris explicite de les narrativiser, de les “scénariser” ». Ces reportages instaurent un rapport particulier entre discours citant et discours cité, que l'on peut qualifier de délégation de la parole. Cette délégation de la parole se fonde sur deux particularités énonciatives propres au discours rapporté dans la presse, qu'il convient d'expliciter afin d'analyser le rôle joué par ces propos rapportés de gens « ordinaires » dans la représentation du genre au sein du discours journalistique. La première de ces caractéristiques est la prise de distance du journaliste par rapport aux propos qu'il cite. En effet, le locuteur journaliste, quand il « emprunte les mots d'un autre pour les introduire dans son propre discours », ne prend pas en charge « le contenu du message d'origine » (Komur, 2004, p. 61). Son interprétation est présente dans le cotexte du discours rapporté. Cependant, dans ces séries de reportages, le discours citant intègre les propos rapportés dans sa propre linéarité, sans faire de commentaires métalinguistiques, comme cela est plus couramment le cas quand sont intégrés les propos de locuteurs seconds « légitimes », et non profanes. Ce « silence métalinguistique » était déjà constaté par Christiane Restier-Melleray dans son étude consacrée aux « Carnets de campagne » publiés dans Le Monde en 2002. Elle signalait en effet que « l'illusion de transparence repose […] sur l'art de l'intermédiaire, un journaliste narrateur dont la palette des prises de position va de l'effacement revendiqué […] à la construction assumée de la mise en scène » (Restier-Melleray, 2005, p. 70). Le rapport entre discours citant et discours cité est également analysé par Sandrine Lévêque – lorsqu'elle étudie cet usage du reportage chez l' « homme de la rue » dans le traitement par la presse écrite du mouvement social de décembre 1995 – comme l'utilisation par les journalistes de « substituts à une analyse qui leur soit propre », par le biais de « dispositifs professionnels qui permettent aux journalistes d'asseoir la légitimité de leur parole sur celle de l'opinion publique [… ], [mais] surtout de déléguer cette parole en gardant sur elle une certaine maîtrise ». Ainsi, les paroles « qui sont retenues par les journalistes permettent aussi de déléguer une partie de l'interprétation […] sur le modèle, “c'est pas nous qui le disons c'est eux” » (Lévêque, 1999, p. 104). C'est là « l'ambiguïté » fondamentale « de la prise de distance » : « le locuteur cité apparaît aussi bien comme le non -moi dont le locuteur se démarque » que comme l' « autorité qui protège l'assertion. On peut aussi bien dire “ce que j'énonce est vrai parce que ce n'est pas moi qui le dis” que le contraire » (Maingueneau, 1987, p. 61). Ulla Tuormala conclut ainsi que « la pratique journalistique de l'écriture exploite le DD [discours direct] pour rendre sa subjectivité moins apparente » (Tuomarla, 2000, p. 17). La posture d'objectivité est la seconde caractéristique propre à l'emploi du discours rapporté dans la presse. La délégation de la parole permet de mettre au jour un discours extrêmement complexe et mouvant, dans ce que Roselyne Koren décrit comme une « oscillation entre deux pôles antithétiques » constitutive d'une « rhétorique de l'impartialité » propre au discours de presse (Koren, 2001, p. 178). Cette analyse rejoint le second volet d'interprétation suggéré par Sandrine Lévêque, selon laquelle « multiplier les “paroles” d'usagers […] permet d'affirmer un certain pluralisme qui montre “l'objectivité” des rédactions » (Lévêque, 1999, p. 103-104). Ainsi le discours journalistique peut-il fonder son objectivité en rapportant des propos divers, tout en les mettant à distance. Cependant, le fait qu'il les rapporte – c'est-à-dire qu'il se réserve la possibilité de les réécrire – sans les commenter, trace un rapport plus complexe entre discours citant et discours cité : le journaliste, qui fait à la fois usage et mention des propos des gens « ordinaires », les intègre au sein de sa propre argumentation, sans prendre en charge leur énonciation. Dès lors, on peut se demander dans quelle mesure cet enchâssement de discours ne fonctionne pas comme une légitimation du discours cité qui se trouve, par ce phénomène de délégation de la parole, intégré au sein de l'espace public. Concernant la représentation du genre en politique dans la presse écrite au moment de l'élection présidentielle de 2007, notre hypothèse est que le processus de délégation de la parole dans ce type de reportage va permettre la mise en œuvre de stéréotypes de genre absents du reste du discours journalistique et, de ce fait, l'élaboration d'un discours sur le genre plus complexe que celui qui prévaut dans le discours dont le journaliste est locuteur. Le compte rendu médiatique de la campagne municipale de 2001, dans laquelle a été appliquée pour la première fois la loi sur la parité, a donné lieu à la construction d'une image du genre en politique fondée sur l'idée que les femmes auraient une approche différente du pouvoir. Dans la mesure où ce discours ne tient pas compte des ressources politiques propres des candidates et met en avant leur identité féminine (il valorise l'entrée des femmes dans la sphère politique en valorisant leur position supposée de profane), il a été désigné par le terme de discours « profemme ». Ce discours n'a pas été remis en cause entre 2001 et 2007 – notamment parce que la question du genre en politique a disparu du débat journalistique. On verra ainsi, à travers l'étude des propos rapportés, que ce discours « profemme », qui semble incontesté, se révèle en réalité très diversement interprété. Afin de travailler sur un corpus clos et homogène, nous avons choisi d'étudier les propos rapportés sur Ségolène Royal dans les 112 reportages publiés sous forme de séries. On ne prendra donc pas en compte les articles isolés. On étudiera dans ce sous-corpus les différentes formes du discours rapporté en s'attachant particulièrement au discours direct et aux ilots textuels, sans perdre de vue la présence énonciative à l'intérieur même de ces propos, dans la mesure où ces derniers font l'objet d'une réécriture journalistique. Nous prendrons ainsi en compte le cotexte des propos rapportés dans la mesure où il éclaire les enjeux de la représentation du genre au sein de la délégation de la parole. Or, une lecture cursive de l'ensemble des propos rapportés sur tous les candidats révèle une particularité des propos portant sur Ségolène Royal : on rencontre 23 références explicites à son genre, ce qui n'est le cas pour aucun des autres candidats, hommes ou femmes. Cette spécificité nous amène à examiner en premier lieu ces paroles avant d'analyser les propos dans lesquels son genre n'est pas mentionné explicitement, et de montrer qu'il est néanmoins présent, de manière implicite. Il conviendra alors de mesurer l'écart entre les propos tenus sur le genre de manière explicite et ceux qui n'y font référence qu'implicitement. Dans le premier sous-corpus de travail, composé des propos où le genre féminin est évoqué de manière explicite, la répartition axiologique est notable : ces arguments sont, dans leur grande majorité (19 occurrences sur 23) utilisés de manière positive (« Je me dis “une femme, ça serait bien” » ou « La France a peut-être besoin d'une femme »); les quatre autres arguments ont une valeur neutre (« Le fait que ce soit une femme m'indiffère », ou « Qu'il s'agisse d'une femme ne m'influence pas », alors que ces propos sont attribués à une femme qui se décrit comme de gauche et que « son histoire personnelle » aurait dû mener vers la candidate socialiste). Il est particulièrement remarquable que les propos rapportés qui font explicitement référence au genre de Ségolène Royal ne le fassent jamais de manière négative. En outre, trois thématiques se dégagent, que nous classerons en fonction de la cohérence thématique et lexicale des arguments développés. La première thématique s'articule autour de la valeur symbolique qu'aurait l'élection d'une femme à la présidence de la République : « Je veux une femme présidente dans ce pays qui a tellement l'image machiste » ou « Si c'est une femme qui est choisie, forcément, ça va donner l'exemple : il y aura plus de femmes aussi au gouvernement et au Parlement ». Ce propos, prononcé par une jeune fille : « Aujourd'hui, les hommes acceptent de voir les femmes passer à la politique », souligne à la fois que le fait d' être une femme en politique est le fruit d'une lutte et représente un acquis récent, mais également que ce sont les hommes qui maitrisent le jeu politique. La deuxième thématique reprend l'idée que la femme politique incarne en elle -même le changement, fût-il indéterminé. On retrouve de nombreuses occurrences de cette idée, exprimée en termes constants : « Pour que ça change, il faut une femme au pouvoir » / « Une femme au pouvoir, cela va changer la donne, forcément » / « Une femme au pouvoir, ça peut aussi changer les choses » / « Peut-être que ça changera quelque chose, pour une fois, une femme » / « Lui aussi a l'intention de voter pour Ségolène Royal “parce que c'est une femme ”, “pour voir si ça peut changer les choses” ». Cette idée relève, comme on l'a vu, de l'une des thématiques principales du discours « profemme », qui prône un « réenchantement » de la politique par les femmes. La troisième thématique, qui découle de la deuxième, véhicule quant à elle l'idée qu'une femme politique va pouvoir exprimer dans l'exercice de ses fonctions des valeurs typiquement « féminines ». Cette thématique est plus diffuse, mais on y trouve des caractéristiques traditionnellement attribuées aux femmes. On relève l'attention à la famille (« Je ne sais pas pourquoi mais je pense qu'une femme est plus à même de défendre l'écologie qu'un homme. Peut-être parce qu'elles sont plus soucieuses de l'avenir qu'on réserve aux enfants », « parce qu'elles comprennent mieux les jeunes et les scolaires », ou encore : « En tant que femme, elle comprend peut-être mieux la situation des familles »), mais également l'abnégation (« Une femme au pouvoir ? Ça pourrait être pas mal, elle fera certainement passer l'intérêt général avant le sien »), et enfin le souci de l'ordre (« Une femme mettrait un peu d'ordre »). Les qualités attribuées aux femmes politiques sont ainsi celles d'une mère idéalisée, image « la plus banale » des femmes en politique (Sineau, 1988, p. 36-68), sans qu'on puisse établir de distinction en fonction du genre du locuteur, puisque les propos sont prononcés dans les mêmes proportions (12 femmes, 10 hommes et un couple) par des locuteurs masculins et féminins. On peut ainsi distinguer dans les propos rapportés faisant explicitement référence au genre de Ségolène Royal un phénomène de « retournement du stigmate » (Achin et al., 2007, p. 62; Dulong, Matonti, 2005, p. 298), identique à celui présent dans le discours « profemme » : l'identité de genre se trouve érigée en ressource politique. Le discours issu de la campagne municipale de 2001, fondé sur l'idée que les femmes apporteraient une plus-value à la politique, semble donc toujours présent. Cependant, les propos cités dans ces séries de reportages ne font pas tous explicitement référence au genre de Ségolène Royal. Il convient donc d'examiner si cette référence ne demeure pas toutefois présente, mais de manière implicite et, le cas échéant, d'en interroger la valeur axiologique. On retrouve, dans les propos rapportés qui portent sur Ségolène Royal sans faire référence explicitement à son genre (il s'agit de notre second sous-corpus de travail), des thématiques qui recoupent celles présentes dans les propos qui y font référence explicitement. Il convient donc de s'interroger sur une possible référence implicite au genre de Ségolène Royal. On retrouve en premier lieu, dans les propos qui portent sur Ségolène Royal sans référence explicite à son genre, la deuxième thématique que nous avions dégagée dans les propos qui y faisaient explicitement référence : celle de l'espoir dans le changement incarné par la candidate (« Ségolène Royal apportait de la nouveauté, une autre vision des choses » / « L'arrivée de Ségolène Royal m'a donné l'espoir qu'on pouvait être au pouvoir différemment » / « J'espère qu'elle va changer les choses »). Ce changement est par ailleurs assimilé à une forme de modernité (« Elle est moderne et novatrice » / « Ségolène incarne à fond le xxi e siècle »). Cependant, si la nouveauté qu'incarne Ségolène Royal est évaluée positivement, elle ne l'est pas de manière absolue, mais en référence aux hommes du PS. L'idée selon laquelle Ségolène Royal serait affranchie des rigidités du fonctionnement institutionnel du Parti socialiste recoupe une des thématiques du discours « profemme ». Face aux « éléphants » du PS, Ségolène Royal est, dans les propos rapportés, placée dans une position active puisqu'elle est présentée comme les « bousculant » ou « s'opposant » à eux. L'attitude de Ségolène Royal est présentée, dans un énoncé négatif, comme le contraire de celle des « éléphants » (« Elle n'a pas d' œillères, ne donne pas le sentiment de détenir la vérité absolue »), ou bien dans un énoncé comparatif, en référence à eux (« Elle est plus ouverte, moins sclérosée que le reste du PS »). Cette construction est souvent relevée dans la représentation des femmes politiques : elles sont qualifiées par rapport aux hommes. On retrouve ces comparatifs dans ce propos décrivant Ségolène Royal comme « plus à l'écoute, pragmatique, consensuelle ». La conversion du genre en ressource politique en fait toutefois une ressource relative et, par conséquent, fragile, comme le souligne l'analyse des propos portant sur la personnalité de la candidate. Quand on évoque la personnalité de Ségolène Royal, on est confronté au phénomène de versatilité axiologique des représentations relevé par Jean-Paul Honoré à propos de la représentation du Japon dans la presse : le lecteur est « confront[é ], sur le plan axiologique, à deux réseaux d'images, les unes favorables et les autres critiques [qui] participent [cependant] d'un seul et même système. […] On retrouve donc des stéréotypes identiques sous des hypostases différentes, au cœur de formations discursives qui s'opposent superficiellement » (Honoré, 1994, p. 10). C'est notamment dans les propos évoquant la démocratie participative que l'on observe un basculement qui se révèle éclairant pour voir comment la qualification positive de l'ouverture d'esprit de Ségolène Royal peut se muer en un portrait à charge. Ainsi, à l'opposé d'une opinion favorable à cette pratique politique (« Je crois à la démocratie participative. Même s'il ne s'exprime pas forcément très bien, le peuple a des choses à dire »), on trouve des propos qui critiquent « la démagogie de la démocratie participative » et sous-entendent que cette pratique est révélatrice d'une absence d'idées (« Impossible de prendre au sérieux quelqu'un qui fonde son programme en disant aux gens que l'on fera ce qu'ils veulent » / « Elle, elle attend que les citoyens lui donnent des idées » / « On ne sait pas ce qu'elle pense » / « Ségolène on ne voit pas très bien sa ligne »). Ce qui était considéré comme une preuve d'ouverture d'esprit se transforme en « manque de rigueur » ou manque de cohérence (« C'était plus cohérent que Ségolène ») qui se caractérise par un « flou » (« Ségolène reste un peu floue »). Ce « flou » est également censé s'exprimer à travers une inconséquence verbale présumée : on trouve des propos évoquant l'idée que Ségolène Royal multiplie les promesses (« si Ségolène fait tout ce qu'elle a promis, elle ne va pas s'en sortir et le pays non plus ») et les déclarations contradictoires, sans se soucier de son parti (« Ségolène Royal donne le sentiment d' être déconnectée de son propre parti, de faire cavalier seul; or, on ne peut pas être intelligent en avançant sans personne derrière soi ») ou de son électorat (« Royal a réussi le tour de force de se mettre son principal électorat, les profs, à dos, avec ses déclarations sur les 35 heures »). Ce « flou » et l'inconséquence verbale qui le caractériserait sont également interprétés comme un manque d'assurance (« Elle me donne le sentiment de ne pas être vraiment sûre d'elle et ses propositions gagneraient à devenir plus concrètes » / « Je la sens fragile ») qui lui -même devient de la « mollesse » (« Ségolène est molle, son élocution est molle » / « … et Ségo un peu molle »). Ce dernier qualificatif fait mention d'une faiblesse à la fois physique, psychologique, politique (que l'on retrouve dans l'évocation du « consensus mou ») et morale. Cette faiblesse supposée la rendrait inapte à la conduite des affaires (« Je la sens un peu petite pour la fonction, mais il y a beaucoup de gens bien autour d'elle » / « Elle se fait manipuler, elle ne peut pas être présidente » / « Royal est trop influençable, elle ne pourra rien faire malgré toute sa bonne volonté »), mais la place en position d'exécutante. Un propos tel que « Ségolène, ça serait juste une bonne Première ministre » rejoint les interrogations du type « est -ce que c'est vraiment elle qui va diriger ? » L'idée qui transparait est que « Ségolène Royal n'a pas la stature » pour être présidente. Ce retournement axiologique souligne l'ambigüité de l'usage du genre dans les représentations politiques. Comme Catherine Achin et Marion Paoletti en avaient fait l'hypothèse, les femmes politiques qui jouent du retournement du stigmate en mettant leurs qualités féminines en avant se trouvent valorisées dans un premier temps mais, en ne contredisant pas les représentations sociales les plus traditionnelles, qui les placent en position d'altérité par rapport au monde politique, elles se voient ensuite confinées dans des positions secondaires. C'est ce qu'elles ont nommé le « salto du stigmate » (Achin, Paoletti, 2002, p. 54). C'est à cette position dominée que l'on pourrait rapporter la référence au sourire de Ségolène Royal. L'ambigüité du sourire des femmes politiques a été interprétée par Jane Freedman à partir des analyses d'Erving Goffman. Selon ce dernier, le sourire sert aux femmes d' « adoucisseur rituel » afin de faire excuser leur présence dans un monde qui n'est pas le leur (Goffman, 1988, p. 43, cité par Freedman, 1997, p. 86-87). Or, l'interprétation du sourire de Ségolène Royal dans les propos rapportés est différente : son sourire est interprété comme un signe d'infériorité ou de conformisme (« Elle a toujours le même sourire un peu figé. Elle me donne l'impression de celle qui a toujours bien fait ses devoirs, mais cela ne suffit pas »), ou comme une façade séduisante : « Elle, c'est toujours “cheese ”, comme si tout allait bien. Moi, j'aime pas les séductrices. » Mais ce sourire relève également d'une hexis corporelle assez distante, qui révèle une ambigüité entre image sociale et image de genre. En effet, cette distance qu'elle met en place, qu'on peut interpréter comme de la réserve, est assimilée à une hexis distante de bourgeoise, comme on le voit dans un propos qui place sur le même plan « grands sourires et beaux tailleurs ». On retrouve à propos de Ségolène Royal (et non à propos des candidats masculins, même s'il s'agit d'un reproche fait aux « politiques » en général), des critiques sur le fait qu'elle est « trop éloignée du peuple, des gens comme nous ». On lit ainsi : « Elle n'est pas assez proche des préoccupations des Français. J'aimerais lui filer 1 000 euros et qu'elle me dise comment on fait pour vivre avec ! », ou « Je ne sais pas si elle peut comprendre les pauvres parce qu'elle paie l'impôt sur la fortune ». Les traits de l'apparence physique de Ségolène Royal qui pourraient relever de la séduction (sourire, élégance, réserve) sont interprétés négativement, comme de la distance. Les propos rapportés lui attribuent des caractéristiques féminines qui, sans être pour autant identifiées comme telles, sont évaluées négativement. Cette caractérisation se retrouve dans les propos évoquant ses propositions politiques. Les options politiques présumées de Ségolène Royal dans les propos rapportés rejoignent largement les « rôles » stéréotypés décrits par Mariette Sineau qui évoque « la recréation “spontanée” de la séculaire division entre le féminin/social et le masculin/politique » : les femmes politiques sont décrites comme ayant une appétence particulière pour le domaine social, qui a pour corollaire une incapacité dans les domaines prestigieux : économie et politique internationale. Les propositions en politique intérieure de Ségolène Royal citées dans les propos rapportés peuvent être regroupées sous une thématique unique, le social, et à une proposition quasi exclusive : le SMIC à 1 500 euros. Il est à noter qu' à une exception près, cette proposition rencontre un écho négatif. Les autres propositions (le « service public de la caution » et « la volonté de généraliser la culture artistique dès l'école ») la ramènent à son statut symbolique de mère de famille, de la même manière que la troisième thématique que nous avions dégagée dans notre premier sous-corpus. Cette fonction maternante est même évoquée explicitement, dans les propos d'un jeune homme interrogé : « Ségo, elle est comme ma mère. » Le fait que le social constitue, comme on l'a vu, un domaine d'action politique globalement dévolu aux femmes est confirmé par un propos évoquant une fonction plus appropriée pour Ségolène Royal : « Elle ferait sans doute un très bon ministre des Affaires sociales et familiales. » Comme le rappelle Mariette Sineau, la « spécialisation forcée » (Sineau, 1988, p. 42) des femmes dans le social ne relève pas tant d'une fonction maternante traditionnellement attribuée au genre féminin que d'une dévaluation de ces fonctions par rapport aux fonctions les plus prestigieuses, et qui appartiennent en propre au chef de l' État. Le « social » est dévalué dans le discours rapporté : introduit par la négation exceptive ne… que (« J'ai compris qu'elle ne ferait que du social »), intensifié par l'adverbe trop (« Royal, elle, est trop dans le social »), qualifié, avec des réserves, de « bien joli », où la valeur concessive de l'adverbe bien est renforcée par la conjonction mais (« Royal, elle veut faire du social, c'est bien joli, mais… »), le social est considéré comme un domaine utile, mais peu prestigieux. Ainsi, l'image de la compétence dans ces fonctions dévaluées du social a pour corollaire une image d'incompétence dans les fonctions prestigieuses. En politique intérieure, sa compétence supposée pour le social peut être rapportée à son incompétence supposée en économie. On en trouve trois occurrences : deux provenant de chefs d'entreprise qui mettent en doute sa compétence («. La caractérisation socioprofessionnelle des locuteurs présente ici l'intérêt d'accentuer le poids du propos en donnant aux personnes interrogées une posture d'experts. La faiblesse supposée en économie va de pair avec une incompétence supposée concernant les relations internationales. Ce point est important dans la mesure où le voyage à l'étranger constitue un moment clé de la construction de la stature du candidat à la présidentielle. La critique se concentre principalement sur son voyage en Chine, perçu dans le discours rapporté comme une promenade inutile (rapportée sous forme de question : « À quoi ça sert d'aller en Chine ? ») ou bien un facteur de risque (« Si elle passe, on frôlera sans cesse la catastrophe, comme dans ses voyages en Chine ou au Moyen-Orient ! »). Ce voyage en Chine cristallise chez certains le rejet ou l'incompréhension qu'inspire la candidate : « “Hélène Ségara, elle veut faire bosser les Chinois.” Heu, Ségolène, vous voulez dire ? “Ségara, Ségolène, c'est pareil.” » La référence à une chanteuse populaire souligne une focalisation sur le physique de Ségolène Royal, ainsi qu'un déni de sa capacité à résoudre le problème considéré comme principal : l'emploi. À ce premier volet de critiques se greffe le déni de sa capacité à représenter le pays (« Ségolène ne m'attire pas, je n'arrive pas à l'imaginer représenter la France »). À l'inverse, lorsque l'un des propos cités lui attribue les qualités nécessaires à un rôle international, il n'est pas question de stature. En effet, un chef d'entreprise livre le propos suivant : « Comme présidente, elle sera une excellente VRP politique pour vendre nos technologies à l'étranger. » En faisant de la candidate une « VRP », il lui attribue une simple fonction commerciale, et non un réel pouvoir de direction sur la politique étrangère. On retrouve, dans cette image d'incompétence dans le domaine de la politique internationale, au-delà de ses faiblesses personnelles supposées (« à l'international, elle ne tiendra pas le coup »), les constructions discursives qui servent traditionnellement à qualifier les femmes politiques, dans la mesure où la seule opinion sur la politique internationale attribuée de manière positive à Ségolène Royal, l'est dans une phrase construite négativement (« Au moins elle n'est pas atlantiste comme Sarko »), et relativement aux opinions de Nicolas Sarkozy, alors que le projet de politique internationale de ce dernier n'est jamais évoqué dans les propos rapportés. Ainsi, lorsque l'on compare les propos rapportés mentionnant explicitement le genre de Ségolène Royal et ceux qui n'y font référence que de manière implicite, on s'aperçoit que, si le genre féminin parait être un atout en politique dans les propos où il est mentionné explicitement, les références implicites se trouvent en revanche négativement connotées. La menace d'un « salto du stigmate » évoquée par Catherine Achin et Marion Paoletti se trouve bien mise en œuvre dans le discours rapporté sur la candidature de Ségolène Royal dans les reportages chez les « gens “ordinaires” » : évoqué implicitement, le genre féminin est perçu comme un atout dans les fonctions subalternes et une entrave pour l'accès aux postes politiques prestigieux. L'usage de la délégation de la parole dans les reportages appartenant au genre du « journalisme ethnographique » intègre au discours journalistique des propos dont les journalistes ne prennent pas en charge l'énonciation. Est ainsi mise en œuvre, à la marge du discours journalistique, une représentation du genre particulièrement complexe, puisque ce discours se révèle lui -même à double ressort : le genre y est évoqué explicitement de manière positive, et implicitement de manière négative. La complexité des représentations est en outre matérialisée par l'organisation de ces reportages selon le principe de l'hyperstructure. En juxtaposant les courts témoignages, au sein de la même « aire spatiale » (Mouillaud, Têtu, 1989, p. 5) de la page, ou en intégrant ces propos aux analyses politiques, le journal peut complexifier son discours afin de présenter le plus de facettes possibles d'un même phénomène, sans se risquer à en livrer une interprétation. Le « silence métalinguistique » qui entoure ces propos « ne prouve pas [pour autant] que [le journaliste rapporteur] a renoncé à toute forme d'engagement et d'adresse à autrui » (Koren, 2001, p. 181). Au contraire, comme le rappellent Roselyne Koren et Alain Rabatel, « les journalistes […] sont exposés à l'expression de termes, de points de vue circulants qu'ils reprennent sans pouvoir toujours les mettre à distance ». Selon eux, « l'effacement énonciatif règne en maître » dans le cas de la reprise de « termes ou […] cadres d'analyse qui engagent des représentations du monde naturalisées », comme l'est le discours sur les femmes issu du vote de la loi sur la parité, qui est l'héritier des thèses féministes essentialistes. Ils se demandent donc si « faire écho à ces manières de voir, sans s'en distancier (au nom de l'objectivité) ne partecipe […] pas, fût -ce indirectement, de la reconduction de manières de voir et de penser qui mériteraient par ailleurs d' être discutées » (Koren, Rabatel, 2008, p. 16). Ainsi, l'usage des propos rapportés des gens « ordinaires » portant sur la candidature de Ségolène Royal permet de légitimer la présence au sein de l'espace public d'un discours sur le genre en politique fort différent de celui dont les journalistes prennent eux -mêmes en charge l'énonciation. Bibliographie
Le traitement de la campagne présidentielle de 2007 dans la presse écrite présente comme particularité notoire une abondance de reportages chez les gens « ordinaires», reportages dans lesquels une large place est accordée au discours rapporté, retranscrivant leurs propos. Face à la nouveauté que représente la candidature d'une femme en position d'éligibilité, la délégation de la parole permet au journal de mettre en oeuvre un discours complexe sur le genre (gender) sans se risquer à en livrer une interprétation.
linguistique_11-0392159_tei_644.xml
termith-581-linguistique
Enseigner une matière disciplinaire en langue étrangère se pratique dans l'enseignement supérieur de nombreux pays sous différentes formes et dans divers contextes : un programme entier ou seulement quelques matières, avec sélection ou non des apprenants selon leur compétence linguistique, avec des apprenants et des enseignants de langues et de cultures variées dans des disciplines multiples. Cet enseignement existe également sous différents noms : en français, EMILE (enseignement d'une matière par l'intégration d'une langue étrangère), ECI (enseignement à contenu intégré); en anglais, TTFL (teaching through a foreign language), CLIL (content and language integrated learning). Langue et contenu sont toujours intégrés, mais selon chaque contexte le poids de chaque facteur varie. Dans la tradition de la langue de spécialité en anglistique, c'est la langue qui prédomine (Mémet 2001); dans les autres disciplines, la langue étrangère joue souvent un rôle utilitaire et son apprentissage est secondaire, « incidental » (Hellekjaer & Westergaard 2003 : 66). Plus rares, et plus positifs, semblent être les cas où l'objectif est réellement double – disciplinaire aussi bien que linguistique (Hellekjaer & Wilkinson 2003 : 86, 93; Wolff 2003 : 37; Stoller & Grabe 1997). La question de cet équilibre se pose car cet enseignement / apprentissage plus ou moins à double « foyer » se généralise en France, impulsé par la Déclaration de Bologne favorisant la mobilité des étudiants. Mémet (2003 : 139) donne quelques exemples de nouveaux cadres de l'EMILE; Orlac'h (2005) recense plus de 300 cursus en anglais par rapport à la dizaine d'il y a quelques années. Mais il en précise que l'offre est limitée en comparaison avec l'Allemagne, où 1 000 cursus en anglais sont répertoriés. Le phénomène est très développé en Europe du nord depuis plusieurs années (Hellekjaer & Westergaard 2003, Hellekjaer & Wilkinson 2003). Le bien-fondé de l'EMILE n'est plus à prouver. Grabe et Stoller (1997) rappellent les différents courants de la recherche qui étayent cette approche : second language acquisition (comprehensible input, importance de output, approches socioculturelles, cognitive academic language proficiency), training studies (cooperative learning, strategy instruction, lecture extensive), psychologie cognitive (depth-of-processing, traitement du discours, motivation, expertise), et enfin les résultats positifs observés dans des programmes d'EMILE. Ces auteurs expliquent les bénéfices de l'EMILE par l'importance de l'exposition à la langue étrangère et son utilisation, par la pertinence de sa contextualisation, par l'accroissement de la motivation et par les possibilités ouvertes à une réflexion métacognitive sur l'apprentissage (1997 : 19-20). Plus récemment, Wolff (2003) montre comment les théories interactionnistes de la recherche en acquisition de la langue seconde (second language acquisition) et le constructivisme peuvent expliquer le haut niveau d'apprentissage linguistique et disciplinaire qui résulte d'une approche intégrée. Pour lui, les facteurs-clés sont les notions de input pertinent, d'interaction impliquée et de construction de savoir et de savoir-faire. Enfin, pour Marsh, Marsland et Stenberg (2001 : 13-14), « using languages to learn in order to learn to use languages » – même quand cela ne représente que 10 % d'un cursus – est bénéfique en termes personnels (confiance en soi, motivation), linguistiques (compétence communicative) et disciplinaires. Face à une probable multiplication des cursus en anglais dans l'enseignement supérieur en France, la question des enjeux se pose. La recherche en LANSAD occupe une place privilégiée pour y répondre et peut jouer un rôle de sensibilisation et d'information. Cette recherche se fonde forcément sur le terrain, à partir d'enquêtes et d'observations auprès des acteurs : étudiants, enseignants et administrateurs. Marsh et al. (2001) préconisent un bilan complet comprenant plusieurs paramètres : l'environnement institutionnel (contexte local, état d'esprit, ressources humaines, cadre académique), la mise en œuvre pratique (curriculum, travail en équipe, compétence linguistique des enseignants, styles d'enseignement / apprentissage, évaluation du programme) et la perception de l'EMILE dans un cadre plus large (développement institutionnel, travail en réseaux, lien enseignement-entreprise). Mais, d'après Hellekjaer et Westergaard (2003 : 77), peu de programmes d'EMILE sont conçus avec autant de prévision et d'investissement. Les écueils sont pourtant nombreux et se concentrent sur la divergence entre, d'une part, les compétences, les perceptions, les attentes – et donc les pratiques – des étudiants et des enseignants et, d'autre part, la reconnaissance explicite de ces facteurs par les différents acteurs. Marsh et al. (2001) soulignent la nature holistique de l'enseignement / apprentissage et le fait que, dans l'EMILE, on ne peut pas séparer les compétences linguistiques des compétences pédagogiques. Mais, pour éviter ces écueils, il faut clairement les repérer. La littérature identifie deux grandes lignes d'analyse : la compétence linguistique et la notion de culture. Cette dernière comprend les notions de culture disciplinaire, de culture sociétale ou ethnique et de culture didactique. La question des compétences linguistiques est pertinente pour les enseignants comme pour les étudiants. Chez les premiers, Kurtán (2003 : 147-150) relève surtout la compétence communicative ou le facteur « d'aisance ». Si l'on est à l'aise avec la langue disciplinaire (lexique, discours, genre), y a -t-il des difficultés de prononciation, de fluidité, de clarté d'expression, de vocabulaire et de tournures variées pour pouvoir reformuler ? Hellekjaer et Westergaard (2003 : 76) rapportent un taux « considérable » de demande de soutien linguistique (environ 45 % chez les enseignants dans leur enquête sur 58 programmes scandinaves). Marsh et al. (2001 : 146) posent d'emblée la question : « How good is good enough ? » et ajoutent que certaines matières exigent des compétences linguistiques plus développées que d'autres, notamment les sciences humaines ou sociales – plus conceptuelles – par rapport aux sciences exactes. S'il existe des tests de compétence pour certifier un niveau en langue générale, académique et professionnelle, il n'y en a pas pour l'enseignement d'une discipline en langue étrangère. Le Cadre européen commun de référence est évidemment la nouvelle ressource dans la matière, mais Marsh et al. (2001 : 149) soulignent qu'on peut être opérationnel sans être parfait et qu'il est tout à fait acceptable que les étudiants aient un meilleur niveau linguistique que l'enseignant, à condition que règne un climat de confiance, soutenu par un travail commun pour atteindre les objectifs. Chez les étudiants, il est plus facile, au moyen d'examens ou de tests calibrés, d'exiger un certain niveau de compétence linguistique, mais tous les programmes d'EMILE ne le font pas, se contentant d'une évaluation externe plus floue (notes de langue, recommandation) ou d'une auto-évaluation. Le résultat est plus ou moins heureux selon les cas. Dans leur étude, Hellekjaer et Westergaard (2003 : 76) mentionnent un taux moyen de 54,5 % de demandes de soutien linguistique, précisant qu'il est plus fort dans les établissements où le recrutement des étudiants comprend des candidats nationaux. Confrontés à des difficultés linguistiques chez leurs étudiants, ayant pour conséquence le bavardage (« Qu'est -ce qu'il a dit ? ») et l'inattention, des enseignants expérimentés disent surtout essayer de simplifier leur discours. Ils ralentissent le débit, évitent des mots complexes ou rares et s'appuient davantage qu'en L1 sur un soutien visuel (polycopié, rétroprojection ou vidéoprojection) (Flowerdew & Miller 1996 : 129-134). Le risque en L2 est donc de moins approfondir le sujet, d'encourager le copiage irréfléchi ou une compréhension trop facile limitée aux seules informations écrites. Mais quoi qu'il en soit, Hellekjaer et Wilkinson (2003 : 88-89) insistent sur l'importance d'expliciter les attentes linguistiques, notamment celles concernant l'expression écrite, ainsi que l'envergure envisagée des programmes d'EMILE. En effet, ces auteurs signalent davantage de difficultés linguistiques là où le développement des programmes d'EMILE est plus important (Hellekjaer & Westergaard 2003 : 77). La deuxième grande catégorie d'écueils relève du domaine interculturel. La recherche décèle des problèmes aux niveaux de la culture disciplinaire (et de son rapport avec la langue), de la culture sociétale ou ethnique et de la culture didactique. Chaque discipline a ses propres théories, concepts, normes et structures de pensée et ceux -ci s'expriment au moyen de discours (genres), de structures linguistiques et de terminologies spécifiques (Flowerdew & Miller 1995 : 366). L'EMILE en droit peut donc différer de l'EMILE en économie ou en gestion. Flowerdew et Miller (366-367) comparent un cours de droit fondé sur une série de tâches de résolution de problèmes destinées à illustrer un concept juridique à un cours d'économie structuré autour d'une série de concepts illustrés par des exemples, et à un cours de gestion comparant différents modèles ou systèmes. Si le juriste commence par des définitions, l'ingénieur (ou l'économiste) commence par des graphiques et des tableaux. De la même manière, les écrits universitaires varient d'une culture disciplinaire à l'autre (Swales 1990), à quoi s'ajoute dans l'EMILE le filtre de la rhétorique contrastive (Kaplan 1966, 1995; Ulijn & Salager-Meyer 1998). Le métatexte économique en espagnol et en anglais n'est pas le même (Valero-Garcés 1996), mais les deux diffèrent profondément du style narratif et d'articulation complexe d'un Law Report anglais et de la jurisprudence française de nature dense et aride (Field 1999). La même différence de culture disciplinaire, et en même temps linguistique, se voit dans l'évaluation universitaire. Les pratiques traditionnelles varient fortement, par exemple, entre la France et l'Angleterre dans les études de droit. Si les étudiants français sont évalués surtout au moyen d'examens écrits ou oraux, leurs camarades anglais le sont généralement sur la base de travaux de recherche personnelle en même temps que d'examens écrits. Les étudiants en économie, en France, passent des écrits traditionnels (et plus rarement des oraux), alors que les étudiants anglais ont plus souvent des recherches à faire et des QCM à passer (Taillefer, à paraître). La culture sociétale a également, bien évidemment, son importance dans l'EMILE : selon les contextes, les enseignants et les étudiants viennent de pays et de langues maternelles et secondes variés. Plusieurs auteurs s'inspirent de la grille de lecture proposée par Hofstede (1991) pour cerner les situations de choc culturel : l'importance de la hiérarchie et de l'autorité (« power distance »), individualisme ou collectivisme, le niveau de tolérance de l'imprévu (« uncertainty avoidance ») et l'affirmation de soi, ou s'occuper plutôt de l'autre (« masculinity-femininity »). Kurtán (2003), Isani et Andreolle (2001), et surtout Flowerdew et Miller (1995), dans le contexte de professeurs britanniques enseignant en anglais à Hong Kong, font part des difficultés rencontrées aux niveaux des valeurs, des attentes et des modèles de comportement divergents entre enseignants et apprenants : le plagiat, par exemple, vu comme expression de respect de l'autorité des experts; la « triche », vue comme effort de solidarité collective; le besoin de communiquer – ou de recevoir – des attentes explicites pour éviter l'incertitude; un enseignement focalisé sur le cours magistral ou reconnaissant également les besoins des apprenants. Les aspects de la culture sociétale influencent très directement la politique institutionnelle et la didactique. D'abord, jusqu' à quel point la culture institutionnelle valorise -t-elle réellement l'acquisition d'une compétence en langue étrangère ? Ensuite, dans une culture donnée, le rang social de l'enseignant lui permet-il facilement de se remettre en question dans une situation nouvelle telle que l'EMILE ? Culturellement, en ressent-il même le besoin (Kurtán 2003 : 149) ? Si oui, et s'il peut « avouer » d'éventuelles difficultés linguistiques, y a -t-il une tradition de développement professionnel ? Quel est son rôle en tant qu'enseignant : transmettre un savoir (à reproduire), ou aider les apprenants à construire le leur (Flowerdew & Miller 1996 :124-125; Kurtán 2003 : 148-9) ? Ses attentes pédagogiques (travail personnel exigé, nature de l'évaluation) doivent-elles être explicitées ? Comment voit-il son potentiel de guide linguistique en plus de son rôle scientifique ? Isani et Andréolle (2001 : 231) se demandent jusqu'où peut (ou doit) aller un enseignant dans la redéfinition de sa propre culture didactique pour aider à atteindre les objectifs pédagogiques des apprenants d'une culture didactique éloignée. Chez les étudiants, la culture sociétale se traduit en termes pédagogiques de la même manière. Quelle niveau d'interactivité avec l'enseignant est-il « normal » et quel degré d'initiative et d'investissement personnels ? Peut-on ne pas partager l'opinion de l'enseignant ? Quelle attitude avoir par rapport au niveau de performance linguistique : faut-il viser la perfection ? Quelle fourchette de notes est-elle « honorable » et, au besoin, peut-on la négocier ? Si le « jeu » de l'EMILE vaut bien la « chandelle » de multiples enjeux, quels sont les risques potentiels si certaines précautions ne sont pas prises ? Hellekjaer et Wilkinson (2003 : 99) indiquent que la qualité d'apprentissage pourrait en souffrir. Les plus jeunes étudiants, insuffisamment mûrs et moins compétents que leurs aînés en langue étrangère, ont besoin de davantage de temps qu'en langue maternelle pour atteindre les mêmes objectifs. L'EMILE pourrait-il créer une « fracture » linguistique – et donc un système officieux à deux vitesses – entre les étudiants ou entre les enseignants au sein d'un même établissement français offrant des diplômes nationaux ? Et pire, si le bilan n'est pas satisfaisant, n'y a -t-il pas le risque de discréditer l'enseignement des langues étrangères, vu parfois comme quelque chose qui prend « trop de place », coûte trop cher et complique les emplois du temps (Isani & Andréolle 2001 : 232) ? Si l'EMILE est donc une arme à double tranchant, nous avons voulu observer sa mise en œuvre dans une université française de sciences sociales. Serait-il une réussite ? Des difficultés linguistiques ou culturelles surgiraient-elles chez les enseignants et chez les étudiants ? Verrait-on des pistes pour les étudiants plus jeunes qui souhaiteraient pouvoir participer à cet EMILE ? Enfin, y aurait-il un nouveau rôle pour le Département des langues et civilisations au sein de l'université, rôle de médiation, de remédiation, de travail parallèle ? À cette dernière question, la littérature répond par plusieurs modèles avec une échelle d'implication variable. Dudley-Evans et St. John (1998 : 41-48) distinguent trois niveaux : coopération, où l'enseignant de langues prend l'initiative en enquêtant sur la place des langues dans le curriculum; collaboration, où les enseignants des deux disciplines travaillent ensemble pour préparer leurs étudiants à des but définis; enseignement en équipe, où les deux enseignants partagent la salle de cours. Hellekjaer et Wilkinson (2003 : 92) proposent également trois schémas : cours de préparation (souvent peu motivants car distincts), cours parallèles, associés ou non aux cours disciplinaires, cours adjunct, réellement intégrés aux cours disciplinaires. Ces derniers visent les compétences nécessaires « pour maîtriser le contenu disciplinaire » (84) et se déroulent dans un environnement interactif, fondé sur le vocabulaire et la terminologie, l'analyse du discours et les compétences stratégiques pour la lecture et l'expression écrite. Enfin, Teemant, Bernhardt et Rodríguez-Muñoz (1997) soulèvent deux questions « miroirs » : que doivent savoir les enseignants disciplinaires sur les besoins linguistiques de leurs étudiants et quelles stratégies les enseignants de langues peuvent-il fournir aux collègues disciplinaires ? La réponse demande de la diplomatie : How directly you approach collaboration depends on your school's readiness to recognize the needs of ESL students [. .. It means] negotiatinga protocol for effective collaboration among ESL and content-area faculty. (Teemant, Bernhardt et Rodríguez-Muñoz 1997 : 318). Wolff (2003 : 36) demande comment on peut organiser l'environnement d'enseignement /apprentissage de CLIL de manière optimale. Les auteurs déjà cités offrent un certain nombre de pistes, mais Stoller et Grabe (1997) suggèrent une vision composite des meilleurs modèles. Leur approche se fonde sur « theme, text, topics (sous-thèmes), threads (liens thématiques), tasks, et transitions » (entre les thèmes / sujets). Un autre point d'entrée, et sans doute la clé de voûte, est le corps des enseignants prêts à relever ce défi. Une professeure franco-britannique de naissance et de vie, fréquemment invitée à l'université Toulouse 1 pour enseigner le droit en anglais, cerne bien les enjeux du contexte particulier de l'EMILE et nous permet d'ouvrir le débat local. Elle fait la part des cours intensifs donnés en France par rapport à son enseignement extensif en Angleterre, des étudiants spécialistes en droit par rapport à des spécialistes d'autres disciplines, d'un public pour qui l'anglais est une L2 ou une L3 ou L4 (et dont le niveau peut être faible, rendant l'interaction difficile et l'utilisation de transparents essentielle), des étudiants de culture sociétale européenne ou non européenne nécessitant un choix judicieux d'exemples parlants et des analogies faisant appel à différentes cultures pour permettre des comparaisons. Enfin, ses méthodes d'évaluation font moins appel à la mémoire qu'avec des étudiants en L1 (par exemple, les noms propres – anglais – des décisions judiciaires). Une telle sensibilité, linguistique et culturelle, sera -t-elle évidente dans notre contexte d'observation ? Cette observation s'est située à l'Université des Sciences sociales Toulouse 1, reconnue mondialement pour l'excellence de la recherche en Sciences économiques, et dont l'école de Gestion (l'Institut d'Administration des Entreprises) vient de signer une charte de qualité certifiant le niveau de ses services. Midi-Pyrénées School of Economics assure depuis plusieurs années l'ensemble de son enseignement en deuxième année de Master (Bac+5) et en Doctorat en anglais. Les étudiants doivent justifier d'un niveau dans cette langue équivalent au C1 (avancé) sur l'échelle du Cadre européen commun de référence. Mais, depuis 2004-2005, le tiers des cours en première année de Master (M1 = Bac+4) sont enseignés uniquement en anglais. Une certification linguistique n'est pas exigée; les étudiants jugent de leur propre compétence. Ceux qui envisagent de poursuivre un doctorat à Toulouse 1 sont vivement encouragés à suivre les cours en anglais. À l'école de Gestion, un Master en Management international en anglais a été ouvert en 2002. La compétence linguistique, à l'origine évaluée par un test « maison » calqué sur des épreuves standardisées en lecture et en compréhension orale, est depuis 2004 précisée de manière plutôt vague : au moyen d'un test américain standardisé (sans précision de score), des notes obtenues en anglais ou d'une attestation. Notre observation du contexte EMILE a eu lieu en Gestion en 2003 et en Économie en 2005. Le travail ethnographique de Flowerdew et Miller (1995) est un modèle du genre. Réparti sur trois ans, il comprend des questionnaires aux enseignants et aux étudiants ainsi que des journaux personnels, des enregistrements de cours magistraux (CM) avec des entretiens faits avant et après, des notes d'observations et de discussions formelles et informelles, des rapports d'étudiants relatant leurs perceptions, problèmes et stratégies, des groupes de discussion et les documents pédagogiques (notes d'étudiants, manuels, supports polycopiés distribués,) etc. Leur méthodologie servira d'exemple dans de futures études, mais dans le cas présent notre objectif de recherche était plus modeste et, surtout, utilitaire à court terme : avec la mise en place de nouvelles maquettes de Licence et de Master, toute recommandation en matière d'EMILE était – et reste – à faire rapidement. Nous avons vu, ci-dessus, que Teemant et al. (1997) en parlent en termes de négociation en fonction de la reconnaissance institutionnelle des besoins en langue de spécialité. Or, les premières mises en place d'un enseignement en anglais dans le présent contexte ont été préparées sans même évoquer la question avec les enseignants du secteur LANSAD, et les programmes clairement envisagés au moyen de cette langue sans établir d'objectif linguistique explicite. Il ne s'agit donc pas réellement de CLIL, c'est-à-dire de l'apprentissage (et non de l'enseignement) intégré (et non au moyen) d'un contenu disciplinaire et d'une langue étrangère, mais plutôt d'EMILE (enseignement d'une matière par l'intégration d'une langue étrangère). Hellekjaer et Wilkinson (2003 : 90) encouragent à passer du TTFL (teaching through a foreign language), et donc d'EMILE, à CLIL (content and language integrated learning). Il nous semble qu'un nouveau sigle en français traduirait de manière plus fidèle ce modèle optimal, réellement double, mis en valeur dans la littérature : AIMEL – Apprentissage (et non enseignement) Intégré (et non par ou au moyen) d'une Matière et d'une Langue. Les programmes à Toulouse 1 ont évidemment le mérite d'exister et la logique est clairement celle de l'excellence à frontières ouvertes (et non d'une économie d'échelle en supprimant un enseignement en anglais; dans ces filières, et à ces niveaux d'études, il n'en existait pas). Notre travail, entrepris dans le cadre d'une mission de réflexion sur les langues et la réforme LMD, a visé une prise de conscience de la part des responsables institutionnels de la spécificité du LANSAD dans ce nouveau cadre qu'est l'AIMEL. Pour cette observation pilote, nous nous sommes d'abord contentée de plusieurs discussions avec une des enseignantes en Management international – une collègue avec qui nous travaillons en anglais de spécialité depuis plusieurs années (Taillefer 2002) et avec qui il existe un climat de confiance – avant et après l'observation directe d'un seul CM en 2003. Nous avons pu également consulter les évaluations faites par les étudiants à la fin de l'année universitaire. En Sciences économiques, nous avons interviewé huit enseignants (sur onze) ayant fait cours en anglais en 2004-2005 pour la première fois à Toulouse 1 au niveau Bac+4. L'évaluation remplie par les étudiants en Master M1 n'a pas cerné les enjeux réellement posés par cette initiative; encore une fois, les enseignants de langue n'ont pas été impliqués. Ce champ réduit d'investigations offre néanmoins des renseignements sur d'éventuelles difficultés linguistiques, interculturelles et pédagogiques. Il sera davantage question du cas de Management international, le recueil des témoignages des enseignants en Sciences économiques étant en cours au moment où nous écrivons. Lors d'une étude préalable, l'auteure a sondé la représentation chez les enseignants du niveau cible nécessaire pour les diplômés à Bac+5 dans chaque compétence langagière. Si un niveau B2-C1 (intermédiaire fort-avancé) est jugé minimal en lecture, B1-B2 (intermédiaire faible-fort) a semblé suffire pour les autres compétences (Taillefer 2004b : 114). Les étudiants en M1 en Sciences économiques sont-ils à la hauteur ? La même enquête a comporté un audit calibré des compétences réceptives selon l'échelle européenne. Pour la lecture 54,5 % d'un échantillon représentatif d'étudiants étaient A2 (élémentaire), 30,7 % B1 et seulement 9,9 % B2. Pour la compréhension orale 57,4 % A2, 29,7 % B1 et 5,9 % B2. En outre, Taillefer (2004a) a relevé de nombreuses difficultés chez cette même population dans la lecture d'articles scientifiques en anglais : des problèmes grammaticaux, syntaxiques, lexicaux, stratégiques et métacognitifs. Et si 73,3 % d'un échantillon représentatif de leurs enseignants voient un lien « complémentaire » entre la lecture universitaire et la réussite aux examens, 20 % n'y voient qu'un lien faible ! Parmi un échantillon représentatif des étudiants (Bac+3 et Bac+4), ils sont 45,3 % à y voir un intérêt « complémentaire », mais 37,7 % un lien faible (Taillefer, à paraître). Du moins au niveau M1, il est difficile de conclure à une culture d'investissement personnel et de construction de savoir en Sciences économiques. Le même audit linguistique a été mené chez 502 étudiants en Gestion (Bac +3 à Bac+5), théoriquement représentatifs du vivier dont sont issus les étudiants de Management international. Meilleurs que les étudiants en Économie, cet échantillon était 39,6 % A2, 48,4 % B1 mais seulement 7,4 % B2 pour la lecture, et pour la compréhension orale 28,4 % A2, 37,1 % B1 et 24,6 % B2. Un enseignement interactif est encouragé dans ce programme, évalué de manière plus variée qu'en Sciences économiques. Une dissertation est obligatoire, rendue en anglais ou en français, mais il est précisé que la qualité linguistique n'est pas prise en compte. Quant aux neuf enseignants impliqués dans cette étude, tous sauf un sont francophones (dont trois mènent leur carrière plutôt hors de France). Le seul anglophone est parfaitement bilingue. Tous étaient volontaires pour enseigner en anglais et trois d'entre eux ont suivi des cours d'anglais ou ont séjourné dans un pays anglophone pour se préparer à ce nouveau défi. Enfin, ce groupe était composé de quelques jeunes enseignants et d'une majorité de collègues plus âgés, dont certains approchaient l' âge de la retraite. Leur enseignement était magistral dans tous les cas, mais si le cours de Management international est limité par sélection à environ 30 personnes et permet une interaction, les cours en M1 Économie sont ouverts à l'ensemble de la promotion (environ 350). Finalement, ces cours en anglais ont attiré entre 25 et 35 étudiants chacun, et tous les enseignants ont pu adopter un modèle plutôt interactif. Alors que 28 % des étudiants en Économie viennent de pays étrangers (Scandinavie, Maghreb, Europe de l'est, Chine), la très grande majorité des étudiants ayant suivi les cours en anglais étaient étrangers et non anglophones; les mêmes cours enseignés en français en 2003 ont attiré environ 120-130 étudiants chacun. En Managementinternational, le groupe était composé pour moitié d'étrangers – originaires de presque tous les continents – et pour le reste de Français. Le cours en Management international, d'une durée de huit heures seulement, était un aperçu de la comptabilité internationale et des nouvelles normes européennes. Les étudiants avaient des niveaux de spécialité comptable très hétérogènes. En Économie, il s'agissait de plusieurs matières semestrielles, d'une durée de 37,5 heures, destinées à des étudiants spécialistes (autant que faire se peut au niveau Bac+4). Elle fait part d'emblée des perspectives multiples de l'EMILE (puisqu'il ne s'agit pas réellement de l'AIMEL), dont parle Wolff (2003) et du rapport intrinsèque entre une discipline et son vocabulaire. Pour elle, enseigner en anglais l'oblige à vérifier le cadre conceptuel de sa discipline – à revenir à la base – à travers le vocabulaire spécialisé. Cela lui a demandé une recherche sur les connotations polysémiques entre le français et l'anglais. « Les mots n'ont pas le même sens dans chaque langue », dit-elle : il s'agit de la langue plus l'esprit plus le sens. À la base de ces différences se trouvent les différents modèles comptables français et anglo-saxons, inspirés des traditions économiques et juridiques respectives. Elle donne l'exemple du mot-concept « bilan », exemple frappant car c'est la première chose dite aux étudiants. En français, le terme veut dire « photographie du patrimoine » et tous les apprenants le comprennent sans autre explication, étant familiers avec le sens de « patrimoine » dans la société française (patrimoine familial, national, culturel). C'est bien plus qu'un « balance sheet » au sens littéral, mais comment expliquer le sens de « bilan » à des non Français ? Un deuxième exemple, « earning », se traduit généralement par « résultat » et « revenu », alors qu'en comptabilité française, les termes ne sont pas synonymes. Ou encore, le principe comptable de « prudence » en français se traduit par le même mot au Royaume-Uni, mais par « conservatisme », avec une connotation négative, aux États-Unis. Troublée par l'origine et les connotations du mot « transparence », concept-clé dans la comptabilité internationale, elle voulait savoir depuis quand le terme était devenu courant dans la littérature anglo-saxonne. En posant la question à un spécialiste anglais reconnu en comptabilité internationale, les réponses sont revenues de plusieurs endroits dans le monde, en allant des années 1990 à celle d'une utilisation plutôt européenne (« bruxelloise »), et à. .. une traduction d'un concept français ! Pleinement consciente du poids du vocabulaire disciplinaire, elle l'est aussi au niveau des écueils pédagogiques propres à l'environnement d'EMILE. Ainsi, elle se pose la question de savoir où en est l'étudiant dans son champ polysémique dans les exemples qu'elle relève (la valeur d'un mot). Comprend -il ce qu'elle veut dire ? Dans une salle de classe franco-française, son indicateur est la dilatation des pupilles, les étudiants s'exprimant rarement en cas de difficulté. Comment jauger dans un groupe d'étudiants de cultures différentes ? Enfin, sur le défi inhérent à la situation, elle savait qu'il y aurait un prix à payer pour enseigner en anglais, mais elle savait aussi qu'elle en profiterait. La langue de spécialité est connue de cette chercheuse active; elle a donc suivi des cours d'anglais général pendant deux ans. Néanmoins, elle estimait à 30 heures la préparation d'une heure de cours en anglais. Les difficultés se trouvaient, comme indiqué plus haut, au niveau de la clarification des concepts (et donc du vocabulaire qui les véhicule), mais surtout au niveau de la compétence pragmatique. Elle ressentait comme nécessaire de répéter son cours à plusieurs reprises pour que la langue de la présentation et de l'interaction en cours lui vienne automatiquement, surtout dans la mesure où elle s'était engagée à respecter le contrat (moral) de se tenir au programme distribué en début d'année (contrainte auto-imposée ou non par ailleurs). Ses notes de cours, montrées en confiance, étaient beaucoup plus élaborées (surlignées de couleurs différentes, clairement présentées, etc.) que lorsqu'elle donne un CM dans sa matière en français. Malgré ses vaillants efforts, elle exprimait le « reduced personality syndrome », ce terme de linguistique appliquée qui décrit le fait de ne pas pouvoir s'exprimer en L2 de manière aussi riche qu'en L1. De notre point de vue, n'ayant observé qu'un seul CM, nous avons constaté une performance de cette enseignante très similaire à ce qu'elle fait dans ses cours en français (auxquels nous avons assisté à plusieurs reprises). Elle vise dans les deux cas une compréhension aussi large que possible et cherche à la vérifier. La principale différence pédagogique était, effectivement, un style moins vivant et spontané en anglais, accompagné d'une lenteur relative et de silences, non dans le débit de la parole, mais dans les liaisons interphrastiques ou entre deux idées. Elle avait quelques difficultés pour comprendre les questions des étudiants. C'est l'exemple même de la difficulté de « conversational fluency » qu'évoquent Teemant et al (1997 : 316) et Hellekjaer et Westergaard (2003 : 75). En revanche – et c'était probablement la cause de son débit ralenti – son langage était correct, le vocabulaire académique recherché (« enhance ») et les phrases, commele discours, bien construits et liés. Elle a parlé sans lire (alors que certains collègues dans la même université dictent leurs cours en français). Sur un cours de deux heures, nous avons néanmoins relevé quelques rares erreurs, mais dont aucune n'a nui à la compréhension du message : accent tonique mal placé (« assets, development, indexed, purpose »), phonème prononcé ou mal prononcé (« debtors, method, cultural, audit, higher »), temps verbaux (« (has) begun, your colleague earn(ed) »), vocabulaire (« the Plan Goering was left [dropped] in 1945 »), prépositions (« some of shares »), pronoms (« to protect you [yourself] »). Égale à elle -même, l'enseignante voulait mes corrections après le cours, comme nous avons l'habitude de faire lors de cours communs. Enfin, nous avons pu consulter les évaluations du programme faites par les étudiants. Il y avait, en fait, peu de commentaires : deux étudiants la trouvaient bien et claire, un seul a noté que le cours pouvait être « plus attrayant » et que son niveau d'anglais était « à revoir ». D'éventuelles difficultés linguistiques du côté des étudiants n'ont pas été évoquées. Ces interviews étaient destinées, d'abord, à faire accepter le principe qu'un intérêt de la part des enseignants du LANSAD ne représente ni une « inspection » ou un jugement sur la compétence linguistique ou pédagogique des enseignants d'économie, ni une manière déguisée de s'imposer dans le développement des cursus. Au niveau de la direction de l'UFR, si une hésitation a été exprimée sur l'interprétation possible de la démarche auprès des collègues concernés, l'aval a été accordé (et d'ailleurs a donné lieu à une analyse des besoins professionnels en langues étrangères pour l'ensemble du personnel enseignant et administratif de l'université). Nous avons donc mené ces interviews dans un esprit de négociation diplomatique, en essayant d'établir un climat de confiance et en évoquant la possibilité d'un soutien auprès du Département des langues. Un enseignement de Formation continue destiné aux enseignants (et au personnel administratif) a d'ailleurs existé mais a été supprimé il y a deux ans; certains enseignants interviewés s'en sont plaints. Le résultat de cette démarche porte déjà ses fruits, aussi bien sur le plan psychologique que scientifique. L'intérêt d'une collègue de LANSAD non seulement n'a pas posé de problème, mais au contraire a été accueilli avec plaisir (l'interview était un moment privilégié de partage et d'intérêt professionnel réciproque), ce qui nous a permis de cerner les questions des enjeux et des risques de l'EMILE. Deux collègues nous ont cordialement invitée à assister à leurs cours l'an prochain. Nous avons évoqué avec ces huit collègues la composition démographique de leur groupe d'étudiants, les difficultés qu'auraient pu manifester leurs étudiants, et leurs propres réactions sur les questions linguistiques, interculturelles et pédagogiques. D'abord, comme il a déjà été noté, ce sont très majoritairement les étudiants étrangers qui ont choisi de suivre les cours en anglais en M1, mais nous n'avons pas le moyen de vérifier leur motivation ni celle des étudiants, surtout français, qui n'ont pas choisi ces cours. Sur le plan linguistique, Hellekjaer et Westergaard (2003 : 73) ont rapporté ne pas avoir trouvé de difficultés linguistiques sérieuses (« dramatic ») chez les apprenants dans la plupart des 58 programmes explorés en Scandinavie, avec toutefois davantage de problèmes là où il n'y avait pas de sélection linguistique préalable et chez les étudiants les plus jeunes. Tous les enseignants ont affirmé qu'il n'y avait pas de problème linguistique apparent chez les étudiants, à part le cas de quelques étudiants français. L'auto-sélection linguistique a donc joué le rôle de filtre. Les rares fois où des questions de langue se sont posées, les enseignants ont dit avoir essayé d'y remédier et d'y répondre, en anglais. La traduction a été très rarement utilisée. En revanche, trois de ces collègues français – ceux ayant le profil le moins international – ont librement parlé de leurs propres difficultés linguistiques en termes, comme l'enseignante de comptabilité, de manque d'aisance « conversationnelle » et donc de rapports humains moins satisfaisants, de se sentir moins clairs et moins efficaces qu'en français, d'une charge cognitive plus lourde (à la recherche de synonymes, d'amorces de phrases et de paraphrases), d'une fatigue sur la durée (un cours de trois heures) et enfin d'un certain stress, voire d'anxiété. Un des enseignants les plus expérimentés a fait part d'un manque de confiance au départ, traduit par l'impression que, en anglais, il avait besoin de « conquérir » le public, dans la mesure où son niveau d'anglais à l'oral était moins élevé que celui de ses étudiants. Au moyen d'un « contrat » (accepter des questions en français, mais les traduire et y répondre en anglais), il a pu établir un climat de complicité avec les étudiants, comme il a l'habitude de le faire en français. Malgré ces difficultés, tous ces enseignants volontaires étaient contents de leurs efforts, ont senti une progression et un gain de facilité, et celle qui est sans doute la plus faible en anglais – et donc la plus courageuse – a dit attendre l'an prochain pour réaliser une meilleure « performance ». Trois des collègues ont comparé les difficultés du démarrage du semestre au fait de. .. reprendre le vélo au printemps. Ayant reçu ce genre de message, les collègues de LANSAD pourraient, par exemple, proposer quelques séances de « gym conviviale » au début de chaque semestre. Le sentiment de l'enseignante la plus fragile linguistiquement était en effet que si l'université souhaite développer ce type d'enseignement, il faut qu'elle y mette les moyens. Les réflexions interculturelles et pédagogiques se sont souvent recoupées. Tous les collègues ont trouvé les étudiants étrangers (ERASMUS ou inscrits en formation diplômante française) très motivés, voulant s'investir nettement plus que les étudiants « ordinaires » et à la recherche de la lecture (alors que nous avons vu plus haut la faiblesse du lien perçu entre lire et réussir par ces derniers). La plupart des abandons constatés étaient ceux de Français. Selon un enseignant (d'origine belge), les étudiants « ordinaires » appliquent la loi du moindre effort, évitant aussi bien les cours complexes que les cours en anglais. Ces huit enseignants étaient tous très satisfaits du niveau scientifique atteint et, lorsqu'une comparaison était possible avec le même cours enseigné en français l'année précédente, ils ont trouvé le niveau plus élevé en 2004-2005. Trois enseignants ont dit qu'ils comptaient fixer des objectifs plus élevés l'année prochaine (notamment une nouvelle recrue à qui ses collègues avaient suggéré qu'il valait mieux prévoir de dicter ses cours). Pour ces professeurs, si enseigner en anglais a demandé davantage de temps de préparation pour certains (mais moins pour d'autres obligés de trouver le vocabulaire approprié dans leur L1 lorsqu'ils enseignent en français), la plupart ont trouvé qu'ils ont mené le cours de la même manière qu'ils l'auraient fait en français. Certains ont dit utiliser davantage de supports visuels, et un a « osé » exiger un manuel en anglais (impensable, a -t-il dit, dans un cours en français). Enfin deux enseignants ont fait des observations particulièrement pertinentes sur l'imbrication de la langue étrangère et de l'interculturel. Le collègue le plus jeune, et le seul à avoir eu un nombre plus important d'étudiants français (le cours étant obligatoire pour eux), a été tout de suite conscient du fait qu'ils comprenaient mal : d'abord parce qu'ils étaient les seuls à copier les transparents « à outrance, au lieu d'écouter » et qu'ensuite leurs (rares) questions étaient généralement peu pertinentes. Il a regretté qu'il n'y ait pas eu d'évaluation officielle du programme. Le seul enseignant anglophone, lui -même bilingue et biculturel, a parlé du défi pour déterminer si l'origine d'une difficulté de compréhension chez les étudiants relève de la langue, du concept, ou des deux. C'est également le seul enseignant, d'une part, à avoir physiquement demandé à des étudiants « bavards » de sortir de son cours, et d'autre part, à avoir rencontré le plagiat. Comme l'évaluation de son cours s'est faite uniquement au moyen d'un mémoire (pratique peu courante, comme nous l'avons vu ci-dessus), il a exigé une déclaration sur l'honneur. La réponse institutionnelle dans cette affaire (Conseil de discipline) déterminera, en partie, s'il continuera ainsi. Enfin, cet enseignant a également soulevé une question qui reste à vérifier : puisque le niveau scientifique dans ces cours en anglais semble généralement meilleur que dans ceux enseignés en français, y aura -t-il une cristallisation d'un enseignement à deux vitesses, en plus à caractère ethnique évident ? Si oui, est -ce que les étudiants « ordinaires » seront motivés pour améliorer leur niveau en anglais ? Ou, au contraire, y aura -t-il une « fracture linguistique », ou pire, une inflation statistique des notes plus faibles par souci de traitement égal ? Nous avions posé quatre questions de recherche : si la mise en œuvre d'EMILE au niveau du Master dans une université française de sciences sociales serait réussie; si les étudiants et les enseignants auraient des difficultés linguistiques ou culturelles; si des pistes à suivre seraient indiquées pour les étudiants les plus jeunes; si le Département des langues et civilisations aurait un nouveau rôle à jouer. D'après nos observations (limitées) et l'échange avec neuf collègues en comptabilité et en Sciences économiques, il semble que ce début d'EMILE dans les conditions actuelles (effectifs, composition des groupes d'étudiants) soit réussi, et que les difficultés linguistiques et culturelles signalées n'aient pas posé de problèmes graves. Mais un travail en profondeur permettra de proposer des remèdes qui répondront également aux deux dernières questions de recherche. Tout d'abord, le phénomène est probablement appelé à se développer. L'analyse des besoins effectuée en 2003 auprès d'étudiants en Sciences économiques et de leurs enseignants (Taillefer 2004b : 113, 115) a fait ressortir une forte attente d'intégration de langue(s) étrangère(s) dans des matières non linguistiques : chez les étudiants, 60 % à Bac+2 et +3, 81 % à Bac+4, 90 % + à Bac+5); chez leurs enseignants, 80 %, envisagée sous forme de lectures (79,2 %), de CM/TD (58,3 %), de présentations orales (50 %) et de productions écrites (37,5 %). Nous avons vu, chez les différents auteurs, que plus l'échelle des programmes intégrés est grande, plus il y de risque de difficultés. Ensuite, nos observations confirment que le contexte actuel à Toulouse 1 est celui d'EMILE et non d'AIMEL (Apprentissage Intégrée d'une Matière et d'une Langue). La recherche appliquée indique pourtant cette deuxième voie comme la meilleure. Pour y arriver, il faut prendre en compte les questions de curriculum, d'approche pédagogique et d'évaluation, de formation professionnelle et de soutien aux apprenants. C'est ainsi que nous proposons, à la base, une prise de conscience accrue, de la part des responsables et des enseignants, des enjeux et des risques de ces programmes, mais aussi des bénéfices à en tirer (notamment en objectifs linguistiques, non laissés au hasard). Cette prise de conscience résultera d'une collaboration institutionnelle reconnue entre le Département des langues et les différentes disciplines (Facultés, Instituts, etc.). Les bases ont été jetées en 2004-2005, en procédant de manière « bottom up », de collègue à collègue, dans une démarche non menaçante et axée sur le partage et le soutien. Ainsi, en réponse aux dernières questions de recherche et dans un cadre décloisonné, nous proposons : une évaluation formative chez les étudiants suivant les cours en anglais pour identifier leurs difficultés (comme nous l'avons fait pour leurs enseignants). Ceci permettrait de cerner la question délicate d'une « fracture linguistique » ou d'une demande de mise à niveau. la mise en place d'un soutien pour les enseignants volontaires souhaitant relever ce défi. Une analyse des besoins à large échelle est actuellement en cours, mais un tel soutien pourrait prendre diverses formes : travail encadré ponctuel, suivi ou intensif sur le métalangage de l'enseignement, sur la langue « conviviale », sur un thème ou une tâche donnés, travail en autonomie guidée, etc. Cela serait l'occasion idéale d'évoquer et d'optimiser le potentiel des enseignants disciplinaires en tant que références linguistiques (LANSAD « à l'envers »). Nos échanges nous ont déjà permis de semer des graines (des « tuyaux » proposés à certains collègues). une réflexion sur la certification linguistique exigée dans l'octroi du titre de Master, où le candidat est censé « maîtriser » au moins une langue vivante étrangère. C'est aux universités de définir leur conception de cette maîtrise, les jurys étant souverains en la matière. Le Cadre européen commun de référence en sera la base, mais des efforts de formation professionnelle sont à faire pour que les enseignants de LANSAD s'approprient cet outil d'apprentissage, d'enseignement et d'évaluation. En corollaire, la Conférence des Présidents d'Université, en date du 26 mai 2005, partant des bases de la réforme LMD favorisant la mobilité internationale des étudiants, préconise, d'une part, une sélection à l'entrée en M1 (jusqu'alors réservée à l'entrée en M2) et, d'autre part, une augmentation de 50 % du nombre de diplômés. Cette volonté se traduirait par une nette augmentation de la demande des cours intégrant contenu et langue étrangère et insisterait sur la notion de certification. Comme l'affirment Marsh et al. (2001), la réussite à long terme de l'apprentissage intégré d'une matière et d'une langue (CLIL, AIMEL) ne sera assurée – en supposant déjà l'excellence disciplinaire – qu'en fonction de la reconnaissance des enjeux linguistiques et interculturels, et de la sensibilisation des enseignants impliqués. Ce rôle pourrait revenir aux anglicistes spécialistes de LANSAD, ayant posé ces questions de recherche et de pratique depuis longtemps, et ayant joué le rôle de médiateurs depuis toujours. Un tel travail de collaboration exigera l'engagement de l'établissement; nous relevons, dans le contexte français, le défi qui a été clairement exprimé par Flowerdew et Miller ailleurs :
À l'instar des programmes destinés à favoriser la mobilité des étudiants dans d'autres pays européens, l'enseignement en France d'une matière disciplinaire en langue étrangère se développe. Si la recherche souligne le bien-fondé de cette approche intégrée, elle met en relief également les écueils dûs, d'une part, aux divergences linguistiques, interculturelles et pédagogiques entre enseignants et étudiants et, d'autre part, au niveau de reconnaissance institutionnelle de ces facteurs. Nous avons voulu observer la mise en oeuvre d'un tel enseignement dans une université de sciences sociales pour identifier d'éventuelles difficultés et pour encourager une prise de conscience institutionnelle. Neuf enseignants de Gestion et des Sciences économiques ont été interviewés dans cette démarche pilote. Il semble que, dans les conditions actuelles, cette mise en place soit réussie, mais des risques ont été mis à jour; ils sont liés à l'envergure du programme, à la reconnaissance de difficultés linguistiques chez les différents acteurs, et au degré réel d'intégration d'objectifs d'apprentissage disciplinaires et linguistiques. Cet enseignement intégré sera fructueux si ces questions sont prises en compte.
linguistique_08-0265297_tei_510.xml
termith-582-linguistique
À partir du moment où les travaux de la critique génétique ont été connus en didactique de l'écriture, la production d'écrits en contexte scolaire, dans son ensemble, a bénéficié d'une considération plus attentive et plus réaliste. C'est du moins ce que voudrait soutenir la présente intervention, que j'aimerais situer par quelques remarques liminaires. Les brouillons : si on les considère sous l'angle du changement, on pense bien sûr à leur récente émergence comme objets didactiques. Les brouillons ne sont plus vus seulement comme des outils routiniers, des palliatifs marginaux, nécessaires surtout aux « mauvais » scripteurs, ils commencent à exister du point de vue didactique (vers 1985 selon C. Boré, Pratiques, juin 2000). Des facteurs venus tant de la recherche que de l'institution les rendent légitimes comme témoins et moteurs d'un travail langagier et textuel dont ils sont le lieu le plus visible. Dès lors, on peut les définir comme des instruments de constitution ou de relance du processus rédactionnel, et leur reconnaître une place centrale dans la formation du sujet locuteur-scripteur. Ce qu'a changé la critique génétique : une influence n'étant pas seule en cause, il semble plus juste de dire ce qui a changé à partir du moment où les travaux de la critique génétique ont commencé à être connus à l'école, et de distinguer entre les évolutions des recherches et ce qu'en font dans leurs pratiques les enseignants et les élèves. Il est hélas bien clair que tout apport de la recherche n'ouvre pas directement sur des interventions pédagogiques et didactiques pertinentes, comme le montrent, depuis les années 70, nombre d'avancées théoriques non suivies d'effets massifs sur le terrain (voir A. Petitjean, Colloque Inrp, mars 2002). En outre, s'agissant d'écriture, on sait que l'énonciation en terrain scolaire est soumise à des impératifs contradictoires (S. Plane, Colloque Inrp, mars 2002), ce qui contribue encore à compliquer la traçabilité de phénomènes en eux -mêmes fugaces. Quant au domaine de recherche ici représenté par l'Item, il a d'abord été dénommé manuscriptologie (1972-82) puis quelquefois linguistique génétique, ou plus récemment génétique des textes (P.-M. de Biasi, Nathan, 2002), ou encore critique génétique (A. Grésillon, Eléments de critique génétique. Lire les manuscrits modernes PUF, 1994; M. Contat & D. Ferrer, Pourquoi la critique génétique ? Cnrs éd 1998) Même si leurs variations peuvent devenir négligeables une fois défini un champ de recherche particulier, ces appellations méritent qu'on s'y arrête dans un premier temps, non seulement parce qu'elles renvoient à l'histoire de plusieurs groupes, et à la formation de notions et de méthodes, mais surtout parce qu'elles ont pu focaliser leur intérêt sur des points distincts, bien que proches, certaines semblant renvoyer plutôt à des corpus littéraires, voire aux spécificités du faire d'un auteur, d'autres renvoyant aussi bien aux textes littéraires qu'aux non littéraires, et s'intéressant explicitement aux phénomènes généraux de la production scripturale. Certes, comme cela a déjà été souligné, il s'agit, à travers ces désignations, de tonalités et non de différences fortes, mais dans la pratique d'une recherche, l'accent peut, à travers elles, se déplacer du plus général au plus spécifique. Ceci étant posé, l'analyse des brouillons scolaires doit sans cesse traiter de deux problèmes-clés : – quels sont les événements scripturaux qui reviennent souvent pour tel scripteur particulier à tel moment de son histoire ? Quels sont ses rituels et ses modes d'écrire particuliers (entendons par là : ceux qui lui sont utiles à un moment donné) ? Etudier ces questions à l'école permettrait d'approfondir les spécificités de chacun; – qu'est -ce qu'écrire ? Quelles sont les composantes de toute production écrite ? Quelles sont les manières de composer, d'inscrire, de se relire, que l'on peut observer chez toutes sortes de scripteurs ? Ces questions -ci, tout aussi urgentes à l'école, s'abordent plutôt en mettant l'accent sur des invariants (des sortes d'universaux ?) de l'activité scripturale. C'est donc à la fois de critique génétique et de génétique des textes qu'il sera question ici, et je me réfèrerai essentiellement à leurs fondements linguistiques. Je reformulerai donc ainsi mon propos : qu'est -ce qui, dans la réflexion et dans les pratiques en didactique de l'écriture, a commencé à changer quand les travaux de la critique génétique ont été connus en ce domaine, c'est-à-dire à partir de 1983-84 ? (Je renvoie ici à mes publications de 1983, 1987, 1990). Cette influence d'un domaine d'étude à un autre me semble particulièrement sensible selon trois axes : la critique génétique a proposé un ancrage théorique et une méthode d'analyse des activités d'écriture; elle a permis de (se) représenter le fait d'écrire comme un travail et une recherche; elle a placé le sujet scripteur au centre de sa production. Rendant compte de la genèse des textes écrits à la lumière des théories de l'énonciation telles que les formule Emile Benveniste, les chercheurs en critique génétique montrent qu'il existe des composantes générales de toute production écrite, en tant qu'elle est une production langagière. Ils proposent également, et illustrent, une méthode d'analyse des différents états d'un texte (soit des notes, plans et avant-textes manuscrits ou tapuscrits jusqu' à l'écrit publié) qui peut être transposées aux brouillons et copies d'écoliers. a) L' « énonciation à l'état naissant » (A. Grésillon & J.-L. Lebrave, Langages, n° 69, 1983) est manifestée matériellement par des traces perceptibles dans les brouillons et manuscrits. À travers leur observation, analyse, classement et interprétation, il est possible d'accéder en partie à l'histoire et à la compréhension des événements langagiers dont des traces lisibles sont conservées. A travers le texte final sont perçus des textes virtuels, des possibles envisagés. b) La notion de « polyphonie énonciative » (Langages, n° 69, 1983) précise les rôles du sujet dans la production écrite (il est scripteur et lecteur alternativement). « Dès la première rature, le manuscrit est le lieu d'une confrontation permanente entre écrire et lire » (P.-M. de Biasi, 1994), la lecture étant un temps d'activité métalinguistique et métadiscursive (J. Rey-Debove, 1982) qui accompagne ou encadre les moments de scription. Les chercheurs désignent ces deux types d'activité par le terme de « double locution ». Les modifications (ou ratures) inscrites dans les brouillons et manuscrits correspondent ainsi à un énoncé métalinguistique toujours possible, non-dit, marqué plus ou moins clairement. Les traces des activités de production écrite telles qu'elles sont conservées dans les brouillons et manuscrits deviennent, grâce aux travaux de l'Item et de ses collaborateurs, des phénomènes observables, classables et analysables sur la base de méthodes linguistiques. a) En listant les énoncés substituables qui peuvent être reconstitués en un point du texte, les chercheurs dressent des paradigmes par lesquels deviennent visibles les hésitations, les bifurcations envisagées par le scripteur au moment même où il écrit. Par exemple, à propos de quelques lignes de Proust (voir La genèse du texte : les modèles linguistiques), Catherine Fuchs met en évidence, à travers les divers états du manuscrit, des familles d'énoncés unis par une relation de paraphrase, ce qui montre bien que certains thèmes ou images insistent, apparaissant sous formes différentes et mouvantes, jugées semble -t-il insatisfaisantes tant qu'elles sont reprises, jusqu'au point où quelque chose se fixe pour le scripteur dans certains termes, certains rythmes, rendant acceptable ce qui est déjà tracé, et faisant qu'une suite peut être réalisée. b) Ces énoncés modifiés sont aussi analysables selon des ensembles syntagmatiques, et la progression d'un état de texte à un autre peut être reconstituée selon des opérations linguistiques de suppression, d'ajout, de déplacement, de permutation, de remplacement, c'est-à-dire de substitution sous diverses formes. a) Tout d'abord, l'idée qu ' il y a du connaissable dans ce domaine semble avoir progressé : des enseignants et des élèves, puis des instructions officielles et des manuels, admettent que la démarche d'écriture laisse des traces, qu'une part des phénomènes de textualisation est reconnaissable lorsqu'ils se produisent dans le travail du brouillon, ou repérable après coup, qu'il existe des modifications manifestement insatisfaisantes pour le scripteur comme pour les lecteurs et des points d'équilibre perceptibles. D'où, à partir de là, des possibilités d'intervention didactique raisonnée. Certes, préparer, accompagner ou évaluer une pratique ne garantit pas une efficacité absolue. Toutefois, ce brin de rationalité a peut-être rendu enseignants et élèves moins fatalistes, moins désarmés en la matière lorsque le « don » est supposé faire défaut. b) Que toute production écrite est d'abord une production langagière, cela ne figure pas toujours dans les attendus de l'activité scripturale à l'école : l'ancrage théorique ci-dessus comble à l'évidence une lacune. Dès lors, on peut stimuler cette production avec les moyens qui sont convenables pour les productions orales, la comprendre et la relancer également dans et par l'intertextualité (voir les publications de J. Authier-Revuz et les divers travaux concernant « l'oral dans l'écrit » à l'école, en particulier N. Marty 1991). On peut aussi rattacher indirectement à cette prééminence des théories énonciatives l'idée que, si la maîtrise rhétorique des discours peut être en rapport avec un degré de culture qui requiert du temps, la dynamique énonciative, elle, en tant que besoin expressif du sujet, n'a pas d' âge. C'est pourquoi il ne m'a jamais semblé juste de considérer les brouillons du primaire comme le lieu où domineraient les modifications et apprentissages formels, tandis que les écrits du collège et du lycée témoigneraient mieux de l'énonciation scripturale. c) Les deux points précédents ont encouragé un retour à l'observation des brouillons en tant que témoignages des processus de production scripturale, un souci des textes concrets, observation que minore quelquefois le recours à des modèles a priori. Depuis les années 1985 se sont maintenues et développées les recherches sur des corpus diversifiés (concernant les situations et les contextes, les consignes, les oraux de travail, les brouillons et copies). Ainsi, au lieu de se focaliser sur la seule « copie au propre », l'observation a englobé documents et échanges préparatoires pour tenter d'interpréter le processus de production. Le sens n'est pas tout entier au départ, il est un produit, c'est ce que montrent les reconstitutions génétiques effectuées sur les manuscrits d'écrivains. Nul doute que la publication des hypothèses concernant la démarche d'écriture de ces scripteurs exceptionnels a revalorisé tous les écrits, et en particulier les écrits scolaires. d) Tout ceci a -t-il affaibli la réception normative, voire surnormative, qui est dominante à l'école ? Se rendre attentif aux processus d'écriture devrait permettre, à l'enseignant comme à l'élève, de ne pas focaliser la réception sur les « fautes », mais plutôt sur la recherche dont les modifications constituent l'indice, et d'apprécier, entre autres, les problèmes résolus, les démarches individuelles. Pour l'élève, cela signifierait qu'il s'estime autorisé aux essais et erreurs, aux tâtonnements et à la recherche. Pour l'enseignant, cela signifierait qu' à côté de son rôle normatif indispensable, il adopte une attitude plus ouverte, d'observation et d'interprétation. Lisant les textes d'enfants comme on peut lire des manuscrits d'écrivains, un tel enseignant serait susceptible d'accompagner l'écriture comme processus, et pas seulement capable de juger d'un texte final. Il semble que nous n'en sommes pas là. L'évaluation, y compris l'évaluation officielle, a cependant évolué. Elle ne concerne plus seulement le produit (encore que. ..), mais peut porter sur les modalités de la production (construire des compétences, prendre conscience d'un parcours, le modifier sur tel ou tel point). Quant à l'auto-évaluation, elle induit ou inclut des découvertes proches de la double énonciation dont il a été question plus haut. La notion même de genèse met au premier plan celle d'une production malléable, entre autres, selon le temps qu'on lui consent. L'observation de manuscrits d'écrivains atteste qu'en composant, les plus fameux d'entre eux ont hésité, cherché, quelquefois renoncé, comme le font les élèves et les adultes « tout venant ». Cette observation bouleverse les représentations sacralisantes de l'écriture : elle montre celle -ci comme un travail qui ne va le plus souvent pas sans blocages et reprises, à travers des modifications tâtonnantes chez les scripteurs exceptionnels comme chez les autres. Quel enseignant, depuis une quinzaine d'années, n'a pas tenté l'expérience : se procurer la copie d'un avant-texte d'écrivain, en faire un transparent, le projeter devant sa classe, et se voir, le plus souvent, agréablement surpris par les commentaires des élèves, ravis de ne pas être les seuls à peiner pour écrire, puisque Balzac, Flaubert ou Proust ont eux aussi hésité, raturé ? Découvrir des avant-textes d'écrivains revient alors à faire voir la production écrite sous un jour entièrement neuf, à déculpabiliser et à stimuler les essais et erreurs. Le choc ressenti met à mal les vues les plus naïves quant au don d'écriture, fait apparaître la récurrence des modifications de genèse, et l'existence ainsi légitimée d'états intermédiaires quelquefois peu satisfaisants, qui permettent d'accéder à un état final supposé l' être davantage. Ces aperçus, bien que sommaires, lors de la lecture d'oeuvres littéraires (avant-textes à l'appui), ainsi qu'une pratique plus réflexive des productions effectuées en classe, font voir que l'écrit est transformable dans le temps. Ainsi peuvent être concrètement manipulées et appréciées les notions de variante, d'a vant-texte, d ' états de texte, de phases rédactionnelles, de dossier génétique. En conséquence, l'écriture apparaît aussi comme un travail. Les modifications n'ont pas un caractère infamant, elles ne correspondent pas toujours à des manques, mais peuvent constituer des indices d'une recherche. Loin d' être un raté, la rature semble plutôt une régulation fonctionnelle, pour peu que le scripteur dispose de temps et de stimulations. L'observation d'avant-textes littéraires et de productions scolaires permet aussi de voir qu'il n'y a pas un moule unique du « bien-écrire ». Des procédures de textualisation très différentes s'observent, même parmi les scripteurs les plus « experts », en particulier dans l'opposition entre les modes d'écrire dits « à programme » et ceux dits « à processus », et dans leurs éventuelles intrications. Sur quelles variables asseoir ces différences ? Certains travaux de l'Item se proposaient de vérifier l'effet du type de texte sur le mode d'écrire d'un même scripteur. Plus tard, dans le sillage des travaux du groupe Eva-Inrp, beaucoup d'enseignants se sont efforcés d'évaluer l'impact des conditions de rédaction et des dispositifs didactiques, et aussi bien sûr du type de texte, sur les productions des élèves. Plus récemment encore, on a pu envisager le mode d'écrire comme une tendance individuelle, les types de scripteurs scolaires se distinguant en « planificateurs » ou non, « progressifs » ou non, « inséreurs ou chambouleurs » (contributions de D. Bessonnat, Pratiques n° 105-106). Il y là des pistes qui méritent d' être encore explorées. En effet, si les pratiques scolaires ont plutôt bien intégré les changements de représentations induits par la vulgarisation des recherches en faisant lire les textes classiques auprès de leurs avant-textes, pratiques courantes au collège et au lycée, en revanche, du côté de la production scolaire, c'est surtout à l'école élémentaire que quelques mises en oeuvre ont été tentées. En cela la critique génétique rejoint d'autres orientations influentes en didactique, mais elle montre du sujet une zone inaccessible autrement, celle de son énonciation scripturale. De façon dominante à l'école (voir I.O. et manuels), le sujet scripteur est supposé identique à l'élève, c'est-à-dire défini par sa progression dans la maîtrise des normes, habiletés et savoir-faire scripturaux. Complémentairement, l'observation des brouillons et copies permet de repérer les marques d'une démarche plus personnelle : procédures individuelles, rituels idiosyncrasiques (tendance à la suppression / à la refonte / à l'ajout. ..), activités épilinguistiques et métalinguistiques, présence et qualités de l'auto-évaluation, n'apparaissent plus seulement estimables et didactisables selon la qualité du produit final. a) Chez les scripteurs exceptionnels, en premier lieu : l'examen détaillé de dossiers génétiques, tout comme la lecture, vulgarisée et facilitée par la publication, de Carnets d'écrivains (entre autres, Flaubert, Zola, Valéry) montrent combien la diversité domine les habitudes de composition. Tel éprouve la nécessité absolue d'avoir le titre définitif de son écrit avant de commencer, tandis qu'un autre le trouvera seulement après la dernière ligne, et que tel autre encore en essaiera plusieurs en cours de route; certains ne peuvent se mettre au travail avant d'avoir tout ou partie de leur plan, et d'autres se sentiraient bridés d'en avoir un; l'impression que quelqu'un a déjà traité leur thème entraîne pour quelques scripteurs de la réticence, voire de l'impuissance, tandis que Montaigne et bien d'autres s'appuient avec bonheur sur toutes les formes de la citation et de l'emprunt. Les auxiliaires et rituels diffèrent à l'évidence jusque dans leur matérialité : notes mentales dont il ne reste rien, carnets ou non, fiches, petites ou grandes feuilles, manuscrit ou tapuscrit, crayons ou encres, repères de couleurs ou de chiffres, schémas. .., comme si tel écrivain éprouvait plus d'aisance et de créativité dans ce rituel particulier, de sorte qu ' « une technique de travail, une démarche, un instrument. .. » peut quelquefois se retrouver « à l'échelle de son oeuvre entier » (P. - M. de Biasi, 1990). Alors, à chacun sa façon d'écrire, à l'école aussi ? Ce n'est évidemment pas possible dans l'absolu, chaque scripteur y étant situé au sein de groupes, mais la question mérite d' être posée. b) Hétérogénéité et spécificité des modes d'écrire à l'école Depuis de nombreuses années, on admet que les sujets sont plus ou moins sensibles à certains éléments inducteurs en matière de mémoire (il y a les plutôt « visuels », les « auditifs ». ..). De même, s'agissant de la lecture, des recherches montrent qu'il existe des apprenants plutôt sensibles aux éléments sémiographiques (ces enfants sont dits « chinois »), d'autres plutôt sensibles aux éléments phonographiques (enfants dits « phéniciens »). Qu'en est-il en matière d'écriture ? Peu de recherches existent ici en domaine français. On peut cependant citer, qui partent d'hypothèses psychologiques, les publications de M. Alcorta et d ' A. Piolat; qui partent des hypothèses de la génétique textuelle, outre mes propres travaux, ceux de C. Boré, J. David, et plus récemment C. Lacoste. En contrastant deux suites rédactionnelles (notes, brouillons et texte final remis à l'enseignant) produites par deux écoliers de Cours moyen, dans la même classe et dans des conditions similaires, j'ai pu analyser deux manières de faire différentes, dominantes chez chacun : Isabelle s'efforce de textualiser dès le début de son travail, et même lorsqu'elle prend des notes; puis elle recopie avec peu de modifications dans les brouillons suivants, et parvient dans le dernier état de texte à une version proche de la première; au contraire, Stéphane prend des notes très succinctes, distingue nettement notations pour se souvenir et narration, travaille les différents états de son texte par la concision de certains détails et par l'amplification de l'ensemble, et modifie chaque version par rapport à celle qui précède. Il décrit ainsi un parcours de production qui va d'une sorte de script à des versions remaniées et de plus en plus développées (C. Fabre, 1987). Certes, il ne s'agissait là que d'une première approche, mais qui faisait bien apparaître le fait que chaque scripteur, y compris dans le cadrage scolaire, pouvait tendre à privilégier certaines procédures plutôt que d'autres. Les travaux de Catherine Boré (1998), puis ceux de Claire Lacoste (thèse de doctorat, Paris 3, 2002), s'appuyant à la fois sur des aspects longitudinaux et contrastifs, montrent à leur tour de façon fine que la diversité des modes d'écrire ne se rencontre pas seulement chez les écrivains. Les écoliers aussi, individuellement ou selon l'occasion, ont tendance à en privilégier certains. Selon Claire Lacoste, les deux principaux (accumulation et récurrence), ne sont pas sans rappeler l'écriture à programme et l'écriture à processus décrites chez les écrivains, tandis qu'un troisième mode, intermédiaire (dit du gonflement), participerait des deux autres. A partir de productions par ordinateur et de l'enregistrement filmé des gestes d'écriture, cette conclusion confirme et approfondit celles des précédents travaux conduits avec des corpus scolaires manuscrits. Tous permettent d'approcher une définition du sujet scripteur construite non plus à partir des qualités académiques ou artistiques du texte qu'il a produit, mais par le mode d'écrire qu'il a, spontanément ou consciemment, déployé en écrivant. Subjectivité et intersubjectivité étant théoriquement liées (E. Benveniste), on peut s'attendre à ce que le sujet scripteur en formation se construise aussi dans l'altérité. La recherche en didactique a expérimenté des formes d'intersubjectivité propres au contexte scolaire ou à celui de la formation, par exemple les brouillons oraux à plusieurs voix ou les dictées à l'adulte. En renvoyant à des pratiques scolaires qui s'appuient pour partie sur les théories déjà évoquées et pour partie sur une réflexion didactique originale (voir la thèse de Michèle Maurel, décembre 2002, Grenoble 3), on constate que : a) l'intersubjectivité et l'intertextualité scolaires se fondent sur l'insertion des textes produits dans un contexte large, sur la mise en relation pragmatique des paroles dites ou écrites en classe avec des faits ou des discours situés dans un espace social compris hors les murs de la classe (correspondance, concours, publications, affiches, théâtre. ..); qu'elles se pratiquent dans la continuité entre parler et écrire, en particulier par le biais des avant-textes oraux (l'oral pour expliquer, argumenter, raconter, inventer), et sous les diverses formes maintenant bien décrites de la « rédaction conversationnelle ». Intertextualité et intersubjectivité renvoient aussi à la pratique de scripteurs supra-individuels, tantôt parce que la parole et l'écriture se font en petits groupes (lors des moments de recherche, de scription et de révision), tantôt par l'écriture à deux, en dyades de pairs ou en dyades inégales, en particulier lors de la dictée à l'adulte d'un texte composé par de très jeunes enfants. b) L ' intertextualité peut être entendue ici aussi bien au sens restreint (rapport d'un texte avec d'autres textes) qu'au sens large (entre autres, chaque texte suppose au moins deux sujets, celui qui l'émet et le groupe social dont il parle le langage). Dans la lignée des recherches de l'Item, elle renvoie à l'autodialogisme (discours métalinguistique virtuel du scripteur qui est son premier lecteur), au dialogisme entre le scripteur et le texte déjà là, à celui entre le scripteur et le récepteur virtuel qu'il suscite. Et bien sûr, de façon littérale, elle ne cesse d'englober les liens tissés entre les textes, renvois, citations, pastiches, comparaisons, transformations, constructions de types. Des observations proprement didactiques tendent à montrer que dans un tel ensemble (intersubjectivité + intertextualité), le sujet scripteur a une chance de former sa propre griffe. De sorte que, si la critique génétique a légitimé la diversité des modes d'écrire, il semble que c'est plutôt la recherche en didactique de l'écriture qui a essayé de saisir la subjectivité scripturale à travers l'intersubjectivité manifeste. Sous l'influence des recherches de l'Item et de leur adaptation au contexte scolaire, mais aussi de celles des groupes Inrp, on a vu en une vingtaine d'années les représentations cumulatives et normatives du savoir-écrire céder un peu de place à une conception plus ouverte, multidimensionnelle, de la production textuelle, qui prend en compte le temps, les dispositifs et les conditions de production, et la diversité des sujets-scripteurs. Ainsi s'esquisse une orientation plus problématique de la didactique de l'écriture : il semble possible que ce ne soit plus seulement l'institution et la tradition qui fixent a priori ce qui doit être produit, ce que doivent être le produit et la production. Une grande part d'initiatives revient au sujet scripteur, qui peut appréhender et voir reconnue la spécificité de sa propre démarche, et l'auto-évaluer. Une grande part revient aussi à l'enseignant qui l'accompagne : écoute, observation, interrogation, attention aux spécificités individuelles aussi bien qu' à la transversalité des phénomènes. En ce sens, l'apport de la génétique textuelle a été fondamental et n'a pas fini de faire sentir son influence. Remarquons seulement que son caractère problématique et stimulant risquerait de ne pas résister dans un univers scolaire d'où la recherche serait bannie. D'autre part, quel que soit le gain que représente la vulgarisation des travaux de l'Item, des questions proprement didactiques restent à approfondir dans le travail des brouillons en classe. Il s'agit entre autres de l'ouverture à des disciplines autres que l'enseignement de la langue et de la littérature, à tous les types textuels, à tous les supports (en particulier l'écran d'ordinateur) ou de la création de projets et de dispositifs de production généralisables. D'autre part, dans la pratique de l'enseignant, comment réaliser un juste équilibre entre la tâche d'amélioration du texte et celle de formation du sujet scripteur ? Ou encore, comment pondérer l'acquisition des compétences transversales pour tous et le respect des rythmes et modes spécifiques de chacun ? Le travail en petits groupes, l'intégration des avant-textes oraux et de l'auto-évaluation demandent eux aussi encore davantage de recherches et de moyens. Dans l'analyse et l'interprétation des oeuvres littéraires, la linguistique génétique est apparue dans un moment de crise, alors que les méthodologies l'ayant précédée (selon A. Grésillon, philologie, critique des sources, analyse structurale) ne paraissaient plus satisfaisantes. Dans la production et la réception des textes non littéraires, la génétique textuelle, de même que les autres domaines de recherche convoqués dans le colloque de Nanterre (mai 2003) apparaissent également à un moment où l'école et la société sont en crise. Ainsi, alors que des connaissances didactiques nouvelles, des expériences de qualité, accumulées, pourraient permettre de mieux enseigner, le moins qu'on puisse dire est qu'on ne constate pas d'amélioration massive sur le terrain. Que l'on pense, non seulement à l'adaptation des recherches de l'Item dont il est question aujourd'hui, mais aussi à l'extraordinaire effervescence d'enseignement et de recherche qui a donné le Plan Rouchette (1970) et s'est continuée jusqu'aux groupes Évaluation et Révision de l'Inrp, aux débats inlassables de la revue Pratiques, à la diffusion de modèles rédactionnels de toutes sortes, aux logiciels d'aide à l'écriture, pour ne citer que quelques-uns des facilitateurs dont on pourrait aujourd'hui disposer ! L'adaptation des travaux de la critique génétique a été un apport fondamental à cette richesse, et du point de vue méthodologique et parce qu'ils ont donné un regain de force problématique aux théories de l'énonciation. Le terrain scolaire a de son côté permis de développer certains des aspects spécifiques de l'intertextualité et de l'intersubjectivité. Aujourd'hui, ces différents apports restent fragiles et menacés : ils ne pourront fructifier que dans une école où la recherche vive .
En s'interrogeant sur ce qui a commencé de changer dans la réflexion et les pratiques en didactique de l'écriture depuis la prise en compte de la critique génétique au début des années 80, l'A. dégage un bilan en trois points: 1) La critique génétique propose un ancrage théorique et une méthode d'analyse des activités d'écriture. 2) La critique génétique permet de (se) représenter toute écriture comme un travail et une recherche. 3) La critique génétique place le sujet scripteur au centre de sa production. L'observation des brouillons et copies permet de tracer les marques d'une démarche personnelle: mise au jour de procédures individuelles, idiosyncrasies et rituels particuliers (tendance à la suppression / à la refonte / à l'ajout...), activités épilinguistiques et métalinguistiques, intensité de l'auto-réflexion, voire du plaisir du texte n'apparaissent plus seulement estimables et didactisables selon la qualité du produit final
linguistique_524-05-10552_tei_427.xml
termith-583-linguistique
L'absence relative de motivation des apprenants pour l'apprentissage du français dans la zone asiatique non francophone est devenue le sujet fréquent des propos des enseignants et des chercheurs (Tang, 2004; Bok, 2004). Dans ce topo s, on trouve généralement sur le banc des accusés responsables du déclin de l'étude de la langue française, la prépondérance de l'apprentissage de l'anglais, la faible présence économique et politique de la France et le manque de perspectives professionnalisantes. Les difficultés d'ordre linguistique que connaissent les apprenants asiatiques dans leur apprentissage du français ne feraient qu'aggraver la situation. Ce pessimisme ambiant nous a conduit à chercher localement une solution partielle pour enrayer ce déclin du choix du cours de français. Selon nous, la prise en compte des dimensions culturelles de l'enseignement du français répond d'une part aux aspirations explicites de nos apprenants, et d'autre part, elle permet de satisfaire à leur besoin d'affirmation identitaire qui jusqu' à présent ne faisait pas l'objet d'une quelconque analyse dans la recherche en didactique du français à Taiwan. Nous avons donc élaboré un nouveau concept que nous appelons « motivation existentielle » et que nous pensons opératoire pour de nombreuses situations de l'enseignement du français en Asie. Ce concept fait appel en particulier aux notions de représentation sociale, de valeur, d'identité et prend en compte l'environnement socio-économique et politique. Notre public est constitué d'étudiants provenant de diverses filières qui choisissent le cours de français qui est proposé en cours optionnel (payant) sur trois ans, à raison de 3 heures par semaine, dans le cadre d'un département d'anglais. Ce cours est dispensé sur deux semestres, ce qui représente environ 80 heures. Il se trouve en concurrence directe avec des cours d'allemand, d'espagnol, de japonais, d'anglais pour les langues étrangères. Mais nombre d'autres matières optionnelles peuvent être choisies par les étudiants pour satisfaire aux exigences institutionnelles. On évolue donc dans un véritable marché de l'éducation, ce qui rend encore plus pressante la nécessité de cerner la motivation des apprenants. De 1987 à 1999 nous avons pris l'habitude d'inviter les étudiants de première année de français à répondre anonymement par écrit à la question « Pourquoi avez -vous choisi le cours de français ? ». 1633 réponses ont été ainsi analysées à partir desquelles nous avons extrait 38 items récurrents qui ont servi à monter un questionnaire de 40 items sur la motivation pour le cours de français. Ce questionnaire a ensuite été proposé en classe par l'auteur à 893 étudiants suivant des cours de français en option, répartis dans 16 établissements d'enseignement supérieur à Taiwan. Il est composé des six catégories de questions retenues par Candelier et Hermann-Brennecke (1993) : l'ajustement à l'environnement social, l'influence d'autres personnes, les contacts recherchés, la familiarité, l'utilité. Nous y avons ajouté une catégorie « le mieux-être » que nous avons définie de la manière suivante : elle recouvre tout ce qui est perçu par les étudiants comme affectant directement la qualité de leur vie, tout ce qui donne sens à leur existence sociale et individuelle et leur permet en même temps un retour sur leur propre culture. La notion de motivation ne semble pas avoir fait l'objet de recherches dans le milieu des enseignants-chercheurs du français enseigné en option à Taiwan. Pour un autre type de public, celui des départements de français, il existe deux travaux (Chaubet, 1996; Monier, 1995). Leur approche s'attache à comprendre trois types de facteurs motivationnels censés leur apporter « […] une assez bonne appréhension de notre public, tant dans ses attentes que dans la façon dont sont vécues les études de français » (Monier, 1995). Ces facteurs sont les choix de départements effectués par les étudiants avant l'examen d'entrée à l'université, l'analyse par ces derniers du contenu de leurs études et enfin leur perspective d'avenir après l'obtention de leur diplôme. Ces objectifs sont sous-tendus par des considérations pédagogiques de « remotivation » des étudiants qui sont classés en « motivés », « semi-motivés » et « non motivés », à partir du seul critère du choix du français pour l'entrée à l'université. Les étudiants ayant choisi le français en premier choix sont considérés comme motivés, ceux l'ayant choisi en deuxième ou troisième choix sont les semi-motivés, tandis que ceux ne l'ayant pas choisi du tout sont les non motivés (Chaubet, 1996). Ces études se focalisent donc sur une perspective diachronique de la motivation : celle -ci est définie à partir de la motivation avant le choix de leur discipline, de l'état présent de leur motivation (évaluation par les étudiants de leurs cours de français) et des effets sur leur motivation présente de leurs attentes professionnelles. Cependant cette notion n'est pas explicitée et elle n'est pas mise en relation avec l'environnement sociétal. Seules les représentations des étudiants du degré de difficulté/facilité de la langue française sont mentionnées. En outre, hormis le sexe, aucune variable socioculturelle n'est utilisée pour affiner les réponses des étudiants. La position du français dans le champ de l'enseignement des langues extérieures à Taiwan, une réflexion sur les conditions d'enquête (les étudiants ont à remplir un questionnaire rédigé et analysé par leurs propres enseignants) sont également absentes. Il semble donc aléatoire de s'appuyer sur ces travaux autrement que pour rappeler des généralités telles que l'intérêt pour la culture française sous-jacente à l'apprentissage de la langue française (Chaubet, 1996). Selon Jodelet (1999), la représentation sociale est « une forme de connaissance, socialement élaborée et partagée, ayant une visée pratique et concourant à la construction d'une réalité commune à un ensemble social ». C'est donc une vision compacte de l'Autre, une sorte de prêt-à-porter communicatif dont la fonction cognitive consisterait à mettre en place une connaissance spontanée/naïve opposée à la rationalité du savoir scientifique. Elle est également re-présentation, dans la mesure où le groupe humain parmi lequel elle circule s'approprie ce qu'il considère comme une réalité mais qui en fait s'avère être, au moins en partie, une fiction. Cette fiction devient un trait marquant de la culture de ce groupe humain dans cette phase finale de la construction d'une représentation sociale que Roussiau et Bonardi (2001) appellent « la naturalisation ». C'est ainsi qu'au Japon, à la différence du monde chinois, on ne semble pas considérer les Français comme romantiques malgré de nombreuses similitudes dans le contenu des représentations (Chi et Himeta, 2009). Une autre caractéristique de la représentation sociale concerne son mode d'existence. Sa circulation est fluide car elle relève plus d'une information circulante proche de la rumeur que d'un savoir à transmettre. Elle se révèle donc insaisissable car elle rebondit d'individu en individu, possédant à la fois des caractéristiques facilement identifiables – le caractère romantique des Français ne semble pas devoir faire l'objet d'une explicitation dans le monde chinois – tout en se présentant sous un aspect protéiforme, ce qu'explique la théorie du centre et de la périphérie d'une représentation d'Abric (1994). Les informations reçues qui corroborent l'énoncé principal de la représentation sociale tendent à être plus facilement mémorisées et renforcent la cohésion du groupe qui fait circuler cette représentation qui possède donc une fonction identitaire. Le jugement porté sur l'Autre rassemble les membres du groupe en particulier par un effet de miroir : cet Autre est ce que nous ne sommes pas, ou du moins s'il nous ressemble, la différence reste marquée. Ce préambule théorique permet de dépasser le discours ordinaire qui circule à Taiwan chez la plupart des enseignants de français, qu'ils soient natifs ou non, et qui présuppose que les représentations des Français doivent être évaluées selon une problématique du vrai ou du faux. Nous avons donc entrepris de retrouver, dans la mesure du possible, le parcours de la représentation des Français romantiques qui semble constituer à Taiwan (mais également en Chine) une évidence ne justifiant pas d'autres précisions (Zhang, 2000; Zheng et al., 2003; Merkelbach, 2001). Comme l'affirme Zarate (1995, p. 39) « le recours à l'histoire permet de retrouver la genèse des représentations […] le document historique permet de retrouver comment le sens s'est construit, de restaurer la diversité des intérêts qui étaient alors en jeu ». Or, la Chine de la fin du xix e siècle et du début du xx e siècle, pays en pleine crise institutionnelle et sociétale, voit fleurir de nombreuses traductions d' œuvres littéraires occidentales, notamment relevant du romantisme français, qui vont bouleverser le monde des lettres chinoises (Lee, 2002). L'idée romantique de l'amour-passion va se trouver diffusée dans le grand public et devenir le noyau central de la représentation des Français romantiques. L'amour partagé va ainsi s'opposer à la conception chinoise pragmatique du mariage arrangé, thème récurrent de la littérature chinoise : « toutes les discussions sur le point de vue des Chinois sur les relations doivent prendre en compte le mariage arrangé [… ]. Cette tradition prévalente a conduit à des attitudes calculées et pratiques envers les relations d'amour parmi les Chinois. » (Cho, 1995, p. 288) D'autres éléments sont à prendre en compte dans la constitution de cette représentation. Les rapports des premiers diplomates chinois envoyés en France à partir de 1866 se révèlent très instructifs à cet égard. Ils notent la splendeur des villes en des termes dithyrambiques, en particulier Paris qui à l'époque est en pleine rénovation sous la direction du baron Haussmann : « Le soir nous avons parcouru une dizaine de li en voiture le long de larges avenues remplies de monde [… ]. Les lumières de la rue sont si brillantes que la lune et les étoiles perdent tout leur éclat : c'est à vous en arracher des soupirs incessants [… ]. Nulle part ailleurs il n'y a autant de jardins, théâtres, débits de boissons et maisons de thé. » (Bin Chun cité dansLévy, 1986, p. 84.) Ces diplomates tombent sous le charme des Françaises bien habillées et respectées par leurs maris même s'ils leur trouvent des mœurs relâchées. Cette image ambigüe de la femme française perdure jusqu' à nos jours dans le monde chinois. L'image d'une belle ville où les gens savent vivre est déjà là. Pour les jeunes Chinois arrivés avec le mouvement ouvriers-étudiants (Leung, 1982) dans les années 1910, l'image de la qualité de vie s'ancre définitivement dans la représentation qu'ils ont des Français. En particulier, on leur prête l'aptitude à savoir discerner et créer le beau, ce qui est reflété par le nombre considérable d'étudiants attirés par les écoles des beaux-arts (Rapport des Annales franco-chinoises, 1932). Toutesles recherches convergent pour noter que de plus en plus de Taiwanais aspirent à voyager et voyagent effectivement en Europe pour leurs études (Lee, 1993) ou dans un but touristique. Le nombre de voyageurs à destination de la France augmente, mais il est extrêmement difficile de connaitre statistiquement leurs impressions de voyage et surtout le discours qu'ils font circuler à Taiwan sur la France et les Français. De rares enquêtes permettent au moins de connaitre leur motivation de départ, comme ces étudiants qui voyagent en Europe pour célébrer l'obtention de leur diplôme (Daxue Bao, 17/04/1998) et qui cherchent « une expérience enrichissante de la vie » à travers les beaux sites touristiques. L'ensemble des enseignants de français à Taiwan s'accordent pour citer Paris comme destination première des touristes taiwanais puis les châteaux de la Loire et la Côte d'Azur. Les sites prestigieux (Louvre, musée d'Orsay, le jardin de Monet) sont hautement prisés. Le développement sensible dans les librairies taiwanaises des rayons consacrés aux ouvrages sur les cafés de Paris, la mode, la gastronomie, l'architecture, le design d'intérieur, les arts picturaux, les jardins et le vin en France, témoigne de la circulation d'un discours qui accorde une grande place à la qualité de vie des Français. Les Taiwanais sont de très gros consommateurs de médias audiovisuels très orientés vers les États-Unis (Lee M.-H., 1993). La part de la France est négligeable mais, pour la télévision, l'impact de la publicité est à considérer. Des publicités, généralement pour des produits haut de gamme (automobiles, résidences, bijoux), pas nécessairement français, s'appuient sur des éléments de la culture française (chansons, paysages, noms de lieux célèbres, personnages historiques) qui jouent systématiquement sur les notions de prestige et de raffinement. Mais c'est dans les médias écrits spécialisés, comme les revues de mode ou de design, que la France est la plus présente. C'est enfin sur l'édition francophile que nous nous sommes appuyés pour cerner l'ancrage de la représentation des Français romantiques dans la société de Taiwan, car comme l'affirme Umberto Eco (2000, p. 27) : Curieusement, nous voyageons grâce à notre connaissance antérieure de ce que nous sommes sur le point de découvrir, puisque des livres déjà lus nous ont indiqué ce que nous étions censés trouver. L'influence de ces livres de référence est telle que les voyageurs, quelles que soient leurs découvertes et les réalités perçues, vont tout interpréter et tout expliquer en fonction de ces ouvrages. Cette importance du livre nous a amené à choisir sept ouvrages taiwanais de grande diffusion qui véhiculent des représentations de la France et des Français. Ils confirment à la fin du xx e siècle, avec quelques variantes peu significatives, la centralité des « Français romantiques » dans l'ensemble des représentations qu'ont les Taiwanais à propos des Français. Nous avons également complété cette analyse de discours par des entretiens avec des Taiwanais francophones et des résidents français installés depuis longtemps sur l'ile, ce qui nous a permis de vérifier les conclusions de nos recherches. Pour comprendre comment cette représentation influence la motivation de nos étudiants pour le choix des cours de français, il faut noter le rôle de l'évolution politico-économique de Taiwan depuis les années 1980. C'est en 1987 que la loi martiale a été abolie à Taiwan et qu'un régime démocratique s'est progressivement installé dans le pays. Parallèlement, le développement économique s'est accru exponentiellement durant ces années. Il en résulte deux faits extrêmement importants pour comprendre notre propos. Les voyages à l'étranger sont devenus libres et accessibles pour tout le monde et le nouveau pouvoir économique des Taiwanais leur a permis une consommation débridée (Guiheux, 2000) de biens tangibles (grandes marques de vêtements, vins, cosmétiques) et intangibles (loisirs, voyages à l'étranger). Les enfants de cette génération sont donc nés dans une relative aisance, ce qui leur a rendu plus accessible cette qualité de vie qu'ils prêtent aux Français. La fréquentation assidue des cafés à Taiwan en est un symbole évident. Or les générations actuelles d'étudiants se voient attribuer par le monde adulte dominant, dont ils dépendent matériellement, des valeurs, des attitudes et des comportements à connotation négative (Yang, 1999). Ainsi, l'étiquette fourre-tout de « génération des fraises » utilisée pour décrire cette jeunesse insinue un manque de résistance à la pression du travail. En fait, ces générations se caractérisent par leur plus grande ouverture au monde. Parallèlement, elles assistent à un renouvellement de la tradition à Taiwan. En fait, deux traditions sont en compétition : une tradition chinoise, héritage du gouvernement nationaliste d'avant 1987, et une tradition taiwanaise, concept qui a émergé progressivement depuis 1987. Ce sont deux constructions politiques qui s'opposent mais qui ne proposent, ni l'une ni l'autre, de réponse complète aux évolutions actuelles de la société taiwanaise que connaissent les étudiants. La mondialisation, dont les conséquences politiques et économiques sont sensibles à Taiwan, surtout pour les jeunes générations, leur offre une alternative aux conflits identitaires de leurs ainés. Ils conservent certains traits de la société traditionnelle, qu'elle soit chinoise ou taiwanaise, mais l'occidentalisation avancée de Taiwan les amène à développer des valeurs plus individualistes, et à afficher des comportements envers les études (le travail à temps partiel) qui bousculent les processus de socialisation au sein de la famille et des réseaux de clientèle. De surcroit, la situation politico-économique de Taiwan leur ouvre des horizons professionnels (le marché européen et de Chine Populaire) qui étaient inaccessibles pour leurs parents. Ces phénomènes engendrent un renouvellement identitaire pour ces générations d'étudiants. En ce qui concerne les étudiants de français, leur intérêt pour les dimensions culturelles de l'enseignement-apprentissage du français s'inscrit dans cette évolution. Il procède d'une valeur sociale que nous nommerons désirabilité de l'étranger, caractéristique de ces nouvelles générations, valeur qui ne possédait pas de terrain d'expression pour leurs parents. Nuttin (1996), dans le modèle dit relationnel, définit la motivation non comme un processus de déclenchement mais comme « […] l'orientation dynamique continue qui règle le fonctionnement, également continu, de l'individu en interaction avec son milieu ». Ces interactions répondent aux besoins des individus qui vont agir en vue d'un objet-but, en passant éventuellement par ce que Nuttin appelle des objets-moyens. Ce sont des étapes nécessaires pour atteindre un but, comme suivre une école préparatoire pour passer avec succès l'examen d'entrée dans une grande école puis finalement obtenir le diplôme convoité. Le besoin défini comme « une relation “requise” entre l'individu et le monde » est un élément de première importance dans cette théorie. Les interactions peuvent se présenter sous un angle négatif, par des insuffisances fonctionnelles qui génèrent un besoin de compensation. De manière positive, elles se présentent notamment sous la forme de renforcements affectifs. Ce ne sont donc plus les besoins ni les contraintes et stimuli qui doivent attirer principalement l'attention pour comprendre la motivation humaine mais plutôt le jeu des interactions individu-monde, dans ce qu'il a de répétitif et de repérable. La motivation ne se trouve plus enfermée dans le psychisme individuel mais s'ouvre sur le monde. L'individu devient « un sujet en situation »; aussi l'explication de la motivation ne se résume pas à un choix entre la prépondérance de l'individu ou de l'environnement. Ces deux pôles s'impliquent l'un l'autre. En attribuant un rôle important, en particulier aux représentations sociales des étudiants de Taiwan, mais également à leurs valeurs sociales et à la question identitaire, nos recherches s'inscrivent dans cette perspective organique de la motivation. Quant à la théorie de Gardner et Lambert (1972) de la motivation intégrative et instrumentale qui est l'objet d'un assez large consensus parmi les enseignants-chercheurs de Taiwan, les résultats de notre enquête montrent qu'elle n'est guère opératoire pour le français enseigné en optionnel. En effet, la grande majorité des apprenants de français ont répondu ne pas avoir comme projet d'étudier dans un pays francophone ou d'y séjourner. La seule réponse qui pourrait s'apparenter à la motivation intégrative concerne l'envie de voyager en France, mais qui est exprimée sous la forme d'un désir et non pas d'un projet qui justifierait l'apprentissage du français. Notre hypothèse est donc que la motivation des étudiants de Taiwan s'appuie sur un intérêt marqué pour la culture française, englobant culture cultivée et culture de masse (Kalifa, 2001). Cet intérêt est reflété en particulier par la représentation « les Français romantiques » qui circule dans toutes les couches de la population à Taiwan. Mais cette culture, dont la connaissance procède en partie du désir de construire un savoir encyclopédique sur la France et les Français, serait surtout pour les étudiants un objet-moyen, selon la conception de J. Nuttin. Selon nous, elle permettrait d'atteindre un objet-but qui serait l'amélioration qualitative de leur existence en tant qu'individus, point sur lequel la société taiwanaise resterait insatisfaisante aux yeux de la jeune génération. C'est en ce sens qu'on évoque une motivation existentielle dont les principaux traits peuvent s'énoncer comme suit. Une motivation existentielle peut s'accommoder d'orientations instrumentales et intégratives. Les buts de l'apprenant qui consistent à améliorer sa qualité de vie et à donner plus de sens à son existence sociale et individuelle entrainent une orientation qui rompt avec les orientations instrumentales et intégratives. Un étudiant de français à Taiwan, par exemple, peut choisir cette langue pour voyager en France, affirmer son statut social, orientations instrumentales qui rejoignent un véritable intérêt pour le rôle de l'art en France (orientation intégrative). Ces motivations ne sont cependant que des étapes pour atteindre un autre but qui serait l'introduction d'un mode de vie plus romantique dans le quotidien de la société taiwanaise, jugé trop pragmatique par l'apprenant (motivation existentielle). Les apprenants de français à Taiwan sont très attirés par la culture française mais en raison de leur habitus d'apprentissage de l'anglais, ils éprouvent des difficultés à formuler cet intérêt dans un cours de langue étrangère. Les réponses du type « on est intéressé par la langue » masquent souvent cet intérêt pour les dimensions culturelles qui n'est pas légitimé dans les cours de langue étrangère à Taiwan. La motivation pour une langue devient ainsi, elle aussi, un objet-moyen, une étape vers la découverte de la culture d'un pays. La motivation existentielle du choix d'une langue étrangère peut donc se présenter sous la forme trompeuse d'un prétexte à faire autre chose, mais qui ne s'inscrit pas dans une tradition éducative. L'étendue de son domaine englobe tous les niveaux de l'existence mais privilégie cependant l'affectif, les représentations de soi et de l'autre jouant un rôle fondamental ainsi que les valeurs sociales de l'apprenant. Par rapport au paradigme de R. Gardner et de W. Lambert insistant sur les risques d'acculturation, la motivation existentielle affecte le rôle de l'autre (le groupe, l'étranger) qui n'agit plus alors sur l'apprenant comme une force centrifuge à travers diverses formes d'assimilation ou d'intégration. Elle tend au contraire à devenir une force centripète en incitant l'apprenant à se centrer sur son groupe d'appartenance, les apports de la langue-culture étrangère étudiée devenant une (res)source du développement personnel. Cette inversion des rôles peut affleurer à la conscience des apprenants – certains étudiants choisissent délibérément d'intégrer les influences étrangères pour enrichir leur vécu (ou elles se produisent à leur insu) – mais nombre d'entre eux n'ont pas entrepris de réflexion sur leur relation avec l'étranger. Comme le rappelle Nuttin (1996), il n'est plus question de donner la prépondérance à l'individu conscient ou non de sa motivation ou à l'influence de l'environnement. Tout se joue en effet dans sa relation avec le monde, imbriquant les niveaux biologique, affectif, social et culturel. L'enquête qui a servi de support à cette recherche est principalement divisée en quatre parties : les données biographiques (15 items), les motifs du choix du cours de français (40 items), la valeur sociale que nous avons appelée « désirabilité de l'étranger » (86 items). En ce qui concerne les données biographiques, nous avons inclus des questions sur l'ethnie des parents qui tiennent compte de la situation sociale et politique de Taiwan. Elles n'ont pas généré d'informations particulièrement signifiantes à propos des deux ethnies principales, les Minnans et les Continentaux, au contraire de la profession des parents dont l'influence était attendue. Quant aux questions sur le projet d'aller étudier à l'étranger, moins de 10 % des réponses sont positives et elles ne concernent pas, pour la plupart, un pays francophone. Pour ce qui est de la profession envisagée, on constate une forte proportion de réponses qui n'ont rien à voir avec la discipline suivie par les étudiants, ce qui traduit clairement le malaise de la population étudiante taiwanaise. Il serait intéressant, dans le cadre d'une autre recherche, d'approfondir le lien direct entre le choix du cours de français et le désintérêt des apprenants pour leurs études actuelles. Les réponses aux questions sur le motif du choix du cours de français sont réparties en très d'accord (A), d'accord (B), pas d'accord (C), pas du tout d'accord (D), sans avis (E). On notera que les questions portent sur le choix du cours de français et non pas sur le choix de la langue française. Cette distinction est justifiée par notre connaissance de la culture éducative locale qui amène souvent les étudiants taiwanais à choisir des cours en option pour des motifs autres qu'académiques et non pour l'intérêt du contenu. On retiendra en particulier l'importance de la représentation de la langue française mélodieuse (A + B = 78,7 %) et son utilité pour la promotion professionnelle (A + B = 61,5 %). On notera que le discours circulant dans la société taiwanaise valorise avec insistance l'apprentissage de plusieurs langues étrangères pour la carrière, ce qui motive le haut pourcentage des réponses favorables des apprenants malgré le manque d'informations objectives sur ce domaine. L'intérêt pour la culture française génère plusieurs pourcentages favorables très élevés : 68 % de réponses mentionnent le choix du cours pour comprendre la qualité de vie des Français; 78,4 % espèrent recevoir beaucoup d'informations sur la France; 75,5 % ont entendu dire que la France est un pays romantique, etc. On constate donc que les représentations de la langue continuent à jouer un rôle non négligeable mais que l'importance des dimensions culturelles dans le choix du cours devrait amener le corps enseignant à Taiwan à réviser ses stratégies (la plupart des enseignants interrogés n'accordent qu'un rôle ludique et bouche-trous à la culture dans leurs cours). Les questions sur la désirabilité de l'étranger sont réparties en quatre parties : 1. Attitudes des étudiants envers les étrangers de Taiwan. 2. Étudiants ayant une expérience de séjour ou de voyage à l'étranger. 3. Comment les étudiants perçoivent les Français et les Américains à travers les médias. 4. Si vous viviez à l'étranger. Ces catégories de questions ont pour but d'analyser avec le plus de finesse possible les représentations des étrangers, en particulier les Occidentaux, et l'expérience des apprenants de ces étrangers. On espère ainsi comprendre comment cette valeur sociale, constatée pour toute la population à Taiwan et que nous avons appelée désirabilité de l'étranger, influence le choix du cours de français par les apprenants. Toutes les réponses proposées prennent en compte les réalités locales et ont fait l'objet d'une pré-enquête expérimentale. 1. En ce qui concerne les attitudes des étudiants, on constate succinctement que 1,5 % des apprenants considèrent que les Européens ont une influence néfaste sur la société taiwanaise, que 99,3 % pensent pouvoir faire confiance aux Européens et Américains de Taiwan, que 78,5 % les trouvent pleins d'assurance tandis que 74,8 % les considèrent ouverts d'esprit. On notera aussi que 66,7 % les trouvent romantiques tout en sachant qu'en général seuls les Français sont l'objet de cette représentation. D'ailleurs une majorité de réponses définit être romantique comme faire ce que vous avez envie sans but précis, l'art joue un rôle important dans votre vie, exprimer librement ses sentiments sans tenir compte de l'opinion des autres gens, l'amour est le plus important dans la vie (seulement 4,7 % des réponses concernent d'autres aspects). Il apparait donc clairement que cette valeur constitue un facteur très favorable au choix du cours de français. 2. Quant à leur expérience de l'étranger, 49 % d'entre eux ont voyagé dans d'autres pays et parmi ceux -ci 48,4 % ont envie de recommencer l'expérience, en grande partie en raison de la découverte de la diversité culturelle et pour l'aspect épanouissement personnel. Là encore, le contexte se présente favorablement pour les choix des cours de français. 3. Cette catégorie insiste sur le rôle des médias qui restent la source principale des représentations des Français. Le cinéma français leur laisse l'impression que les Français savent profiter de la vie (79,1 %), qu'ils sont passionnés d'art (54,3 %), qu'ils sont sensibles et raffinés (49,3 %) et qu'ils sont trop imbus de leur culture (43,1 %) pour les principaux résultats. Ce cinéma leur permet d'apprécier une manière plus libre et décontractée d'expérimenter la sensualité (51,8 %) tandis que 46,5 % considèrent apprendre une autre manière d'exprimer leurs sentiments. On notera également que 59,4 % trouvent les Français romantiques dans les films. Toutes ces réponses diffèrent très sensiblement des réponses pour les Américains. On retiendra également l'influence de la lecture mais surtout les revues de mode, la population des classes de français étant en grande majorité féminine. 4. Dans cette partie du questionnaire, on a surtout cherché à mettre en valeur la dimension fantasmatique du choix des cours de français. On retient en particulier qu'après avoir vécu à l'étranger 59,3 % d'entre eux s'imaginent plus curieux du monde; 80,3 % plus forts mentalement; 69 % seraient plus à l'aise pour socialiser avec autrui; 48,1 % deviendraient plus individualistes. Ils aimeraient que leur entourage remarque à leur retour leur nouvelle expérience de la vie (74,3 %), leur maitrise des langues étrangères (71 %), leur connaissance des cultures étrangères (70,1 %). Ils sont 76,9 % qui aimeraient vivre à l'étranger pour faire ce dont ils ont envie et 76,1 % qui souhaiteraient ramener de nouvelles attitudes de vie à Taiwan tandis que 54,1 % sont convaincus qu'ils gagneraient confiance en eux pour exprimer leurs sentiments et leur manière de penser sans avoir à suivre aveuglément l'avis du groupe. On discerne dans l'ensemble des réponses un grand désir d'émancipation de la part des apprenants. Il nous a conduit à associer le choix du cours de français à un processus de construction identitaire et par voie de conséquence à une motivation existentielle. On rappellera enfin que toutes les questions sont traduites en chinois et soumises au préalable à une relecture de collègues francophones et sinophones. Par ailleurs, les statistiques appliquées au questionnaire à partir du prologiciel SPSS de Pearson dans lequel les valeurs de référence pertinentes sont calculées à partir du système du khi carré, montrent des résultats très satisfaisants. Sur le plan didactique, la prise en compte de la motivation existentielle permet aux enseignants d'affiner leur compréhension du public et d'affiner leur stratégie d'enseignement. Ils peuvent ainsi mieux répondre aux véritables besoins des apprenants, à condition d'analyser extensivement et finement la situation éducative. Dans ce type de démarche, les tâches sont nombreuses, voire complexes, car elles concernent non seulement des besoins mais aussi les rêves des apprenants : « [Il faudrait] construire, en meilleure connaissance de cause, d'autres démarches d'enseignement, qui soient adaptées […] aux attentes et aux rêves d'ailleurs des apprenants, dans des équilibres fugitifs d'autant plus passionnants à rechercher. » (Beacco, 2000, p. 13.) L'enseignant ne peut plus dès lors se contenter des réponses des apprenants du type « j'apprends le français parce que ça m'intéresse » pour fonder sa stratégie d'enseignement. Il ne s'agit évidemment pas d'abandonner l'enseignement de la langue au profit des dimensions culturelles mais de donner à ces dernières la place qui leur revient. Cela implique aussi que l'enseignement des aspects culturels soit pensé non pas dans le style carte postale que l'on trouve dans nombre de méthodes à prétention universaliste, mais qu'il fasse un large appel aux sciences sociales (Beacco, 2000). Enfin, on peut réfléchir, en termes de politique linguistique, à l'intérêt de mieux mettre en valeur la francophilie dans des régions du monde comme l'Asie où le capital affectif pour la France reste important malgré le déclin de l'apprentissage du français .
En didactique du français langue étrangère (FLE), la notion de motivation pour l’apprentissage de la langue qui fait l’objet du plus large consensus parmi les enseignants-chercheurs fait référence à la théorie de la motivation instrumentale/intégrative (Gardner et Lambert, 1972). Cette théorie, qui reste valide pour de nombreuses situations, ne répond toutefois pas à celle de nos apprenants du français en langue optionnelle dans les universités de Taiwan. La plupart d’entre eux, en choisissant le français, ne mentionnent ni des attentes sur le plan professionnel (ou bien de manière très vague), ni une perspective d’intégration dans une population francophone.Nous montrerons dans cet article que leur motivation est à relier au contexte sociétal dans lequel ils évoluent et qu’elle est étroitement associée à une démarche identitaire dans laquelle les représentations sociales jouent un rôle important. C’est la raison pour laquelle nous appellerons ce type de motivation existentielle.
linguistique_11-0432683_tei_416.xml
termith-584-linguistique
Depuis Barber (1962), de nombreux chercheurs se sont penchés sur les spécificités grammaticales des langues de spécialité (cf. Halliday, McIntosh & Strevens 1964, Huddleston 1971, Banks 1993, Magnet 2001, Richard 2003, etc.). Certains auteurs (Adams Smith 1984, Swales 1990, Bhatia 1993) estiment cependant que les langues de spécialité recouvrent des réalités trop hétéroclites pour être caractérisées en termes exclusivement linguistiques. Swales, par exemple, juge que : Even if there remains some shorthand convenience attached to retaining registral labels such as scientific, medical, or even newspaper English, in reality such terms can now be seen to be systematically misleading. They overprivilege a homogeneity of content at the expense of variation in communicative purpose, addresser-addressee relationship and genre conventions. (Swales 1990 : 3) Dans cette optique, il ne s'agit plus de classer les textes en fonction de leur thématique mais du type d'événement communicationnel auxquels ils participent. Les genres ainsi dégagés (abstract, article scientifique, recension d'article, etc.) peuvent être considérés comme autant de discours transversaux. Ils ne constituent pas des sous-types de langues de spécialité, ils les transcendent. La transversalité dont il sera question ici n'est pas strictement générique. À la suite de Rondeau (1983) et de Resche (2001), nous reconnaissons qu'une langue de spécialité peut être plus ou moins spécialisée. Il est alors théoriquement légitime de postuler des langues transversales indépendantes de la discipline et définies seulement par leur degré de spécialisation (par exemple, la langue vulgarisée, qu'elle soit employée par le mathématicien, l'historien ou le juriste). L'un des objectifs de cet article est de vérifier si les langues transversales ainsi définies ont un fondement empirique. En particulier, nous nous demanderons si, au-delà des disciplines (et donc des langues de spécialité), il est possible de dégager des propriétés grammaticales propres au degré de spécialisation indépendamment du contenu disciplinaire. En plus d'aborder les langues de spécialité sous un angle transversal relativement neuf, notre approche se distingue de la recherche contemporaine sur plusieurs points. Tout d'abord, nous nous intéressons aux langues des sciences humaines (la philosophie et l'histoire), domaine parfois négligé par la recherche hexagonale qui s'est focalisée sur les sciences dures et le droit. En outre, contrairement à la perspective majoritairement quantitative des travaux sur la grammaire des langues de spécialité, nous associons aux mesures quantitatives des analyses qualitatives aussi fines que possible. Il nous semble en effet que, pour intéressantes qu'elles soient, les spécificités quantitatives sont trop générales pour être exploitées dans le cadre d'une tentative de caractérisation d'un type de discours particulier. Nous n'entrons pas pour les besoins de cet article dans la discussion portant sur les dénominations « langue de spécialité », « discours de spécialité », « langage spécialisé » ou « LSP » et emploierons indifféremment ces termes pour référer au discours sur la discipline par la communauté des experts. Néanmoins, nous nous fondons sur un certain nombre de consensus à leur propos qu'il est nécessaire de rappeler. Sur le plan grammatical, les langues de spécialité ne constituent pas un système linguistique à part, mais une utilisation particulière de ce système. Comme le formulent Sager, Dungworth et McDonald (1980 : 38) : The nature of language is such that general language and special languages can be accommodated within one natural language : the fundamental characteristics of language are manifested both in English and in the language of chemical engineering, both in French and in the language of physics. The differences between general and special languages is a difference of degree rather than kind : the degree to which the fundamental characteristics of language are maximised or minimized in special languages. Ainsi certains marqueurs sont plus fréquents dans une langue de spécialité que dans la langue générale (à l'instar du passif, récurrent en anglais juridique), ou à l'inverse absents d'un discours spécialisé (on trouve très peu de prétérits en be –ing dans l'anglais de la philosophie). Les valeurs de ces marqueurs peuvent aussi se singulariser par rapport aux valeurs qu'ils ont en langue générale (par exemple, si on trouve bien des modaux en anglais juridique, les valeurs épistémiques sont souvent rares ou absentes.) Partant du postulat que les discours de spécialité ne sont pas homogènes et qu'ils comprennent différents degrés de spécialisation, nous avancerons l'hypothèse qu'il existe des variations grammaticales non seulement entre les discours de spécialités différentes, mais aussi entre les divers degrés de spécialisation au sein d'une même discipline. Nous chercherons donc à vérifier s'il existe des grammaires transversales liées au degré de spécialisation indépendamment de la discipline. En d'autres termes, peut-on identifier une grammaire de la vulgarisation différente d'une grammaire de l'expert ? Si notre hypothèse est avérée, il faut s'attendre à ce que ces grammaires transversales se distinguent entre elles au niveau des marqueurs intersubjectifs, qui codent les liens entre auteur et lecteur, comme les pronoms personnels, les modaux, le passif, les clivées, etc. Les discours disciplinaires, eux, se démarqueraient sur le plan grammatical au travers de marqueurs plus référentiels – ou plutôt, à dominante référentielle, comme le prétérit en be – ing ou le pluperfect. Cette distinction entre marqueurs à dominante référentielle ou intersubjective s'appuie sur les théories fonctionnalistes (cf. Jakobson 1963, Hyme 1966, Hagège 1990, Halliday 1994) qui considèrent que les énoncés ne peuvent pas être analysés sans une prise en compte des fonctions (ou méta-fonctions) qu'ils remplissent. Bien que le nombre et la nature de ces méta-fonctions varient d'un auteur à l'autre, tous s'accordent pour dégager une méta-fonction que l'on qualifiera, à la suite de Jakobson (1963 : 220) de référentielle. Elle est « sémantico-référentielle » chez Hagège (1990 : 29) et « expérientielle » chez Halliday (1994 : 36) mais il s'agit toujours de considérer l'énoncé pour ce qu'il dit du monde, pour sa capacité à construire une représentation de l'extra-linguistique (« Language enables human beings to build a mental picture of reality » Halliday 1994 : 106) et à la communiquer. La fonction intersubjective telle que nous la définissons inclut, d'une part, les fonctions « émotive » et « conative » de Jakobson (ibid.), regroupées, chez Halliday (ibid.), au sein de la méta-fonction « interpersonnelle ». La fonction émotive (ou expressive) est « centrée sur le destinateur [et] vise à une expression directe de l'attitude du sujet à l'égard de ce dont il parle » (Jakobson 1963 : 214), tandis que la fonction conative est définie comme « [l' ]orientation vers le destinataire » (ibid. 216). D'autre part, relève également, selon nous, de la méta-fonction intersubjective l'organisation thème/rhème des énoncés, c'est-à-dire le « point de vue énonciatif-hiérarchique » de Hagège (1990 : 52) et la fonction « textuelle » de Halliday (1994 : 36). Ce regroupement est motivé par le fait que la structure informationnelle d'un énoncé est intimement liée au point de vue du destinateur et à ce qu'il pense être l'état des connaissances du destinataire. En proposant une distinction entre marqueurs référentiels et intersubjectifs, nous postulons que, même si les méta-fonctions que nous avons retenues sont réalisées au niveau de l'énoncé, un marqueur ou une construction peut contribuer individuellement à une ou à plusieurs méta-fonctions. C'est ce que souligne Halliday (ibid. 35) : […] not everything has function in every dimension of structure; for example, some parts of the clause (e.g. perhaps) play no role in the clause as representation. Cela implique qu'une forme linguistique donnée ne se limite pas nécessairement à un seul niveau fonctionnel (cf. par exemple Delmas 1993 sur la dimension à la fois aspectuelle, donc plutôt référentielle, et intersubjective de be –ing). C'est pour cette raison que la typologie des constructions grammaticales que nous proposons se formule en termes de dominante référentielle ou intersubjective. Notre hypothèse de grammaires sensibles au degré de spécialisation a été confrontée à la réalité des textes par le biais d'une étude de corpus. Nous avons constitué un corpus de 100 000 mots, divisé en deux sous-corpus disciplinaires : l'un historique, l'autre philosophique. Chacun de ces deux sous-corpus est lui -même stratifié en corpus spécialisé et corpus de vulgarisation de la discipline. À des fins de cohérence dans la langue utilisée, tous nos textes datent des années 2000 à 2010 et ont été rédigés par des locuteurs natifs britanniques. La taille du corpus est certes modeste mais elle est suffisante pour un projet embryonnaire comme le nôtre dont l'objectif est de dégager certaines tendances et d'éliminer certaines hypothèses. Cette position s'appuie sur les arguments développés par Ghadessy, Henry et Roseberry (2001) et, surtout, par Sinclair (2004). Sinclair montre en effet que la taille d'un corpus dépend de la nature des requêtes, des formes que l'on souhaite étudier et du type de discours qu'il est censé représenter. Plus les requêtes sont complexes (recherches de collocations, par exemple), plus la probabilité de rencontrer la combinaison souhaitée est faible, et plus le corpus doit être grand. Cette contrainte ne s'applique pas à notre étude dans la mesure où nos requêtes portent, pour l'instant, exclusivement sur des marqueurs isolés. Rappelant la loi de Zipf (1935) qui prédit que 50 % des formes apparaissent une fois, 25 % deux fois, etc., Sinclair suggère en outre que les résultats n'ont de valeur que si les occurrences sont en nombre suffisant. Plus la forme étudiée est rare, plus la taille du corpus doit être grande. Encore une fois, notre tâche est facilitée par le fait que nous nous intéressons aux marqueurs grammaticaux, qui sont les formes les plus fréquentes de la langue anglaise. Enfin, outre le fait que les petits corpus peuvent se révéler utiles dans un contexte pédagogique (cf. Ghadessy, Henry & Roseberry 2001), Sinclair (ibid.) montre que l'une des caractéristiques des langues de spécialité est qu'elles sont beaucoup moins variées que la langue générale et qu'un corpus de taille modeste peut donc suffire à saisir leurs spécificités : It is good news for builders of specialised corpora, in that not only are they likely to contain fewer words in all, but it seems as if the characteristic vocabulary of the special area is prominently featured in the frequency lists, and therefore that a much smaller corpus will be needed for typical studies than is needed for a general view of the language. (Sinclair 2004 : 19) Les textes spécialisés proviennent tous de revues et magazines universitaires britanniques à comité de lecture. Il s'agit de The Historian et de The Historical Journal pour le corpus historique, et de Minerva - An Internet Journal of Philosophy, de Analysis et de Metaphilosophy pour le corpus philosophique. Écrits par et pour des chercheurs, ces publications universitaires reconnues se donnent pour objectif d' être à la pointe de la recherche dans leur domaine : As The Historian celebrates its 71 st year of continuous publication, the journal continues to publish a diverse collection of high-quality original articles and debate on historical scholarship and current historiography. […] With more than 13,000 individual and institutional subscribers, The Historian brings the many strands of historical analysis together in one authoritative journal. (< >) Les textes non spécialisés ont été sélectionnés dans des magazines (également britanniques) de vulgarisation à destination du grand public. Nous nous sommes efforcés de choisir des sources comparables quant à leur degré de vulgarisation, en nous fondant en particulier sur la ligne éditoriale et le public cible des revues. History Today, notre source vulgarisée en histoire, affiche comme ambition de toucher le plus grand nombre, d'informer et de divertir de façon accessible : History Today is a unique cultural institution, bringing the best in historical writing and research to a wide audience. […] The magazine created the concept of popular history, mixing styles, genres and periods to achieve a fusion of intellectual excitement and readability. All are carefully edited and illustrated to make the magazine a pleasurable, as well as an informative, read. (< >) Think, notre source vulgarisée en philosophie, sous-titrée Philosophy for everyone, vise les mêmes objectifs : Think demonstrates the relevance of philosophy to everyday life and forges a direct link between contemporary philosophy and the widest possible readership. The journal is written in an engaging and straightforward way, but raises fundamental questions about philosophical issues of topical importance. […] Think is aimed at a very wide audience encompassing undergraduates, schools, colleges and the general public. () Les textes vulgarisés et les textes spécialisés ne sont pas « parallèles » au sens où ce ne sont pas les mêmes thèmes qui sont abordés dans les deux types de sources. En philosophie en particulier, il s'est avéré impossible de trouver les mêmes notions traitées dans les revues universitaires et dans le magazine de vulgarisation. On peut considérer cette asymétrie comme problématique mais on peut aussi estimer qu'elle reflète une réalité (les textes vulgarisés ne traitent généralement pas les mêmes sujets que les textes spécialisés) qui serait trahie par la recherche d'un équilibre thématique artificiel. Une fois le corpus constitué, les textes ont été annotés par le logiciel CLAWS, afin d'élargir les possibilités d'exploitation du concordancier utilisé, Antconc 3.2.1. Si l'emploi du concordancier sur texte étiqueté nous permet de procéder à des analyses quantitatives rapides et de grande ampleur, que ce soit via la recherche par mots clés (ex. : modaux) ou par tags (ex : passifs, pluperfect), les analyses qualitatives doivent rester « manuelles ». Chacune des occurrences des marqueurs retenus pour analyse est examinée individuellement pour décider de son classement dans telle ou telle valeur. Ces marqueurs, illustrant l'opposition dominante référentielle/intersubjective décrite plus haut, et les typologies permettant leur classement, sont maintenant présentés. Pour la fonction référentielle, nous nous sommes tournés vers les marqueurs aspectuo-temporels, puisqu'ils ont pour rôle principal de situer un procès dans le temps et, plus précisément, par rapport à un point de référence temporel. La quasi-absence du temps (tense) présent dans les textes historiques et la très faible fréquence du prétérit en –ing dans le corpus philosophique nous ont conduits à retenir, comme marqueur référentiel, le pluperfect. Pour ce qui est des marqueurs intersubjectifs, notre choix s'est porté sur trois modaux (le lien entre modalité et intersubjectivité n'est plus à démontrer), en l'occurrence, may et son passé morphologique might ,ainsi que must. Ces auxiliaires sont en effet unanimement considérés comme nettement plus intersubjectifs que can/could et will/would (cf. Adamczewski 1982). Quant à shall/should, ils sont trop rares dans notre corpus pour fournir des résultats exploitables. La typologie sémantique des marqueurs, nécessaire à l'analyse qualitative du corpus, est largement inspirée de Larreya & Rivière (2005), mises à part quelques adaptations mineures. Le pluperfect se décline ainsi en six valeurs. Nous les illustrons par des exemples extraits du corpus. La valeur résultative, illustrée par (1), correspond à un procès antérieur au point de référence passé (noté T - 1) et pertinent en T - 1. (1) He had never had occasion to confront it as what William James called a ‘ live option '. Dans sa valeur de continuité (cf. exemple 2), le pluperfect renvoie à un procès passé (état ou habitude) commencé avant T - 1 et toujours vrai en T - 1. (2) These Memoirs had been in the public domain for seven years when the publisher Henry Colburn announced that a new anonymous memoir was being prepared for print. La valeur d ' antériorité est illustrée en (3). Il s'agit toujours de situer un procès comme antérieur au moment T - 1 mais, contrairement à l'emploi résultatif, aucun lien autre que temporel n'est impliqué entre ce procès et le moment de référence. (3) Marcus could not overcome a hankering for the more varied and interesting life that Dr. Smythson had provided for him while he was in his case. La valeur d ' irréel, qui apparaît en (4), correspond à un procès passé contrefactuel (c'est-à-dire qui n'a pas eu lieu). (4) We all tend to think that had we been in charge of creation, frankly we would have done it better. Enfin, l'utilisation du pluperfect peut être déclenchée par le phénomène de concordance des temps. Ce cas de figure, illustré par (5), s'observe essentiellement dans les subordonnées nominalisées régies par un verbe au prétérit qui vient poser un repère temporel passé et qui oblige le destinateur à recourir au pluperfect pour tout procès antérieur à ce repère. (5) I see. I had no idea that such Brain-O-Matic machines had been developed. Concernant les modaux, nous conservons l'opposition traditionnelle radical/épistémique. La modalité radicale concerne les conditions de réalisation du procès (permission, capacité, obligation, volonté, etc.). La modalité épistémique correspond à l'expression d'un degré de croyance vis-à-vis de la réalité du procès. Nous proposons, pour may, deux valeurs radicales principales. Dans le premier cas, illustré en (6), may exprime une permission qui, dans notre corpus, prend souvent la forme d'une légitimité intellectuelle. L'exemple (6) peut en effet être glosé par « il est permis/légitime d'objecter que… » (6) It may be objected that ‘ possible ' is not vacuous since its negation is not, since we can say a round square is ‘ not possible '. Might possède une valeur assez proche, comme on peut l'observer en (7), même si la forme passée a souvent tendance à brouiller la valeur du modal dans le domaine du radical. (7) So, if we think about the existence or apparent design of the world, for example, we might say that these are effects which need to be explained by the agency of a powerful and probably benevolent cause. La valeur sporadique, en (8), permet de renvoyer à un procès qui se réalise de façon plus ou moins régulière. Dans notre corpus, nous n'avons trouvé aucune occurrence de might correspondant à cet emploi. (8) According to deontology, actions are right or wrong because they obey some rule or other. That rule may mention consequences, but it may not. La valeur épistémique des deux modaux est illustrée en (9-10). La forme passée du modal semble placer plus explicitement le procès dans le virtuel (ce qui n'implique pas un degré de probabilité plus faible). (9) Other commanders that adopted a harsh line when dealing with Irish prisoners may have acted for personal profit. (10) Cardinal John O'Connor authorized a study of Sheen's life as the first step in a process that might result in the canonization of this famed Cold War protagonist. La valeur de concession qu'on trouve en (11-12) est également partagée par may et might. Elle regroupe les emplois du type x may/might be true, but/yet y is not ,ainsi que les occurrences de may ou might au sein de subordonnées dites concessives introduites par (al)though, whatever, however, no matter, etc. (11) Although his writing may not achieve the “writerly” complexity of a Cavell, it is central to Rorty's philosophical achievement that he writes in the specific ways that he does. (12) I might be justified in missing my niece's birthday party in order to get extra work done over the weekend, but I am not justified in killing my boss so as to take his place. Il s'agit à chaque fois de concéder la véracité de la proposition modalisée tout en l'écartant comme non pertinente. Pour ce qui est de must, on retiendra les valeurs suivantes. Le modal exprime une obligation en (13). Une pression s'exerce sur le référent du sujet afin qu'il accomplisse l'action dénotée par le prédicat. (13) And we must care about the education received by all children, not just those capable of academic excellence. Dans sa valeur de nécessité, must indique que le procès est souhaitable relativement à un but donné (explicite ou non) sans idée de contrainte sur le référent du sujet. Soit l'exemple (14) : (14) If God's person-like characteristics must be understood in a metaphorical sense, we cannot draw a clear line between a personal god and an impersonal Absolute. Les emplois épistémiques de must se divisent en deux sous-catégories. La valeur implicative correspond à un procès vu comme découlant logiquement – c'est-à-dire impliqué par – un autre procès ou une situation donnée. En (15), par exemple, le fait que Dieu soit un esprit désincarné est la conséquence logique de l'hypothèse construite par la subordonnée. (15) If God does not have a body, he must be a disembodied mind who exists in another world but brings about changes in this world. En (16), en revanche, l'énonciateur infère, à partir des indices dont il dispose, la forte probabilité que le procès ait eu lieu. (16) Geddes and Wollstonecraft were the workhorses of the early issues, their (anonymous) contributions being so numerous that they must both practically have been in Johnson's full-time pay. Les résultats obtenus concernant le pluperfect apparaissent dans le tableau 1. Ils confirment les attentes pour ce marqueur référentiel : entre la philosophie et l'histoire, les différences concernant le pluperfect sont à la fois quantitatives et qualitatives. Quantitativement, on observe une plus forte récurrence de ce marqueur en histoire (215 occurrences) qu'en philosophie (37 occurrences). On note aussi que les emplois de ce marqueur diffèrent entre les deux disciplines : la valeur d'irréel par exemple est quasiment inexistante en histoire alors qu'elle représente un tiers des emplois du pluperfect en philosophie. À l'inverse, les valeurs de continuité et de concordance des temps sont absentes en philosophie, mais non négligeables en histoire. Les valeurs plus fréquentes (résultatif et passé antérieur) sont représentées dans les mêmes ordres de grandeur dans les deux corpus. Il semble donc que le pluperfect soit un marqueur effectivement plus sensible à la discipline qu'au degré de spécialisation. On trouve en effet le même nombre d'occurrences du pluperfect en histoire spécialisée (107) qu'en histoire vulgarisée (108). Les emplois sont comparables en histoire spécialisée et en histoire vulgarisée. Les résultats concernant les modaux sont présentés dans les tableaux 2 et 3. On observe que le discours philosophique, quel que soit son degré de spécialisation, est toujours plus « modalisé » que le discours historique. Sur le plan des valeurs, il est difficile d'apprécier si certains emplois sont propres au discours vulgarisé ou au discours spécialisé : pour may, la concession domine légèrement dans les deux discours de vulgarisation; l'épistémique l'emporte dans les deux discours spécialisés. Pour might, aucune tendance commune ne se dégage, les résultats étant même contradictoires d'un discours de spécialité à l'autre, d'un discours de vulgarisation à l'autre. L'étude des valeurs de must révèle les mêmes tendances systématiquement contradictoires entre le discours spécialisé de la philosophie et le discours spécialisé de l'histoire, et entre les discours de vulgarisation des deux disciplines. Ces résultats mettent au jour des différences considérables entre les disciplines. Le fait n'est pas nouveau mais il mérite d' être relevé. La remise en cause, au sein des genre studies (cf. Swales supra) de la notion même de langue de spécialité ne se vérifie pas dans notre corpus. La grammaire est bel et bien sensible au domaine disciplinaire. Plus précisément, c'est, comme on pouvait s'y attendre, au niveau des marqueurs référentiels que les spécificités grammaticales de chaque langue de spécialité sont les plus visibles. La tendance que l'on avait déjà observée avec le prétérit en – ing (7 occurrences seulement en philosophie contre 22 en histoire) est ainsi confirmée avec le pluperfect. L'explication est évidente. Les données montrent que, relativement au nombre total de formes passées, la proportion de pluperfect est sensiblement identique dans les deux disciplines (7,5 % des formes passées en philosophie contre 9 % en histoire). La rareté du prétérit en - ing et du pluperfect en philosophie et leur fréquence élevée en histoire ne font que refléter une tendance plus générale, à savoir, le recours beaucoup plus systématique aux temps du passé en histoire (2 422 occurrences contre 496 en philosophie). Il n'y a là rien de surprenant. Il s'agit néanmoins d'une composante importante de la grammaire de l'historien et il serait absurde de ne pas la prendre en compte au motif de son caractère évident et attendu. Pour ce qui est des marqueurs intersubjectifs, rappelons que l'hypothèse envisagée était la suivante. S'il est possible de dégager des propriétés grammaticales propres aux discours transversaux définis sur la base de leur degré de spécialisation, il est plus que probable que celles -ci se manifestent plutôt du côté des marqueurs intersubjectifs, dans la mesure où ces derniers sont censées marquer le rapport auteur/lecteur qui est lié au degré de spécialisation. Force est de constater que cette hypothèse ne trouve pas, dans notre corpus, une confirmation éclatante. Nous l'avons observé en particulier avec might, et de façon incontestable avec must. Nous pensions par exemple que le discours vulgarisé, qu'il soit philosophique ou historique, ferait la même utilisation de must. De même, nous prévoyions que le discours spécialisé, quelle que soit la discipline, présenterait des similitudes au niveau de ses emplois de might. Il n'en est rien. Pour may, nous avons en revanche pu déceler quelques tendances intéressantes allant dans notre sens (au niveau de la concession par exemple) mais elles seront à vérifier sur un corpus plus large et plus varié sur le plan des disciplines. Même les marqueurs intersubjectifs semblent plus sensibles à la différence entre disciplines qu' à la différence entre degrés de spécialisation. Comment rendre compte de ce bilan en demi-teinte ? Plusieurs explications sont envisageables : (i) L'hypothèse de langues transversales fondées sur la notion de degré de spécialisation est fausse. (ii) L'hypothèse est vraie mais les langues transversales ne se distinguent pas sur le plan grammatical. (iii) L'analyse grammaticale doit être repensée. La proposition (i) est contre-intuitive. On conçoit mal que l'ambition affichée de revues telles que History Today ou Think de s'adresser à un public non spécialisé puisse ne pas se manifester dans la réalité linguistique, d'autant qu'elle se traduit bien sur le plan lexical. Une recherche rapide sur le suffixe <-ism>, qui est le signe d'un certain niveau d'abstraction et de technicité, révèle en effet une différence significative entre les corpus spécialisés et les textes vulgarisés et ce, dans les deux disciplines (cf. tableau 4). Si l'on considère un autre suffixe, < - ical >, susceptible de fournir des adjectifs dénotant des caractéristiques abstraites ou techniques (les adjectifs en < - ical > plus fréquents dans les deux sous-corpus spécialisés sont en effet philosophical, epistemological, rhetorical, metaphilosophical et metaphorical en philosophie, et political, ecclesiastical, biblical, radical et critical en histoire), on retrouve exactement les mêmes tendances (cf. tableau 5). On pourrait alors objecter, et c'est l'option (ii), que le degré de spécialisation n'affecte que le lexique et pas la grammaire. Outre le fait que cette position n'est pas corroborée par certains de nos résultats – fussent-ils modestes – elle est difficilement tenable sur les plans théorique et méthodologique. Comme l'a montré Langacker (1987), et comme cela a été confirmé par deux décennies de recherches en grammaticalisation (cf. Traugott & Hopper 1993, par exemple) et dans le cadre des grammaires des constructions (cf. Goldberg 1995 ou Croft 2001), le lexical et le grammatical ne peuvent s'envisager que comme les pôles extrêmes d'un continuum. Prétendre que le degré de spécialisation n'affecte que le lexique conduirait ainsi à une aporie puisqu'on serait amené à postuler une frontière nette entre grammaire et lexique qui n'est pas fondée empiriquement. Une version atténuée de (ii) consisterait à dire que le degré de spécialisation n'affecte pas toute la grammaire – ce qui, d'une certaine façon, nous amène à la position (iii). En effet, tout porte à croire que c'est en partie l'analyse grammaticale telle qu'elle a été conduite qui occulte les propriétés linguistiques des discours transversaux. En premier lieu, le nombre nécessairement limité de marqueurs retenus dans le cadre de cette étude ne saurait suffire à dresser un tableau complet des spécificités grammaticales inhérentes aux degrés de spécialisation. En outre, le postulat de départ est à réévaluer : évidemment il n'existe pas de marqueurs strictement référentiels ou strictement intersubjectifs. Cela n'a jamais été notre position. Mais peut-être est-il déjà excessif de parler de « dominante référentielle ou intersubjective ». La distinction entre marqueurs référentiels et intersubjectifs semble difficilement tenable, à cause des chevauchements incessants entre ces méta-fonctions. Il apparaît aussi que certains emplois typiquement intersubjectifs sont liés à la discipline et non au degré de spécialisation (le cas des modaux est très clair : il est lié à la pratique même de la philosophie). Nous avons cherché à évaluer si les modaux étaient à cet égard trop particuliers et nous avons effectué une rapide recherche sur deux connecteurs, because et but. La figure 1 montre que ceux -ci sont effectivement sensibles au degré de spécialité, puisqu'ils prédominent en discours vulgarisé (en noir sur le schéma). Mais on observe aussi qu'ils restent sensibles à la différence entre disciplines, puisqu'ils sont de toute façon plus nombreux en philosophie qu'en histoire. Figure 1. Répartition de because et de but dans le corpus Les recherches doivent encore se poursuivre pour déterminer ou infirmer définitivement la réalité linguistique d'une grammaire liée au degré de spécialisation. Beaucoup reste à faire. Plus de marqueurs devront être étudiés dans le détail : pronoms personnels, tournures syntaxiques liées à la gestion de l'information dans la phrase, détermination… Un corpus plus étendu, couvrant davantage de disciplines peut-être moins « proches » que l'histoire et la philosophie, sera assemblé. Outre la taille du corpus, il faudra également être attentif aux spécificités génériques des textes. Il apparaît en effet que les sous-corpus vulgarisés, bien que constitués d'articles, présentent des variations significatives en termes de genres. On trouve, par exemple, dans les textes historiques non spécialisés, des comptes rendus d'expositions ou une balade historique dans les rues de Tallin, tandis que le sous-corpus de philosophie vulgarisée nous offre un article sous forme de narration et même un dialogue futuriste entre un robot et son créateur. Se posera alors un problème théorique complexe : faudra -t-il, pour éliminer les interférences dues à ce type d'emprunts, sélectionner uniquement des textes « purs » en termes de genre (à supposer que cela soit possible), ou au contraire, préserver cette diversité générique qui peut apparaître comme une propriété constitutive des textes vulgarisés ?
Cette étude s'interroge sur la réalité de langues transversales transcendant les langues de spécialité et fondées sur la notion de degré de spécialisation. Existe-t-il une grammaire propre aux textes de vulgarisation et une grammaire propre aux textes spécialisés, quelle que soit la discipline envisagée ? Quels marqueurs grammaticaux sont susceptibles de coder les différences linguistiques entre les divers degrés de spécialisation ? L'hypothèse examinée est que les marqueurs référentiels (comme les temps) sont plutôt révélateurs des différences entre les disciplines, alors que les marqueurs intersubjectifs (comme les modaux) sont plutôt sensibles au degré de spécialisation d'un discours donné. L'analyse d'un corpus composé de textes spécialisés et de textes de vulgarisation en histoire et en philosophie ne confirme que partiellement cette hypothèse de départ: les marqueurs, qu'ils soient référentiels ou intersubjectifs, semblent dans tous les cas plus liés à la discipline qu'au degré de spécialisation. De nouvelles pistes sont alors proposées pour parvenir à cerner les traces linguistiques des divers degrés de spécialisation.
linguistique_12-0090064_tei_540.xml
termith-585-linguistique
L'inscription culturelle des études artistiques nous les fait envisager sous un angle littéraire qui se rapproche des préoccupations des anglicistes. Une telle impression de familiarité entre deux matières dessert peut-être les étudiants en art pour qui l'apprentissage de l'anglais est capital. En effet, la distance semble être un élément important dans la définition d'un domaine envisagé sous l'angle de l'anglais de spécialité. Or l'anglais artistique ressortit bien au secteur LANSAD. La spécificité de l'anglais utilisé en art doit imposer le rétablissement d'une distance d'étude qui permettra d'esquisser un système à l'usage de son enseignement. L'acquisition de l'anglais est, au sein de cette filière, à la fois capitale et spécifique. Le caractère capital vient du fait que la langue d'échange et de critique du monde de l'art est l'anglais, et même un type particulier d'anglais que l'on nomme de manière orwellienne « artspeak », du fait des transformations que son maniement international lui fait subir. La spécificité, je vais tenter de l'exposer à travers l'exemple de l'utilisation qui peut être faite en cours de l'Internet. Le travail avec l'Internet est en effet exemplaire de l'idiosyncrasie de l'enseignement de l'anglais dans de telles filières. De plus, la médiation que permet cet outil de communication n'intervient que secondairement par rapport à une problématique de médiation artistique générale qu'il servira à illustrer. Les potentialités artistiques de ce nouveau support s'imposent d'abord de manière évidente en termes de médiation, de diffusion d' œuvres du monde réel, mais aussi, et surtout, comme pièces créées sur la toile et qui proposent une réponse enfin radicale à un art contemporain qui cherche depuis longtemps à s'affranchir du cadre muséal. De plus, cette réalité que sont devenues les galeries virtuelles crée une nouvelle possibilité d'intervention du spectateur, donnant ainsi un double sens à la médiation technologique de l'art (mais peut-être aussi pointant le caractère galvaudé de la notion d'interactivité). Pourtant, du fait même que l'on se trouve encore aux balbutiements de ces pratiques d'art Internet, l'investissement d'un espace presque encore vierge s'attache, pour le moment, principalement au commentaire sur ce que nous appellerons le « médium ». L'utilisation artistique de l'Internet fait se confondre le support ou médium et le message alors que la technique rejoint la fonction esthétique. En corollaire d'une dématérialisation des supports traditionnels, c'est donc à la mise en avant de la matérialité d'un nouveau médium que l'on assiste, ainsi qu' à l'écrasement de la médiation en un support qui devient lui -même contenu. Restera à l'avenir à situer de telles pratiques dans une chronologie de générations (à l'instar des archéologies générationnelles invoquées au sujet des artistes-vidéo) et à voir si leur succession annonce un art à venir tendant vers l'immédiateté ou bien si elle est simplement une première étape avant un dépassement du commentaire maniériste et un rétablissement de la distance médiatrice. L'outil informatique Internet permet donc d'illustrer des cours par la visite de galeries virtuelles, mais l'on trouve surtout de plus en plus d'art Internet accessible en ligne ou présenté dans le cadre d'expositions. L'Internet n'a pas alors qu'un rôle de médiation de contenu. Benjamin Weil, SFMOMA curator of media arts, s'intéresse au statut particulier de ce nouveau support artistique dans sa critique en ligne « readme.text » : Indeed, what happens online is rather unique, as it is probably the first time when the means to produce an artwork and the way it is to be distributed and experienced have come to be the same : the medium and the locus have become one. (010101.sfmoma.org, 19-11-01) C'est donc parce que, en art, l'Internet n'a pas purement fonction de médiatisation que son utilisation est spécifique. Plus généralement, en art, tout support se trouve transfiguré par sa fonction artistique. Quelques exemples (parmi des expérimentations diverses) d'art Internet pourront étayer cette définition de la transfiguration artistique. J'ai participé au mois de février 2001, à l'occasion d'un stage à la Tate Britain, à l'installation d'une exposition intitulée « Art and Money Online » (< www.tate.org.uk >), première exposition de groupe d'art Internet au sein de l'institution de la Tate Gallery. J'ai eu l'opportunité d'approfondir la question de la médiation artistique en travaillant auprès du personnel du musée et du critique et commissaire Julian Stallabrass qui a publié une brochure à cette occasion (2001). Depuis 1995, la Tate Gallery consacre une série d'expositions intitulée « Art Now » à l'utilisation de supports nouveaux par des artistes plutôt confidentiels. Cette dernière édition se penchait sur les relations entre art et nouvelles technologies et plus précisément sur le commentaire fait par plusieurs groupes d'artistes britanniques sur la commercialisation croissante de l'Internet. On constate que l'orientation principale du travail artistique actuel sur la toile est fondée sur une exploration de sa structure en tant que support. La question qui se pose alors est de savoir si l'on a affaire, avec l'Internet, à un support qui a la malléabilité d'un matériau, ou à un médium. On justifiera l'emploi de ce singulier de médias (que l'on préférera à média en se référant à l'étymologie du terme et à son transit par l'anglais) car “médium” nous permet d'associer le caractère technique et médiatique de l'outil à la notion de support artistique, moyen terme de l'expérience esthétique, parfois traduction littérale (comme en publicité) du medium anglais. Ce caractère double apparaît lorsqu'on décrit brièvement les trois œuvres présentées à Londres du 6 mars au 3 juin 2001. Le projet de Jon Thomson et Alison Craighead, CNN Interactive Just Got More Interactive (www.thomson-craighead.net) est très simple, mais son intérêt réside justement dans sa simplicité. Le site d'information en continu de la chaîne CNN est présenté presque inchangé, à l'exception de l'ajout d'une fenêtre permettant à l'internaute d'assortir les images de l'actualité de musiques d'ambiance. On clique sur festive, upbeat, dramatic, melancholy, disaster ou jubilant. Cette manipulation opère une distanciation à la fois comique et effrayante avec le site qui apparaît pour ce qu'il est : de l ' infotainment. La pièce présentée par le groupe Redundant Technology Initiative (RTI) deSheffield est un exemple du travail que ce groupe mène depuis plusieurs années sur la no-cost technology (< www.lowtech.org >). Dans Free Agent de vieux ordinateurs sont empilés pour former un mur d'écrans. Ils ont été récupérés gratuitement car dépassés technologiquement, et recyclés sans moyens. Tous les logiciels sont du shareware (en particulier Linux) et donc également gratuits. Chaque écran ne présente que des lignes de chiffres et de lettres dans un style qui rappelle les ordinateurs des années quatre-vingts (époque curseur). Mais juxtaposés, ils révèlent des images par transfert vidéo. On découvre le mot free sous toutes ses formes : le résultat de la recherche sur Internet de tous les sites s'y rapportant. Free est en effet la seconde requête la plus fréquente sur la toile après sex; une requête qui permet les trouvailles, comme j'ai pu le constater en aidant les artistes à télécharger tout ce que je pouvais trouver ayant trait au mot free : la philanthropie et cynophilie de ceux qui se proposent de vous offrir des économiseurs d'écran représentant des chiens, la générosité suspecte de certains fournisseurs de chocolat, en gros la possibilité de tout consommer gratuitement. La conclusion de RTI est celle du bon sens : there's no such thing as a free meal. Le « net.scape », paysage du net, saturé d'offres gratuites, cache mal son caractère commercial. La dernière œuvre, celle de Lise Autogena et Joshua Portway, s'intitule Black Shoals Stock Market Planetarium (< www.blackshoals.net >). On pénètre dans une pièce sombre dans laquelle la voûte céleste semble projetée sur un hémisphère fixé au plafond. Ces images proviennent en fait d'ordinateurs reliés au réseau Internet de Reuters qui leur fournit des informations boursières. Chaque étoile représente une compagnie et leurs fusions se matérialisent en constellations plus ou moins brillantes suivant leur cotation. Il est ici sûrement prestigieux pour Reuters de se poser en sponsor (le mécénat artistique est toujours très valorisant dans le monde des affaires), mais ses dirigeants auraient peut-être réfléchi à deux fois s'ils avaient su que Autogena et Portway allaient discrètement mais clairement moquer l'utilisation par les spéculateurs de conseils d'astrologues, faisant équivaloir information financière et prédiction pseudo-scientifique. Cette exposition fut donc tout aussi politique que formaliste. La main-mise des intérêts capitalistes sur le développement de l'Internet y fut critiquée. C'est un aspect intéressant de ce travail, mais pas celui qui nous préoccupe ici. Ce qui frappe en fait avant tout c'est la façon dont l'art Internet explore les potentialités d'un nouveau médium en se faisant le commentaire de sa propre structure. Le site de l'artiste japonaise Tomoko Takahashi, « Word Perhect » [sic] illustre parfaitement cet attachement à la description du fonctionnement de l'outil informatique. Takahashi propose un traitement de texte personnalisé grâce auquel on peut choisir d'écrire sur un paquet de cigarettes ou au dos d'un ticket de métro, d'une écriture soignée ou non. Les conseils du jour qui apparaissent à chaque connexion ne concernent en rien l'informatique mais parfois la diététique. La touche « annuler la frappe » nous annonce qu'une fois que l'on a écrit quelque chose, on ne peut pas revenir en arrière, qu'il faut assumer les conséquences de ses actes. Le téléchargement se fait pendant qu'on nous exhorte à être patient : « Loading. .. be patient. .. You may have fun moving your mouse around meantime. N.B. Clicking doesn't work though ! ! » (< www.e2.org >, 19.11.01) La médiation est-elle alors écrasée dans un travail maniériste de mise en avant de la matérialité du support en tant que contenu ? L'Internet étant à la fois instrument de médiatisation et support, la médiation artistique est-elle, lorsqu'il est utilisé, effacée par sa représentation exclusive ? La réflexion de Rosalind Krauss sur l'utilisation du support filmique par l'artiste belge Marcel Broodthaers dans son ouvrage A Voyage on the North Sea : Art in the Age of the Post-Medium Condition (1999) peut nous permettre de réfléchir à ces questions et nous servir à analyser le statut du médium dans l'art utilisant l'Internet puisqu'elle s'attache à définir la ré-articulation post-moderne du support artistique, également médium dans le cas du cinéma et de l'Internet. Pour Rosalind Krauss, le médium artistique ne se réduit plus aujourd'hui à ses propriétés physiques. Son approche s'oppose aux théories modernistes des années soixante et annonce l'avènement d'une ère post-support, post-médium. Quelle était la théorie moderniste concernant le support artistique avant qu'il ne se fasse médium ? Tout d'abord, elle était associée à un nom, celui de Clement Greenberg. Pour Greenberg, le support (medium) était un objet physique et rien qu'un objet physique. Une approche essentialiste réduisait un tableau à son aspect plat (flatness) et à son caractère fini (delimitation). Le modernisme aurait ainsi trouvé son apogée dans le monochrome, œuvre qui coïncide avec son origine, avec son support. Même si cette définition attribuée à Greenberg est réductrice de sa pensée, l'importance de cette lecture historique de la définition moderniste et greenberguienne semble avoir investi la notion et avoir rendu sa ré-interprétation difficile. Le terme est chargé historiquement, ou plutôt, extrêmement déchargé par un militantisme moderniste. Pour Krauss, le post-modernisme a donné une nouvelle place, plus importante, au support, à notre médium artistique. Il ne serait pas simple agrégat de propriétés physiques, mais structure complexe de supports techniques et de strates de conventions (des strates qui s'accumulent avec le temps et avec le développement des médias). Tout médium artistique a donc en fait une pluralité interne. Krauss parle de recursive structure (1999 : 6). Une structure récursive est une structure dont certains éléments produisent les règles qui établissent cette même structure. Si le support moderniste était homogène, le médium post-moderne est hétérogène et, produisant ses propres caractéristiques, ne se définit qu'au sein de l' œuvre. Ainsi, plus l'art devient technique, moins sa médiation est affaire de technique. Selon cette définition, l'art Internet ne serait donc pas simplement supporté par un médium qui le médiatise, mais aussi constitué par ses médiums. Médiums qui s'opposeraient aux médias, même si les deux notions se complètent, le pluriel en –a étant moins courant en français qu'en anglais. Les médias sont alors technique de médiatisation quand des médiums rejoindraient notre notion de transfiguration esthétique. Dans une ère post-support ou post-médium, que l'on peut aussi appeler intermedia, l' œuvre perd sa spécificité technique. Voilà pourquoi on ne trouve aujourd'hui plus que des installations plutôt que les anciennes distinctions peinture, sculpture, gravure. .. —ce qu'on appelait les Beaux-Arts. Toute forme artistique est devenue hétérogène, elle n'est pas spécifique mais prise dans un réseau d'art. Un tableau ne peut plus être simple toile car il inclut toutes les autres dimensions spécifiques pour devenir art en général, il est aussi objet sculpture, mais aussi surtout, œuvre conceptuelle. L'ère de la condition post-support que nous avons aussi définie comme post-médium est donc celle de l'implosion du système de pure médiation. Et pourtant, un détail constaté lors de l'installation de « Art and Money Online » aurait pu venir contredire cette théorie. M'occupant de la livraison des œuvres au musée, j'ai pu me rendre compte que des éléments arrivaient d'un peu partout, que nous en commandions beaucoup nous -même et que l'ensemble ne serait assemblé qu ' in situ. De plus, toutes les pièces furent assurées commercialement et non en tant qu' œuvres d'art. Tout cela est normal, puisque chaque élément peut être remplacé en cas de panne sans dénaturer les œuvres, mais pourrait induire que les supports sont alors purement des médias : instruments de médiatisation d'un contenu artistique. Or la définition de Krauss n'exclut pas que les médiums artistiques soient des supports matériels souvent relégués au statut de pure équivalence par le principe homogénéisant de la loi du marché. L' œuvre post-moderne, post-médium, est composite et constitue un dispositif (apparatus) dans lequel les médiums artistiques ne sont pas de simples véhicules à la différence des médias, et ne se contentent pas de diffuser mais génèrent leurs propres structures. La nature artistique de l' œuvre ne se trouve pas dans un indéfinissable contenu mais bien dans un dispositif qui dans CNN Interactive Just Got More Interactive serait composé de l'information en ligne, du fait que cette information est diffusée globalement, mais aussi projetée dans le musée, de l'écran tactile, de l'image projetée, du faisceau de la projection mais aussi de la relation de ces éléments entre eux et aux spectateurs et internautes (un dispositif bien plus complexe que celui défini par Krauss pour les films de Broodthaers). Mais si médiums et médias sont différents, les notions restent intimement liées. En effet, les possibilités d'utilisation et de signification des médiums artistiques changent avec l'évolution technique des médias. Walter Benjamin avait déjà remarqué que la « rédemption artistique » (au sens d'appropriation) d'un support technique survenait soit à sa découverte, soit au moment de son obsolescence, lorsque sa dimension utopique se libère à nouveau. Avec Internet, on se trouverait donc dans un premier moment utopique de rédemption artistique. Un point de vue esthétique qui n'empêche pas le scepticisme porté sur le médium dans « Art and Money Online ». La nouveauté que l'on peut observer dans le cas de l'art Internet par rapport aux théories de Rosalind Krauss est l'introduction de la numérisation. Friedrich Kittler a commenté à ce propos dans son ouvrage Gramophone, Film, Typewriter : The general digitalization of channels and information erases the differences among individual media. Sound and image, voice and text are reduced to surface effects, known to consumers as interface. (. ..) Inside the computers themselves, everything becomes a number : quantity without image, sound, or voice. And once optical fibre networks turn formerly distinct data flows into a standardized series of digitalized numbers, any medium can be translated into any other. With numbers, everything goes. Modulation, transformation, synchronization; delay, storage, transposition; scrambling, scanning, mapping —a total media link on a digital base will erase the very concept of medium. (1999 : 1-2) La totalisation et l'unification opérées par la numérisation pourraient alors menacer la finitude des médiums artistiques. Mais on remarque chez de nombreux artistes de l'Internet, comme, par exemple, chez RTI, un jeu sur l'obsolescence de la technique qui lui conserve une matérialité presque fétichiste. De plus, c'est dans les relations au sein d'un dispositif que se définissent des médiums finis. Krauss l'explique ainsi : In order to sustain artistic practice, a medium must be a supporting structure, generative of a set of conventions, some of which, in assuming the medium itself as their subject, will be wholly « specific » to it, thus producing an experience of their own necessity. (1999 : 26) Le commentaire sur le médium ne serait alors ni écrasement de la médiation, ni totalisation de la médiatisation mais véritablement spécificité artistique de celui -ci. Plus loin, Krauss ajoute, toujours à propos du film : « The filmic apparatus presents us with a medium whose specificity is to be found in its condition as self-differing » (1999 : 44). Ceci vaut pour l'Internet. Esthétisé et commentant sa propre structure, il ne vaut pas pour lui -même mais est en fait hétérogène et donc producteur de médiation plus que de médiatisation. C'est pourquoi on peut conclure avec Rosalind Krauss : « The specificity of mediums must be understood as differential, thus as a layering of conventions never simply collapsed into the physicality of their support » (1999 : 53). Le pendant artistique des médias serait donc les médiums. La prise en compte de ce contexte théorique d'une médiation transfigurée pourrait favoriser cette autre médiation, la réconciliation de l'enseignement de la langue et de son inscription dans une filière spécifique opérée grâce à son inscription dans le champ d'étude de l'anglais de spécialité .
L'exemple de l'art Internet permet de mettre en avant la spécificité de l'approche du support artistique et la relativité de sa nomination et donc de sa traduction en fonction de son statut. En posant l'inscription théorique nécessaire et la nécessaire partialité de toute typologie esthétique, une telle analyse plaide pour la considération de l'anglais artistique comme domaine à part entière du secteur LANSAD faisant appel à une compétence double en anglais et en art dans l'optique d'un enseignement dispensé à des spécialistes plutôt qu'à l'application d'un système général d'enseignement de l'anglais à des non-spécialistes.
linguistique_524-02-12128_tei_570.xml
termith-586-linguistique
1. Depuis une trentaine d'années, on constate une floraison d'études de typologie linguistique, certaines étant organisées sur le plan aréal (ex. EUROTYP, dirigé par Ekkehard König, qui produit neuf gros volumes chez Mouton-de Gruyter; MEDTYP, dirigé par Paolo Ramat et qui concerne l'ensemble méditerranéen) ou mondial (ex. UNITYP, réalisé par Hansjakob Seiler, dont le huitième volume vient de paraître chez Gunter Narr), sans compter les nombreuses autres études individuelles. Cette abondance de matériaux ne débouche pas toujours sur une réflexion généralisante, de nature hypothétique naturellement, mais nécessaire pour une compréhension des phénomènes fondamentaux sous-jacents à la multiplicité des solutions apportées par chacune des langues. H. Seiler propose de situer sur un axe continu allant d'un plus d ' « indicativité » à un plus de « prédicativité » une dizaine de grandes « dimensions » cognitivo-conceptuelles. Nous -même posons un parcours à trois phases (le trimorphe) instancié dans les aires existentielle, spatiale, temporelle, notionnelle et modale (cf. Représentations mentales et catégorisations linguistiques, Peeters, Louvain-Paris, 2000, 318 pages). D'une façon générale, on peut définir ainsi la typologie : Ce parcours onomasiologique est construit, bien entendu, à partir de l'observation, de nature sémasiologique, des réalisations textuelles des langues. L'événement perçu et conceptualisé est « à-dire », avec une grande marge de liberté, à l'intérieur des contraintes typologiques de la langue choisie. 2. Au niveau du choix des lexèmes, l'orthonyme correspond à la dénomination directement appropriée à la conceptualisation immédiate : dromadaire, Saturne, éparpiller, graisseux, si c'est le cas. S'il y a une volonté de distanciation, on a recours aux opérations META -, et PERI -. Ce phénomène à choix multiple portant sur le lexème est la POLYNOMIE. Parallèlement, le choix de constructions syntaxiques (ou syntaxies) reste à la discrétion de l'énonciateur qui préférera, par exemple, « le Préfet a nommé le directeur » à « le Préfet a procédé à la nomination du directeur » ou « le directeur a été nommé par le Préfet », etc… On constate ici une POLYSYNTAXIE. Les deux phénomènes, polynomie et polysyntaxie, constituent les deux réalisations principales (et combinables) de la POLYSEMIOSE, illustrée par le fait que tout élément de catégorisation conceptuelle peut être exprimé à travers de nombreuses solutions morphosyntaxiques (en relation parasynonymique) : Ex. : Un graphe, qui trouvera sa place dans un microsystème d'ensemble, pourrait être : Au point de visée (v), le procès existe, et il existait déjà à un point antérieur sur l'axe du temps sans interruption. C'est l'invariant (INV) que l'on trouve sous les trois solutions citées, chacune d'elles ajoutant sa propre spécificité (d'où la parasynonymie). Dans cette optique, l'étiquette de /virtuel/, proposée par G. Lazard (Papers… to Vl. Nedjalkov, Tübingen, 1998, p. 245), convient pour des solutions linguistiques dites : « prospectif, désidératif, débitif, potentiel, inceptif, éventuel, habituel, subjonctif, optatif » qui, pour nous, ont toutes en commun un noème sous-jacent de type « prospectivité » : situé en phase 1 du trimorphe (2 = inspectivité ou actuel; 3 = rétrospectivité ou réalisé). 3. Parcourons la totalité du mécanisme onomasiologique : Ex. : La relation A>B est universelle (invariant conceptuel) et toutes les langues l'exprimeront. Elles pourront y attacher une valeur culturelle (la supériorité sera faste dans certains domaines, néfaste dans d'autres, etc…). Les solutions linguistiques sont toujours multiples : « Paulus doctior est quam Petrus » « Paulus doctior est Petro » Le français a des variantes sémiologiques qui entraînent le choix de classes syntaxiques différentes : « la supériorité de A sur B » « A est supérieur à B » « A l'emporte en x sur B », etc… Et une fois un invariant de langue choisi, l'énonciateur a encore des choix supplémentaires : a) « A est supérieur à B » b) « B est inférieur à A » c) « il y a supériorité de A sur B » d) « il y a infériorité de B par rapport à A », etc… On voit ainsi que la considération de la représentation d'un phénomène au niveau mental abstrait permet de comprendre à la fois l'affinité entre ces solutions grammaticalisées (que j'appelle isophasie ou « isosémie au niveau conceptuel »), et les modulations apportées par chaque langue. 4. On doit tenir compte également de la morphosémiologie. De proche en proche, on constate un continuum dans la distension entre la morphologie liée et la morphologie libre : je parlerai, j ' ai à parler, je me dois de parler je veux parler, je veux bien parler, j'aurais bien voulu parler Pour étiqueter une catégorie, le linguiste se fonde, bien souvent, sur la grammaticalisation formelle des langues. Ainsi les grammaires du turc parlent-elles de : possibilitatif « pouvoir venir » impossibilitatif « ne pas pouvoir venir nécessitatif « devoir venir » Le français pourrait prétendre à un volitif « P. veut te recevoir » acceptatif « P. veut bien te recevoir » ou encore à un forclusif « un ex - député, un ancien ministre ». Certaines langues ont un dotatif « avec sucre, sucré, colour ful » un privatif « sans sucre, colour less » et le turc ev-li « pourvu d'une maison », « marié », rejoint l'espagnol casado. En poursuivant l'analyse, on peut distinguer deux sous-types de DOTATIF : et deux types de PRIVATIF : Ces dénominations ad-hoc prennent leur justification lorsqu'on se réfère à un micro-système qui amorce la présentation en trois phases que nous proposons plus loin. En voici un exemple : Une « chrono-logie » s'instaure : On peut à présent construire l'entier d'une catégorisation, aboutissant à un trimorphe ou mécanisme cinétique à trois phases : 5. Cette même démarche va se retrouver dans des domaines apparemment très éloignés si l'on s'en tient aux chapitres traditionnels des grammaires. Que l'on compare : En 1, il y a mouvement prospectif vers une entité qui est en vue dans l'esprit. En 2, il y a contact (visuel ou mémoriel) avec l'objet. En 3, l'énoncé nécessite un complément d'information car il se réfère à du déjà vu, déjà connu, et donc signifie « je veux le carnet rouge que tu as chez toi », ou à tout autre cotexte. On peut donc représenter ainsi le trimorphe. 6. Autre exemple, dans le domaine de la modalité épistémique. Le SAVOIR, qui exprime un contact entre l'énonciateur et le propos, possède un AVANT (le parcours qui mène au SAVOIR, donc une incertitude) et un APRES (qui s'éloigne du SAVOIR de l'énonciateur, lequel « prend ses distances » parce qu'une médiation s'est produite liée, par ex., à une intervention extérieure). On peut figurer ce mécanisme ainsi, en fonction de l'engagement du JE énonciateur : Ceci constitue un microsystème possible, étant donné la morphosémiologie assez nette du français à ce sujet. 7. Un autre avantage de cette représentation triphasée est qu'un schème noémique, ou noémie, permet de mettre en valeur les métaphores liées à une même phase : Penser à : italien : fermare « arrêter » portugais : apagar « effacer, « éteindre » Ces parcours événementiels font référence soit à l'existence, soit à l'espace, soit à la modalité, avec des transferts toujours théoriquement possibles : apaiser la soif = la faire disparaître allumer des passions = faire naître L'étude de nature typologique permet de dégager des traits ou comportements communs à plusieurs langues (lesquels conduiront à établir des différences plus ou moins importantes) (GENERALITÉ). Un premier niveau d'abstraction amène à poser des notions qui, organisées, peuvent jouer le rôle de tertium comparationis (COMPARABILITÉ). Un second niveau, qui nous paraît indispensable et qui légitimement relève de la compétence du linguiste, consiste à construire une hypothèse sur les mécanismes mentaux simples et itératifs qui sous-tendent les catégorisations des objets et des représentations du Monde. Ce sont les modèles trimorphiques que nous proposons dans notre ouvrage cité au début de cet article (UNIVERSALITE) .
L'A. étudie les universaux linguistiques d'un point de vue sémantique, en examinant certains mécanismes mentaux simples et itératifs, dont les réalisations dans les langues peuvent être multiples et sous-tendent les catégorisations des objets et des représentations du monde. Le modèle qu'il établit pour permettre la comparaison des langues est un parcours à trois phases (trimorphe), instancié dans les aires existentielle, spatiale, temporelle, notionnelle et modale. Les exemples donnés pour illustrer ce modèle sont majoritairement issus du français.
linguistique_524-04-11775_tei_666.xml
termith-587-linguistique
Le recours aux récits biographiques ne s'est vraiment répandu en formation qu' à partir des années 1990 (De Villers, 1993; Bertaux, 1997; Delory-Momberger, 2000). Cela est dû pour partie au fait que ce type de production implique les personnes d'une manière qui peut être jugée plus directe, éventuellement plus intrusive, que les récits produits en analyse de pratiques ou à la suite d'entretiens d'accompagnement (Demazière, 2008). Par ailleurs, la démarche réflexive qui s'appuie sur les récits biographiques porte non pas sur la pratique, mais sur les parcours, avec des cas de (re)conversion professionnelle qui sont diversement ressentis. Plus spécifiquement en tant que narration sur soi, le récit de vie suppose une approche individuée du rapport au savoir et aux données d'expérience, même si, en formation, il s'inscrit généralement dans une démarche collective. Ce qui distingue ce type de support de ceux qui permettent avant tout de consigner des savoirs en lien avec des ressources documentaires et des pratiques de terrain, consiste en ce que les identités narratives qui s'y dessinent témoignent principalement de l'intégration d'un (ou de plusieurs) cadre(s) de travail, mais aussi, précisément, d'un rapport au métier. Le contexte de production du récit de vie va donc influencer plus ou moins sa « configuration », pour reprendre le terme de Ricœur (1975), en ce qu'il renvoie à un écrit tout à fait spécifique, en rapport, plus particulièrement, avec les savoir-être et les valeurs propres à telle ou telle profession. Dans cet article, qui entend démontrer comment ce type de production contribue à valoriser les parcours personnels, nous rappellerons ce qui fonde les spécificités des récits biographiques en tant que discours professionnels. Nous exposerons ensuite, à partir d'un corpus de 183 productions recueillies en contexte de formation, les principales pratiques discursives qui s'en dégagent et ce qu'elles révèlent, par ailleurs, en termes de référence au métier et aux savoirs d'expérience. Contrairement à certains supports qui suscitent une réflexion sur le rapport aux savoirs académiques, et notamment sur les conditions de leur transmission ou de leur construction, les récits sur soi invitent leurs auteurs à ré-évènementialiser leur expérience individuelle, faisant ainsi coïncider les éléments de discours avec ceux d'un parcours qu'ils ont plus ou moins de facilité à s'approprier (ou à se réapproprier). Cette exigence fait dire à Pineau (2006) que le récit biographique s'assimile à une « épreuve pragmatique performative » (p. 331), qu'il convient, selon lui, d'aborder dans une dimension dialogique. D'une manière générale, le récit de vie en formation correspond à une production personnelle à la fois biographique et diégétique, plus ou moins narrativisée, qui rend compte, intégralement ou en partie, du déroulement d'un parcours individuel de professionnalisation et de formation. Ces caractéristiques, variablement décrites par Legrand (1993), Pineau (2002) et Delory-Momberger (2005), rendent ce type de production favorable au questionnement sur le rapport au métier, d'autant qu'elle conduit à établir des liens entre les savoirs partagés et les expériences singulières qui accompagnent les personnes tout au long de la vie. Dans les domaines de l'enseignement et de l'éducation, la prise en compte du récit de vie comme discours professionnel est confrontée au fait que la formation concerne surtout des « questions de terrain », ce qui empêche la plupart du temps ce type de production d'intervenir dans l'évaluation de l'expérience et dans la validation des acquis (Cros, 2006; Torterat, 2008). De plus, là où d'autres types d'écrits, comme les mémoires professionnels, favorisent, chez les enseignants ou les éducateurs stagiaires en particulier, une confrontation des apports de la recherche (Blanchard-Laville et Fablet, 2000; Blanc et Varga, 2006), les récits de vie n'en font généralement pas cas, de la même manière d'ailleurs qu'ils se tiennent à priori à l'écart de toute « description minutieuse des faits présentés » (Guigue, 2000). Outre les approches méthodologiques relevées par Bliez-Sullerot et Mevel (2004), auxquelles nous nous reportons, plusieurs auteurs ont pris position sur cette question de l'intégration des récits de vie dans les cursus de professionnalisation. Ainsi, parlant pour sa part d' « approche biographique », De Halleux (2008), qui les emploie auprès d'éducateurs spécialisés en Belgique, répertorie plusieurs « dimensions » qui, selon elle, permettent d'envisager les manières dont les récits de vie contribuent à « accroitre le professionnalisme » (p. 162) des participants. Elle recense dans ce cadre ce qu'elle désigne à travers « l'implication » (qui renvoie à l'analyse et aux démarches mises en œuvre en réponse aux questions soumises), « la relation » (qui peut répondre aux conditions d'une aide particulière ou d'un accompagnement spécifique), mais aussi d'autres variables telles que « la recherche de sens » ou « le caractère concret du réel appréhendé dans le quotidien » (p. 162-163). De Halleux évalue la productivité des récits de vie qui lui sont soumis suivant l'implication des participants dans une « démarche » qui consiste à « prendre du recul, mettre de l'ordre, faire des liens, et apporter de la cohérence dans [le] parcours » (p. 170), d'autant qu'il s'agit avant tout de faire « dialoguer vie personnelle et vie professionnelle » (p. 171). Une telle approche dans la formation, de notre point de vue, représente une opportunité réelle pour référer à l'expérience en dépassant le caractère quelquefois préconstruit des comptes rendus et des rapports. Elle appelle aussi les participants, non pas à dégager les éléments récurrents d'une pratique ou d'un vécu quotidien, mais à se positionner dans un parcours, et à décrire, à partir d'un ensemble d'évènements singuliers, un « fil conducteur » (Lindón, 2005) qui les conduit à porter un regard réflexif sur leur identité professionnelle. Nous faisons ici l'hypothèse que la production de récits biographiques permet d'autre part de reformuler, pour ainsi dire de resignifier le rapport aux savoirs expérientiels, en marge du fait que cette démarche demande du temps en formation, comme en témoignent les éléments de corpus que nous soumettons ci-après. Ces derniers, effectivement, montrent qu'il s'y dégage plusieurs pratiques discursives, dont les apports ne sont pas analogues, et que nous résumerons en trois tendances générales. Quand il est employé en formation, le récit biographique invite les personnes concernées, au premier rang desquelles les enseignants et les éducateurs, à revenir sur des évènements déterminants de leur parcours individuel. Cet exercice les amène aussi à dégager les moments intermédiaires et les diverses voies empruntées pour intégrer un ensemble d'aspirations et de valeurs communes. Les évènements, identifiés ou non comme tels, sont pour ainsi dire mis en intrigue, quelquefois en dehors même de tout renvoi au temps historique, avec ce que cela suppose de reconstruction de soi. Au demeurant, rappelons que les intervenants qui sollicitent les récits de vie (et les encadrent en partie) dans ces métiers, s'inscrivent dans une démarche qui consiste moins à susciter une remédiation, qu' à conforter un processus d'intégration ou d'insertion. Remarquons qu' à l'université, et plus particulièrement dans les composantes IUFM pour ce qui relève du contexte français, la semestrialisation des parcours de formation facilite à certains égards le recours aux récits de vie dans les cursus de professionnalisation. D'après les informations dont nous disposons, les éléments de professionnalisation (analyse de pratiques, méthodologie de l'intervention, visites, etc.) s'inscrivent dans un suivi où l'évaluation reste en partie flexible. De ce fait, une place peut être laissée à des temps de réflexion sur les liens qui s'établissent entre parcours personnels et parcours professionnels. De tels moments dans le processus de construction des compétences permettent, au-delà des savoirs et des savoir faire, de réfléchir également sur ce qui constitue les savoir-être, même si ces exigences de l'exercice ne vont pas sans poser quelques difficultés de mise en place. Dans le domaine de l'accompagnement des stages par exemple, l'invitation à soumettre ses pratiques à un « regard critique » soulève la question de savoir en quoi cette exigence consiste vraiment. De même, les récits de pratiques partent souvent de questionnements sur des objets spécifiques, avec un regard sur des actions et des schèmes d'actions soumis à la confrontation, ce qui s'explique notamment par le fait qu'il s'agit d'apporter des réponses concrètes à des questions portant sur un vécu quotidien. Pourtant, dans la mesure où la productivité des formations est souvent conditionnée par la complémentarité entre différentes approches de la profession, le récit biographique représente la possibilité, pour les étudiants et (les) stagiaires, de se questionner précisément sur ce en quoi consiste ce regard, autrement dit de se positionner dans un parcours qui ne commence pas au moment de l'intégration d'un cadre de travail, mais qui lui préexiste en partie. Les productions auxquelles nous renvoyons ici, à titre d'exemplification, ont été recueillies à l'occasion d'une recherche-action menée à Nice, en 2007, par l'ERTE I3DL. L'équipe a rassemblé 183 enseignants stagiaires, représentant la plupart des domaines disciplinaires du second degré (professeurs documentalistes, des lycées et collèges, des lycées professionnels et assimilés), et répartis sur deux sites (Nice, Draguignan). Lors des journées de formation (initiale pour les uns, continue pour d'autres), les enseignants stagiaires ont été appelés, en début de session, à produire un récit à l'appui de la question suivante (en 60 à 90 minutes) : « Qu'est -ce qui, dans votre parcours personnel, vous a amené(e) vers le ou les domaine(s) où vous enseignez ? » Les feuillets, anonymés – et donc numérotés et brièvement informés –, ont été recueillis par la suite avec la possibilité d' être repris, au terme de la formation, au cas où les stagiaires comptaient y apporter des compléments ou des modifications. En termes de recherche, l'une des principales questions qui ont été posées au corpus a consisté à déterminer dans quelle mesure de tels supports de formation permettent de construire, au-delà du caractère anecdotique de certains évènements du quotidien et du vécu expérientiel, une identité socio-discursive à travers des regards portés sur les faits et les expériences à la fois personnelles et professionnelles, favorisant ainsi, en quelque sorte, une approche inédite de la professionnalisation, à partir de différents modes d'argumentation et de justification. Une première approche des démarches discursives représentées dans les productions nous a amené à distinguer les réponses correspondant à des récits de vie à proprement parler, de celles qui correspondent à d'autres formes de productions, ces dernières ne combinant pas forcément narrativisation et biographisation (voir Pineau, 2006; Delory-Momberger et al., 2007). Ce qu'a révélé le corpus dans un premier temps, c'est que sur 183 feuillets (dont un apparait sans texte), 22 ne correspondent aucunement à des récits de vie, soit 12 % des supports. Parmi ces 22 réponses, les refus à proprement parler catégoriques de répondre (qui sont une forme de réponse en soi) concernent 5 supports, lesquels se présentent soit sous la forme d'une page blanche (120), soit sous celle d'une récusation plus ou moins justifiée de la sollicitation, dont nous reportons ci-après deux exemples : Pour des raisons personnelles je ne souhaite pas raconter cette partie de ma vie privée (77) Récit de vie : Je ne souhaite pas m'expliquer sur ce sujet (91). Hormis la page blanche, laquelle est difficile à interpréter sur le plan du rapport à soi -même et au savoir (notamment en ceci qu'elle révèle peut-être surtout un rapport à la démarche de formation elle -même), il apparait que les refus de produire un récit sur soi sont principalement dus à son caractère intrusif, mais aussi au fait que les participants ont rejeté la possibilité, non pas de produire un discours professionnel, mais d'envisager le récit biographique comme tel. Dans les productions concernées, la plupart des auteurs concèdent une certaine difficulté à se positionner, tout en formulant plus ou moins concrètement des attentes de formation, comme dans la contribution suivante (16) : La conscience d'avoir pleinement intégré le statut de professeur n'étant pas acquise, je ne peux avoir le recul nécessaire pour évoquer le « déclic » m'ayant fait passer du statut d'étudiant à celui de professeur. Parmi les autres contributions, une tendance intermédiaire se dégage, avec des productions dont l'une des particularités est de se présenter de manière plus énumérative, et de s'organiser comme une suite de justifications et/ou d'explications brèves, comme en témoigne la production ci-après (141) : J'ai toujours aimé les mathématiques, car c'est une science logique, précise. J'aime transmettre un savoir les mathématiques (je le faisais étant au collège et lycée même après : j'expliquais souvent à mes frères et sœurs les mathématiques). J'ai toujours aimé les chiffres en plus et le fait que ce soit Je pense que les autres matières sont chacune vraiment différentes des miennes mais un grand lien les lie : les élèves et la transmission du savoir. Une telle démarche prend plusieurs formes, à partir desquelles les auteurs questionnent leur parcours individuel plus ou moins à l'écart soit de la biographisation, soit de la narrativisation, soit des deux simultanément, comme celui -ci (5) : Je ne suis pas très à l'aise avec l'intitulé « Récit de vie ». je me bornerai donc à mentionner quelques « idées fortes » : – la parole du professeur de français, depuis le Lycée, me semblait disposer d'un pouvoir quasi-magique – le latin, puis le grec ancien m'ont vite attirée, séduite, passionnée. – Des études de lettres classiques semblaient donc tout indiquées ! – … l'aboutissement d'un tel parcours : me voilà ! Les termes qu'emploie l'auteur du feuillet (5) sont de notre point de vue particulièrement significatifs, en ce qu'ils sont plus allocentrés encore que dans la production précédente, où le « je » nous semble toutefois, pour ainsi dire, pseudo-implicatif (comme le serait un je quasi-impersonnel). Les auteurs, dans les deux cas, ne s'y présentent pas en tant que sujets d'un parcours, mais décrivent l'existant comme l' « aboutissement », en quelque sorte hic et nunc, d'une suite d'évènements singuliers et de sensibilités. La construction de l'identité socio-discursive s'établit ainsi dans une faible mesure à la charnière de la production du savoir et de sa transmission. Elle se présente plutôt comme le résultat d'une somme linéaire de rapports aux savoirs académiques ou de représentations liées aux connaissances partagées, voire, éventuellement, à leur dimension épistémologique. Là où une narrativisation plus effective implique, dans presque une moitié des productions (que nous présentons dans la partie « Quand narration et biographie se combinent effectivement »), une déconstruction du rapport à l'expérience (laquelle déconstruction permet, dans le même temps, de lui donner une autre signification), les productions 141 et 5, comme c'est le cas de près de 45 % des éléments du corpus, reviennent surtout sur la dimension académique du savoir. Elles convoquent l'expérience à travers des pratiques quotidiennes, leur justification sociale, et notamment une énumération de contenus qui amène les auteurs à faire intervenir plusieurs généralités sur la profession. Certaines de ces productions vont d'ailleurs jusqu' à donner une version inventoriée du parcours professionnel, dont voici une illustration (33) : Éducation musicale – Notre discipline est particulière. Elle lie une pratique vraiment active à des connaissances théoriques. – Lors de mes études musicales, je me suis attaché à pratiquer mon instrument. Je me destinais à l'enseignement en école de musique > prof d'instrument. – Or j'ai eu envie d'enseigner la musique dans sa globalité > pratiquer, connaitre, et percevoir. – De plus, ce métier me permet d'envisager l'instrument dans une pratique amateur. Métier le musicien (sic) est trop précaire. Cela me permet de vivre avec ma passion et non d'en vivre. Ces discours professionnels ne reportent certes pas à des ressources documentaires, ni à une confrontation d'apports de la recherche, mais ils renvoient dans bien des cas à des pratiques de justification qui consistent à conforter l'existant, un rapport au savoir établi, avec ce que cela implique en termes de préconstruction. En souscrivant dans une moindre mesure à la démarche qui consiste à resignifier les éléments d'un parcours, ils sollicitent peu les savoirs expérientiels, mais ils insistent toutefois, avec une certaine productivité, sur le rapport aux savoirs académiques, dont ils commentent certaines caractéristiques en lien plus ou moins direct avec des éléments du vécu. Les autres productions, qui ne sont donc ni réfutatives ni commentatives, donnent soit l'intégralité du cursus personnel qui a mené le participant vers l'existant, avec une narration biographique qui cherche à donner une vue d'ensemble d'un parcours individuel, soit un résumé, linéaire ou non, de ce qui en forme les variables principales, en s'appuyant sur certains éléments spécifiques du parcours individuel. Dans les deux cas, il existe effectivement une appropriété de la réponse à la question posée et aux enjeux de la narration sur soi, mais le discours professionnel tenu sur le rapport au savoir et sur l'expérience personnelle n'est pas tout à fait similaire. Pour illustrer notre propos, nous donnerons un exemple de récit qui tend à décrire l'intégralité d'un parcours (86) : Née dans une famille d'entrepreneurs, j'ai grandi au contact direct avec la culture d'entreprise. Le choix du parcours d'étude s'est fait « naturellement ». Après avoir suivi une année dans une section scientifique, je me suis tout de suite rendu compte que j'avais besoin de l'économie et du droit en tant que « matières vivantes ». En effet, j'ai ressenti les disciplines scientifiques comme des disciplines moins liées à la vie quotidienne et trop théoriques. J'ai donc poursuivi mes études en économie et droit avec une maitrise et un master. J'ai décidé de me spécialiser en finance avec un MBA aux États-Unis. C'est aux États-Unis que j'ai eu ma première expérience de professorat dans une grande école de commerce suite à la réussite d'un examen. Peut-être un peu prématurée, j'ai méprisé cette expérience et j'ai eu envie d'une expérience professionnelle importante dans le monde de la finance. C'est ainsi que j'ai travaillé pendant 10 ans en tant qu'analyste financier, partageant mon temps entre Europe et États-Unis. Au bout de 10 ans de carrière épanouissante mais fatigante, j'ai voulu changer de métier sans changer de matière ! J'ai voulu transmettre mes savoirs et mon expérience pour les rendre vivants et j'ai reconsidéré ma première expérience de professorat avec les yeux de la maturité ! Voici, ci-après, un exemple de récit qui, plus sommaire, n'en donne à proprement parler que les grandes lignes, en présentant le parcours par l'intermédiaire d'un fil conducteur réduit à sa plus simple expression (31) : Après avoir travaillé à mon compte en graphisme (infographie), design produit et architecture intérieure et désireux de faire passer des connaissances et savoir faire – je j'ai pendant 2 ans donné des cours comme contractuel en technologie. Effectivement cette matière correspond le plus à mon vécu et mes savoir faire. Ces récits spontanés reviennent variablement sur les contextes socio-culturels dans lesquels sont apparus les éléments les plus déterminants du parcours personnel, dont ils procurent des représentations variées (nous parlons de récits « spontanés » dans la mesure où il ne s'agit pas d'entretiens biographiques, dont on peut dire qu'ils sont « interactionnels » à la suite de Chanfrault-Duchet [1988 ], ni de récits dits « de synthèse », tels qu'ils sont exposés par Delory-Momberger [2005] et Snoeckx [2007]). Pour autant, le fait que certains récits soient plus sommaires que d'autres n'a que peu d'influence sur la démarche de biographisation. Comme le note à ce sujet Lindón (2005, p. 59) : en racontant sa vie, l'individu la repense; d'une façon générale, on peut dire qu'il devient de ce fait le « sociologue de sa propre biographie », car il cherche à établir des connexions entre les faits, il construit ses propres séquences d'évènements, en en sélectionnant certains et en en excluant d'autres. Dans le récit 86, l'auteur organise son récit en le soumettant à une linéarité qui lui permet de dégager les moments déterminants de son parcours, tout en établissant une distinction entre plusieurs contextes socio-culturels (celui de l'entreprise, celui de ce qu'il appelle le « professorat »), avec pour principaux éléments significatifs un ensemble de savoirs académiques et de savoirs d'expérience vis-à-vis desquels le regard a changé. Comme dans une partie significative des 43 % de récits qui présentent une démarche similaire dans notre corpus, la narrativisation opérée donne lieu à une réorganisation des multiples possibles que suppose un regard vers le passé, à partir de ce qui caractérise, précisément, ce que l'expérience implique en termes de rapport aux savoirs. Dans le cas présent, cette modification se résume dans le passage de la construction du savoir à sa transmission, que l'auteur ne s'est senti en mesure de pratiquer qu'après avoir confronté les savoirs académiques aux savoirs d'expérience. Or, c'est la même démarche qui, quoique esquissée, apparait dans 31, même si la production biographique est moins évènementialisée, et que la distinction entre plusieurs contextes socio-culturels n'est pas aussi nettement établie. Le récit biographique permet ici, à leurs auteurs, d'établir des rapports entre les pratiques professionnelles et les représentations qu'ils s'en font dans la perspective d'une formation suivie. À ce titre, il contribue à construire une représentation de soi plurielle que l'on peut rapprocher de la question d'identités professionnelles en construction, ce qui permet de le placer dans un suivi individualisé, et d'apporter des éléments de réponse à un moment où les étudiants, par exemple, sont appelés à se déterminer dans leurs parcours de formation (en particulier en deuxième année de master). Alors que les récits sur soi peuvent sembler contourner l'exigence qui consiste à réfléchir sur le rapport aux savoirs, en ce qu'ils n'en font pas le principe organisateur, les productions qui souscrivent entièrement à la démarche démontrent en partie le contraire, en ce qu'elles permettent, par l'intermédiaire d'un retour sur soi, de mener un questionnement sur les savoirs plus particulièrement expérientiels. La réflexion menée au cours de cette première analyse nous a conduit à établir qu' à partir du moment où le récit de vie spontané est envisagé (et pratiqué) comme un discours professionnel, il correspond soit à une « autonarration » (Schmitt, 2008), soit à une démarche que nous appellerons, à la suite de Gasparini (2008, p. 295), d' « autocommentaire » .À cela s'ajoute le refus bien sûr, qui existe bel et bien, mais que l'on peut considérer comme marginal. Ces tendances témoignent dans l'ensemble, au moins en partie, de la diversité des implications et des représentations concernant la profession, mais aussi d'une possible complémentarité, en formation, entre les productions valorisant les produits de la recherche et celles qui valorisent les parcours individuels. Les productions qui répondent au minimum à cette démarche de formation intègrent donc des temporalités diverses, et par là même des rapports différents aux savoirs d'expérience. L'autonarration rend compte d'un parcours dont l'existant, contemporain du récit, est présenté comme une forme d'accomplissement (quand bien même il serait envisagé comme provisoire), et s'inscrit dans une évènementialité qui organise la production biographique et le rapport aux savoirs. L'autocommentaire, de son côté, est en tout ou partie anhistorique et part de l'existant, à proprement parler du rapport aux savoirs, en recourant variablement à des évènements vécus. D'un point de vue argumentatif, il semble que les deux démarches se distinguent d'autant plus ouvertement que la première s'apparente à une reconstruction / resignification, alors que la deuxième se rapproche à bien des égards d'une pratique de justification. Or, il est possible que ces deux approches témoignent de demandes sociales différentes vis-à-vis du métier et de la formation, appelant par là même deux formes distinctes d'accompagnement. Ainsi, alors que les autocommentaires constituent à notre sens un matériau particulièrement productif dans le cadre de groupes de travail ou dans un processus de tutorat (Draperi, 2002, p. 395 et suiv.; Bliez-Sullerot et Mevel, 2004), les autonarrations, en plus de leur capacité à intégrer ces formes d'accompagnement, permettent de poser encore plus clairement la question d'une formation tout au long de la vie. Dans tous les cas, le recours au récit biographique nous parait présenter une opportunité non négligeable en formation, en ce qu'il constitue un discours professionnel spécifiquement porté sur le rapport à soi -même et aux savoir-être des participants. À partir du moment où ces derniers sont appelés à se positionner dans le cadre de métiers où le rapport à soi (et à l'autre) en rend l'apprentissage quelquefois difficile, une telle approche permet d'accompagner concrètement les personnes et de les sensibiliser sur ce qui forme les singularités de leur parcours .
Cet article décrit les spécificités du récit biographique en formation, et analyse, à partir d'une recherche-action menée en 2007 auprès de 183 enseignants, les apports de ce type de production, plus particulièrement dans la perspective d'une formation tout au long de la vie. À ce titre, cette contribution tente de montrer dans quelle mesure les récits de vie, quand ils sont envisagés et pratiqués comme des discours professionnels, donnent un éclairage inédit sur les savoirs d'expérience et permettent de reformuler le rapport aux savoirs et aux savoir-être. Elle décrit par ailleurs les tendances qui se dégagent de l'analyse du corpus, à savoir l'autonarration, l'autocommentaire et le refus, lesquels occupent des proportions diverses et répondent, semble-t-il, à des demandes sociales différentes.
linguistique_12-0173333_tei_700.xml
termith-588-linguistique
La présente recherche examine les raisons de la disparition de la catégorie du genre dans un parler du dialecte kurmanji du kurde, pratiqué à Kozluk. Alors que les productions littéraires anciennes et actuelles ainsi que le discours médiatique en dialecte kurmanji utilisent la distinction du genre, opérée par la particule /î/ pour les noms masculins et /ê/ pour les noms féminins au cas oblique, le parler examiné ne comporte plus cette distinction. On observe le même phénomène au sujet de la particule déterminative /a/ de l'ezafe (relateur nominal) pour le féminin singulier. Dans les pratiques langagières orales, la distinction du genre grammatical s'est effacée au profit de l'utilisation exclusive du masculin, devenu une catégorie neutre. Bien que les variations lexicales et phonétiques, qui sont à référer au style particulier des locuteurs, soient la règle dans les langues et les pratiques langagières, le changement d'une catégorie grammaticale relève plutôt de l'exception, dans la mesure où il concerne le fonctionnement du système linguistique dans son ensemble. Il pose des questionnements qui interpellent aussi bien les usagers de la langue que les linguistes désireux de comprendre les facteurs qui l'ont engendré. Dans cette étude, nous essayerons d'apporter des éléments de réponse au sujet de la disparition du genre dans le parler de Kozluk. Dans un premier temps, nous ferons une description rapide de la langue kurde et de sa situation sociolinguistique. Dans un second temps, nous présenterons le fonctionnement du genre en kurde et examinerons la neutralisation du genre dans le parler de Kozluk. Le kurde est actuellement parlé par environ 35 millions locuteurs répartis à cheval sur cinq pays (Irak, Iran, Syrie, Turquie, ex-Union Soviétique, sans compter une diaspora de 900 000 Kurdes installés en Europe). Appartenant à la famille des langues indo-européennes, il se situe dans le groupe irano-aryen de cette famille qui regroupe plusieurs langues modernes comme l'ossète, le persan, le baloutchi, le tadjik, etc. En l'absence de tout enseignement de la langue, son développement s'est fait sur une structure polydialectale comprenant plusieurs dialectes, dont chacun se subdivise en une variété de parlers locaux. Les deux dialectes principaux et nettement apparentés sont le kurmanji (parlé par la majorité des Kurdes de Turquie, de Syrie, des Kurdes répartis dans les républiques de l'ex-Union Soviétique ainsi que par une partie d'entre eux vivant en Iran et en Irak) et le sorani (essentiellement parlé par les Kurdes d'Irak et d'Iran). Le kurmanji, parlé par 65 % des Kurdes, apparaît plus archaïque que les autres dialectes dans sa structure phonétique et morphologique. Pour autant, le kurmanji et le sorani sont les deux dialectes qui présentent le plus des caractéristiques linguistiques communes. Les traits morphologiques qui les distinguent sont une différenciation de cas (nominatif et oblique) et de genre dans les noms et les pronoms et une construction agentielle des temps passés de verbes transitifs. Par ailleurs, la déclinaison et le genre ont disparu en sorani. Dans ce dialecte, les suffixes pronominaux, qui n'existent pas en kurmanji, ont largement pris la place des fonctions de cas. Conséquence de la répartition de la population kurde dans plusieurs pays, le kurde s'écrit actuellement en 3 alphabets distincts. Ecrit au départ en alphabet arabe légèrement modifié, avec l'ajout de signes diacritiques notamment, le kurde a dû s'adapter aux alphabets des Etats dans lesquels il n'avait aucune reconnaissance. Ainsi, il s'écrit en alphabet arabe en Irak, Iran et en Syrie, cyrillique en ex-Union soviétique et latin en Turquie. Si cette situation déjà très confuse ne facilite pas la communication écrite entre les Kurdes de plusieurs pays, deux versions de l'alphabet kurde adapté aux caractères latins s'opposent actuellement en Turquie, versions aussi bien motivées par différentes approches de transcription phonétique des phonèmes du kurde que par les projets politiques de certains partis kurdes de Turquie. Par exemple, les tenants d'une fédération avec la Turquie utilisent un alphabet proche du turc, ceux d'une indépendance totale emploient un alphabet nettement différencié de cette langue. La situation sociolinguistique du kurde est fonction du degré de la reconnaissance des Kurdes dans les Etats où ils sont répartis. Langue seconde de l'Irak, il est tout simplement nié en Turquie, où jusqu' à une période récente son usage même oral était interdit. Il est toléré en Iran et en Syrie, sans que cette tolérance se traduise par une reconnaissance officielle. Enseigné dans les républiques de l'ex-Union soviétique, notamment en Arménie, il connaît actuellement un renouveau en Europe de par son enseignement officiel dans les écoles primaires en Suède, Norvège et Allemagne (Akin, 1997, 1999). La littérature sur le genre en kurde ne donne qu'un aperçu partiel de cette catégorie grammaticale. Les problèmes autour de son repérage morphologique, de son attribution aux objets, ainsi que les nombreuses exceptions dont on fait état témoignent d'un certain désarroi.Par exemple, seuls quelques dictionnaires bilingues (Blau, 1991, Farizov, 1994, Rizgar, 1993) donnent systématiquement le genre des noms kurdes, alors que d'autres dictionnaires (Izoli, 1992, Tori, 1999) n'indiquent pas du tout le genre. Par ailleurs, les quelques manuels de grammaire (Aykoç, 1996, Bédir Khan & Lescot, 1991, Blau & Barak, 1999, Kurdo, 1991) que nous avons consultés n'ont pas permis d'élucider de nombreuses questions au sujet de la distinction du genre et de son utilité dans le système linguistique du kurde. D'une part, parmi les dialectes kurdes, seul le kurmanji fait la distinction du genre, alors que cette catégorie a disparu du sorani. D'autre part, la lecture de ces manuels fait apparaître que le genre a disparu ou s'est neutralisé dans de nombreux parlers du kurmanji, posant implicitement ou involontairement la question de sa légitimité et de son maintien dans le kurmanji standard. Deux observations, qui nous paraissent importantes pour la suite de cette étude, sont à retenir de l'ensemble de ces manuels. La première concerne la fréquence des mots féminins en kurmanji. D'après, Bédir Khan et Lescot, cette fréquence est beaucoup plus importante que celle des mots masculins (1991, p. 66), alors que dans le parler de Kozluk, le féminin a disparu dans les manifestations du genre sous la forme de l'ezafe ou du pronom wê. La seconde observation porte sur ce qu'on pourrait appeler le « prestige linguistique » attribué au genre par Fêrgîn Melîk Aykoç.Après avoir constaté la disparition du genre des dialectes sorani, gorani, mukri et feyli, il écrit : « en kurmanji, le genre est fondamentalement installé et quand quelqu'un parle sans distinction de genre, on ne le comprend pas bien et il passe pour un étranger. Pour un kurmanji clair, il faut utiliser le genre » (1996, p. 103). Si ces commentaires épilinguistiques peuvent être compréhensibles émanant de la part d'un grammairien, ils montrent en revanche les stéréotypes et les valeurs « positives » attachées à la catégorie du genre. Ils posent aussi une question déontologique dans la mesure où les Kurdes ne faisant pas la distinction du genre sont considérés comme « étrangers » … A l'instar du français, de l'italien, de l'espagnol ou du hébreu, le kurde fait partie des langues qui ont une bipartition du genre, et répartit les êtres en masculin et en féminin. Le genre concerne tous les mots employés substantivement : les noms, les adjectifs, les démonstratifs, les numéraux, etc. On peut répartir le genre des unités kurdes en trois catégories : d'une part, le genre naturel, qui se rapporte au sexe des êtres animés. Cette catégorie apparaît comme étant la plus motivée, car elle est fixée en référence au sexe des être animés et ainsi versée au vocabulaire, comme pour les mots suivants : bav (père, m.), bira (frère, m.) et dê (mère, f.), xatî (tante, f.). Le genre de cette catégorie de mots ne nécessite pas un apprentissage particulier, dans la mesure où il est donné par le seul fait de l'expérience humaine, ce qui n'est pas le cas du genre grammatical. En effet, cette deuxième catégorie du genre, qui s'applique aux êtres non animés, est celle qui apparaît comme étant la plus problématique : son attribution ne peut généralement pas trouver une explication logique. L'avis unanime des linguistes sur cette catégorie est qu'il est impossible de justifier sémantiquement la très grande majorité des masculins et des féminins (Chiss et autres, 1978) et que c'est surtout par le jeu de connotations et de métaphores que les objets non animés se sont vu attribuer un genre. A l'absence d'une logique claire permettant de comprendre l'attribution du genre grammatical, s'ajoute la difficulté de son repérage sur le plan morphologique. Le français offre de ce point de vue plus de facilités, car il existe souvent une corrélation entre la terminaison d'un mot français et son genre : par exemple, les mots se terminant par les suffixes – tion, - ade, - aie, - aison, - ance, - etée, sont généralement féminins, alors que ceux finissant avec – age, - ail, - ard, - at, - eau, - and, - er, sont masculins. En revanche, tant qu'un terme reste à l'état absolu en kurde, c'est-à-dire tant que le substantif n'est affecté d'aucune particule ou d'aucune désinence casuelle, rien dans sa forme ne le désigne a priori comme masculin ou féminin. Mis à part quelques suffixes qui renseignent sur le genre, comme la terminaison du féminin – î [azadî, (liberté), aştî (paix)] des substantifs, - in des verbes utilisés substantivement [hatin (venir), xwarin (manger) ], aucun élément dans la structure morphologique des unités ne donne un indice sur le genre. Enfin, la dernière catégorie concerne les mots qui s'appliquent aux êtres animés des deux sexes, comme xwendekar (étudiant(e)), heval (ami(e)), cîran (voisin(e)), mêvan (invité(e)). Cette classe de mots qui ont un genre commun représente une partie importante des unités kurdes. Dans la mesure où ils s'appliquent aux êtres animées des deux sexes, seul le contexte discursif de leur utilisation permet de connaître précisément leur genre. Si, comme on vient de le dire, la structure morphologique des unités ne donne pas d'orientation particulière pour le repérage du genre (exception faite des terminaisons – î et – in), il existe en revanche des désinences et particules casuelles qui le spécifient. Le repérage du genre se fait donc lorsque le mot reçoit une particule ou une désinence casuelle, c'est-à-dire lorsqu'il fait l'objet d'un usage en discours. Le cas oblique, le vocatif (peu employé) et l'ezafe (relateur nominal) permettent ainsi de signaler le genre des mots. Venant de l'arabe izafe (ajout, accroissement), l'ezafe relie un substantif à son déterminant. Il s'emploie pour marquer la relation qui s'établit entre un substantif à l'état absolu et tout élément (épithète, nom, pronom, groupe de mots) qui se trouve à la fois le déterminer et le suivre. Le morphème de l'ezafe, qui varie en fonction du nombre et du genre, se place à la fin du substantif déterminé. L'ezafe secondaire accomplit le même type de relation que l'ezafe premier; la différence étant la nature indéfinie du substantif déterminé. Le tableau suivant récapitule l'attribution et la signalisation du genre par le cas oblique, le vocatif et l'ezafe : En kurde standard, la référence pronominale ne précise le genre que pour la troisième personne du singulier au cas oblique : wî pour le masculin et wê pour le féminin. Selon Blau et Barak (1999, p. 47), dans certaines régions du Kurdistan turc, le pronom personnel est suivi du morphème – î pour le masculin et – ê pour le féminin : Il convient aussi de préciser que les adjectifs démonstratifs s'adaptent, au cas oblique, au genre des substantifs qu'ils accompagnent. Les analyses que nous entreprenons maintenant portent sur un corpus constitué d'enregistrements sonores de trois locuteurs natifs de la ville de Kozluk et de courriers électroniques envoyés par deux autres locuteurs. Il faut préciser que nous ne disposons pas de productions écrites anciennes dans cette étude. L'interdiction qui pèse sur la pratique écrite de la langue kurde et sur son enseignement, la destruction de nombreux livres et documents en kurde après l'avènement de la république turque en 1923 sont les principales raisons de cette absence. Or, les productions écrites anciennes auraient pu nous fournir de précieuses indications sur l'extinction du genre dans le parler de Kozluk. Dans les deux formes où la catégorie du genre se manifeste, le genre naturel et le genre grammatical, c'est ce dernier qui n'est plus actualisé dans le parler de Kozluk. Comme rien dans la forme du substantif ne le désigne a priori comme masculin ou féminin, le genre grammatical se manifeste à travers la déclinaison, l'ezafe et le pronom de la 3 e personne du singulier au cas oblique. Dans le parler de Kozluk, au cas oblique, la désinence casuelle /î/ pour le masculin singulier est la marque exclusive de la déclinaison à l'état indéfini, la particule /ê/ pour le féminin singulier n'ayant pas été attesté. Par exemple, dans l'énoncé suivant : le mot bizin (la chèvre), du genre naturel féminin, est décliné au genre grammatical masculin. L'utilisation de l'ezafe montre également que la particule déterminative /a/ pour le féminin a disparu au profit du masculin /ê/ : Le pronom féminin wê au cas oblique devient wî : Enfin, la distinction de genre entre les démonstratifs vî / vê et wî / wê a également disparu au profit de la seule forme du masculin. Si la catégorie du genre grammatical n'apparaît pas dans ces énoncés, deux exceptions doivent être signalées qui font état d'une certaine empreinte du genre. Il s'agit d'une part du maintien de la distinction du vocatif - o pour le masculin et - ê pour le féminin. Cette distinction est toujours fonctionnelle dans le parler de Kozluk. D'autre part, le genre naturel qui se rapporte à la distinction entre êtres mâles et femelles, se maintient comme en kurmanji standard, ainsi que le montrent les couples de parenté opposés bav / dê (père / mère), bra / xwîşk (frère / sœur), etc.. Enfin, l'usage des épithètes mê (mâle)et nêr (femelle) qui permettent de spécifier le sexe des espèces animales est également maintenu. Quand l'on veut préciser le genre des noms génériques comme ker (âne), hirç (ours), il faut adjoindre au nom l'épithète approprié : kerê nêr (âne), kerê mê (ânesse), hirçê nêr (ours), hirçê mê (ourse). Résumons le point commun des exemples précédents : là où la déclinaison à l'état indéfini en kurmanji standard nécessite la particule /ê/, le parler de Kozluk réalise la particule /î/. Là où l'on attend la particule déterminative /a/ de l'ezafe, nous avons /ê/. Le même type de changement est observé pour le pronom de la 3 e personne du singulier au cas oblique wê, qui se transforme en wî. Il ne s'agit pas seulement de l'extinction du féminin de quelques mots, mais de tous les mots se référant aux objets non animés. Pour ce qui est des êtres animés, la non-correspondance du genre grammatical au genre naturel crée un conflit de genre. Mais dans la mesure où le masculin est la seule marque pronominale, de liaison et de déclinaison au cas oblique, on peut dire qu'il acquiert le statut de catégorie neutre. Nous savons que ce phénomène n'est pas une propriété exclusive du parler de Kozluk, mais qu'il caractérise aussi de nombreux parlers du kurmanji en Turquie. Ainsi, R. Zilan relève le même phénomène dans les villes de Malatya, Maras, Antep, dans la région de Serhad. M. Chyet l'observe pour ce qui est de Semsûr. M. Dorleijn l'a noté chez des locuteurs natifs de Diyarbekir (1996, pp. 57-60). Il s'agit donc d'un phénomène général qui touche le fonctionnement du système linguistique et qui me semble gagner progressivement le kurmanji. Explorons maintenant les hypothèses suivantes pour tenter de lui apporter des éléments de réponse. 1. La première et forte hypothèse porte sur un changement phonologique conditionné ou une neutralisation phonologique combinée et conditionnée par le contexte pour reprendre les termes de Troubetzkoy.On sait, avec André Martinet (1966), qu'il existe un conflit permanent entre la tendance du locuteur à restreindre sa dépense d'énergie et les besoins de la communauté qui réclament le maintien des besoins jugés nécessaires par les usagers de la langue. Ce conflit est à l'origine d'un facteur d'inertiequi se rapporte à la loi naturelle du moindre effort, expression empruntée à Zipf et à laquelle Martinet préfère celle d'économie linguistique. Martinet souligne que tous les organes de la parole ont une inertie que celui qui parle doit vaincre sans cesse. D'après moi, le facteur d'inertie est susceptible d' être intervenu dans la mutation de /a/ → /ê/, de /ê/ → /î/ et de wê → wî. Il pousse le locuteur à adapter sa réalisation de phonèmes au contexte phonétique général de la phrase et se traduit par une économie du mouvement articulatoire, c'est-à-dire par une tendance vers un degré d'aperture plus fermée du canal buccal. On pourrait le schématiser de façon suivante en tenant compte des voyelles utilisées dans des exemples précédents : Cette hypothèse montre comment un changement phonologique peut avoir une incidence morphologique, dans la mesure où une catégorie grammaticale se trouve affectée par le changement. 2. La deuxième hypothèse va dans le même sens que la première. On entend souvent dire, par contraction, rojkî (un jour), pismamkî (un cousin), hevalek min (un(e) ami(e) de moi), alors que le kurmanji standard impose rojekê, pismamekî, hevalekî(ê) min. D'un point de vue purement grammatical, on peut voir dans ces constructions des fautes, ou encore la traduction d'un apprentissage insuffisant. Mais d'un point de vue descriptif, on peut observer des effets d'économie linguistique qui se traduisent dans la syntaxe et la morphologie. 3. La troisième hypothèse qui pourrait aider à comprendre l'extinction du genre est une tendance à la masculinisation relevée en français. On sait que dans cette langue le masculin a un fonctionnement générique : l'homme est mortel. G. Mauger pense que le masculin est peut-être le genre indifférencié en français (1972), dans la mesure où il s'applique aux animés des deux sexes. G. Dumézil voit dans le masculin générique un avantage stylistique de « résumer sous une désignation commune des variétés mâles et femelles d'une même espèce », constituant par là « un moyen grammatical d'éviter des longueurs » (1984). Constatant les problèmes posés par le genre en français comme la lourdeur morphologique, la complexité des accords, A. Martinet affirme que l'information qu'apporte aux usagers de la langue l'existence des genres masculin et féminin est pratiquement nulle, alors qu'elle leur impose le maniement constant de distinctions de faible valeur informative (1999, p. 9). Enfin, une étude portant sur 703 noms d'un corpus d'emprunts à l'anglais établi à partir des textes de la presse française de musique populaire montre une nette tendance à la masculinisation : 51,49 % des noms se voient attribuer le genre masculin tandis qu'ils sont seulement 12,09 % à se voir attribuer le genre féminin (pour les 36,42 % restants, le contexte ne permet pas de trancher). La conclusion de cette étude est que tout nom inanimé emprunté à l'anglais est au masculin lorsqu'il n'existe pas de raisons puissantes pour qu'il soit au féminin (Guilford, 1999, p. 85). Il n'est pas dans notre propos de transposer au kurmanji cette tendance observée en français, dans la mesure où les deux langues ont des systèmes morphologiques et syntaxiques qui leur sont propres. Mais il apparaît que la masculinisation qui s'inscrit dans le principe d'économie linguistique a une incidence pratique dans les pratiques langagières : en tant qu'elle se rapproche d'une catégorie neutre, donc de la disparition du genre, elle est source de réduction des distinctions inutiles et donc de simplification des règles grammaticales. 4. Le contact du kurde avec des langues qui lui sont voisines est une autre hypothèse qu'il faut prendre en compte. En effet, le kurde est au contact du turc en Turquie, du persan en Iran, de l'arabe en Irak et en Syrie. Or, le turc ne fait pas la distinction du genre, qui a par ailleurs disparu de bonne heure en persan. Si le turc en tant que langue dominante au Kurdistan turc exerce une influence sur le kurde, comme on peut la relever dans les domaines lexicaux, syntaxiques, etc. (Dorleijn, 1996), en revanche, il ne nous semble pas que cette influence soit aussi opératoire dans l'extinction du genre. Certes, on peut penser qu'en l'absence de tout enseignement et diffusion de leur langue, les Kurdes immergés dans la langue turque ont fini par transposer dans leur langue l'absence de la distinction du genre. Mais une enquête menée à Kozluk auprès des personnes ne parlant que le kurde a montré qu'elles aussi ne faisaient pas la distinction du genre. Rappelons aussi que le sorani, l'autre dialecte important du kurde, ne connaît plus le genre, et cela sans qu'il soit au contact du turc. 5. De façon plus générale, l'extinction du genre dans le parler de Kozluk ne fait que confirmer l'une des tendances de l'évolution linguistique très bien décrite par Meillet (1958) et Sapir (1953). Constatant l'incohérence du genre grammatical, la redondance opérée par la distinction de genre entre les noms et les difficultés de l'accord, l'un et l'autre conviennent à considérer l'existence des genres comme une survivance des concepts archaïques condamnés à se réduire ou à s'éliminer au cours du développement de la langue. Si l'ensemble de ces hypothèses doivent être confirmées, dans la mesure où nous ne disposons pas d'éléments suffisants d'appréciation, il nous semble que l'hypothèse phonologique reste la plus forte. Il apparaît en effet que c'est le facteur d'inertie qui est à l'origine de la fermeture du canal buccal, provoquant ainsi une réduction de phonèmes opérant la distinction du genre. D'après Meillet, pour qui les changements de catégorie grammaticale sont souvent dus à des accidents de nature phonétique, cette économie du mouvement articulatoire a également entraîné la disparition du genre en arménien et en persan, car la fin du mot qui renfermait l'expression du genre fut fortement réduite au cours de l'évolution de ces langues (1958, p. 207) .
L'A. analyse la disparition de la catégorie du genre dans un parler du dialecte kurmanji du kurde, parlé à Kozluk. En effet, dans les pratiques langagières, la distinction du genre grammatical s'est effacée au profit de l'utilisation exclusive du masculin, devenu une catégorie neutre. Après avoir décrit la situation sociolinguistique de ce dialecte, l'A. analyse un corpus constitué de données orales (enregistrements) de trois locuteurs natifs ainisi que de courriers électroniques envoyés par deux autres locuteurs. Il émet alors l'hypothèse selon laquelle c'est le facteur d'inertie qui est à l'origine de la fermeture du canal buccal, provoquant ainsi une réduction de phonèmes opérant la distinction du genre.
linguistique_524-04-11778_tei_764.xml
termith-589-linguistique
Qu'on l'appelle « dénomination toponymique » ou « dénomination choronymique » (Cyr et Nagúg Metallic, 1999), l'acte par lequel un nom propre est donné à un lieu – ville, région, pays… – est bien un acte ethnosocioculturel et même bien souvent un « acte politique » (Gendron, 2003, p. 55). On a parlé de sociotoponymie à propos de la démarche qui considère la toponymie « sous un aspect plus synchronique que diachronique », et surtout qui s'intéresse « moins [aux] préoccupations étymologiques qu' [à] l'évolution, la transformation ou l'apparition et la disparition de formes toponymiques » (Guerrin, 1999, p. 210). C'est cette démarche ouverte à la transdisciplinarité qui inspire les propos développés ici. On cherchera donc dans cette contribution à cerner dans sa dimension sociolinguistique cet acte de dénomination singulier et à en illustrer une des modalités. On peut proposer la distribution fonctionnelle suivante de l'usage des toponymes, selon un modèle à trois entrées, avec bivalence au sein de la deuxième entrée : Il ne fait pas de doute que ce fonctionnement socio-pragmatique du toponyme qui en fait un instrument de localisation est au principe même de l'acte toponymique, qui vise à s' « approprier [l'espace] », à « en faire du territoire » (Akin, 1999, p. 9). Cette localisation concerne tous les lieux, habités ou non : le tènement, le cours d'eau (on parle d' « hydronymie »), le relief (on parle d' « horonymie »), le hameau, la ville et sa voierie (on parle d' « odonymie »), le « (petit) pays », le département, la région, le Pays (Baylon et Fabre, 1982). Qu'il s'agisse de l'hydronyme Garonne, de l'odonyme Las Ramblas ou du toponyme Portugal, il n'est question que de nomination localisante, d'un « choix dénotatif », même s'il convient de ne pas négliger les cas où la nomination « laisse passer un peu d'affectivité collective, lorsque par exemple tel toponyme, échappant aux règles du réseau, vient ponctuellement exprimer une peur et la manière d'exorciser cette peur par l'acte même qui la nomme » (Fabre, 1997, p. 18-19). Et il faut également prendre en considération un certain nombre de cas pour lesquels le « dénotatif » s'adjoint du « connotatif » : une « plus-value toponymique » (Guerrin, 1999, p. 225) due à un investissement représentationnel-ethnosocioculturel (Boyer, 2003). On songe par exemple au toponyme Marseille et dans un autre registre à Poitiers ou encore à Oradour … De même, il existe un certain nombre de cas où le « dénotatif » même fait problème et est l'objet d'une polémique : il en va ainsi, par exemple, du toponyme Makedonias [Macédoine ], choisi par la jeune République indépendante anciennement membre de la Yougoslavie, et contesté officiellement par l ' é tat grec pour cause, selon lui, d'usurpation toponymique, ou pour des raisons autres de l'odonyme Avenida del Generalísimo Franco à Barcelone, durant le franquisme (nommé en catalan par les autochtones antifranquistes Avinguda Diagonal ou, sans parti pris sociolinguistique, la Diagonal), ou encore du toponyme communautaire Galicia contesté par un certain nombre de militants de la langue galicienneau profit de Galiza. En bref, le fonctionnement socio-pragmatique primaire (nomination localisante) au principe de l'acte de dénomination toponymique n'est donc pas toujours observable à l'état pur, si l'on peut dire : le toponyme est souvent plus qu'un toponyme. C'est même ce qui invite le sociolinguiste à se mêler de toponymie, sans pour autant prétendre à une compétence d'onomasticien. Il s'agit de distinguer en nommant. Il y a bien entendu une importante teneur identitaire dans ce fonctionnement. On doit distinguer deux sous-types. Il y a alors, comme on l'a dit, superposition de la nomination localisante et d'une emblématisation ou d'une mythification. Il s'agit d'une intervention toponymique qui célèbre un personnage (mort ou vivant), un évènement, un objet, un lieu… notoire et consensuel, du moins pour une partie non négligeable de la communauté concernée. Si l'emblématisation s'en tient à ces deux critères et tend à promouvoir, par exemple, l'image exemplaire d'un artiste populaire (place Charles Trenet) ou d'un homme politique (avenue Charles de Gaulle), d'un lieu de mémoire (rue de Verdun )…, la mythification ajoute à la notoriété et à l'exemplarité la transcendance historique, la sublimation, l'unanimité (Boyer, 2003; Amossy, 1991) : on ne compte plus en France les rue Jean Moulin ou les place de la Révolution … Dans ce cas, la fonction identitaire prend ostensiblement le pas sur la fonction de localisation : au-delà de la nomination, il s'agit d'un acte de nature nettement politique ou plus spécifiquement glottopolitique. Il est question de revendiquer l'inscription du toponyme dans une communauté linguistique et/ou culturelle (nationale, régionale). On peut observer ce genre d'intervention (souvent lié à un positionnement régionaliste ou nationaliste) tout particulièrement dans des périodes de normalisation d'une langue jusqu'alors minorée parce que dominée, exclue entièrement ou pour l'essentiel de la communication publique institutionnelle. On songe par exemple à l'Espagne post-franquiste où les langues autres que le castillan ont récupéré, après l'adoption de la Constitution démocratique de 1978 et le vote de statuts d'autonomie par les communautés territoriales concernées, les usages sociolinguistiques confisqués par la langue dominante (et la dictature franquiste) : ce fut le cas dans les communautés autonomes de langue catalane (Catalogne, Communauté valencienne, Baléares), le Pays Basque (et une partie de la Navarre) et la Galice. Ainsi en Catalogne le Paseo de Gracia (castillan) de Barcelone est (re)devenu Passeig de Gracia (catalan) et la ville de Gerona a été renommée Girona, conformément à la norme toponymique catalane en vigueur dans la communauté autonome. Ce type de fonctionnement, forcément ostentatoire, peut prendre parfois l'allure d'une provocation : il en va ainsi lorsqu'en bordure d'une autoroute catalane, en direction de la France, un panneau indique les distances de quatre villes françaises, avec l'emploi de toponymes français pour trois d'entre elles – Narbonne, Toulouse, Montpellier – et d'un toponyme catalan pour la quatrième ville mentionnée, Perpinyà [Perpignan ], capitale, dans l'interdiscours catalaniste, de la Catalunya Nord (le Roussillon)… Quant au Pays basque espagnol, on sait qu'il est redevenu Euskadi. On peut évoquer également la redénomination des lieux au Maghreb et particulièrement en Algérie au lendemain de l'indépendance dans le cadre de la politique d'arabisation générale (Kahlouche, 1999, p. 183), à propos de la discrimination dont a été victime jusqu' à une date récente l'identité kabyle : on est même allé jusqu' à attribuer une origine arabe à des toponymes berbères comme pour « la ville de Maillot, par exemple, […] redénommée M'chedallah, sens littéral probable “Qui compte sur Dieu ”, au mépris de la dénomination berbère usitée par les natifs de l'agglomération imechdalen, nom pluriel d'une espèce de fourmi rouge, singulier amechdal. » (Ibid, p. 187.) On pourrait encore mentionner la mise en avant du toponyme Kanaky par le FLNKS en Nouvelle Calédonie, dans la perspective d'une accession à l'indépendance du territoire (Akin, 1999, p. 48-49; Dalhem, 1997). De fait, les conflits de dénomination liés à des antagonismes identitaires sont loin d' être exceptionnels. Il s'agit, d'une certaine façon, d'un cas d'emblématisation, le plus souvent (mais pas toujours) péjorante, éventuellement stigmatisante. C'est le processus d'antonomase qui prévaut ici (processus valable également pour la mythification, dont il a été question), processus par lequel un toponyme notoire (notoriété souvent due aujourd'hui à une surexposition médiatique) est instrumentalisé pour nommer un autre lieu qu'on vise à catégoriser (à étiqueter) par un stéréotype : on peut évoquer les cas de toponymes désignant quelques cités « à risques », diabolisées au cours des années quatre-vingts et quatre-vingt-dix (Les Minguettes par exemple) (Boyer et Lochard, 1998a). C'est un phénomène qui ne touche pas que des toponymes ayant émergé au fil de l'actualité des dernières années. On songe à des cas anciens et toujours disponibles comme Chicago, Waterloo … ou (à l'opposé, si l'on peut dire) Le Pérou, Venise. Je voudrais dans ce qui suit illustrer, à travers deux cas de conflit d'ordre toponymique, le deuxième type de dénomination dont il vient d' être question et plus particulièrement l ' affirmation identitaire. Le premier de ces deux cas concerne l'aventure politico-médiatique du toponyme Septimanie que Georges Frêche, nouveau président du conseil régional a tenté d'imposer en 2005 à l'opinion publique régionale comme substitut du toponyme en vigueur depuis 1960 (Languedoc-Roussillon), et de l'opposition manifestée, via la presse locale, contre ce qui est apparu comme un coup de force par une bonne partie de cette opinion publique. On observera un deuxième cas de conflit à propos d'une communauté autonome de l ' é tat espagnol, en phase de reconquête sociolinguistique (et donc toponymique) : la Galice. à la suite du changement de majorité à la tête de la région Languedoc-Roussillon en 2004 et de l'élection du maire de Montpellier, Georges Frêche, à la présidence de cette même région, s'est ouverte une période de dénonciation de la présidence précédente, somme toute assez banale. Plus surprenante fut la mise en cause de la dénomination de la région en question, compromis toponymique (consensuel) pour un territoire qui comprend essentiellement le Bas-Languedoc et la Catalogne française, au motif avancé par le nouveau président de région que « le nom de Languedoc-Roussillon [serait] totalement erroné sur le plan historique ». Une campagne publicitaire, jugée dispendieuse par ses détracteurs, a visé, durant l'été 2005, à diffuser massivement le toponyme présidentiel Septimanie. Cette volonté de redénomination et la campagne publicitaire autour de produits régionaux visant à imposer le label septimanien ont suscité de nombreuses réactions, pour la plupart d'opposition. Le quotidien régional Midi Libre (qui occupe sur le territoire languedocien concerné une position de quasi monopole), en septembre 2005, s'est saisi de la polémique, au travers d'une enquête et d'un appel à témoignages auprès de ses lecteurs (témoignages dont certains ont été publiés durant une semaine sur une page spécifique du journal). Il en est allé de même, avec semble -t-il encore plus d'acuité, pour le quotidien de Perpignan et du Roussillon L'Indépendant (appartenant au même groupe de presse). Ces initiatives, qui ont représenté incontestablement un succès médiatique et au total un gain de légitimation facilement acquis pour les deux organes de presse impliqués, ont mis en évidence un rejet très largement majoritaire de la redénomination toponymique. Georges Frêche s'est finalement incliné. Bien que le toponyme Septimanie ait été avancé par le nouveau président du conseil régional tout de suite après son élection, c'est au printemps 2005 qu'est lancée publiquement par Georges Frêche la campagne visant à diffuser une nouvelle labellisation : Septimanie, destinée à promouvoir les produits de la région (fruits et légumes, coquillages, fromages…). Certains observateurs ont considéré qu'il ne s'agissait là que d'une nouvelle « griffe », sans plus. Mais bien vite les intentions réelles du président se sont manifestées plus clairement et d'aucuns se sont inquiétés de la marginalisation, dans la nouvelle communication de la région, du toponyme officiel Languedoc-Roussillon, maintenu cependant puisque étant le seul légal. Du reste, la livraison de mai 2005 (n° 8) du nouveau mensuel du conseil régional, ayant précisément pour titre Septimanie, annonce en couverture un dossier consacré à la « Naissance d'une marque » – « Septimanie. La griffe du soleil » –, dossier développé en pages intérieures (p. 6-8), qui présente le toponyme en question comme une « marque ombrelle » (associée au nouveau logotype de la région, où ne figurent désormais ni la croix occitane ni les couleurs du drapeau catalan, mais un assemblage stylisé de sept soleils). Le dossier célèbre le « volontarisme […] de la région » et annonce une campagne de communication estivale pour « la promotion des filières engagées par les conventions de partenariat signées avec la région [… ], fédérant des familles de produits sous la marque collective Septimanie. Ce sera le cas avec les jardins de Septimanie, les vergers de Septimanie, les ruchers de Septimanie… » (Septimanie, n° 8, p. 7). La campagne de promotion annoncée aura bien lieu durant l'été 2005 et son coût très élevé ne sera pas un argument négligeable dans les réactions hostiles aux visées de Georges Frêche. Car commencent à s'élever, en particulier du côté de Perpignan et du Roussillon (la composante catalane de la région), de nombreuses voix dénonçant comme un coup de force (d'aucuns n'hésiteront pas à qualifier Georges Frêche de « dictateur ») la volonté de redénomination de la collectivité territoriale. L'Indépendant, qui relaie cette contestation, reçoit un abondant courrier. Plusieurs pages intitulées « Septimanie : des réactions en cascade » y sont consacrées. Compte tenu de la nature bi-identitaire de la région (quatre départements appartiennent à l'espace culturel occitan : l'Aude, le Gard, L'Hérault et la Lozère; un cinquième, les Pyrénées-Orientales, est constitué pour l'essentiel de la Catalogne française, revendiquée par les nationalistes catalans des deux côtés des Pyrénées comme composante à part entière des « Països Catalans »), il est évident que « le nom “Languedoc-Roussillon” est le fruit d'un compromis » (Bernard Rieu, L'Indépendant, 27 juillet 2005, p. 20), acquis officiellement en juin 1960. Comme le rappelle Rieu, « la spécificité des Pyrénées-Orientales a [été] reconnue afin de rallier les Catalans, dont beaucoup étaient réticents. “Roussillon” a été accolé à “Languedoc” pour désigner la nouvelle région » (ibid). Il est donc indéniable que la mobilisation contre le toponyme Septimanie a été particulièrement importante en Roussillon. Comme le résume le journaliste de L'Indépendant qui a suivi au sein de la rédaction cette polémique publique, « depuis que le mot “Septimanie” s'insinue doucement mais sûrement dans les brochures régionales ou dans les publicités émanant de la région, ce ne sont que protestations véhémentes. Il suffit de consulter les centaines de lettres qui alimentent depuis des mois le courrier des lecteurs de L'Indépendant pour mesurer à quel point ce glissement sémantique est rejeté par les populations du département des Pyrénées-Orientales » (L'Indépendant, 7 août 2005). Un maire du département, Christian Blanc, a été à la pointe de la contestation anti-Septimanie avec une affiche publicitaire humoristique prônant la vaccination contre la « septimaniole », cause de coliques… De même, les autonomistes du parti « Bloc Català » ont utilisé, sur un mode tout aussi humoristique, l'animal emblématique des Catalans, l' âne, sous la figure vengeresse du « burro masqué » (l' âne masqué). Une manifestation importante (plusieurs milliers de personnes) à Perpignan le 8 octobre 2005 a été le point d'orgue de cette fronde catalane, manifestation dans laquelle se sont certes investis les opposants politiques à Georges Frêche et à la majorité de gauche du conseil régional, mais qui a rassemblé également une foule d'opposants « identitaires » à la redénomination. Cette manifestation a pourtant eu lieu alors qu'elle pouvait paraître sans objet, le président de la région ayant déclaré plusieurs jours auparavant au quotidien Midi Libre (du 21 septembre 2005) qu'il renonçait à changer le nom de la région. Cette volonté de Georges Frêche de renommer la région (que nombre de ses détracteurs n'hésitèrent pas à mettre sur le compte d'une mégalomanie notoire) n'avait pas manqué de s'appuyer sur un argumentaire en bonne et due forme, à teneur à la fois historienne et économique, basé sur un savoir-faire communicatif éprouvé. Dans l'une des interventions scripturales qui font partie de la campagne de légitimation du nouveau toponyme, un dépliant de quatorze pages intitulé « La Septimanie. Un nom, une histoire, un projet », dans lequel il est bien évidemment fait référence à l'histoire (« Septimanie : d'où vient ce nom ? »), on apprend que l'appellation promue remonte… au 5 e siècle et que l'objectif est de « Renouer avec notre histoire ». Le texte qui coiffe l'ensemble du discours tenu dans ce dépliant, signé par le « président de la région Languedoc-Roussillon/Septimanie » (titre : « Septimanie : une identité pour réussir »), fortement dialogique et polémique, condamne sans appel le toponyme en usage : « Le nom de Languedoc-Roussillon est totalement erroné sur le plan historique. Le Languedoc, c'est essentiellement la région toulousaine dont la capitale historique est Toulouse. Quant au Roussillon, les Catalans utilisent peu ce nom car il ne concerne que la plaine. » En sus du critère de légitimation géohistorique – discutable : le « Bas-Languedoc » est bien le « Languedoc » et le « Roussillon » est bien la traduction française d'un toponyme tout ce qu'il y a de plus catalan – est avancé un critère de notoriété non moins discutable : « Le Languedoc-Roussillon est une dénomination inexacte et très peu connue tant au plan national qu'international. » L'argument est en effet sans pertinence s'agissant du plan international, car ce qui vaut pour Languedoc-Roussillon vaut sans aucun doute pour Septimanie. Et sur le plan hexagonal, le toponyme Languedoc-Roussillon est tout autant connu que bien d'autres toponymes de collectivités régionales. Quant à l'argument historico-identitaire, il n'est guère plus convaincant : « Pour parler ensemble sur un même ton, il importait de revenir avant la division entre Occitans et Catalans qui s'est faite aux ix e et x e siècles, lors de la dislocation de l'empire carolingien. Le nom de Septimanie, cité pour la première fois au v e siècle, s'est imposé par notre histoire. ». Une conclusion sans surprise est ainsi posée : « à travers ce nom [“ Septimanie” ], toute la région et ses habitants, les Septimaniens et Septimaniennes, sont ainsi représentés dans leur identité et leur diversité. » Manifestement, les efforts de communication et d'argumentation n'ont pas été couronnés de succès, mais ils ont produit un abondant interdiscours auquel ne s'attendait sûrement pas Georges Frêche. Même si le président sortait affaibli d'une longue convalescence, il a mis au service de cette entreprise de contre-dénomination sa légendaire faconde. Il n'est pas douteux qu'il a sous-estimé la prégnance identitaire et le pouvoir de mobilisation d'une dénomination toponymique (surtout du côté catalan de la région) pourtant composite, mais désormais bien établie après plus de quatre décennies d'existence. Le quotidien Midi Libre, dans des conditions de moindre opposition (la fibre identitaire étant en Languedoc sûrement moins sensible qu'en Catalogne), a rendu compte des réactions hostiles de l'opinion publique languedocienne à l'entreprise de redénomination, en sollicitant ses lecteurs et en lançant, sur un forum ouvert à cet effet, une enquête : « Septimanie ou Languedoc-Roussillon ? ». Dans une chronique intitulée « Vos voix au chapitre », en date du 24 septembre 2005 (c'est-à-dire après que le président du conseil régional eut annoncé qu'il ne débaptiserait pas la région), le médiateur du journal, Olivier Clerc, dressait le bilan et tirait les enseignements du « dossier Septimanie ». En invoquant l'abondant échange entre les lecteurs et leur journal qu'avaient suscité « les velléités d'impérialisme toponymique du président du conseil régional » (« une levée de boucliers »), il mettait en avant « une opinion presque unanime, souvent abrupte : non à l'abandon de l'appellation “Languedoc-Roussillon” pour une improbable “Septimanie” ». Pour le rédacteur en chef, cité par le médiateur (qui fait état de diverses évaluations au sein de la rédaction), « le projet de Georges Frêche a visiblement été ressenti comme une privation d'identité, une négation de la “langue d'oc” » [c'est moi qui souligne ]. Et d'avouer : « On ne pensait pas qu'il existait une telle identité languedocienne. » Finalement, et « au-delà du recul du président du conseil régional », l'opération est tout bénéfice pour le quotidien : démonstration d ' empathie et donc, gain de légitimation médiatique (Lochard et Boyer, 1998b). Ainsi, même s' « il y a le sentiment que notre dossier à épisodes a pu aider l'exécutif régional à “botter en touche” dans une affaire bien mal engagée, il y a surtout la conviction d'un resserrement du lien avec nos lecteurs » (Midi Libre, 24 septembre 2005, p. 12). Dans la conférence de presse qu'il avait tenue le 23 septembre, consacrée certes à un autre sujet, mais aussi à sa « reculade » dans l'affaire « Septimanie », Georges Frêche avait déclaré, en commentant « l'enquête “honnête” de Midi Libre qui l' [avait] vivement intéressé » : « La démonstration est faite que les gens ne veulent pas que leur région change de nom. J'abandonne de manière définitive. » Le président de la région Languedoc-Roussillon a depuis jeté son dévolu sur le toponyme Sud pour la promotion des productions agro-alimentaires de la région (« Sud de / South of France » et « Sud et Saveurs de France »). Séduisant même nombre de militants étonnés par un discours ostensiblement occitaniste, il s'est fait par ailleurs le chantre inspiré de la langue et de la culture occitanes lors d'une grande manifestation festive au cœur de Montpellier (« Total Festum », le 21 octobre 2006) avec pour slogan « Le jour de l'OC est arrivé ». Cette stratégie communicative bivalente consiste ainsi à dissocier une identification géo-économique (avec Sud) et une identication culturelle et linguistique (avec Oc). En situation de domination d'une communauté sur une autre, ou d'un é tat sur l'une de ses composantes territoriales (ethnique, régionale ou nationale), on observe que la résistance et bien évidemment la reconquête identitaires se focalisent volontiers sur la dénomination toponymique : les noms de lieux sont alors investis d'une importante dimension symbolique. Ainsi la lutte pour le toponyme légitime est un chapitre proprement spectaculaire des résistances et reconquêtes communautaires : installer le toponyme conforme à la langue-culture jusque là minorée devient un enjeu politique de premier ordre, susceptible de mobiliser de nombreux acteurs. Il sera question dans cette dernière partie d'un épisode récent de ce front toponymique de la bataille de la langue, épisode concernant une communauté autonome d'Espagne, la Galice, où est mise en œuvrela normalisation du galicien (« langue propre », co-officielle dans la communauté avec le castillan, langue de l ' é tat). Le cas de la Galice est particulièrement intéressant parce que l'imaginaire communautaire des deux langues en contact y est complexe et pour l'essentiel, clivé. Si une minorité de Galiciens considèrent que leur communauté est une nation, et qu'elle doit en avoir les prérogatives intégrales, en particulier en matière de langue et de culture, une majorité n'adhère pas à cette vision des choses, même si un sentiment identitaire la conduit à se percevoir comme différente de l'ensemble espagnol. Ce clivage en recoupe un autre, qui concerne la langue galicienne : celle -ci est largement victime d'un stéréotypage négatif qui tend à en faire une langue de la ruralité, de la rusticité, du passé et de l'inculture, en même temps qu'un autre stéréotypage tend à en faire une langue patrimoniale dont le passé mérite d' être célébré, et une caractéristique identitaire importante. Ce stéréotypage ambivalent est la manifestation la plus flagrante de l'existence d'un conflit diglossique conforté par une prégnante idéologie diglossique (Boyer, 2005 et 2007). Il engendre dans à peu près toutes les strates sociales de la communauté des attitudes bien identifiées dans une telle configuration sociolinguistique comme la stigmatisation de la langue dominée, ici le galicien, et l'autodénigrement de la part de ses usagers. Le castillan, langue de la ville, de la distinction sociale, bien que n'ayant pas une position hégémonique du point de vue démolinguistique (Siguán, 1994 et 1999), est la langue dominante de la communauté. Sa représentation valorisante entrave la promotion du galicien, pourtant inscrite dans les perspectives officielles du statut d'autonomie de la Galice (adopté en 1981) et de la loi de normalisation linguistique votée par le Parlement galicien en 1983 (Alén Garabato et Boyer, 1997). La politique linguistique institutionnelle, précisément à cause d'un volontarisme très modéré de la part du parti espagnol de droite qui a gouverné la Galice durant plus d'une décennie (et bien que le président du gouvernement autonome, M. Fraga, ait su tirer parti d'une pratique personnelle courante de la « langue propre »), évidemment sensible à l'état de l'imaginaire collectif des langues dont il vient d' être question, n'a pas été à la hauteur des attentes des militants de la langue galicienne. Ces derniers ont donc dû s'organiser, depuis la société civile, en contre-pouvoir glottopolitique. C'est ainsi que s'est constitué le fer de lance associatif de la normalisation linguistique en Galice : A Mesa pola normalización lingüística (le Collectif pour la normalisation linguistique) dont l'engagement efficace n'a pas peu contribué à quelques avancées indéniables pour la défense et la promotion de la « langue propre » de la communauté. Un épisode exemplaire de cette action revendicative de A Mesa pola normalización mérite d' être présenté. Il convient de préciser auparavant la règle concernant la toponymie galicienne prévue par la Loi de normalisation linguistique de 1983. L'article 10 de cette loi indique en effet que : 1. Les toponymes de Galice auront comme unique forme officielle la forme galicienne. 2. Il revient à la Xunta de Galice de déterminer les noms officiels des municipalités, des territoires, des centres de population, des voies de communication interurbaines et des toponymes de Galice. 3. Ces dénominations sont les seules légales à tous effets et la signalisation devra les respecter. La Xunta de Galice règlera la normalisation de la signalisation publique en respectant dans tous les cas les normes internationales adoptées par l ' é tat. L'épisode en question concerne le toponyme Arousa, dont l'orthographe (castillanisée) a été jusqu' à sa normalisation : Arosa. Mais, au moins jusqu'en novembre 1996, il faut croire que le nouveau toponyme ne s'était pas imposé comme le seul légitime puisque la firme automobile SEAT, désirant baptiser l'un de ses nouveaux modèles (à l'instar des précédents : Toledo, Ibiza …) avec un toponyme d'Espagne avait choisi Arosa, du nom d'une Ría touristique de Galice. Devant la polémique déclenchée par A Mesa pola normalización, la direction de SEAT avait annulé la présentation de ce nouveau modèle sur le site choisi. Ce qui a engendré une autre polémique opposant les autorités locales, les hôteliers et restaurateurs (qui se sentaient lésés du point de vue des gains escomptés) aux fermes défenseurs du toponyme normalisé. L'argument de SEAT, selon lequel « Arosa sonne mieux dans les autres langues », n'a pas convaincu les opposants, pas plus que le fait qu'un nom donné à un précédent modèle de voiture de la firme (Ibiza : Esvissa en catalan) n'ait pas posé de problème. La polémique s'est prolongée durant l'année 1997. Les doléances réitérées de A Mesa pola normalización n'ont pas ébranlé outre mesure la position de SEAT, considérée par certains commentateurs comme une « erreur commerciale ». Contrairement au Movimento Defesa da Lingua (Mouvement Défense de la langue), la Mesa pola normalización n'a pas appelé au boycott de SEAT mais a sollicité la pression des citoyens de Galice face à ce qu'elle a dénoncé comme un « attentat contre notre identité ». Trois mille affiches et quarante mille cartes postales ainsi que des annonces dans la presse ont été utilisées comme vecteurs de la protestation, et il était demandé d'appeler la firme automobile par téléphone pour exiger le changement de nom (voir en annexe la reproduction de l'affiche). Piètre concession : la firme d'origine espagnole décide de permettre aux acheteurs galiciens de choisir entre les deux orthographes du toponyme; tous les concessionnaires de Galice ont eu à cet effet à leur disposition un stock de plaques portant le nom de Arousa. On peut certes considérer qu'il s'agit là d'un demi-succès pour la Mesa pola normalización, qui s'est permis par ailleurs de fustiger l'équipe de communication de SEAT, qualifiée de « médiocre et peu cohérente ». On peut aussi considérer que la polémique a pu servir d'avertissement en direction d'autres entreprises, étrangères comme locales : un secteur considéré comme peu favorable à la normalisation linguistique (Formoso, 2004). Car l'enjeu de l'action de la Mesa pola normalización dépasse bien sûr le cadre des luttes circonscrites à telle ou telle revendication toponymique et s'inscrit dans une visée macrosociolinguistique de normalisation globale de la société galicienne, qui est loin d' être acquise. Les conflits de dénomination toponymique tels que ceux qui viennent d' être observés, qu'ils soient de nature politique et ethnoculturelle comme celui qui a opposé Georges Frêche à l'opinion publique régionale du Languedoc-Roussillon (surtout celle du Roussillon), ou plus spécifiquement de nature glottopolitique comme ceux concernant la normalisation du galicien, sont en définitive des conflits de légitimité qui révèlent les ressorts identitaires d'une communauté donnée. Dans les cas évoqués, le toponyme est bien un enjeu. Un enjeu pour une micro-région revendiquant une personnalité propre (la Catalogne française), sa latitude à afficher sa différence en refusant une dénomination exogène autoritaire. Un enjeu pour les militants d'une langue minoritaire au niveau de l ' é tat (le galicien), jusqu'alors maltraitée par ce même é tat : ils témoignent de leur capacité à s'opposer aux actes (parfois illégaux) hostiles à la normalisation institutionnelle par une vigilance et une détermination sans faille .
On cherche dans cette contribution à cerner, dans sa dimension sociolinguistique, la dénomination toponymique et à illustrer la modalité dans laquelle la fonction identitaire prend ostensiblement le pas sur la fonction de localisation : il est alors question de revendiquer l'inscription du toponyme dans une communauté linguistique et/ou culturelle (nationale, régionale). Dans cette perspective, on envisage deux cas de conflit d'ordre toponymique où il est question d'affirmation identitaire. Le premier concerne l'aventure politico-médiatique du toponyme Septimanie que Georges Frêche, nouveau président du conseil régional, a tenté d'imposer en 2005 à l'opinion publique régionale comme substitut du toponyme en vigueur depuis 1960 - Languedoc-Roussillon -et de l'opposition manifestée contre ce qui est apparu comme un coup de force pour une bonne partie de cette opinion, via la presse locale. On observe un deuxième cas de conflit à propos d'une communauté autonome de l'état espagnol, la Galice, en situation de normalisation sociolinguistique (et donc toponymique) de sa « langue propre »: le galicien.
linguistique_11-0173551_tei_531.xml
termith-590-linguistique
Le concept de situation s'impose comme une évidence dès qu'on parle du processus d'enseignement-apprentissage, exemple par excellence d'interaction socio-cognitive, qui, par conséquent, ne peut s'envisager que situé. Pourtant, il est difficile à cerner, soit que sa nature soit perçue comme non problématique car correspondant aux conditions environnementales matérielles de la classe, c'est-à-dire à des données objectives et définissables a priori, soit, au contraire, qu'elle soit vue comme interdépendante de l'activité qu'elle situe et que toute recherche de définition se heurte à une complexité fuyante, liée au caractère évolutif, intersubjectif et cognitif des processus en jeu. La première position est bien résumée par la définition classique de la situation comme le « cadre social et spatio-temporel dans lequel ont lieu une interaction, ou plus généralement une activité », définition rappelée par Mondada dans le Vocabulaire des Sciences Cognitives (Houdé et al. 1998 : 114). Si de nombreux travaux semblent privilégier cette première position, les questionnements multiples auxquels ce concept donne lieu dans d'autres branches des sciences humaines, conduisent à préférer la seconde. Les questions que soulèvent ces domaines connexes à la didactique des langues, entre autres la psychologie, qu'elle soit sociale ou cognitive, et bien sûr la linguistique, qu'elle s'inscrive dans une perspective énonciative, pragmatique ou interactionnelle, gardent toute leur pertinence pour nous. Il convient prioritairement de se demander s'il est justifié de limiter la portée du concept au cadre externe, circonstanciel, globalement environnemental, défini ci-dessus, ou s'il faut inclure comme relevant de la situation tous les paramètres liés aux tâches et aux sujets eux -mêmes et qui conditionnent l'activité. Cela pose le problème de la distinction faite par certains entre situation et contexte, le contexte pouvant être défini comme « un ensemble délimité de dimensions pertinentes pour l'activité en cours, alors que la situation serait l'ensemble des dimensions potentielles disponibles au moment de cette activité. » (Mondada 1998 : 112). Étant donné le caractère socio-cognitif du processus d'apprentissage, il semble a priori difficile de maintenir, dans le cas qui nous concerne, une distinction claire entre ce qui relèverait d'une « situation » externe large d'une part et d'un « contexte » inhérent étroit d'autre part. Il suffit pour cela de penser au rôle que joue le domaine de référence lié au contenu d'apprentissage, domaine préexistant et donc « potentiellement disponible » mais aussi composante inhérente de l'activité qui se fonde sur lui mais en même temps le reconstruit. Il semble donc qu'on ne puisse échapper à une conception de la situation d'apprentissage, comme une entité complexe, présentant des strates multiples dont il conviendrait de déterminer les paramètres définitoires. Cette première question en appelle deux autres. Tout d'abord, la situation doit-elle être considérée comme une entité statique et prédéterminée ou comme une construction dynamique et donc évolutive, émergeant de l'activité elle -même ? En conséquence, et pour reprendre les termes de Mondada (1998 : 112-113) à propos de la nature et du rôle du contexte dans l'acte de communication, s'agit-il d'une « dimension périphérique » à l'activité d'apprentissage ou d'un élément constitutif de cette activité, qui jouerait vis-à-vis d'elle et du sens qu'elle conduit à construire « un rôle fondamental et structurant » ? L'ensemble de ces questions prouve la réelle complexité du problème posé par la délimitation de ce qu'il convient de considérer comme relevant de la situation d'apprentissage. Je tenterai tout d'abord, en m'appuyant sur divers travaux portant sur les notions de situation et de contexte dans le cadre de l'interaction, d'apporter quelques éléments de réponse en explorant les caractéristiques qui me semblent les plus essentielles, à savoir la question des paramètres définitoires de la situation, celle des relations existant entre ces paramètres et enfin celle du rôle fonctionnel de la situation par rapport à l'activité, rôle qui se matérialise dans la tâche. Puis à partir d'un exemple concret, celui du déroulement d'un module de méthodologie du travail universitaire en 1e année de DEUG d'anglais, je présenterai les limites posées à une approche strictement externe du concept de situation d'apprentissage. À première vue, parler de la situation d'une activité conduit à analyser la nature du cadre dans lequel cette activité s'insère mais aussi la manière dont elle s'insère dans ce cadre. C'est bien ce que suggère la définition du terme « situation » que donne le Petit Larousse (édition 2000), à savoir « manière dont quelque chose est placé par rapport à d'autres choses » ou encore « état de quelque chose par rapport à une conjoncture donnée dans un domaine déterminé. » Bien que très générales – il s'agit là des emplois communs du terme — ces définitions mettent clairement au centre l'idée de repérage, de localisation par rapport à un cadre de référence qui donne son sens à l'activité. Et qui dit repérage, dit repères, paramètres de repérage. Définir la situation d'apprentissage va donc passer dans un premier temps par une classification des paramètres qui permettent de localiser l'activité, en d'autres termes des différentes strates qui constituent la situation. Les plus évidents sont bien sûr les paramètres institutionnels, sociaux et plus étroitement spatio-temporels, comme indiqués dans la première définition initiale que nous avons donnée. Dans le type de situation qui nous concerne ils sont assez simples à définir car ils sont déterminés par la nature du système éducatif, construction sociale très hiérarchisée et normée qui crée des contraintes objectives en termes de lieu, d'horaire, de contenu mais aussi de démarche et d'objectif. Ces paramètres -là, définis en particulier dans les textes officiels, sont préétablis, stables, censés connus de tous et ils échappent très largement au contrôle des participants à l'activité. Mais ils n'épuisent pas la nature de la situation d'apprentissage. S'il s'inscrit dans un cadre institutionnel et social fort, l'apprentissage n'en relève pas moins fondamentalement, comme nous l'avons dit plus haut, d'une interaction socio-cognitive, ce qui impose de prendre en compte un deuxième niveau, celui des caractéristiques intersubjectives de la situation, et d'élargir la définition à ce qui, pour certains, relève du contexte. On peut ainsi rejoindre l'analyse de Deleau, cité par Gilly, Roux et Trognon (1999 : 15) et qui, à propos des interactions dialogiques, distingue trois niveaux fonctionnels du contexte, « le contexte situationnel (qui) renvoie aux conditions institutionnelles, temporelles et matérielles de la situation » et correspond donc à la première strate définie ci-dessus, puis « le contexte interactionnel, logé dans le premier, (qui) concerne les interactions proprement dites, c'est-à-dire les influences réciproques que les comportements des partenaires ont les uns sur les autres », et enfin « le contexte interdiscursif (qui) est constitutif du contexte interactionnel mais concerne de façon spécifique le discours, c'est-à-dire les aspects langagiers des échanges par référence au contexte de la langue ». Il est clair que ces deux derniers niveaux sont pertinents pour nous, même si la spécificité de l'activité d'apprentissage en modifie la nature. Ainsi dans le cas de l'enseignement collectif, le contexte interactionnel est lui -même multidimensionnel, puisqu'il faut l'appréhender aussi bien au niveau du groupe que constitue la classe, qu'au niveau des échanges en groupes réduits, constitués de manière spontanée ou provoqués par la nature de la tâche à accomplir, mais aussi au niveau de la médiation pédagogique duale entre l'enseignant-expert et l'apprenant. Chaque niveau introduit des paramètres déterminants pour définir la nature de la situation et mériterait une analyse en soi. Cela dépasserait cependant le cadre de cette intervention. Nous n'en indiquerons que les lignes générales. Le premier paramètre à prendre en compte à ce niveau -là concerne les sujets, leurs caractéristiques personnelles, affectives en particulier, mais aussi ce qui est généralement désigné sous le terme d'historicité, et qu'on peut définir comme l'ensemble des expériences passées du sujet qui ont contribué à construire la manière dont il aborde son environnement, gère ses perceptions, ses relations à autrui et en construit des représentations mentales. On voit que ces paramètres, s'ils préexistent à l'activité, ne peuvent plus être considérés comme périphériques, dans la mesure où ils sont déterminants pour le déroulement de l'activité. Le deuxième paramètre incontournable relève de ce qu'il convient d'appeler le contrat de communication, c'est-à-dire « l'ensemble d'attentes, règles et présupposés implicites constitutifs du métacontrat propre au contexte situationnel » qui « fixe les rapports de places, prédétermine les échanges possibles et leur impose des spécificités » (Gilly, Roux et Trognon 1999 : 16) C'est, lit-on encore, « le contrat de communication inhérent au contexte situationnel qui prédétermine les buts, enjeux, contenus et formes des interactions » (1999 : 20). Ce contrat est en fait ce qui, d'une part, organise le groupe en tant qu'entité et lieu de l'interaction et, d'autre part, structure la situation en tant que support de l'activité. Comme le précisent Aebischer et Oberlé (1998 : 1), les situations sont « caractérisées par leurs finalités, les règles qui les organisent, les conduites qui y sont encouragées ou interdites, les valeurs qui y sont défendues, les espaces et les temps réglés dans lesquels elles s'actualisent ». Dans le cas de l'enseignement-apprentissage, ce contrat est bien sûr de nature pédagogique et conduit à mettre au centre la dynamique de médiation, dont il a été largement question lors du Colloque annuel 2001 du GERAS. Médiation sociale, bien sûr, qui est au coeur de l'interaction, mais aussi médiation langagière qui donne tout son sens, dans le contexte scolaire, au troisième niveau défini ci-dessus, le contexte interdiscursif. Le langage devient alors le moyen de l'apprentissage mais aussi le lieu où il se développe, ce qui justifie pleinement son inclusion dans une définition de la situation d'apprentissage. Ce lien entre contextes interactif et discursif, articulé par la présence d'un contrat fondé sur des intérêts partagés, du moins en théorie, se matérialise dans le concept de « communauté discursive », auquel Bernié consacre un article de la Revue française de pédagogie (2002). Il y rappelle la définition proposée par Bronckart (1985 : 33) pour le paramètre « lieu social » de son modèle du contexte communicatif comme une « zone de coopération dans laquelle se déroule une activité humaine spécifique à laquelle s'articule l'activité langagière ». On retrouve dans cette citation toutes les strates situationnelles précédemment répertoriées, sociale, interactionnelle et discursive. La communauté comme lieu et ciment de l'activité. Pour résumer, on peut dire que les paramètres pertinents pour définir la situation d'apprentissage se rattachent à quatre entités : l'environnement, dans un sens spatio-temporel étroit et concret, et dans un sens plus large, social et institutionnel; l'univers de référence qui recouvre en partie les paramètres socio-institutionnels par le biais en particulier du contrat de communication, mais qui surtout inclut les références à l'objet d'apprentissage et à ses règles internes; les actants ou sujets avec leurs caractéristiques multiples, affectives, historiques, cognitives; le langage dont la logique propre crée un ensemble de contraintes mais qui constitue en même temps un lieu où interaction et apprentissage peuvent s'actualiser. La question qui se pose maintenant est de savoir comment s'articulent ces différents niveaux, ces paramètres multiples. La nature diverse des paramètres en jeu permettrait de les classer du plus objectif (comme les données institutionnelles) au plus subjectif (comme la construction discursive), ce qui reviendrait aussi à aller du plus statique, car préconstruit et échappant au contrôle des sujets et aux modifications provoquées par l'activité elle -même, au plus dynamique ou du moins fluctuant car construit par l'activité. On pourrait ainsi envisager (cf. schéma 1) un emboîtement du plus large au plus inhérent, selon le modèle des poupées russes, du social-institutionnel au discursif, du collectif à l'individuel, et procéder, pour reprendre les termes de Vion (1999 : 55) à « une analyse hiérarchique […] selon laquelle les unités d'un rang donné déterminent les unités de rang immédiatement inférieur ». La simple observation cependant suffit à convaincre que l'on n'a pas affaire à une logique unidirectionnelle, pour reprendre les termes de Vion (1999 : 56) et que si, par exemple, les modalités de l'interaction déterminent la nature des échanges discursifs, ces échanges peuvent à leur tour modifier les paramètres de l'interaction. Si on postule le même type de réciprocité à tous les niveaux, on est conduit à suivre l'analyse proposée par Vion dans son étude de l'interaction et à opter pour « une logique des relations » où les différents paramètres sont « en interrelation », ce qui conduit à « une imbrication de relations qui ne peut être représentée que spatialement », écrit Vion, et justifie pleinement l'introduction du « concept d'espace interactif. » C'est dans cette logique qu'on peut représenter la situation d'apprentissage comme un espace délimité par un noeud de relations (cf. schéma 2). Cette représentation des paramètres définitoires de l'espace d'apprentissage conduit à redéfinir la situation non plus comme un lieu concret et prédéfini, périphérique à l'activité qu'elle situe, mais comme un espace abstrait, construit par l'interrelation entre des paramètres multiples, stables pour certains, fluctuants pour d'autres. Certaines de ces relations sont pour une large part prédéfinies. On peut, par exemple, penser à l'influence du cadre institutionnel sur la manière dont l'objet sera pris en compte dans les programmes officiels et donc sur les paramètres de l'objet qui seront retenus, ou encore aux contraintes créées par le cadre spatio-temporel et surtout par l'historicité des sujets sur les caractéristiques du groupe. Cependant la majorité des paramètres sont par nature fluctuants, soit de par leur caractère subjectif, soit, comme les paramètres interactionnels et discursifs, de par le lien étroit qu'ils entretiennent avec la mise en oeuvre de l'activité. Cela conduit à considérer la nature de l'espace d'apprentissage comme étant globalement évolutive, sa définition dépendant des interrelations dominantes à tel ou tel moment du processus, c'est-à-dire de la modification de certains paramètres ou même de l'introduction de paramètres nouveaux par le déroulement de l'activité. Je reprends là une opposition, établie par Michel de Certeau et reprise par Jean Caune (1999 : 221) dans son ouvrage sur L'esthétique de la médiation, entre le lieu, comme « configuration de positions qui organise un ordre et implique une stabilité » et qui suppose donc une référence concrète, et l'espace qu'il présente comme « un lieu pratiqué », c'est-à-dire « animé par les mouvements humains qui s'y déploient et trouve son sens et son identité à partir des effets produits par les opérations qui s'y déroulent ». Tout cela suggère qu'on ne peut pas définir la situation sans mettre au centre l'activité qu'elle situe mais qui en même temps la construit.Ainsi c'est dans les tâches conçues et proposées par l'enseignant que se matérialise l'interrelation des différents paramètres que nous venons de considérer et donc l'espace d'apprentissage. En effet c'est à partir d'une prise en compte de ces différents paramètres que l'enseignant élabore le scénario de la tâche qui va servir de cadre à l'activité des apprenants et, dans l'idéal, créer les conditions de l'apprentissage. À partir d'une prise en compte articulée 1) des contraintes institutionnelles qui définissent les objectifs, les méthodes et les contenus, 2) des contraintes liées à la logique de l'objet, 3) de la connaissance qu'il a des apprenants et de leurs parcours antérieurs, 4) des caractéristiques de l'interaction discursive et enfin 5) de manière le plus souvent inconsciente, de ses propres habitudes et compétences en tant que médiateur. La situation d'apprentissage devient donc une composante de base de la tâche qui elle -même crée un espace où l'activité du sujet peut se développer. On en arrive ainsi à une conception totalement évolutive de la situation d'apprentissage où, pour créer les conditions d'une dynamique d'apprentissage, il convient de transformer les paramètres objectifs de nature périphérique en les intégrant comme fondement structurant de la tâche et donc à terme de l'activité. En réponse aux questions initiales posées dans l'introduction, on peut donc affirmer que même si un certain nombre de paramètres situationnels sont prédéterminés et stables et peuvent sembler ne jouer qu'un rôle périphérique par rapport à l'activité d'apprentissage, on ne peut atteindre la réalité complexe de la situation d'apprentissage que si l'on s'éloigne de cette conception positiviste et qu'on l'appréhende comme une construction dynamique, constitutive de l'activité et évoluant avec elle. Pour autant cette définition reste globalement externe au sujet apprenant et intègre l'apprentissage comme un objectif à atteindre plus que comme une réalité. Cette définition résiste -t-elle à l'analyse d'une situation concrète, c'est ce que nous allons voir. Le module de méthodologie du travail universitaire a été introduit dans le cursus du premier semestre du DEUG d'anglais à l'Université de Pau (UPPA) à la rentrée 1999, dans le cadre de l'application de la réforme Bayrou. Il s'inscrit dans l'objectif affiché de réduction de l'échec en DEUG et se doit de familiariser les étudiants avec les spécificités des démarches universitaires. Sa mise en place devait tenir compte de paramètres institutionnels contraignants, tenant à l'horaire, à l'obligation d'une validation par examen et au coefficient affecté. Ainsi le volume horaire a été fixé à 26 heures sur 13 semaines, sans suivi au deuxième semestre, réparties en 1,5 heures de TD par semaine et par groupe. Ces TD sont complétés par une formation à la recherche documentaire assurée en CM et TP en demi-groupe par le personnel de la BU, mais articulée aux autres activités du module, en particulier par l'élaboration d'un dossier en groupe. Comme tout enseignement ce programme donne lieu à un examen terminal au mois de janvier. Ces contraintes institutionnelles se sont révélées avoir une importance primordiale sur l'efficacité de la situation mise en place. Nous y reviendrons. C'est donc à partir de ces paramètres institutionnels et spatio-temporels imposés que nous avons établi une programmation hebdomadaire à partir du profil hétérogène du public et de ses besoins, estimés en fonction de la spécificité préétablie des travaux universitaires et d'une évaluation des erreurs récurrentes constatées dans notre pratique auprès des générations antérieures d'étudiants. En d'autres termes, nous avons pris en compte les paramètres objectifs liés à l'objet et les paramètres subjectifs liés en particulier à l'historicité des apprenants. Obligés de faire un choix, nous avons ciblé la structuration du discours, tout particulièrement argumentatif, en compréhension et en production, ainsi que la perception de l'implicite des documents, donnant ainsi un sens à la recherche documentaire. Ces aspects nous semblaient essentiels pour la maîtrise d'activités typiquement universitaires comme la dissertation ou le commentaire de textes de littérature et de civilisation, mais aussi la prise de notes en langue étrangère ou la lecture et l'analyse d'oeuvres entières. Dans la logique méthodologique (cf. Chini 2001) qui a pour but de développer chez les apprenants des procédures d'action automatisées et transférables, nous nous sommes donné un certain nombre de principes pour la définition des tâches. Articuler les activités méthodologiques sur le travail fait par les étudiants dans les autres composantes de leur cursus, afin de ne pas séparer la mise en place d'une démarche cognitive du contenu qu'elle était censée aider à structurer. Partir systématiquement, pour construire les bases de la démarche, de l'analyse d'un travail préalable des étudiants, créant ainsi les conditions d'une confrontation des points de vue et d'une gestion raisonnée des erreurs. Chercher à créer les conditions d'un réinvestissement des acquis méthodologiques comme outils structurants dans l'ensemble des composantes du cursus, au-delà du premier semestre. C'est sur cette base que les paramètres interactionnels devaient s'ancrer et c'est bien entendu dans la définition des tâches proposées que ces principes se sont matérialisés. Je ne prendrai qu'un exemple de cette démarche, celui du travail sur la prise de notes en anglais, activité particulièrement difficile pour des étudiants de 1e année. Il s'est fait à partir d'un échantillon représentatif des notes réellement prises par les étudiants lors du cours magistral de littérature de la semaine précédente, que l'enseignant avait relevées sur la base du volontariat, et photocopiées. L'objectif, à partir d'un commentaire critique en TD sur les choix de forme et de contenu différents illustrés par ces documents, était de faire prendre conscience aux étudiants de la diversité des méthodes possibles ainsi que de leurs limites ou avantages respectifs, et de les amener à interroger leur propre démarche, dans une perspective de compréhension et de mémorisation plus efficace. Ce travail était prolongé par une comparaison du contenu des notes avec 1) le texte initial de la préparation du cours de l'enseignant, 2) le script du cours tel que l'enseignant l'avait réellement présenté à l'oral. L'objectif était de faire prendre conscience aux étudiants du décalage entre les deux et donc des techniques rhétoriques (répétition, reformulation, explicitation, mise en valeur des articulations logiques, etc.) utilisées par l'enseignant pour faciliter leur compréhension, toutes choses qui, une fois repérées pouvaient, à notre avis, faciliter leur propre travail de structuration et de reconstruction du sens. La même démarche de confrontation et d'analyse critique et interactive de travaux initiaux a été mise en place entre autres pour l'essai, le résumé, le traitement d'une question de cours… L'objectif général était d'initier des comportements (approfondissement systématique, recherche documentaire, travail en groupe…) et de les amener à percevoir la permanence de certains indices formels structurants au travers d'activités diverses, indices qui, une fois maîtrisés, peuvent servir de base à une méthode de repérage systématique, rassurante et efficace pour la construction du sens. De même l'accent a été mis sur la hiérarchie des informations, la notion de mots-clefs et de niveau de sens, aspects qui prennent une importance majeure dans des études à dominante littéraire. La situation ainsi mise en place, fondée sur une interrelation des paramètres pertinents, du moins de notre point de vue, nous semblait à même d'éveiller le questionnement des étudiants et de les faire progresser vers l'objectif visé, c'est-à-dire une amélioration de leurs méthodes à long terme. Pourtant les résultats de cette expérience en termes d'apprentissage réel en fin de parcours n'ont pas été, loin de là, à la hauteur des attentes. Nos sources d'information pour l'élaboration de ce bilan ont été de plusieurs natures : tout d'abord les résultats d'un sondage écrit anonyme, effectué en fin de semestre auprès des étudiants sur ce que leur avait apporté ce travail, ensuite les résultats des examens semestriels et enfin l'évaluation subjective de l'effet du travail méthodologique effectué sur le comportement des étudiants en aval (deuxième semestre de première année et deuxième année de DEUG). Pour ce qui est de l'enquête, seuls 10 % des étudiants environ ont jugé bon d'y répondre et de manière globalement négative. L'examen de janvier n'a été réussi que par un peu plus d'un quart des étudiants inscrits. Quant aux effets sur le comportement en aval il s'est révélé insignifiant, les mêmes erreurs de méthode pouvant être constatées chez ces étudiants. Pourtant, il faut placer en contrepoint de ces résultats négatifs, le jugement très positif porté sur le processus mis en place par les spécialistes de méthodologie documentaire avec lesquels nous travaillons et qui ont déclaré : « Vous avez fait un travail très pertinent. Il faudrait que tous les départements suivent votre exemple ». D'où vient ce décalage entre les qualités apparentes du protocole fondé sur des paramètres situationnels clairement réfléchis et articulés et les résultats plus que décevants en termes d'efficacité ? En d'autres termes, pourquoi une situation structurée, élaborée selon des principes didactiques apparemment cohérents, ne crée -t-elle pas les conditions d'un apprentissage positif ? Mis à part les erreurs plus ou moins inévitables de mise en œuvre qui nous sont imputables, les raisons de ce décalage me semblent multiples, certaines tenant au système d'autres aux acteurs, mais l'analyse conduit surtout à revenir sur une définition strictement externe de la situation. 3.2.2.1 Causes structurelles Tout d'abord, bien sûr, il convient de relativiser la portée de l'échec, 1/3 des étudiants inscrits en début d'année abandonnant le parcours avant Noël ou ne se présentant jamais. Cette réalité nous échappe. De plus, les contraintes temporelles – il s'agit d'une formation très limitée dans le volume et la durée – sont largement contradictoires avec un apprentissage qui n'a de sens qu' à long terme, le travail sur les démarches demandant, plus encore qu'un travail sur les contenus, une remise en question d'habitudes installées qui suppose des confrontations multiples et un temps de maturation. Et puis surtout l'obligation qui nous est faite de valider ce travail par un examen spécifique va à l'encontre de l'objectif fondamental qui est de faire prendre conscience aux étudiants qu'il s'agit d'un travail transversal, qui ne prend tout son sens qu'en fonction de l'aide qu'il peut apporter au traitement des autres composantes du cursus et ce bien au-delà du premier semestre. Un contrôle continu, lourd à mettre en place, n'aurait pas réglé ce problème. Comment, par exemple, évaluer l'efficacité de la formation documentaire ? Comment prendre en compte, de manière individuelle et chiffrée, le travail de recherche en groupe sur les références implicites d'un document de type civilisationnel que les étudiants devaient rendre vers la fin du semestre, quand l'essentiel est dans la démarche suivie plus que dans le résultat final ? C'est sur ce point de la validation du module que s'articule, me semble -t-il, la cause fondamentale de l'échec qui est liée à une question de représentations. 3.2.2.1 Une question de représentations : la notion de pertinence L'échec tient en grande partie à la différence entre l'intention pédagogique qui sous-tend la mise en place de la situation et l'interprétation qu'en font les étudiants, c'est-à-dire la représentation, le plus souvent inconsciente, qu'ils s'en donnent. Cela conduit à introduire la notion de pertinence, chère aux spécialistes de l'interlocution. Comme le rappelle Douay (2000 : 4950), en se référant à Gardiner, si « la première source d'information […] pour la construction de la chose-signifiée […] est fournie à l'interlocuteur par le contexte extralinguistique, ce terreau […] que Gardiner appelle l'information d'arrière-plan », il ne faut pas oublier que « parmi toutes les données faisant potentiellement partie de l'information d'arrière-plan, seules quel-ques-unes sont sélectionnées par l'interlocuteur » selon « le principe de l'attention sélective lié à […] celui de la pertinence. Grâce à cette faculté d'attention sélective, tout ce qui est superflu et non indispensable à l'opérativité du discours disparaît de la conscience des interlocuteurs ou y occupe une place subalterne ». On retrouve la même idée chez Gilly, Roux et Trognon qui écrivent : les sujets traitent de la situation à laquelle ils sont confrontés à partir de la définition qu'ils s'en donnent, c'est-à-dire des significations qu'ils lui attribuent. Ils créent leur propre représentation de la situation en fonction de leur position sociale et de leur expérience antérieure. (1999 : 22) et ils ajoutent : « les partenaires peuvent donc ne pas avoir la même définition initiale de la situation ». Il est clair que cette analyse élaborée pour l'interlocution vaut de manière plus large pour toute interaction et tout particulièrement pour la relation d'enseignement-apprentissage. La situation mise en place par l'action pédagogique fonctionne pour l'apprenant comme un contexte d'arrière-plan existant en dehors de lui et il va l'appréhender de manière sélective et l'interpréter en fonction d'une hiérarchie de pertinences qui n'est que très rarement celle de l'enseignant. C'est bien ce qu'écrit Bernié (2002) : « Tout enfant devient écolier en construisant un ensemble de représentations relatives à l'univers scolaire et ses conduites sont interprétables en bonne part comme réponse à des contextes sociaux : c'est en fonction de la signification qu'il leur attribue qu'il s'organise cognitivement à l'intérieur de la tâche et mobilise telle ou telle procédure ». Dans le cas qui nous concerne, celui du module de méthodologie, les différences de représentations sont en fait multiples. Fondamentalement, le caractère compartimenté des enseignements, divisés en unités autonomes validées semestriellement par un examen spécifique, prévaut pour les étudiants sur le discours de transversalité, d'approfondissement et de pertinence à long terme que l'enseignant peut tenir. Et cela est d'autant plus vrai que les étudiants de première année, qui n'ont pas encore été confrontés aux difficultés et à la nouveauté des travaux universitaires, considèrent le plus souvent qu'ils sont bons en anglais et qu'ils n'ont nul besoin de cet apport méthodologique qu'ils voient comme redondant par rapport à ce qu'ils ont déjà fait au lycée. Dans le sondage cité plus haut, l'un d'eux a ainsi déclaré : « Si j'ai eu mon bac, c'est que j'ai déjà des méthodes. » En d'autres termes le paramètre pertinent pour les étudiants, et on peut le comprendre vu le poids de la sélection dans notre système, est la réussite ponctuelle à un examen, pas l'amélioration de leur démarche à long terme. C'est bien ce que montre la question qu'ils posent de manière récurrente : « Est -ce qu'on peut avoir ça à l'examen ? » Si la situation, nous l'avons dit, est définie par la finalité qu'elle vise, ce qui est déterminant, comme le rappelle Vygotski (1997 : 195) à propos de la résolution des situations-problèmes, c'est « la représentation du but ». En conséquence, cet enseignement méthodologique à visée comportementale devient pour les étudiants un enseignement de contenu comme un autre, avec des savoirs préétablis à mémoriser, ce qui est un contresens. En outre, leur représentation de la matière « anglais » n'est pas encore celle de spécialistes, mais celle, beaucoup moins exigeante, d'anciens lycéens pour qui il suffit d'avoir une compétence communicative moyenne pour réussir. S'ajoute à cela une conception du travail et de l'effort très différente chez les enseignants et la majorité des étudiants d'aujourd'hui. Construction à long terme qui gagne à être structurée chez les uns, effort ponctuel et ciblé pour les autres. En résumé, ce qui est déterminant pour l'efficacité du protocole mis en place c'est « le sens que les sujets attribuent à la situation, à partir d'indicateurs in situ et de leur expérience sociale antérieure » (Gilly, Roux et Trognon 1999 : 16). C'est donc ce qu'ils reconnaissent comme « contexte », concept qu'on ne peut plus se contenter de définir comme « l'ensemble de dimensions pertinentes pour l'activité » où la pertinence semble être délimitée dans l'absolu mais, pour citer Bernié (2002), comme « l'ensemble des indices appartenant à l'univers social et reconnus comme pertinents par les enfants pour la construction d'une représentation des tâches ». Tout cela nous ramène à la notion d'espace d'apprentissage que nous avons définie dans la première partie et qu'il s'agit maintenant de préciser. Il va de soi que l'activité d'apprentissage est fondamentalement une activité cognitive interne au sujet et qu'elle ne peut se dérouler sans implication affective et construction de sens par l'apprenant. De même la situation dite d'apprentissage ne pourra exister comme telle que si l'apprenant intériorise les paramètres qui la structurent et s'en donne une représentation positive et dynamique. Elle doit donc se définir comme l'imbrication de deux niveaux, l'un extérieur, construit par l'enseignant au travers de la tâche et commun à tout le groupe, et l'autre intérieur, c'est-à-dire individuel dans la mesure où il est construit par l'apprenant par l'interrelation des représentations qu'il se donne des paramètres reconnus par lui comme pertinents. L'espace extérieur n'est donc que potentiel et ne pourra devenir fonctionnel que si, pour chaque sujet, s'y superpose un espace cognitif intérieur. En fait, seul cet espace intérieur mérite réellement l'appellation de contexte d'apprentissage, le contexte extérieur correspondant plus justement à l'espace d'enseignement. C'est en effet à partir de cet espace intérieur et des représentations qui le construisent que l'apprenant va appréhender l'objet et construire du sens. On est là très proche de la définition que Culioli (1985 : 78) donne de l'énonciation « au sens de représentation et construction de domaines sur lesquels on opère ». La situation n'a pas de sens en dehors de l'activité des sujets. En fait tout comme dans le cas de l'énonciation, on a affaire à une construction référentielle par laquelle le sujet apprenant assigne une valeur aux paramètres de la situation externe en fonction de repères internes. On est donc conduit à redéfinir la situation d'apprentissage de la même manière que la situation d'énonciation « comme un ensemble de paramètres qui forment un paquet de relations » (Culioli 1976 : 93) entre références externes au sujet et références internes, c'est-à-dire entre les paramètres du cadre construit par l'enseignant à partir des données préexistantes et la valeur référentielle personnelle que l'apprenant attribue à ces paramètres. Cela peut se représenter comme dans le schéma 3. Il est évident que les deux niveaux ne sont pas homogènes, ce qui est fondamental, car c'est l'importance du décalage ou plutôt le degré de compatibilité entre les deux qui déterminera les possibilités de réussite de l'apprentissage. C'est en fait dans cet espace commun créé par la rencontre de ces deux niveaux que se situe vraiment la situation d'apprentissage et que peut intervenir la médiation enseignante. Mais si les caractéristiques du niveau externe sont pour une part importante maîtrisées de façon consciente et raisonnée par l'enseignant, les caractéristiques de l'espace interne sont, elles, largement inconscientes de la part de l'apprenant et inaccessibles à l'enseignant. Ce n'est qu'indirectement par une observation et une analyse de l'activité de l'apprenant qu'il pourra induire la nature de cet espace interne et tenter par des actions de médiation de réduire le décalage entre les deux niveaux. On voit donc que le concept de situation d'apprentissage recouvre une réalité très complexe, fondée sur un ensemble de relations, intriquées et non pas emboîtées, entre des paramètres externes multiples, pour certains concrets, stables et objectifs, pour d'autres abstraits ou encore subjectifs et fluctuants, mais aussi entre l'espace externe créé par l'interrelation de ces paramètres dans le cadre de la tâche et le paquet de relations nouées entre des paramètres internes, propres à chaque sujet apprenant, et émergeant des représentations qu'ils se donnent de l'espace externe. En résumé, on ne peut appréhender la complexité de ce concept que si l'on prend en compte sa composante cognitive. La situation d'apprentissage est donc bien une construction complexe et évolutive, émergeant de l'activité qu'elle contribue à construire, où un espace interne s'articule sur un lieu externe et où la médiation pédagogique a un rôle fondamental à jouer pour réduire les écarts entre les deux niveaux, afin de rendre cette situation opérationnelle et créer ainsi les conditions d'un apprentissage efficace. Mais comme nous l'avons vu avec l'exemple du module de méthodologie, la marge d'action peut être limitée par les paramètres externes, essentiellement institutionnels et spatio-temporels, les seuls qui échappent au contrôle des sujets, ainsi que par les représentations initiales des apprenants dont le poids peut obscurcir leur appréhension des autres paramètres et constituer des obstacles à la mise en place d'une situation dynamique réellement fonctionnelle .
A première vue, la situation d'apprentissage s'impose comme un lieu d'interaction sociale où les participants s'inscrivent dons une relation de médiation. De nature complexe, elle est constituée de strates interdépendantes, institutionnelle aussi bien que groupale ou discursive, ou encore liée au contexte de la tâche. Cependant l'analyse de ces strates ne saurait suffire à définir la nature profonde de la situation d'apprentissage, dans la mesure où elles ne déterminent qu'un lieu extérieur au sujet, dont les paramètres sont définis a priori. Or il ne peut y avoir situation d'apprentissage à proprement parler que s'il y a construction d'un espace cognitif interne au sujet, sous l'effet de la mise en relation dynamique et de l'intériorisation des paramètres prédéfinis. En s'appuyant sur sa pratique à l'université, l'auteur montrera les difficultés que pose la mise en oeuvre de cette dynamique et de quelle manière le caractère contraignant de certains paramètres, institutionnels en particulier, peut bloquer le processus d'intériorisation. Ce bilan conduit à se poser la question des conditions d'une médiation efficace à l'université, colonne vertébrale d'une situation d'apprentissage opérationnelle.
linguistique_524-03-11945_tei_659.xml
termith-591-linguistique
Les candidats et les partis politiques ont besoin d'élaborer un discours leur permettant, d'une part, de transmettre aux citoyens l'essence de leur programme et, d'autre part, de se différencier des autres organisations politiques. Dans ce cadre, plusieurs concepts comme le marketing, l'image de marque, l'identité et le positionnement deviennent, dans une perspective linguistique et sémiotique, des outils pertinents pour l'analyse des campagnes électorales et permettent une approche communicationnelle efficace. La marque des organisations devient un « moteur sémiotique » (Semprini, 1995, p. 47) qui aide à établir avec les consommateurs une « connexion émotionnelle » (Gobé, 2001, p. 306). Ainsi, les actions de communication de marque se basent sur un discours stratégique global qui entraîne de nouvelles manières d'agir et d'interagir, ainsi que de nouvelles formes d' être (Mitsikopoulou, 2008, p. 356-357). Pour analyser cette réalité, notre note de recherche se centrera sur le cas de la campagne électorale conduite en 2004 par l'actuel président du gouvernement espagnol José Luis Rodríguez Zapatero, laquelle s'est fondée sur l'utilisation du sigle ZP (Zapatero Presidente). Nous n'analyserons donc ni la campagne électorale dans son ensemble, ni la stratégie du Parti Socialiste Ouvrier Espagnol (PSOE) et de son candidat, José Luis Rodríguez Zapatero, mais le cas précis de création, d'application et de développement du sigle politique ZP. Dans le vocabulaire du marketing, le branding est le processus de construction d'une marque à travers la gestion stratégique de l'ensemble de ses actifs. Dans le cadre d'une campagne électorale, on peut considérer le parti politique et son candidat non seulement comme des marques, mais encore comme des produits (Corner, Pels, 2003; Arvidson, 2006). En Espagne, la campagne ZP Zapatero Presidente de 2004 a constitué un événement dans la publicité politique du pays puisqu'elle a aidé à remplacer la vieille image du PSOE par une image moins formelle, à la fois juvénile et proche de la population. Le célèbre effet ZP et cette campagne électorale novatrice ont réussi à faire d'un candidat presque inconnu un politique d'envergure aux yeux de la population. Ce candidat, en outre, a fini par profiter d'une « marque » ayant un taux de souvenir très important. Afin d'analyser le cas de ZP en Espagne, on doit replacer dans leur contexte politique les élections générales de 2004. Le leader du Parti Populaire (PP), José María Aznar, quittait la présidence après huit années de gouvernement. Bien qu'il n'existe pas, en Espagne, de limitation au nombre des mandats présidentiels, il avait tenu sa promesse de ne pas se présenter une troisième fois. Le candidat du PP était Mariano Rajoy, le vice-président du gouvernement. Le PP jouissait d'un bon bilan de gestion (associé à la plus importante croissance économique dans l'histoire de la démocratie du pays) et disposait d'un candidat très connu de l'opinion publique. Ses principaux problèmes étaient, d'une part, l'appui à l'intervention militaire en Irak, décision très critiquée par les Espagnols, et d'autre part, la mauvaise gestion de crise du cas Prestige, le pétrolier coulé près des côtes de la Galice en 2002. Malgré tout, les sondages prédisaient la victoire du PP, la seule incertitude portant sur l'ampleur de celle -ci. Ce parti avait donc positionné sa campagne sur le thème de la continuité et dans une stratégie de profil bas. Le PSOE, lui, avait gouverné de 1982 à 1996. C'est un parti historique profitant d'un fort appui électoral. Pourtant, sa « marque » s'était fortement affaiblie en raison de la corruption et du terrorisme d' État des dernières années du gouvernement de Felipe González. Aux élections générales de l'année 2000, il avait obtenu les plus mauvais résultats de son histoire. En 2004, la principale nouveauté était son candidat, José Luis Rodríguez Zapatero, un homme politique jeune et télégénique. Son tempérament, tel qu'il était perçu, pouvait représenter un nouveau style politique. La priorité de la campagne du PSOE était l'augmentation du taux de reconnaissance de Zapatero. Face à l'usure de la marque du parti et pour rendre Zapatero plus proche de la population, on décida de personnaliser la campagne en mettant l'accent sur le candidat. L'approche personnalisante, basée sur des stratégies expérimentées aux États-Unis, représente un pas de plus vers la professionalisation des campagnes électorales. Les candidats deviennent des produits, des vedettes du spectacle. En 1952, dans la campagne d'Eisenhower contre Stevenson, considérée comme pionnière dans la perspective qui nous occupe, les républicains ont conçu – grâce à sa simplicité, sa musicalité et sa fraîcheur – l'un des meilleurs slogans de l'histoire du marketing politique, I like Ike. Cette campagne a constitué le commencement du branding appliqué à un candidat. En Espagne, ce genre de branding a vu le jour en 2004 avec la création du sigle ZP. On a élaboré une identité institutionnelle différente de celle du PSOE, afin de développer une campagne basée sur l'image de jeunesse, de proximité et de modernité que projetait José Luis Rodríguez Zapatero. On confrontait avantageusement celle -ci à l'image de José María Aznar, très érodée après un dernier mandat marqué par le coût politique de la guerre en Irak, et à celle de Mariano Rajoy, un politique gris, très connu mais dont le profil professionnel ne représentait que la continuité. La marque du parti politique, qui a pour objectif de positionner le parti et ses valeurs dans l'esprit des électeurs, ne s'élabore pas au cours d'une campagne électorale : elle se construit progressivement et sur le long terme, tout comme les marques commerciales. Les campagnes s'appuient sur la marque du parti, mais se centrent sur les messages et sur le candidat. C'est ainsi que l'adaptation des techniques commerciales à la communication politique a donné lieu au style américain, c'est-à-dire à l'utilisation de la musique, des spots publicitaires, de la théâtralisation et de la médiatisation des débats entre les candidats, etc. (Berrocal, 2003; Maarek, 2009). La professionnalisation des campagnes a renforcé le rôle des leaders ou l'usage des sound bites (Holtz-Bacha et al., 2007). La personnalisation de la marque politique accélère les facteurs qui déterminent le succès des campagnes. Aux États-Unis, sur 506 spots diffusés entre 1960 et 1984, 15 % seulement transmettaient des informations sur les propositions politiques, tandis que 57 % étaient centrés sur les qualités personnelles et professionnelles des candidats comme, par exemple, son image (McNair, 2003, p. 90). La personnalisation est un élément propre du système présidentialiste américain, alors qu'en Espagne, l'action la plus caractéristique est la mise en avant du programme du parti politique. Pourtant, la tendance à la personnalisation des spots s'implante progressivement dans ce pays aussi, et plusieurs études confirment la préférence des électeurs pour les aspects liés à la personnalité des candidats au-delà de l'idéologie (López-Escobar et al., 1996). Dans ce cadre, la décision du PSOE de personnaliser sa campagne constituait, d'une part, une continuité logique et, d'autre part, une nouveauté un peu hasardeuse. La campagne a été gérée par l'agence Think Small, créée ex professo pour ce projet. Cette agence, dirigée par Juan Campmany, a trouvé un slogan concret, simple, compréhensible et impliquant le récepteur : Nous méritons une Espagne meilleure (Merecemos una España mejor). On acceptait du bout des lèvres la bonne situation du pays, mais on rêvait de quelque chose de mieux après les erreurs du gouvernement concernant l'Irak et la catastrophe du Prestige. Il fallait ensuite mettre en avant le candidat, dont le prénom et le nom de famille étaient très longs et très courants, ce qui exerçait une contrainte sur la créativité. L'agence décida alors de parier sur son second patronyme : Zapatero. L'équipe de publicitaires découvrit par ailleurs un élément que seul le PSOE pouvait développer d'une manière stratégique. La campagne du PP était très marquée par l'existence parallèle de deux points d'intérêt : le président Aznar et le candidat Mariano Rajoy. Le PP présentait Rajoy comme le candidat à la présidence du gouvernement, laquelle était encore occupée par le président Aznar. De son côté, Zapatero représentait à lui seul son parti politique, d'où l'utilisation de Zapatero Presidente. Il s'agit là d'un recours très habituel dans les campagnes américaines (Clinton for President), déjà utilisé en Espagne par Miquel Roca (Convergència Democràtica de Catalunya) dans les élections de 1979 (Roca for President). Le message n'est pas passé inaperçu, il transmettait une sensation de sécurité et de confiance dans le changement, il était perçu comme étant un peu provocateur (selon les sondages, le PSOE était derrière le PP) et il exigeait une mise en scène frappante. On avait conçu le slogan central de la campagne, mais il fallait encore créer un concept graphique et audiovisuel. L'équipe de publicitaires trouva l'idée du sigle ZP lors d'une session de brainstorming consacrée à la stratégie de présentation du slogan. Tandis qu'elle réfléchissait au concept à utiliser, le directeur artistique, Marc Conca, se mit à gribouiller les esquisses d'un panneau publicitaire exhibant le profil de José Luis Rodríguez Zapatero et le slogan central en minuscules. Il respectait par là le choix que l'agence avait fait de présenter les textes de façon claire, en les centrant sur la recherche d'un face-à-face avec le récepteur. Ce choix conduisait à éviter, si possible, l'utilisation d'une capitale au premier caractère, ce qui aurait dénoté une image trop formelle. Mais, le directeur artistique respectait la majuscule à l'initiale dans le slogan : À un certain moment de cette longue session, après 22 heures et à l'instant où tout le monde souhaitait, au moins, faire une pause pour le dîner, j'ai réalisé l'importance de ce détail -là. À ce moment, j'ai remarqué qu'il y avait deux caractères, le Z et le P, qui ressortaient de l'ensemble. À l'instant, quelqu'un a ajouté, en se parlant à soi -même mais en le faisant à haute voix : Zetapé. Et un troisième membre de l'équipe a fait une référence au mythique JFK du président Kennedy. Il s'agissait d'un échange d'impressions et d'idées qui a duré moins d'une minute, mais qui a servi à déclencher l'enthousiasme, même si on n'était pas encore conscients de cette trouvaille. (Campmany, 2005, p. 34) J'ai demandé à Marc Conca de dessiner un modèle portant les sigles ZP au-dessus de Zapatero Presidente. À partir de ce moment, les esquisses de Marc se sont multipliées, toutes accordant une place importante à ZP. On a inséré ce sigle dans des formats verticaux et horizontaux, dans des affiches avec et sans photographies. On a essayé un modèle portant uniquement ZP, « comme s'il s'agissait d'un badge ou d'un autocollant… », a souligné l'un des participants. Dans une ambiance où l'adrénaline nous avait fait oublier la fatigue et la faim, on a conclu, presque sans le besoin de le dire d'une manière précise, qu'on avait déniché le meilleur format pour notre slogan de campagne. (Ibid.) C'est ainsi que fut créé un logo original et sonore, un emblème, une marque personnelle cohérente avec le biais présidentialiste que le PSOE souhaitait imprimer à la campagne. Le sigle ZP, Zapatero Presidente, synthétisait la fierté avec laquelle ce parti présentait son candidat. Ses créateurs avaient l'ambition de motiver l'électorat en lui instillant la conviction que la victoire était possible, malgré les sondages. Le sigle ZP entrait en contact, notamment, avec les jeunes parce qu'il était cohérent avec la tendance communicative basée sur la création de sigles dynamiques et proches de leur langage. Cette tendance avait été promue par des émissions de télévision, véritables phénomènes médiatiques juvéniles et leaders d'audience comme OT (Operación Triunfo) et GH (Gran Hermano). Le sigle était en outre cohérent avec le langage qu'utilisent les jeunes dans les messages envoyés par téléphone portable, lesquels sont très marqués par l'usage de sigles, de pictogrammes et de mots sans voyelles. Le 12 février, les socialistes lancèrent la campagne, avec ses différents contenus et supports, auprès de l'opinion publique. Elle visait à confronter la modernité et le dynamisme de Zapatero à « la vieillesse et l'immobilisme » représentés par Rajoy (El País, 13 février 2004). Dans cette idée, on conçut des initiales de très grandes dimensions, et dans la plupart des meetings politiques tenus à cette occasion, de larges panneaux frappés du sigle ZP attiraient l'attention des caméras de télévision et des photographes de presse (voir image ci-dessous). C'était la meilleure manière de visualiser l'étoffe présidentielle du candidat : le PSOE parvint ainsi à produire une campagne « directe, mobilisatrice et positive » (El Mundo, 13 février 2004). Les créateurs souhaitaient que ZP, Zapatero Presidente exprime la continuité, l'unité et la lisibilité de deux concepts, l'un réel (Zapatero) et l'autre potentiel (Presidente). C'était un sigle frappant, qui représentait les formes consonantes d'un nom ainsi qu'un objectif. Les attributs de ce sigle se centraient sur le tempérament du candidat et sa capacité au dialogue. La marque répondait à une stratégie d'identité, non pas unitaire ou monolithique, mais diversifiée. Le PSOE a donc créé une stratégie distribuée, très similaire à celle d'une entreprise qui dispose de plusieurs produits, et dessiné une marque spécifique pour le sien (Zapatero). On a respecté les normes de la marque mère (PSOE), mais on a aussi présenté une identité nouvelle pour un produit nouveau qui, quelque part, se différenciait du produit précédent (c'est-à-dire des candidats socialistes antérieurs). Et l'axe graphique constituait la manière la plus simple de communiquer ce changement. Le sigle ZP fut mis en avant dans les applications de publicité extérieure (banderoles, affiches pour les cabines téléphoniques, etc.) et les matériaux destinés à la diffusion massive (les autocollants, par exemple). Afin de souligner son importance, chacune des initiales du sigle et du mot qui la développait (Zapatero ou Presidente) était d'une couleur différente : le rouge et le noir, respectivement, sur fond blanc; ou le blanc et le noir sur fond rouge. L'équipe de publicitaires utilisa ces deux fonds en alternance. Tantôt on respectait le fond blanc habituel, expression de la transparence et de la netteté du message et de ses émetteurs. Tantôt on utilisait le fond rouge institutionnel du PSOE, avec le dynamisme et le courage symbolisés par cette couleur, qu'utilisent d'autres produits ayant un taux de vente important (Coca-Cola, Marlboro, etc.). On joua sur l'opposition avec les caractères en blanc du sigle pour compenser les connotations d'agressivité du rouge. Le sigle fut en outre adapté à différents formats, comme le montre l'usage d'une ou de deux lignes pour les mots Zapatero Presidente, afin de changer la forme rectangulaire du logo par une forme quadrangulaire. Dans la publicité, on a choisi pour le rouge du Z et du mot Zapatero le pantone pur (#FF0000), quoique le PSOE utilise couramment le pantone rouge #EF1920 (ou rouge socialiste), notamment pour son logo. Le noir, en revanche, est proche du gris foncé (pantone #4A4A4A). La typographie appartient a la famille des arial (la sans-serif plus standard), modifiée dans les mots Zapatero Presidente : pour Zapatero et la lettre Z du sigle, on s'est servi d'une arial bold, d'après le logo du PSOE, qui utilise le bold dans les sigles du parti. Mais on a négativisé l'effet (rouge sur blanc au lieu de blanc sur rouge au PSOE) et on s'est passé du rétrécissement (narrow) des lettres du logo de ce parti. On a par ailleurs créé un site internet consacré à la campagne électorale (, aujourd'hui obsolète). Afin de faciliter sa consultation par les usagers, on a lié la recherche des caractères ZP dans Google à l'ouverture dudit site. Nous proposons en annexe à cette note deux photographies diffusées par le département de communication du PSOE. Dès le lancement de la campagne, le sigle ZP a attiré l'attention de la presse sur le phénomène du marketing électoral. Aux yeux des médias, la campagne paraissait d'une grande nouveauté. Les Espagnols, eux, ne prirent pas tout de suite le sigle au sérieux et en firent l'élément principal de plaisanteries ou de calembours : shampooing ZP, Zozobra-Política (« Naufrage-Politique »), etc. Mais c'était là une preuve claire de l'impact du message. Le PP, lui aussi, produisit d'abord des blagues sur ce sigle, ce qui contribua à sa diffusion; trois jours après, il comprit la situation et mit fin à ce genre d'actions, mais il était trop tard. La blague était un indice de la reconnaissance et de la notoriété du sigle. Le slogan, bref et mémorisable, avait atteint ses objectifs : visibilité, notoriété, opportunité de présenter un candidat plus populaire et plus proche des électeurs. La proximité était la clé de la stratégie : selon Christian Le Bart (2005, p. 18), elle « permet de puiser dans un univers de connotations positives qui présente l'avantage de ne pas risquer de déplaire ». Les jeux de mots créés par les citoyens proches de la droite politique espagnole continuèrent à fleurir pendant la campagne électorale : Zapatero-Perdedor (« Zapatero-Perdant »), Zapatero-Paleto (« Zapatero-Ignorant »), Zapatero-Patético (« Zapatero-Pénible), etc. Ces railleries aidèrent à la diffusion du concept et même à la neutralisation de ce genre de blagues. Invité d'un talk-show très réputé en Espagne, El programa de Fuentes, où il adopta le ton de Bill Clinton afin d'atteindre les électeurs les moins politisés, José Luis Rodríguez Zapatero fit des allusions au concept ZP à maintes reprises. Il alla jusqu' à révéler qu'étant écolier, il avait dû supporter les blagues que ses camarades faisaient sur son nom de famille. Il profita de cette occasion pour contre-attaquer les railleries du PP. Quant aux adversaires qui identifiaient la marque ZP avec celle d'un shampooing ou d'un insecticide, il leur répondit que ZP était un produit destiné à éliminer les pellicules semées par le PP. L'image de leadership de Zapatero au sein du PSOE, diffusée et popularisée par le sigle ZP pendant la campagne électorale, et la comparaison avec le débat interne existant au sein du PP entre Aznar et le candidat Rajoy ont pu déterminer trois conséquences : centrer l'intérêt de la campagne sur le candidat socialiste, ce qui augmenta sa visibilité; renforcer son image de leader face au leadership usé des candidats socialistes depuis la défaite électorale de 1996; et, finalement, capitaliser les voix anti-Aznar. Le sigle ZP continua d' être utilisé après la campagne électorale, mais le pari risqué qui avait si bien marché lors des élections de 2004 devint une idée frivole qui ne fut plus utilisée lors des élections générales de 2008. Cette année -là, le PSOE a fait évoluer le sigle et créé le slogan Avec le Z de Zapatero (Con Z de Zapatero). Zapatero jouissait alors d'une meilleure image que son adversaire, à nouveau Mariano Rajoy, et c'est pourquoi les responsables de campagne du PSOE mirent en place une stratégie axée sur le choix entre les deux leaders. La population espagnole continua d'associer le sigle ZP avec le patronyme Zapatero et lui seul, plutôt qu'avec Presidente. Les marques de produit doivent être consistantes et persévérantes lors du processus de construction de leur personnalité. Cela n'a pas été le cas de la marque ZP : quelques mois après les élections de 2004, les adversaires du leader socialiste étaient les seuls à utiliser le sigle pour nommer le président du gouvernement. Aujourd'hui, plus de deux ans après le début du deuxième mandat de José Luis Rodríguez Zapatero, le sigle ZP n'a plus de valeur ajoutée et, d'ailleurs, nuit à la marque du PSOE, laquelle, par contre, jouit d'une meilleure réputation. Zapatero a écrit une page dans l'histoire politique espagnole puisqu'il a été le seul président à obtenir les meilleurs et les pires évaluations. Depuis février 2009, il est le président ayant le pire taux de confiance de toute l'histoire démocratique espagnole. Cette réalité peut entraîner un vrai problème pour le PSOE, à cause de la stratégie de personnalisation qu'il a choisie. L'utilisation de sigles en politique peut apporter une valeur décisive à un parti ainsi qu' à son candidat, parce qu'ils mettent en avant la valeur sémiotique de la marque. Cela non seulement détermine le discours global du parti politique, mais encore apporte une composante de personnalisation et de créativité qui permet de renforcer un positionnement stratégique. Dans le cas de ZP, trois dernières idées permettent de conclure. En premier lieu, l'utilisation de ce sigle constitue un pas vers la professionalisation du marketing politique espagnol, en même temps qu'une nouveauté intéressante puisque c'est la première fois qu'un parti construit une telle marque pour son candidat. En deuxième lieu, il est difficile d'évaluer les effets politiques de cette campagne à cause du rôle qu'y ont joué les attentats terroristes du 11 mars 2004; mais, d'un point de vue communicatif, elle a été un succès puisqu'elle a atteint ses objectifs principaux : visibilité de José Luis Rodríguez Zapatero et transmission d'une image conforme à certaines attentes. En troisième lieu, la campagne ZP ne constitue pas pleinement une création de marque, et en reste plutôt au stade du slogan, puisqu'elle ne respecte pas la condition de succès la plus importante dans le monde des marques : la suite communicative .
Le marketing a des applications directes sur les campagnes électorales, comme le montre l'usage de sigles à haute valeur de marque. En Espagne, le cas le plus représentatif est fourni par la campagne de José Luis Rodriguez Zapatero aux élections générales de 2004, laquelle s'est basée sur l'usage du sigle ZP, ce qui a constitué un pari risqué et une innovation communicative.
linguistique_12-0116628_tei_870.xml
termith-592-linguistique
Parmi les grands projets de recherche que suscite l'intérêt passionné du Québec pour sa langue, les uns sont d'ordre terminologique, d'autres envisagent l'aspect diachronique, et certains étudient la langue, telle qu'elle est hic et nunc, sans s'interdire de montrer ce qu'elle devrait être. La base que nous nous proposons d'explorer est de cette dernière espèce. Ses deux promoteurs, Pierre Martel et Hélène Cajolet-Laganière, visent à établir, à partir de l'observation, le français standard du Québec, c'est-à-dire « la variété de français socialement valorisée que la majorité des Québécois francophones tendent à utiliser dans les situations de communication formelle «. Le but ultime est la réalisation d'un dictionnaire du français au Québec, qui serait au Québec, mutatis mutandis, ce que le TLF est à la France. La méthode est en effet semblable et empruntée aux sciences de l'observation. On se propose, non pas de partir de dictionnaires existants, surtout s'ils viennent de France, mais de constituer un corpus représentatif et d'y observer les usages, qu'ils correspondent ou non à ceux de l'hexagone. Ainsi avait fait Paul Imbs il y a quarante ans quand il fondait les bases du TLF, premier dictionnaire établi sur un corpus informatisé. Mais le projet québécois diffère dans la composition du corpus. Le TLF avait une assise principalement littéraire, même si quelques textes techniques (20 % du total) avaient complété la documentation, pour couvrir certaines zones de la terminologie scientifique, peu familières aux écrivains. Le rapport est inversé dans le corpus québécois où la part dévolue aux écrivains ne dépasse pas 20 %. La cible n'est pas le français soutenu, non plus que le parler populaire, mais une norme standard dont la littérature, mais aussi les journaux, l'administration, les essais techniques portent témoignage. Le dosage des sources documentaires, retenues pour la BDTS, est le suivant : oral 10 %, ouvrages didactiques 20 %, textes littéraires 20 %, articles de journaux 20 %, textes spécialisés 30 %. À l'heure actuelle les textes dépouillés constituent une masse de 37 millions de mots. D'ores et déjà, une partie de ce corpus est exploitable et disponible sur Internet. On trouvera en annexe la composition de ce corpus provisoire, qui est gros de 2 millions d'occurrences et qui répartit en huit parts égales l'oral, la littérature, les journaux, les textes sociopolitiques, administratifs, environnementaux, technologiques et scientifiques. Ce corpus a été indexé et on peut l'interroger sur Internet, en lui proposant n'importe quelle entrée, comme le mot yeule dans l'exemple ci-dessous (figure 1). Cependant dans le prototype mis en place la base se borne à égrener des contextes, un par écran, sans donner lieu à quelque synthèse, non plus qu' à une exploitation lexicométrique. Avec l'accord des auteurs, les mêmes données ont été soumises à notre logiciel Hyperbase pour constituer une base hypertextuelle et statistique. On trouvera ci-dessous (figure 2) le menu principal. Comme on se propose de permettre le téléchargement de cette base – si les réalisateurs de la BDTS le souhaitent et si le copyright ne s'y oppose pas –, notre ambition est moins d'exploiter et de commenter les résultats auxquels elles conduisent que d'expliquer leurs fonctions et leur mode d'emploi, afin que les chercheurs du Québec en fassent un usage mieux qualifié. On distinguera deux séries de fonctions : les unes, documentaires, sont groupées horizontalement au haut de l'écran, les autres, vouées à la statistique, occupent la marge droite. On n'insistera guère sur les premières, car leur utilité s'accorde avec leur facilité. Il serait oiseux de s'appesantir sur les programmes de concordance ou de recherche de contextes. Un exemple, relatif au mot de Cambronne, suffit à illustrer cette fonctionnalité. Les Québécois ne sont pas bégueules plus que d'autres, mais soucieux des genres et des convenances, ils n'emploient ce mot que dans les accès d'humeur, ce qui n'est guère autorisé qu'au théâtre, dans la conversation ou dans la presse (en réalité, presque tous les exemples sont relevés dans le même journal). Mais même dans cette fonction documentaire très traditionnelle la statistique pointe son nez. Quand un mot (ou un ensemble de mots) produit une moisson suffisante de contextes (par exemple plus de 5 000 pour le mot Québec), la fonction thème observe tous les mots présents dans l'entourage immédiat du mot choisi pour pôle et compare la fréquence de ces corrélats dans ce sous-ensemble à celle qui est la leur dans le corpus entier. Dans la liste qui en résulte on découvre une constellation thématique qui circonscrit ce pays (ou la ville qui porte le même nom), avec une coloration éminemment politique : tous les corrélats sont liés au problème constitutionnel de la fédération et le Canada est de loin le terme le plus souvent associé au Québec, avec 572 mentions sur 1 854 (la France en regard fait piètre figure, avec 23 citations sur 190 et un écart réduit qui dépasse à peine le seuil). Même la lecture est assistée par la statistique. La page courante où on lit le texte met en relief (grâce à la couleur) les mots qui sont caractéristiques de ce texte, comme les termes habitat, pluies acides, mercure, polluants dans l'exemple de la figure 5, emprunté à un document sur l'environnement. Dans d'autres pages du même texte la couleur désigne à l'attention les mots qui marquent ce souci de protéger notre planète : hydrocarbures, pollution, concentration, assainissement, toxique, contamination, phosphore, eau, lac, rivière, etc. Les mots ainsi soulignés le sont parce qu'ils sont reconnus comme appartenant au vocabulaire spécifique du texte considéré, qu'on peut atteindre directement en faisant appel à la fonction spécificités. Le calcul (fondé sur la loi hypergéométrique) peut s'exercer sur les graphies et sur les lemmes, mais aussi sur les codes grammaticaux et les structures syntaxiques. On remarquera en effet que le corpus a été lemmatisé, le texte de la figure 5 apparaissant dans deux séquences alignées, à gauche les formes, à droite les lemmes. En réalité, deux autres champs, pareillement alignés, contiennent les codes grammaticaux et les structures syntaxiques. On peut ainsi choisir une forme et repérer immédiatement tous les passages où elle apparait, mais le choix peut se faire aussi sur les trois autres objets. Ainsi en cliquant sur le code Vmif3sv (V = verbe, m = principal, i = indicatif, f = futur, 3 = troisième personne, s = singulier), qui correspond au premier verbe (réduira) du précédent extrait, on peut faire défiler les 4 054 contextes où un futur est pareillement employé à la troisième personne du singulier. Mais leur nombre est tel qu'on préfèrera les compter, observer leur distribution dans les textes du corpus (ils se concentrent dans la prose journalistique ou sociopolitique) ou faire la comparaison avec d'autres catégories. Dans la phase de préparation et d'indexation, le logiciel s'emploie à de tels décomptes, en relevant dans le corpus 2 875 412 occurrences (mots ou ponctuations), 67 690 formes différentes et 43 326 lemmes. Naturellement ces relevés sont faits aussi pour chaque texte. En prenant appui sur les lemmes (le calcul peut se faire aussi sur les graphies, les codes et les structures), il est possible de calculer la distance qui sépare un texte de tous les autres respectivement. Pour chaque couple de textes, on prend en compte tous les mots rencontrés et leur répartition, partagée ou exclusive, dans les deux textes. En réalité le calcul peut se faire en tenant compte ou non de la fréquence. Si l'on travaille sur V, on utilisera la formule de Jaccard, améliorée par nos soins, et l'on se bornera à enregistrer la présence ou l'absence des mots (graphies ou lemmes). En prenant en considération la fréquence et donc en travaillant sur N, on pourra utiliser la formule de Labbé. La figure 6 dessine la carte typologique qui résume l'ensemble de ces mesures de proximité ou d'éloignement. Ainsi pourrait-on représenter la carte géographique d'un pays quand on connait le tableau des distances de ville à ville. Observons toutefois que seule compte la longueur des segments qu'il faut suivre pour aller d'un point à un autre; les angles, les directions et l'orientation sont arbitraires et indifférents. Cela ne gêne en rien la lisibilité et la stabilité du résultat, les huit graphes obtenus étant superposables, quelle que soit la méthode utilisée et quel que soit l'objet analysé. Aux deux bouts opposés du graphe, on retrouve toujours les deux mêmes paires : enquêtes orales et littérature d'une part, textes scientifiques et techniques d'autre part. À ce dernier couple se rattachent étroitement les textes sur l'environnement. Deux types de texte sont toujours associés, dans une position médiane : les textes sociopolitiques et les journaux. Restent les textes administratifs : ils accompagnent, assez mollement, ce couple, tout en se rapprochant des textes techniques. Tout se passe comme si la typologie des discours était polarisée par l'opposition monde humain vs monde physique. De l'individu (oral et littérature), on passe à la société (presse et sociologie), puis à la gestion de l' État et de la planète (l'homme y tient encore un peu de place), et enfin aux objets physiques de la technique et de la science. En s'appuyant sur le même tableau de distances, l'analyse factorielle (de correspondance) propose une typologie tout aussi claire (figure 7). Comme les autres graphes se recoupent, seul est reproduit celui qui concerne les graphies selon le calcul Jaccard. Cette fois l'espace est orienté et les points cardinaux ont une signification : le premier facteur, qui concentre la plus grande part de la variance (82 %) et qui oppose la droite et la gauche, met en relief la tension humain/non humain. Les points s'ordonnent en formant un croissant, comme il arrive souvent dans les données sérielles, et en suivant l'ordre proposé par l'analyse arborée. D'aucuns penseront que le choix des sujets gouverne partiellement les alliances et les oppositions. Il est peu probable en effet que les conversations et les contes traitent des mêmes questions que les traités scientifiques. Tout ne se réduit pas pourtant au thème, puisque l'analyse des codes et des structures syntaxiques – d'où le sujet est radicalement absent – reproduit la même typologie. Il reste cependant une incertitude : les graphes qui précèdent montrent les positions, mais sans les expliquer. Or il est un moyen, au moins dans l'analyse des codes grammaticaux, de percer le secret. Constituons un tableau à deux dimensions, dont chaque case indiquera l'effectif d'une partie du discours dans un texte particulier. On élimine ainsi l'influence du thème en évacuant le sens des mots et en ne retenant du texte que l'aspect grammatical. Cette fois l'analyse factorielle peut représenter en même temps les lignes (les parties du discours) et les colonnes (les textes), ce qui permet de mettre en rapport les unes et les autres et de transformer l'observation en explication. Considérons en effet les éléments qui figurent en rouge sur le graphe et qui représentent les lignes du tableau. Comment ne pas voir qu'ils s'ordonnent pareillement en deux camps, dont la rivalité a été maintes fois constatée dans d'autres corpus. Le verbe campe solidement à droite, en compagnie de ses acolytes habituels : pronoms, adverbes et subordonnants. Le substantif règne à gauche, qu'il s'agisse du nom propre ou du nom commun. Les déterminants l'accompagnent, et aussi les adjectifs, les numéraux et les prépositions. Or dans cet univers grammatical bipolaire, les types de discours s'ordonnent de la même façon que dans les analyses précédentes : l'oral et le littéraire à droite, dans la zone d'influence du verbe, le technique et le scientifique à gauche, parmi les catégories nominales. On retrouve ici comme ailleurs les lignes de force qui structurent le discours et qui sans doute ne sont pas propres au français, qu'il soit québécois ou hexagonal. Nous les avons observées dans le grand corpus de Frantext, qui recouvre cinq siècles de notre histoire, et aussi dans un corpus plus récent que nous avons constitué, sous le nom de Francil, avec des données extraites des pays francophones – et qui contenait certains textes du présent corpus. Nous renvoyons là-dessus à notre étude parue dans la Nouvelle histoire de la langue française. Nous observions que la dichotomie traditionnelle qui a longtemps opposé l'oral et l'écrit a perdu de sa vigueur, et que s'y substitue une opposition grandissante entre le littéraire et l'utilitaire. Le français utilitaire, celui de l'information et de l'exposé scientifique, utilise systématiquement le substantif et ne recourt plus guère au verbe, simple copule de transfert ou d'égalité, analogue au signe = dans les développements mathématiques. Par opposition à ce troisième larron, venu troubler la partie, l'oral et le littéraire, qui tous les deux exploitent les ressources expressives du verbe, ne se trouvent plus face à face, mais côte à côte. C'est exactement leur position dans le graphique 8. D'autres faits linguistiques se lisent dans la même figure, qui influencent surtout le second facteur et dont la cause est aisée à découvrir. Passons sur les interjections, qui ne sauraient trouver refuge ailleurs qu'au voisinage de l'oral et de la littérature. Un scientifique qui se respecte ne saurait lâcher un « tabernacle « au cours de son exposé. Passons sur les ponctuations : qu'elles soient des pauses provisoires, comme la virgule, ou des haltes dans le discours, comme les points, elles produisent une segmentation beaucoup plus serrée dans le discours littéraire et plus encore à l'oral. La phrase de l'exposé technique est plus longue, alors même que les verbes y sont plus rares. Reste à expliquer l'antinomie marquée sur l'axe vertical entre les noms propres et les noms communs. Le discours scientifique ne connait guère que ces derniers. Les rares noms propres qu'il accepte sont ceux des savants qui ont donné leur nom à une loi, un théorème, une mesure ou des marques qui revendiquent un brevet ou un produit ou ceux des collègues dont on approuve ou dont on conteste les dires. Dans les sciences sociales ou politiques au contraire, le discours est localisé et personnalisé, il est inscrit dans un cadre historique dont les références sont des lieux, des dates (les dates sont des sortes de noms propres dans le temps) et des personnages publics. On vient de constater que les tendances aperçues dans la base Frantext trouvaient un écho dans la présente base. N'en concluons pas trop vite que les deux corpus se recouvrent. Nous avons vu que leur composition diffère. Dans le temps Frantext déborde la BDTS puisque cinq siècles y sont entassés, alors que le corpus BDTS est une coupe synchronique de faible épaisseur. Dans l'espace des champs disciplinaires, c'est l'inverse : Frantext parait étroitement littéraire auprès de la BDTS, qui englobe une gamme étendue de discours diversifiés. Si on rapproche les deux corpus l'un de l'autre grâce à un calcul de spécificités (c'est le plus gros, donc Frantext, qui sert de norme au plus petit), l'irrédentisme du Québec apparait de façon irréductible. Non que les coutumes locales soient mises en évidence : il n'y a guère que le premier mot de la liste (Canada) qui soit la marque d'un territoire et quelques indices (pis, comté, dollars), au reste peu significatifs. Vu de Frantext, le corpus québécois semble un univers de comptables et d'ingénieurs, où les chiffres sont la préoccupation majeure (cent, taux, neuf, zéro, mille, vingt, quatre, soixante) et où l'activité, utilitaire et matérielle, évolue entre la recherche scientifique (systèmes, données, particules, résultats), la production industrielle (acides, substances, traitement, processus, utilisation, développement) et la gestion publique (ministère, municipalité, constitution). La liste est, bien sûr, beaucoup plus longue que le court extrait que nous présentons, mais les substantifs continuent à y exercer une écrasante majorité et leur tonalité ne varie pas. On risque donc de ne pas obtenir exactement ce que l'on recherchait, à savoir l'image contrastée des discours tenus en France et au Québec, mais le résultat trop prévisible de choix différents dans la constitution des corpus. On a souvent reproché à Frantext de ne pas être la référence extérieure, universelle et neutre dont on a besoin. C'est trop demander : un corpus, si vaste soit-il, même diversifié, même étalonné, ne sera jamais la référence absolue, comme le niveau de la mer. Cela est vrai pour Frantext, et, pour les mêmes raisons, de la BDTS. En revanche, les comparaisons internes se justifient aisément, puisqu'un corpus est expressément conçu pour mettre en valeur les différences qui opposent les textes que l'on réunit dans le même ensemble. Si le corpus est hétérogène, l'intérêt est faible et les spécificités auront un aspect trivial. S'il est homogène, le calcul relèvera toujours des écarts et des nuances que la conscience linguistique peut n'avoir pas sentis au premier abord. Afin de rester dans une relative homogénéité, nous ne présentons dans le tableau 10 que quatre sous-ensembles « humains », en rejetant à l'extérieur les textes qui s'occupent d'autre chose : de science, de technique et d'environnement. Ce qui frappe d'abord c'est le parallélisme des deux premières colonnes, vouées aux enquêtes et à la littérature. Certes les expressions trop populaires qu'on relève dans certaines interviews (pis, ben, pron, faque) ne sont pas de mise chez les écrivains. Mais le discours fait appel aux mêmes embrayeurs, particulièrement aux pronoms des deux premières personnes, aux démonstratifs (ça ou ce), aux verbes simples (être, faire, dire, penser), à la conjonction que, aux ponctuations fortes (surtout le point d'interrogation). On pourrait songer à attribuer au théâtre ces points de convergence, si le théâtre était dominant dans le sous-ensemble littéraire. Or on n'y trouve qu'une pièce, de faible étendue. Une meilleure explication serait à rechercher dans le style des romans ou contes qui ont du succès au Québec et qui font la part belle au dialogue. Ceux qui ont été choisis dans le corpus exploitent en effet cette veine populaire. Mais on aime à croire aussi que les mêmes ressources du langage sont communes à l'expression orale et à l'expression littéraire, comme on vient de le voir. Nous laisserons au lecteur le soin de voir ce qui peut rapprocher ou opposer les deux autres colonnes, dévolues aux textes journalistiques et administratifs. Les textes sociopolitiques, si l'espace ne nous était pas mesuré, auraient trouvé place entre les deux. Ces trois sous-ensembles appartiennent à la langue générale, plus diversifiée et presque désordonnée dans la presse, plus spécialisée et concentrée dans l'administration. On laissera pareillement au lecteur le soin d'interroger la base et d'y exploiter beaucoup de fonctions qu'on ne peut détailler ici. L'accès aux codes grammaticaux et aux structures syntaxiques permet des investigations jusque -là impraticables. Un exemple relativement simple de ces structures est montré dans la figure 11 : il s'agit des séquences adjectif + substantif et substantif + adjectif, autrement dit, de l'anté - ou postposition de l'adjectif. Certains adjectifs admettent les deux constructions, parfois en changeant de sens (un grand homme vs un homme grand), mais la plupart ont une préférence pour l'une ou pour l'autre. Le graphique indique que l'antéposition est le fait de ceux qui surveillent leur plume, écrivains ou journalistes, alors que la postposition est en faveur lorsqu'on veut seulement transmettre une information. Toutes les combinaisons qu'elles soient à deux, trois ou n éléments sont recensées et indexées par le logiciel, ce qui donne accès à des recherches documentaires ou statistiques fort complexes. La phraséologie, le rythme du discours, voire les sonorités, tout est sujet à mesure, et parfois à découverte, y compris même la thématique. Il ne s'agit pas seulement de circonscrire une constellation de corrélats autour d'un mot, comme indiqué dans la figure 4. Ni de caractériser un texte par un ensemble d'extraits spécifiques. L'ambition, permise par un traitement sémantique de Cordial, vise à rendre compte des idées, des sentiments, des actions, bref des thèmes exprimés dans un texte. En réalité Cordial fait appel à un thésaurus de référence, où sont cataloguées les disciplines, les concepts et les connaissances. Tout un jeu d'étiquettes hiérarchisées est mis en place, parmi lesquelles chaque mot du texte doit faire son choix. Sans doute ces étiquettes sont-elles parfois trop proches des représentations modernes, et s'appliquent-elles malaisément à certains corpus, sans compter les bévues auxquelles l'homographie et même la polysémie peuvent donner lieu. Derrière cinétique on peut comprendre « mouvement »; mais que recouvrent les termes d ' interdépendance, de production et de grandes notions ? Pourtant, malgré les faiblesses et les incertitudes du codage sémantique, les résultats auxquels il conduit ne sont pas dénués d'intérêt. On les a reproduits dans la figure 12. On y découvre que la même aimantation des textes, déjà observée au niveau lexical et syntaxique, se retrouve au niveau thématique. En conclusion, on pourrait s'étonner que l'on puisse obtenir la même image, alors que les objets considérés sont étrangers les uns aux autres. Certes entre les lemmes et les graphies, il y a une part commune. Les premiers sont un regroupement des secondes. De même un pont relie les codes aux structures, ces dernières étant des combinaisons de codes. Mais quel lien nécessaire existe -t-il entre les lemmes et les codes grammaticaux ? Ou entre les graphies et les structures ? Sans parler des codes sémantiques, dont la délimitation est incertaine. On pourrait imaginer que les sous-ensembles du corpus s'orientent différemment, selon le point de vue mis en œuvre, de même que la carte d'un pays est susceptible de configurations variables, selon qu'on envisage les élections, les revenus, les convictions religieuses, l'espérance de vie ou la fécondité. Et pourtant les sociologues savent que les variables que l'on croit indépendantes sont parfois liées par des accords secrets ou par une commune soumission à une influence cachée. Ainsi en est-il de la surdétermination du langage .
On s'intéresse ici à l'un des grands projets de recherche que suscite l'intérêt passionné du Québec pour sa langue. Sous le titre de BDTS (Banque de données textuelles de Sherbrooke), l'entreprise vise à établir un corpus représentatif des usages québécois et à en extraire un dictionnaire. Le présent article explore cette base textuelle à l'aide du logiciel Hyperbase.
linguistique_524-05-10371_tei_587.xml
termith-593-linguistique
Une unité lexicale est, en général, construite à partir d'une base isolable qui l'affilie à une famille d'unités, et d'une marque, ou d'un ensemble de marques, qui en définit l'appartenance catégorielle, et la distingue alors dans sa famille : ainsi TOUCH - qu'on trouvera dans la série touchable, touchant (participe présent, préposition, adjectif), touchau(d), touche, touché, touche-à-tout, touchement, toucher (verbe et nom), touchette, toucheur; intouchable (adjectif, nom), …, retouche, retoucher, retoucheur, …, attoucher (anc. Fr.), attouchement. Chacune de ces unités incarne, à sa manière, la base TOUCH -, selon sa catégorie, ses procédés de formation (préfixation et / ou suffixation); ce qui engendre à chaque fois un certain type de détermination et de configuration de la sémantique de cette base : être N, être adj, ou être V, être préfixé par re - ou a -, suffixé par - able ou par - ment, etc. confère des propriétés aux unités, délimite le jeu des valeurs possibles, fixe des généalogies plus ou moins aléatoires. Bien qu'une base n'existe jamais à l' « état naturel », elle constitue cependant l'élément sur lequel porte fondamentalement la recherche de l'identité sémantique d'une unité de langue, à savoir une configuration opératoire de propriétés qui est spécifique à cette base que réalisent des unités catégorisées; qui est irréductible à des principes généraux de la langue; que devrait décliner la forme schématique de chacune des unités construites à partir de cette base; propre à articuler invariance (postulat heuristique selon lequel une forme empirique égale une forme schématique) et variation (ensemble régulé des emplois et des interprétations qui émergent au gré des énoncés attestés ou vraisemblables). Donc, le premier obstacle rencontré, quand on vise à dire l'identité sémantique d'une unité, est celui de l'appartenance catégorielle; obstacle qui engendre une question formulable ainsi : quelle est la part de l'appartenance catégorielle dans l'identité sémantique d'une unité de langue ? Je supposerai, hypothèse de travail, que la formulation de la forme schématique d'une unité en manifestera l'appartenance et qu'elle relève, en conséquence, partiellement des propriétés de la catégorie en jeu. Question qui en appelle immédiatement une autre : quelle est la part de l'appartenance catégorielle dans la variation sémantique d'une unité de langue ? Comment le fait d' être un nom, un verbe, un adjectif, etc. participe -t-il à la variation d'une unité ? Peut-on rendre compte, par des principes généraux externes, des irrégularités dans la distribution des valeurs sémantiques des unités formées à partir d'une même base ? Prenons le cas remarquable de toucher verbe et de touchant adjectif verbal : autant le spectre interprétatif du verbe est ouvert (une bonne cinquantaine de valeurs, plus ou moins liées, est recensée dans les gros dictionnaires), autant celui de l'adjectif est étroit (une petite demi-douzaine de valeurs dans les mêmes ouvrages); retrouvera -t-on une organisation et une disproportion comparables des interprétations pour d'autres unités, telles que voir et voyant, r egarder et regardant, chanter et chantant, aimer et aimant, passer et passant … ? On constate que dans la seule famille des verbes dits de perception, il y a des trous lexicaux significatifs : ainsi avec sentir est-il fort difficile de trouver l'adjectif verbal sentant, si ce n'est en parodiant Descartes : l'homme est une chose sentante. La construction attributive est totalement bloquée : * Ce X est sentant, sur le modèle de Ce X est touchant / voyant. Quant à l'adjectif verbal entendant, on ne le trouvera que fusionné dans malentendant. Peut-on espérer comprendre, au moins en partie, de telles irrégularités dans les paradigmes formels et sémantiques à partir des propriétés des bases, des modes de formation et des catégories, ou doit-on se contenter de les enregistrer et soutenir, alors, que le lexique est fondamentalement un espace anomal, où prolifère l'idiosyncrasie, où règne l'imprévisibilité ? Par principe heuristique, je répondrai positivement à la première alternative. Chaque unité de langue, réalité voilée par le processus de décontextualisation qui caractérise la pratique des lexicographes, est toujours inscrite dans une construction (un syntagme, une locution, une proposition, etc.), et chaque construction confère des propriétés aux unités qui l'instancient : ainsi pour une unité verbale être transitif direct ou indirect ou être intransitif, être en construction absolue, réfléchie ou pronominale, …, se construire avec telle ou telle préposition. Que l'on considère les cas de toucher C1 et de toucher à C2, en regard de ceux de travailler C1 et travailler à C2, penser C1 et penser à C2, et l'on constate que les variations interprétatives sont à la fois comparables (en gros, une forme de mise à distance de l'objet par rapport au procès, pour le cas oblique) et spécifiques (conation, non atteinte de l'objectif, affectation partielle de l'objet, rapport incident à l'objet,…). Autant de propriétés formelles (à la fois internes, en ce que l'unité détermine ses constructions, et externes, en ce que ses constructions configurent la sémantique de l'unité) qui participent à la délimitation des valeurs sémantiques possibles de l'unité en question. Chaque construction dans laquelle figure une unité s'incarne dans un ensemble d'unités lexico-grammaticales particulières; des déterminations, co-textuelles cette fois, vont informer la sémantique de l'unité : que l'on compare, à ce titre, Ça touche et Jacques touche, Attention ! Tu touches et Salaud, tu touches !, Ça se touche, Leurs maisons se touchent et Jacques se touche, Cette musique me touche et Jacques me touche, Jacques touche à sa fin, Jacques touche à ses économies, Jacques touche à la politique et Jacques touche à tout. Enfin, chaque séquence ainsi constituée sera munie d'une prosodie, d'un contour intonatif qui encore une fois jouera, à sa façon, la sémantique de l'unité; la prosodie de Jacques me touche semble orienter les interprétations : l'exclamative, vers le « contact physique », et l'assertion, vers l' « émotion provoquée ». Bref, une unité lexicale est toujours prise dans une série de reconstructions, déterminations sémantiques en interaction non linéaire; d'où, d'une part, les effets de frayage, et, d'autre part, l'impossibilité d'une sémantique componentielle. Au bout du compte, on repère, d'un emploi à l'autre, une variation sémantique qui pourra engendrer des sentiments de continuité ou de discontinuité – ce dont l'analyse cas par cas devrait rendre compte – vis-à-vis des valeurs sémantiques associables à une même forme (continuité ou discontinuité rendues perceptibles par le jeu des substituts synonymiques, des contextes d'insertion, etc.). L'instabilité sémantique du nom touche, dans les syntagmes mettre une touche, mettre une touche de rouge, mettre en touche, prendre une touche, avoir une touche, avoir une drôle de touche, faire une touche, faire la touche, gagner la touche, regagner la touche, manifeste ce jeu, entre continuité et discontinuité, des valeurs référentielles. Je défendrai la thèse, minimaliste, selon laquelle l'identité sémantique d'une unité n'est pas directement en prise avec la perception du sémantisme « épiphane » de cette unité par le « bon sens linguistique » dont tout locuteur compétent fait preuve : l'identité sémantique se dira en des termes abstraits et intégrés à une théorie du langage et des langues abstraite, alors que la perception sémantique du « bon sens linguistique » est prise dans des toiles de notions, issues de riches et inaccessibles réseaux d'expériences et de pratiques langagières socialisées et singulières, de connaissances encyclopédiques, de « théories » plus ou moins cohérentes et intégrées du monde, etc.; cette perception ne concerne que des unités en discours, incorporées dans des énoncés effectifs produits par des locuteurs réels, dans des situations à jamais uniques, et non pas des objets métalinguistiques, unités dégagées de leurs conditions uniques de production ou de réception. Au bout du compte, il est peu vraisemblable que le linguiste puisse en rendre compte : ne devrait-il pas alors limiter son projet à rendre compte rationnellement des contraintes linguistiques (contraintes qui s'élaborent en langue) sur les énoncés possibles et des conditions de possibilités linguistiques d'engendrement des valeurs attestées ou imaginables. Qu'il croise des discours produits dans d'autres champs disciplinaires (philosophie, psychologie, psychanalyse, sociologie, ethnologie, littérature, poésie, etc.) est, à la fois, souhaitable et inévitable; qu'il confonde ou brouille les points de vue paraît, en revanche, dommageable. La problématique se résume désormais à rechercher l'identité sémantique d'une unité dans le but de dégager une invariance à travers la diversité de ses emplois, ou même, une invariance à travers un ensemble d'unités qui réalisent une même base; des principes de variation interne, à la fois constitutifs de l'unité, ou de la base, et spécifiques à cette unité ou cette base, qui participeront à la compréhension et à l'organisation des interprétations; en même temps que des contraintes sur la forme des séquences possibles, leur degré de naturalité, la plausibilité de leur contextualisation. Il s'agit donc d'articuler invariance et variation, dans des limites que se fixerait la linguistique comme théorie du langage appréhendé à travers la diversité des langues et des textes, pour reprendre la définition qu'en donne Culioli. Cette recherche aboutit à une caractérisation des unités de langue en termes de forme schématique, forme schématique qui met en jeu trois plans de variation, invoqués dans mon propos introductif; je citerai Franckel et Paillard : « une variation interne à l'unité elle -même, qui tient au fait que les déformations qui résultent des interactions avec les différents co-textes possibles se trouvent structurées de manière spécifique par la forme schématique propre à cette unité. » « Une variation qui tient aux items lexicaux du co-texte, qui activent tel ou tel paramètre de la forme schématique. » Ainsi notera -t-on une importante divergence interprétative entre toucher son salaire (recevoir / encaisser son salaire), toucher le mur (mettre la main sur le mur; heurter / cogner le mur …) et toucher quelqu'un par sa gentillesse (émouvoir, attendrir quelqu'un …); « Une variation des constructions syntaxiques, compatibles avec l'unité, qui sont à la fois internes à cet item au sens où elles sont constitutives de son identité (tel item entre dans tel ensemble déterminé de constructions), et externes au sens où elles procèdent chacune d'une reconstruction ». La préposition à reconstruit toucher dans toucher à : toucher son salaire et toucher à son salaire, toucher le but et toucher au but (de son voyage …), toucher la loi et toucher à la loi, toucher le langage et toucher au langage. Toucher constitue un joli spécimen de polysémie galopante attestée dès sa naissance officielle : une cinquantaine de cas de synonymie, selon les dictionnaires considérés. Grande stabilité des constructions et des valeurs recensées, depuis le Dictionnaire de l'Académie Française (édition de 1694) jusqu'aux dictionnaires actuels; si ce n'est quelques apparitions évanescentes – peu significatives pour ce qui nous concerne ici – liées aux différentes pratiques sociales, religieuses, industrieuses ou artistiques du temps. La lecture des entrées de dictionnaires, depuis le Dictionnaire de l'Académie française jusqu'au très contemporain Trésor de la Langue Française (TLF), la mobilisation de l'intuition linguistique spontanée de locuteurs natifs, l'écoute intéressée de propos ordinaires et une attention particulière aux textes rencontrés, au fil de lectures, font apparaître de grandes tendances dans les interprétations des occurrences de toucher. Interprétations émergentes que je propose de dessiner à grands traits, avant de m'engager dans la formulation d'hypothèses sur le fonctionnement de cette unité. Dans les entrées de tous les dictionnaires, la description des emplois convoque, crucialement et invariablement, la notion de contact selon deux grandes modalités : avec mouvement ou sans mouvement. Ce qu'on pourra résumer, respectivement, par les locutions entrer en contact avec et être en contact avec. Quelques extraits de l'entrée, exemplaire, du TLF (volume 16 : 372-377) : « TOUCHER, verbe trans. I. Empl. Trans. Dir. — [Avec idée de mouvement] Toucher qqn/qqc. [Le sujet désigne un animé ou une partie de son corps, qui entre en contact direct avec ce que désigne le compl.] Entrer en contact avec quelqu'un, quelque chose. Synon. Palper tâter. […] B. — [Sans idée de mouvement] 1. Être en contact avec quelque chose dans l'espace. […] » Cette notion phénoménologique est en parfaite adéquation avec l'intuition la plus immédiate des locuteurs : si elle n'épuise pas la sémantique de toucher, elle y participe incontestablement, selon des dispositions à préciser. Notons cependant le joli cercle vicieux lexicologique que tracent les entrées de toucher et contact : « CONTACT, s. m. (Géom.) point de contact, punctum contactûs, est le point où une ligne droite touche une ligne courbe, ou dans lequel deux lignes courbes se touchent.. » (Encyclopédie Diderot) « CONTACT [… ], s. m. 1. État de deux ou plusieurs corps qui se touchent. Point de contact, point par lequel deux corps se touchent. » (Le Littré) « CONTACT, n. m. […] 1. État ou action de deux corps qui se touchent; sensation produite par un objet qui touche la peau. » (Lexis) « CONTACT, n. m. […] 1° Position, état relatif de deux ou plusieurs corps qui se touchent. » (Le Robert) Toucher entre dans la définition de nombreux verbes également affiliés à la notion de contact. Ainsi dans le Petit Robert (ouvrage cité par simple commodité), lirons -nous ces quelques exemples : Affecter : […] « Toucher (qqn) par une impression, une action sur l'organisme ou le psychisme. Tout ce qui affecte notre sensibilité. […] Toucher en faisant une impression pénible » Effleurer : « Toucher légèrement […] (Abstrait) Toucher à peine à (un sujet), examiner superficiellement » Émouvoir : « Toucher, troubler. « Pour émouvoir l'homme il faut bien quelque chose » […] Spécialt Toucher en éveillant une sympathie profonde, un intérêt puissant » Frapper : « Toucher (qqn) plus ou moins rudement en portant un ou plusieurs coups […] (Sujet chose) Toucher à la suite d'un mouvement rapide, tomber sur. » Palper : « Examiner en touchant, en tâtant avec la main, les doigts. […] Fam. Toucher, recevoir (de l'argent). » Peloter : « Caresser, palper, toucher indiscrètement et sensuellement (le corps de qqn; qqn) » Troubler : « Modifier en touchant à l'ordre, à l'équilibre […] » Toutes ces définitions se présentent comme des modalités de toucher, qui assurerait alors la fonction d'un « méta-verbe » : fonction dont on pourrait faire l'hypothèse qu'elle repose sur une sous-détermination sémantique de toucher, d'hyperonyme dominant la série des hyponymes évoqués ci-dessus; chacun de ceux -là déclinant toucher selon des spécifications particulières : intensité, finalité, domaines d'application, vecteurs d'affection, valuation bénéfactive ou détrimentale, etc. Cette fonction d'hyperonyme est à l' œuvre, nous l'avons vu, dans les définitions de l'unité lexicale contact. Donc contact, mais avec sous-détermination sémantique des propriétés de ce contact : toucher dit qu'il y a contact entre deux entités, mais ne formule pas les caractéristiques de ce contact. Cette déficience sémantique aura comme conséquence de faire porter sur le co-texte la détermination des valeurs référentielles; en l'absence de spécification, c'est une valeur par défaut qui s'imposera, soit la simple mention d'un contact établi, fidèle en cela aux énoncés des entrées des dictionnaires : « Entrer en contact avec quelqu'un, quelque chose » (TLF), « Entrer en contact avec (qqn ou qqch) de façon violente ou légère » (GR). Cependant, cette valeur par défaut s'interprète facilement comme une valeur basse – donc une valeur non nulle – située sur une échelle potentielle d'intensité : ne pas spécifier serait, en fait, signifier qu'il y a contact sans plus et conduirait, alors, à éliminer a priori toute valeur haute. D'où, vraisemblablement, les formulations des auteurs du Lexis : « Entrer légèrement en contact avec une personne ou une chose ». Formulation inadéquate, certes, mais révélatrice de tendances interprétatives spontanées actives pour des énoncés comme : En manœuvrant, j'ai touché le mur; Marie a touché Paul au bras. Cette sous-détermination sémantique affleure dans la série d'exemples suivante : « (« la France d'en bas ») veut qu'on l'aime. Elle veut qu'on lui montre qu'on l'aime d'amour. Pas juste en paroles. Physiquement. Alors on le voit, Raffarin, partout où il passe, dans les rues, sur les marchés, dans les meetings, avec les anonymes comme avec les politiques, on le voit qui attrape par le cou, qui pince la joue, qui serre le bras, qui triture l'épaule, qui donne un affectueux coup de poing, qui passe la main dans les cheveux, qui enveloppe dans ses bras, qui … Il faut qu'il touche, Raffarin. Qu'il « pogne ». Qu'il malaxe. Qu'il boxe. […] » (Marianne, n° 308, 17 au 23 mars 2003 : 90) « L'ENGOUEMENT pour la loi islamique ne touche pas seulement les musulmans; il atteint même les chrétiens du Sabon Gari, [… ]. » (Le Monde diplomatique, juin 2003 : 12) « […] La plupart de ceux qui touchaient le mort même de loin furent nommés l'un après l'autre [… ]. » (Toulet, TLF) « Après le 18 février, aucune information touchant de près ou de loin l'épidémie n'est plus publiée en Chine, jusqu'au début du mois d'avril. » (Courrier International, n° 651, avril 2003 : 27) « […] Je me suis cru perdu, j'ai cru toucher le fond du désespoir et, une fois le renoncement accepté, j'ai connu la paix. […] » (Saint-Exupéry, Terre des hommes : 244) « Les actes de délinquance touchent plus les habitants des cités HLM que le reste de la population. […] L'INSÉCURITÉ frappe plus durement les cités HLM que les autres quartiers et son intensité est telle qu'elle gâche l'existence [… ]. » (Le Monde, 13-02-02) « La Chine, Hong-Kong et Singapour sont actuellement les régions les plus touchées et certains experts craignent que la maladie ait échappé aux services de santé défaillants de certains pays, [… ]. Si seuls les gens sérieusement touchés peuvent infecter les autres, alors il suffira de repérer les malades et de les mettre en quarantaine. » (Courrier International, n° 651, avril 2003 : 29) « Avec cette dernière observation, nous touchons un point qui est au cœur même du problème des Lettres de la Montagne. » (J.-J. Rousseau, Œuvres complètes, T 3, La Pléiade, Introduction : CXCVI) Extrait deFrance Inter, émission Le fou du roi, lundi 28/01/02 : Invité Jacques Perrin (acteur, réalisateur); un journaliste parlant des critiques adressées à son film « Le peuple migrateur » par Le Monde, Libération, … demande au réalisateur : « Ces critiques, est -ce que ça vous touche ? » à quoi J. P. répond : « Non, ça ne me touche pas, mais ça m'agace. » À propos de Patrice Alègre – un assassin très médiatisé – son avocat a déclaré : Il n'a pas craqué/il s'est fissuré//il est touché/touché/touché//il a montré qu'il était capable d' être touché … » (France Inter, samedi 16-02-02) « […] Les livres sont des objets animés. Ils parlent, se lamentent, se réjouissent, se laissent regarder, avant de se faire dévorer ou rejeter. Ils ont une âme, comme les violons. Ils ont leurs humeurs, leurs odeurs. On les touche, on les manipule, on les feuillette, on les corne, on les annote, on les déchire, on les plie, parfois on les met en boîte. On en fait des livres. […] » (Le Monde des livres, supplément auMondedu 20 juin 2003 : I et X) « Le premier” n'a pas touché le moteur et n'a donc pas fait basculer l'avion ”.” C'est le second missile qui a touché le moteur. Le premier n'avait touché que l'aile et l'avion pouvait encore atterrir. Mais le second a achevé l'avion” a -t-il précisé. » (Le Monde, 13-03-04 : 18) Dans chacun de ces exemples, toucher est : soit pris dans une série organisée selon une échelle d'intensité dans laquelle il peut définir une position intermédiaire, au sens où, s'il y a moins, il y a également plus : pas touché mais agacé; ne pas craquer mais ne pas être indifférent : être fissuré / touché; ne pas toucher/ ne toucher que / toucher / achever…; ou basse : toucher / atteindre; toucher / pogner / malaxer / boxer; toucher / frapper; toucher / manipuler / feuilleter / corner; toucher / achever…; soit qualifié par un gradient : toucher même de loin / de près ou de loin; toucher le fond du désespoir; toucher plus; Les plus touchés, sérieusement touchés; un point qui est au cœur même du …. Notons qu ' un bateau touché n'est pas coulé (et un bateau touché reste un bateau, alors qu ' un bateau coulé devient une épave), qu ' être touché par une balle, par le mauvais temps, par les incivilités, par des critiques ou par la récession ne dit pas la gravité de la blessure, des intempéries, du mal vivre, de l'émotion ou de la situation économique : ce n'est pas bon, certes, mais ce n'est pas désespéré non plus. Toucher a de grandes affinités, dans les formes injonctives ou apparentées, avec la négation (le sujet est un humain, donc un agent en puissance) : Ne pas toucher les / aux objets exposés; Touche pas, c'est fragile; Touche pas, tu vas te faire mal, et naturellement, parangon qui nous est offert par l' Évangile selon Saint Jean, Noli me tangere, Ne me touche pas. Si on a une forme affirmative, on tend alors vers la menace : Touche mes affaires / à mes affaires et tu auras affaire à moi ! L'exemple suivant, tiré du Maître et Marguerite de Boulgakov, offre une bonne illustration de ce double constat : « Au premier balcon, une voix lança : - Hé laisse ça ! C'est à moi ! Il a volé vers moi ! - Touche pas, sinon c'est moi qui vais te toucher ! répliqua une autre voix » (trad. Claude Ligny, Robert Laffont, 1968 : 179) À la forme affirmative, si le terme en position de C1 n'est pas explicitement investi d'une valeur bénéfactive ou de normalité, des interprétations colorées « anormales », « contre-nature », etc., apparaissent facilement : ainsi, si toucher son salaire est normal, Toucher de l'argent paraît plutôt suspect, toucher le gros lot, chanceux et toucher le fond, douloureux. Mais toucher les petites filles ou les petits garçons (et même les femmes) est condamnable, alors que les petites filles ou les petits garçons (et les femmes )ne sont pas, en eux -mêmes, des termes valués, et se toucher est proscrit par les traités de morale. Je citerai encore Boulgakov : « Marguerite Nikolaïevna avait tout l'argent qu'elle pouvait désirer. Marguerite Nikolaïevna pouvait acheter tout ce qui lui faisait envie. Parmi les relations de son mari, elle pouvait rencontrer des gens fort intéressants. Marguerite Nikolaïevna n'avait jamais touché un réchaud à pétrole. Marguerite Nikolaïevna ne connaissait rien des horreurs de l'existence dans un appartement communautaire. » (op. cit., p 300) Les lampes à pétrole n'ont, à l'évidence, rien de dévalorisant en elles -mêmes; cependant, le contexte dit très clairement que toucher des lampes à pétrole est une pratique socialement dégradante : si toucher ne fait pas tout, il facilite néanmoins l'émergence de la valeur impliquée. Donc, on pourrait penser que c'est Co humain toucher C1 qui déclenche la valuation détrimentale de C1, mais Co non-humain toucher C1 est également largement associé à une telle valuation. Les exemples météorologiques constituent un paradigme remarquable de cette tendance : Le mauvais temps touchera l'est de la France dans la soirée est un énoncé bien formé alors que ? ? Le beau temps touchera l'est de la France dans la soirée est difficilement recevable. Pourquoi le beau temps, une accalmie ne peuvent-ils pas toucher l ' est de la France ? Pourquoi est -ce toujours des catastrophes météorologiques (typhon, cyclone, tempête, intempéries, canicule, sécheresse …) qui touchent telle région, tel pays ? Doit-on supposer l'existence, en langue, d'un état de référence de la situation météorologique qui constituerait « le temps beau et bon », « le temps idéal » (voir l'expression Il fait un temps idéal) : c'est-à-dire un temps, ni trop chaud, ni trop froid, ni trop humide, ni trop sec, à partir duquel seraient envisagés des écarts définissant autant de perturbations qui affecteraient cet état de référence ? Ce comportement apparaît dans les énoncés qui réfèrent à l'état de l'économie, de la santé d'un pays : en effet, si le chômage ou la récession touche la France, le plein emploi ou une embellie économique ne peut pas toucher ce pays; à l'identique, une épidémie de grippe ou une surmortalité de personnes âgées touchera la « France d'en bas », alors que ni une augmentation de l'espérance de vie ni une augmentation de l'APA ne pourront toucher cette même « France d'en bas ». Ce rapport au détrimental est clairement manifesté par l'interprétation qu'impose la séquence décontextualisée « La Chine, Hong-Kong et Singapour sont actuellement les régions les plus touchées […] » dont la suite ne peut, en effet, qu'énoncer des malheurs « et certains experts craignent que la maladie ait échappé aux services de santé défaillants de certains pays, [… ]. Si seuls les gens sérieusement touchés peuvent infecter les autres, alors il suffira de repérer les malades et de les mettre en quarantaine. ». On retrouvera, à l'identique, cette valuation dans le titre de l'article du Monde « Les Normands moins touchés que les Bretons » (malheurs des élevages de volailles en période de canicule). Chez des linguistes aussi peut affleurer une critique ou une forme d'altération, de perte d'intégrité : « L'analyse de promettre que propose Arie Verhagen n'est donc pas conforme au cadre théorique invoqué, ce que montre le caractère impérieux de la notion d'objectivité, qui touche ceux -là mêmes qui s'approchent le plus de sa remise en question ! » (Cadiot & Lebas, 2003 : 18) « Or contrairement au locuteur qu'on élève au rang d'énonciateur, le référent de demain n'est élevé à aucun statut particulier. C'est donc le référent lui -même qui est touché par la quasi-juridicité de cet emploi de promettre. » (op. cit. : 19) J'ajouterai qu'il n'est pas sûr que « La maison qui est à vendre touche la maison des Durand » soit unbon argument de vente : toucher, bien que l'énoncé paraisse ne dire qu'un contact entre deux maisons, colore cette situation spatiale d'anormalité, ce qui n'est pas le cas avec jouxter ou être mitoyen. Toucher courtise volontiers des locutions telles que par hasard, par erreur, en passant, sans le faire exprès, sans le vouloir; chacune marquant que le contact entre deux entités ne relève d'aucune intention, d'aucune nécessité, n'est inscrit dans aucun programme : le contact n'a de statut que pour autant qu'il existe. Tel serait le cas dans l'exemple suivant, qui n'impose aucune interprétation machiavélique sous-tendant certaines pratiques scientifiques ou économiques : « Autant la lutte contre les OGM ou bien la marchandisation des services font leur chemin car ils touchent le citoyen au cœur même de sa vie; autant le sport, désormais codifié comme un spectacle, ne semble pas être un domaine de réflexion politique. » (VO2 Marathon, n° 150 : 111) Il est, en effet, imaginable qu'il n'y ait, derrière le développement des OGM et du libéralisme économique, aucun projet qui vise le bien être du citoyen (autonomie supposée de la sphère économique); pourtant, pour ce dernier, d'abord, un contact, non visé, s'établit dans le temps et, ensuite, ce contact se fait à son détriment; ce qui nous renvoie à la notion précédente : les propriétés de toucher sont à l' œuvre. Cet exemple n'est pas différent des emplois où toucher s'interprète comme une « affection de l' âme »; dans des énoncés comme : « Ce qui me terrorisait jadis ne me touche plus. J'envisage de mourir sans trembler, alors qu'autrefois la pensée de disparaître me faisait une impression (…) pénible. » (Green, TLF); « L'oncle de Berlioz fut sincèrement touché par l'attitude de l'inconnu. » (Le Maître et Marguerite : 277) toucher définit un rapport qui s'établit hors de toute nécessité : le fait d' être mortel, pas plus que l'attitude de l'inconnu, ne sont des états de choses qui sont destinés, qui visent à produire un effet sur Je ou sur l'oncle de Berlioz; il se trouve que cela se produit dans le temps : tel état de choses (Co) rencontre tel état psychologique d'un sujet (C1), qui fait que le contact s'établit. Même l'exemple suivant, contre l'intuition la plus immédiate, n'invalide pas cette hypothèse : « Ainsi Nicanor Ivanovitch entendit Kouroliessov avouer qu'une malheureuse veuve, sanglotante, s'était traînée à genoux devant lui sous la pluie, mais sans réussir à toucher le cœur endurci de l'artiste. » (op. cit. supra : 235). Le cœur de l'artiste est rendu inaccessible par sa propriété intrinsèque « endurci »; dès lors, toute rencontre est de l'ordre de l'impossible : le cœur de l'artiste ne remplit aucune condition qui permette à la visée de la malheureuse veuve de trouver un écho en lui, donc à un contact de s'établir. Toucher fréquente également les verbes qui marquent une forme d'absence de contrôle, une force irrépressible : tu touches à tout est moins naturel que Il faut que tu touches à tout, Tu ne peux pas t'empêcher de toucher; J'ai envie de toucher, je peux ? ne suscite aucun rejet. Il semblerait donc que la mise en contact, quand Co est un humain, d'abord, n‘est pas toujours contrôlable par l'agent, et, ensuite, n'est pas inscrite dans l'ordre du monde, pour aller dans le sens de Jean-Paul Sartre qui fait dire à Antoine Roquentin : « Ma main est crispée sur le manche du couteau à dessert. Je sens ce manche de bois noir. C'est ma main qui le tient. Ma main. Personnellement, je laisserais plutôt ce couteau tranquille : à quoi bon toujours toucher quelque chose ? Les objets ne sont pas faits pour qu'on les touche. Il vaut mieux se glisser entre eux, en les évitant le plus possible. » (La nausée, Gallimard, 1938 : 175). Boulgakov soutient une position congruente : « Ivan aperçut, à côté de lui, un bouton de sonnette. Suivant l'habitude commune de toucher les objets sans nécessité, il appuya dessus. » (op. cit. : 130). Ce décalage, entre l'ordre du monde et l'action d'un sujet qui le perturbe en quelque manière, va se rejouer sous une autre forme, pratiquement en négatif; à savoir que cette fois, c'est la conation et la réussite qui sont disjointes : un agent vise un objectif dont il ne contrôle pas l'atteinte. La réussite de son action échappe à l'agent et relève soit d'une forme de contingence; en effet, toucher raconte sans difficulté la rencontre, recherchée, certes, mais néanmoins purement circonstancielle, entre un agent et un objet dont l'existence, a fortiori la localisation, n'est pas assurée, par exemple : « Après avoir monté à tâtons une vingtaine de marches, nos mains touchent une porte; ne trouvant pas de sonnette, je gratte doucement » (A. France, TLF). soit d'un autre agent, qui permet ou non l'accès à l'objectif visé : ce qui pourra se rendre par des constructions comme vouloir / exiger de / demander à toucher …. Un très bon exemple est fourni par un dessin de Plantu, paru dans Le Monde du 13 mai 2003, qui met en scène deux protagonistes principaux : au premier plan, Raffarin, affalé dans un fauteuil, les pieds sur une table, est occupé à lire ELLE, au second plan, une foule de manifestants, dont les banderoles sont reliées par une toile d'araignée, crient : « On veut toucher notre retraite maintenant »; Raffarin, montrant négligemment du doigt, dans son dos, un coffre-fort vide (y est écrit, ostensiblement, « RIEN »), répond : « Après tout, servez -vous, j'm'en fous ! ». Deux types de phénomènes me paraissent particulièrement propres à accréditer le premier cas : 1° D'abord, des différences sensibles de comportement entre toucher et l'un de ses synonymes dans de nombreux contextes, atteindre : ainsi, si dire qu ' Un passant a été touché par une balle perdue est très naturel, dire qu ' Un passant a été atteint par une balle perdue paraît l' être moins, alors que La sentinelle a été touchée à la tête et La sentinelle a été atteinte à la tête sont des énoncés également naturels; de même, si J'ai touché Paul alors que je visais Lucie est normal, J'ai atteint Paul alors que je visais Lucie est plutôt surprenant. Et encore dira -t-on, sans état d' âme linguistique, qu ' Une tornade a touché la côte est de l' île de Hokkaido la nuit dernière, mais avec réticence qu ' Une tornade a atteint la côte est de l' île de Hokkaido la nuit dernière; alors que Comme prévu, le typhon X a atteint la côte est de l' île de Hokkaido cette nuit, vers 2h 30 GMT, et se dirige maintenant vers le sud est meilleur que Comme prévu, le typhon X a touché la côte est de l' île de Hokkaido cette nuit, vers 2h 30 GMT, et se dirige maintenant …. Ces quelques exemples tendent à montrer que : toucher s'inscrit dans une problématique du hasard, de la contingence, au contraire de atteindre; toucher énonce le constat pur et simple d'un état de choses, d'une rencontre, sans attente ni déterminisme; toucher résiste à la programmation, alors qu ' atteindre la suscite; atteindre associe étroitement visée et réussite, au contraire de toucher qui les dissocie. Ces différences de comportement sont relayées par les constructions de ces deux verbes : toucher au but et atteindre le but de …. Sans entrer dans le détail de ces constructions, je relèverai le fait que Nous touchons enfin au but, d'une part, est naturel, et, d'autre part, signifie la non atteinte du but (le but, non nécessairement spécifié dans la phrase, reste en perspective, même s'il est conçu comme accessible à court terme), alors que Nous atteignons enfin le but est d'emblée étrange; Nous atteignons enfin le but de notre voyage (le but est spécifié) est bien meilleur, et Nous avons enfin atteint le but de notre voyage ne pose plus aucun problème; au contraire de Nous avons enfin touché au but, que l'on rejettera sans trop de regrets. Il est important de souligner que c'est le nom but qui fait problème. En effet toucher aux affaires de quelqu'un n'impose aucune contrainte aspectuo-temporelle particulière : Elle a touché à mes affaires; Elle touche à tes affaires sont également recevables; le passage de la construction directe à la construction indirecte infléchit considérablement les interprétations de le but : tu touches au but … dit, répétons -le, la proximité envisagée de ta réussite (mais non ta réussite elle -même); et tu touches le but / tu as touché le but est bien plus une affaire de pétanque que de téléonomie (le but vaut alors pour le cochonnet ou le bouchon, selon les spécialités régionales); il semblerait, même, que l'on tende à dénoncer les effets indésirables de la maladresse du joueur. Cette dissociation entre visée d'un objectif et réussite me paraît être en phase avec la grande compatibilité de toucher, dans ces emplois, avec des verbes qui marquent précisément un décalage entre l'existence d'un état de choses et la représentation subjective de cette existence : sentir, penser, croire …. Je sens que nous touchons au but est irréprochable, au contraire de Je sais que nous touchons au but ! qui inquiètera un locuteur natif. 2° Ensuite, une affaire de téléphone avec laquelle est aux prises l'inspecteur Maigret, que je résumerai ainsi : comment peut-on toucher quelqu'un par téléphone ? « […] J'avais pris une journée de congé et j'étais allé faire du cheval chez des amis à la campagne (…) On a eu toutes les peines du monde à me toucher par téléphone […] » (Simenon, TLF). Adonnons -nous à quelques manipulations sur la séquence, tout à fait naturelle, Est -ce que tu as pu toucher Maigret par téléphone ? On conviendra volontiers que les séquences qui en résultent sont, à des degrés variables, délictueuses : Est -ce que tu as touché Maigret par téléphone ? Est -ce que je pourrais toucher Maigret par téléphone ? Est -ce que tu voudrais bien toucher Maigret par téléphone ? Est -ce que vous pourriez me toucher par téléphone dans la soirée ? Je voudrais toucher Maigret par téléphone. Quand est -ce que tu as touché Maigret par téléphone ? Quand est -ce que je peux vous toucher par téléphone ? Je n'ai pas touché Maigret par téléphone Je l'ai touché par téléphone dans la soirée … Et l'on pourrait continuer ce jeu, ad libitum … Les séquences suivantes, en revanche, sont, soit nettement meilleures, soit totalement naturelles : ?À quelle heure est -ce qu'on pourrait toucher Maigret par téléphone ? ?J'ai réussi à toucher Maigret par téléphone dans la soirée. Crois -tu qu'on pourrait le toucher par téléphone ? A quelle heure crois -tu qu'il serait possible de le toucher par téléphone ? Je cherche à / essaie de toucher Maigret par téléphone depuis ce matin … sans succès ! Je n'ai pas réussi à toucher Maigret par téléphone. J'ai finalement réussi à le toucher par téléphone dans la soirée. Si jamais tu arrivais à le toucher par téléphone, pourrais -tu lui demander de me rappeler au plus vite ? Dans les deux séries, la réussite est extérieure à la visée de l'agent; il faut, d'une part, construire la visée d'un objectif (le but ou l'établissement d'un contact téléphonique avec Maigret) et, d'autre part, la réussite en faisant apparaître que celle -là repose sur des circonstances favorables dont l'agent de la visée n'a pas la maîtrise. Pour pouvoir toucher Maigret il ne suffit pas de vouloir le toucher : il faut que Maigret remplisse, intentionnellement ou circonstanciellement, les conditions spatio-temporelles qui définissent pour l'agent son accessibilité, à savoir par téléphone à un moment t; paramètres qui dépendent entièrement de Maigret, et non de l'agent, d'où le rôle de pouvoir dans ce type d'énoncés. Bref, la réussite de la mise en contact repose, largement, sur une accessibilité du terme C1 qui est indépendante de la visée, par le sujet Co, de sa localisation par C1. Un exemple particulièrement caractéristique de cette indépendance entre visée et réussite serait celui du fameux jeu scolaire de la bataille navale, où l'un des protagonistes, ayant tenté sa chance en annonçant les coordonnées d'un carreau sur une feuille, s'entendra répondre par l'autre, soit « manqué », soit « touché », éventuellement « coulé ». Il se pourrait même que la ritournelle de la fameuse tirade de Cyrano, « À la fin de l'envoi, je touche », qui paraît aller à l'encontre de mes propos, en devienne en fait exemplaire; en disant l'inéluctable articulé à la contingence (où que vous soyez, quoique vous fassiez la pointe de mon épée rencontrera votre bedon), elle dessine la norme : la réussite d'un coup d'épée repose tout autant sur l'habileté de l'assaillant que sur la maladresse de l'assailli, condition de son accessibilité. Au terme de ce parcours d'emplois assez impressionniste, quatre notions déterminantes pour l'appréhension de la sémantique de toucher ont émergé : contact : notion omniprésente qui suppose nécessairement deux entités, que je noterai X et Y; X correspondra à Co et Y à C1, s'il existe, sinon à un terme récupérable dans le contexte; sous-détermination sémantique : notion à laquelle j'associe l'instabilité, l'incidence, la légèreté, l'évanescence, l'approximation ou le « avoir à voir avec » (je pense, en particulier, aux emplois liés à la construction toucher à … et aux remarquables contraintes aspectuelles et temporelles qu'elles manifestent); anormalité : notion qui dirige les interprétations vers le détrimental, engendre des contraintes sur les constructions (et ainsi dessine, par contraste, des états de référence); contingence ou circonstancialité : notions génériques auxquelles j'apparierai spécialement celles d'intermédiaire, d'accidentel, d'anormal ou d'inattendu, de relation fortuite, en passant, de propriété relationnelle (versus intrinsèque) fondée sur une manifestation particulière ou une action, de ponctuel, d'objet interface, … Ces notions de nature interprétative sont interdépendantes les unes des autres : à l'intuition, on conçoit qu'anormalité, contact et contingence / circonstancialité, par exemple, soient fortement corrélés; des résultats de la configuration de propriétés abstraites (forme schématique) qui définit proprement la singularité sémantique de toucher, configuration qu'il convient maintenant de construire. Ainsi verrons -nous que la valuation détrimentale, dont j'ai souligné l'importance, et sur laquelle je reviendrai, n'est pas une propriété inhérente constitutive de la sémantique de toucher, mais une valeur composite que pourra promouvoir ou, au contraire, interdire le co-texte ou le contexte. Compte tenu, d'abord, de l'état d'avancement de mon étude, et, ensuite, d'une question théorique générale évoquée dans la première partie, je ne suis pas en mesure de dire, avec fermeté, si la formulation proposée concerne toutes les unités de langue formées à partir de la base TOUCH -, ou plutôt telle ou telle unité, le verbe toucher en l'occurrence. Mon intuition, confortée par des données empiriques, est qu'elle vaut, vraisemblablement, au moins (au plus ?) pour toucher et touche : la présence du déverbal articulation doitpermettre de faire jouerles propriétés spécifiques des deux catégories concernées (verbe et nom), qui alors structureraient en partie la sémantique de TOUCH -. Cependant, dans le cadre de la présente étude, je supposerai que cette forme schématique (désormais FS) caractérise le verbe : Toucher marque l'articulation de la localisation d'un terme X par un terme Y à l'autonomie première de X et Y. Cette FS peut être représentée comme suit : Il ne faudra cependant pas se laisser abuser par le caractère arborescent, et statique, de ce schéma : il s'agit, en fait, de concevoir, en écho à la formulation proposée ci-dessus, un schéma dynamique, « fusionnant », dans lequel chacun des trois pôles ne vaut que par ses relations avec les deux autres. La formulation de la FS met en jeu : articulation, qui dit, à la fois, la constitution d'une relation et le fait de faire jouer ensemble, de rendre solidaires les termes de la relation; localisation de X par Y, qui énonce 1° la constitution d'une relation de localisation entre X et Y, 2° que X est le localisé et Y le localisateur, donc Y localise X; autonomie première de deux termes X et Y, qui pose l'indépendance première de X et Y : X et Y sont construits indépendamment l'un de l'autre; et introduit l'existence d'un ordre dans la mise en œuvre de la sémantique de toucher : localisation de X par Y et autonomie de X et Y; ordre qui pourra être réorganisé par les propriétés des séquences dans lesquelles s'inscrira ce verbe : selon, en particulier, que l'on thématisera l'autonomie première plutôt que la localisation, ou l'inverse. Pouvons -nous, raisonnablement, articuler à la FS les quatre notions interprétatives dégagées : contact, sous-détermination sémantique, anormalité et contingence / circonstancialité ? Cette notion peut être, sans coup de force, appréhendée comme une spécification de la localisation de X par Y, dans la mesure où cette relation est articulée à l'autonomie première de X et Y. Il semblerait, sans préjuger des difficultés que poserait l'étude de ce mot, que contact suppose des paramètres du type X//Y et X—Y; les constructions de ce mot vont en effet dans ce sens : (un) contact, ça s'établit, se crée, se maintient, se rompt, se cherche, s'élimine, se prend, se perd, etc.. La FS, par le décalage, la distance qu'elle introduit entre X—Y et X//Y, offre également quelque condition nécessaire à l'apparition du contact comme résultat d'un mouvement : ce seront les propriétés des termes et des contextes qui inscriront ce contact dans un espace dynamique (« avec mouvement »), ou un espace statique (« sans mouvement »). Le faible contenu sémantique de la FS, ou son fort contenu opératoire, conduit logiquement à l'indétermination sémantique régulièrement soulignée lors de mon parcours exploratoire, et, aussi, à la tentation de traiter et d'utiliser toucher comme un méta-verbe, ce qui est, à la fois, l'effet trompeur des interprétations attachées aux emplois choisis, et la conséquence inévitable de ce que les mots d'une langue, en particulier dans les dictionnaires monolingues, se définissent avec des mots de cette langue, et s'inscrivent dans un jeu sans fin de renvoi. La FS n'énonce rien qui motive l'articulation de X—Y à X//Y, elle ne fait qu'en déclarer l'existence; en conséquence, selon la façon dont le rapport de X à Y sera défini par le co-texte et / ou le contexte, on entendra plus ou moins fort cette notion incidente. En présence d'agentivité, d'une visée de l'atteinte de Y du côté de X (Co), et d'inertie du côté de Y (ou d'une définition de Y comme simple cible), cette interprétation sera, partiellement ou totalement, exclue; mais si le contexte active le hasard de la rencontre de X avec Y, elle sera saillante. Ce jeu sur la contingence est, d'une certaine façon, inscrit dans la formulation même de la FS : « … l'articulation de la localisation… ». Cette localisation est-elle de l'ordre du constat ? « Il s'approcha rapidement de Marguerite, lui présenta la coupe et dit d'un ton impérieux : – Bois ! Etourdie, Marguerite chancela, mais la coupe touchait ses lèvres, et une voix dont elle ne put déterminer la provenance lui chuchota dans les deux oreilles […] » (Le maître et Marguerite : 375-376) « Un choc m'apprit que le Nautilus avait heurté la surface inférieure de la banquise (…). En effet, nous avions“touché” pour employer l'expression marine » (Verne, TLF) « Je disais comme eux “la mer est verte ”; ce point blanc, là-haut, c'est une “mouette ”, mais je ne sentais pas que ça existait, que la mouette était une “mouette-existante ”; à l'ordinaire l'existence se cache. Elle est là, autour de nous, en nous, elle est nous, on ne peut pas dire deux mots sans parler d'elle et, finalement, on ne la touche pas. Quand je croyais y penser, il faut croire que je ne pensais rien, j'avais la tête vide, ou tout juste dans la tête, le mot “être ”. » (La nausée : 181) ou de la visée ? « Je m'appuie de tout mon poids sur le rebord de faïence. J'approche mon visage de la glace jusqu' à la toucher. » (idem : 34) « A ce moment, le long de la jupe, une main se mit à descendre, au bout d'un bras raide; elle hésita un peu, elle grattait la jupe. - Tu es prête ? dit l'homme. La main s'ouvrit et vint toucher une large étoile de boue sur la bottine droite, puis elle disparut. » (idem : 108) « […] Papa, tout à l'heure, le Tintin Maloret a essayé de me toucher sous la robe […] » (Aymé, TLF) Chance ou malchance, ou ni l'une ni l'autre, dans le premier cas; réussite ou échec, dans le second. Un dernier exemple (à nouveau tiré de La nausée), également remarquable par ses contraintes, va dans le sens de cette articulation qui est génératrice de contingence : « Ils se parlent à voix basse. On leur a servi des hors-d'œuvre, mais ils n'y touchent pas. » (p. 159) Remarquable en ce que cette sorte d'emplois résiste à la forme affirmative : si l'on peut en effet avoir Ophélie a touché à ses économies, il paraît difficile de recevoir pour naturel Ophélie a touché à son repas (alors que Ophélie a touché à mon repas est sensiblement meilleur). Une esquisse d'explication : son repas exclut toute possibilité d'autonomisation de X (Ophélie, comme mangeur) et Y (son repas, comme à manger), en verrouillant littéralement la relation de X à Y par interaction de repas et son, sans occulter le travail de la préposition à; la négation permettrait justement de reconstruire cette autonomie dans le temps : ce qui est le cas (X//Y) s'oppose à ce qui est normal (X -Y). L'effectif élimine l'attendu. Les exemples suivants me paraissent plaider en faveur d'une telle ligne d'explication : Ophélie a à peine touché à son repas; C'est pas croyable, Ophélie a touché à son repas ! Pour le premier, à peine marque une orientation vers ne pas toucher; pour le second, un jeu conflictuel (supposons qu ' Ophélie soit anorexique) entre ce qui est attendu (ne pas toucher à son repas), mais anormal (par rapport à manger), et ce qui est le cas (toucher en quelque manière à son repas) rend l'énoncé recevable. Cette notion se déduit directement de l'antagonisme latent introduit par X—Y (localisation) et X//Y (autonomie). L'anormalité sera l'interprétation qui s'affirmera, d'abord par défaut, et qui engendrera la valeur détrimentale déjà évoquée : la localisation de X par Y remet, en effet, en cause l'autonomie première de X et Y, sans cependant l'annuler, et engendre du même coup une forme d'altération de X ou Y, ou de X et Y. Je m'arrêterai sur cette question dans la mesure où, selon mes hypothèses, anormalité et détrimental sont générés par la FS elle -même : anormalité et détrimental relèvent alors directement de la variation interne. Celle -là doit, en retour, fournir des arguments empiriques propres à soutenir ces hypothèses. Par principe méthodologique, il est soutenu que la structure la plus « indigente », qui mobilise un co-texte minimalement spécifié, et qui met en scène les termes et morphèmes les plus ouverts possible, est la plus à même de faire jouer la variation interne du terme à l'étude. Pour toucher, ce pourrait être la construction absolue avec ça pour Co, au présent de l'indicatif : ça touche … il apparaît alors, comme espéré, que cette structure appelle, naturellement, une interprétation détrimentale que je supposerai cependant, par prudence méthodologique, dépendante du co-texte, en l'occurrence de ça : ça touche dit, en effet, que ce n'est pas bon, souhaitable ou attendu pour ce à quoi ça renvoie … il y a des dégâts dans l'air ! Cette séquence appelle plutôt Attention, ou Zut, que C'est bon, ou Chic. Et si on en vient à associer ça à un sujet humain, les choses ne s'arrangent pas; il y a alors de la corruption impliquée : Ça touche et ça veut faire la morale à tout le monde ! Bref, ça touche paraît peu disposé à s'inscrire dans un contexte bénéfactif. Remarquons cependant que si ça touche ne convient pas bien dans un contexte comme Un mot gentil / un bouquet, ça touche; on ne constate pas d'amélioration si l'on introduit Des insultes à la place de Un mot gentil / un bouquet : Des insultes, ça touche. Il semblerait, alors, que ça touche répugne fortement aux interprétations de type « affections de l' âme », pour ne conserver que celles, triviales, qui imposent l'existence d'un contact effectif : prédication d'existence d'un contact, donc, mais pas de qualification de l'état affectif d'un sujet. Ce que l'on constate, ici, semble aller dans le sens a) d'une indépendance totale entre X et Y, b) du décalage déjà souligné entre visée et réussite, et c) du simple constat d'un état de choses; il y a de la contingence qui rôde. Retour au point précédent (3°), donc ! Si l'on passe à Il / elle touche, on ouvre sensiblement les interprétations et leur domaine de valuation : 1a) Attention à l'armoire, elle touche ! On va l'abîmer. 1b) C'est bon, la corde est assez longue, elle touche. 1c) Caroline ne peut pas se contenter de regarder, il faut qu'elle touche. 1d) Pour Laura Fleissel, maintenant c'est simple : elle touche, elle est championne du monde. 1e) Son vote n'est pas cohérent, elle touche, c'est sûr ! 1f) Quand Emmanuelle se met au piano, elle ne laisse personne indifférent, elle touche. 1g) Cette œuvre, elle touche plus qu'elle ne convainc. 1h) Delphine, au violoncelle, elle touche ! On constate que si Il / elle (Co, X) ne renvoie pas à un sujet humain (donc il / elle est non agentif), l'interprétation est détrimentale 1° si cette séquence n'est pas inscrite dans un contexte de visée qui définit l'atteinte de Y comme bonne valeur (1b)), et 2° si Y n'est pas contextuellement interprétable comme un sujet humain (ex. 1g)). si il / elle renvoie à un sujet humain Il / elle touche, que l'agentivité soit mobilisée ou non, il sera possible, selon les déterminations contextuelles, d'avoir une interprétation détrimentale ou bénéfactive : interprétation détrimentale dans 1c) et 1e), et bénéfactive dans 1d), 1f) et 1h). Cependant, là encore, il semble que la séquence Il / elle touche, hors contexte,a des affinités avec le détrimental, même si c'est moins sensible que pour Ça touche. Considérons 1h), éliminons le domaine de référence le violoncelle, et changeons la prosodie – d'une exclamative, passons à une assertive –, nous obtenons la phrase Delphine, elle touche dont l'interprétation vire au détrimental : c'est la corruption, ou l'inadéquation entre une mesure de Delphine et un élément de son environnement immédiat, qui est convoquée en priorité. Notons que je touche évoque une situation inconfortable : peut-être je est-il « dans des petits souliers ». La construction Co V C1 ne permet pas de faire jouer librement la variation interne : les propriétés des termes Co et C1 interviennent de façon beaucoup trop forte sur les interprétations. Considérons juste les quelques exemples suivants en faisant varier Co, d'abord, et C1, ensuite : 2) Le chômage touche particulièrement les jeunes filles 3) Le sourire de Greg touche particulièrement les jeunes filles. 4) La mode du piercing touche particulièrement les jeunes filles. 5) Julie a touché la plaque électrique qui était brûlante. 6) Julie a touché le gros lot. 7) Julie a touché ses allocations chômages. Si 2) est incontestablement détrimental et 5) probablement aussi; 3) est, en revanche, plutôt bénéfactif, et 6) franchement bénéfactif, ou résolument détrimental, s'il s'agit d'une antiphrase; 4) sera évalué, selon l'idéologie du locuteur, de la neutralité du statisticien à la consternation de parents dépassés, et 7) dit une conformité. Cette latitude interprétative de la structure est joliment exploitée par Boulgakov (ou plutôt par la traduction française) : « J'ai touché des pots de vin, c'est vrai. Mais c'était de l'argent … de chez nous, soviétique ! J'ai signé des bons de logement pour de l'argent, je le reconnais. Mais Prolejnev, notre secrétaire – c'est un joli coco, lui aussi. D'ailleurs, à la gérance de l'immeuble, c'est tous des voleurs … Mais j'ai jamais touché de devises ! » (op. cit. : 227) Les données empiriques semblent converger d'une façon plutôt favorable pour mes hypothèses de travail. Je voudrais, pour conclure la question des notions interprétatives, revenir sur ce couple antagoniste qui gouverne les entrées des dictionnaires contemporains : à l'évidence, pour les lexicologues, l'idée de mouvement est intimement associée au sémantisme « profond », à la valeur première de toucher, d'autant plus que l'histoire du mot l'avère. L'avènement de ces notions repose sur les propriétés des termes; ainsi les exemples suivants interdisent-ils une interprétation « avec idée de mouvement » : « J'ai une explication grave et sérieuse à vous demander, une explication qui touche mon honneur ! » (Dumas père, TLF) « Je croyais que vous touchiez aux Montgommeri par le cœur, comme par le nom. » (Labiche, TLF) « C'était un honnête gentilhomme (…) riche et d'une ancienne famille, mais d'une simplicité d'esprit qui touchait à l'idiotisme. » (Feuillet, TLF) « La maison de Mme Loiseau, qu'elle [l'église] touchait sans aucune séparation » (Proust, PR) Les propriétés de Co sont particulièrement concernées, comparons : Le ballon touche le mur de l'église; L'échelle touche le mur de l'église; Le cerisier touche le mur de l'église; Le ravalement de façade touche le mur de l'église; La maison de Mme Loiseau touche le mur de l'église. avec le présent (ou l'imparfait) de l'indicatif, en raison de son indétermination aspectuelle, la mobilité totale ou réduite, voire normalement nulle, associable au Co oblige, permet, ou limite fortement l'émergence de l'interprétation « avec idée de mouvement ». L'emploi du passé composé, au contraire, tendra à imposer cette interprétation, d'où la dégradation de l'acceptabilité, ou l'étrangeté, des exemples suivants : si « La maison de Mme Loiseau, qu'elle [l'église] touchait sans aucune séparation. » (Proust, PR) « Les portes et les fenêtres des sept ateliers voisins se touchent sur la courette où nous sommes. » (Jacob, TLF) « La plupart de ceux qui touchaient le mort même de loin furent nommés l'un après l'autre [dans un testament] » (Toulet, TLF) sont sans problème, en revanche La maison de Mme Loiseau, qu'elle [l'église] a touché sans aucune séparation. Les portes et les fenêtres des sept ateliers voisins se sont touchées sur la courette où nous sommes. sont difficilement recevables, dans notre bas monde en tout cas, et La plupart de ceux qui ont touché le mort même de loin ont été nommés l'un après l'autre. pourra surprendre l'honnête locuteur, et le conduiront à s'interroger sur les pratiques funéraires ici révélées, à moins qu'il ne s'agisse de conduites prophylactiques. Si la FS proposée ne mentionne rien qui ait des rapports lisibles avec ce couple interprétatif, je soutiendrai qu'elle n'en formule pas moins les conditions de possibilité : la dissociation entre X—Y et X//Y définit, en effet, des conditions d'existence de la notion de mouvement. Il suffit que X—Y s'interprète comme P et X//Y comme ne plus P ou pas encore P : X—Y et X//Y sont alors associés à deux instants, ti et tj, et les conditions du passage dynamique d'un état à l'autre sont remplies. : si elles sont nécessaires, elles ne sont cependant pas suffisantes, comme nous l'avons vu. Et l'on comprendra aisément pourquoi le passé composé, par l'hétérogénéité temporelle (mise en jeu de deux instants (ti, To) sur la classe des instants) qu'il implique, va fortement aller dans le sens de l'interprétation « avec mouvement » et provoquer, en retour, les perturbations constatées ci-dessus dans l'acceptabilité des séquences. Le travail de description des emplois de toucher est loin d' être achevé; cependant, j'ai tracé, dans les limites méthodologiques définies en introduction et en mobilisant un corpus conséquent et représentatif, les lignes de force de la variation sémantique de ce verbe, à partir des grands principes de variation (la variation interne et la variation co-textuelle essentiellement, la variation syntaxique étant, pour l'essentiel, renvoyée à des études ultérieures) articulés à sa caractérisation en terme de forme schématique. Il est possible d'envisager un autre mode de variation qui reposerait directement sur la forme schématique, et non sur quelque principe général (dense, discret, compact, par exemple), mode qui reste à développer; à savoir, faire jouer les paramètres X—Y, X//Y. Deux grandes configurations s'imposeront alors, selon le point de départ qu'on se donnera : on part de X—Y que l'on confronte à X//Y; on part de X//Y que l'on confronte à X—Y. Ces deux configurations pourront être articulées avec des repères de type T (temporels) et s'inscrire dans une problématique de la localisation dans le temps, et / ou avec des repères de types S (énonciateur (So), co-énonciateur (S'o), sujet syntaxique (S i)), et engendrer, alors, un problématique de la valuation. Affaire à suivre …et suite à faire !
A partir d'une hypothèse sur la sémantique de l'unité lexicale 'toucher' formulée en termes de forme schématique, cette étude vise à rendre compte de la variation sémantique manifestée par les emplois de ce verbe dans la construction transitive directe 'C0 toucher C1'. Notre étude cherche donc à articuler variation sémantique et invariance fonctionnelle. Cet article concerne essentiellement le mode de variation co-textuelle : en conséquence, elle ne constitue qu'une première étape dans la compréhension de la construction des valeurs référentielles que permet 'toucher'. Une étude minutieuse de nombreux exemples nous a permis de dégager des constantes impératives sous la forme des 4 notions suivantes : sous-détermination sémantique, contact, anormalité, et contingence. Nous avons tenté de montrer comment ces notions interprétatives sont directement dérivables de la forme schématique proposée.
linguistique_524-06-10750_tei_854.xml
termith-594-linguistique
Seule une discipline de l'interdisciplinarité peut convenir à l'interprétation des phénomènes humains G. Agamben, Stanze La sémiotique semble encore une discipline sans frontières; nous l'aborderons donc par restriction pour la questionner sur le texte. Les réponses partielles que nous obtiendrons nous conduiront à poser d'autres questions, d'ordre épistémologique. Nous considérons la linguistique comme la sémiotique des langues et des textes, mais puisque la sémiotique et la linguistique ont connu des destins séparés, il nous faudra interroger leurs rapports. Cette question préjudicielle mérite encore d' être posée, car tout corps de théories n'est pas appelé à devenir une discipline. L'essor des universités au XIX e s'est accompagné par une disciplinarisation des savoirs savants, mais la sémiotique ne s'est pas (encore) disciplinarisée. Faute sans doute d'une collectivité suffisamment unifiée pour se pourvoir de critères d'évaluation, elle n'a pu définir ni critères de qualité reconnus, ni cursus de formation. De fait, les rares enseignements de sémiotique dépendent de départements de linguistique, plus rarement encore de philosophie. Plus récemment, les sciences de la communication ont accueilli des enseignements de sémiotique. Bien que la demande sociale aille croissant, il n'est pas encore certain que les sciences de la communication, qui sont plutôt, de fait, des techniques, aient l'assise épistémologique nécessaire au développement d'une sémiotique fondamentale. Ces questions académiques restent ouvertes, et si la sémiotique parvient à se disciplinariser, ce succès académique ne sera pas pour autant la preuve du bien-fondé épistémologique de son autonomisation. Corps de savoirs, de postulats et de conjectures, la sémiotique est issue de deux disciplines : la philosophie (notamment la philosophie du langage) depuis Locke, qui a sémiotisé la tradition de la logique philosophique, et la linguistique depuis Saussure, Hjelmslev, Greimas notamment. Bien qu'elles n'aient pas le même statut, ni les mêmes objectifs, elles peuvent dialoguer en restant sur le terrain philosophique, dans la mesure où la sémantique, domaine charnière entre linguistique et philosophie du langage, reste largement ouverte à des questions métaphysiques comme celle de la référence. Mais ce dialogue reste peu fructueux, et les mêmes arguments y reviennent depuis des siècles (cf. Eco 1989). Malgré les efforts de conciliation, la synthèse reste impossible, car la sémiotique issue de la linguistique et la sémiotique philosophique demeurent séparées par deux questions. En premier lieu, elles divergent sur la question des seuils sémiotiques qui séparent les langages et autres systèmes de signes des autres niveaux de la réalité : le niveau physique et le niveau des (re)présentations. Là où la linguistique propose un seuil qui passe par les systèmes de signes (biplanes selon la proposition de Hjelmslev), la philosophie du langage, dans sa tradition intentionnaliste de souche augustinienne milite pour un abaissement voire une suppression des seuils. Pour une conscience, tout peut signifier, dans la mesure où l'intentionnalité sémiotise tout ce qu'elle vise (cf. en philosophie analytique Pierre Jacob, Pourquoi les choses ont une signification). Mieux, pour Peirce, la sémiotique intéresse tant les animaux que les plantes et les minéraux; et des sémioticiens peirciens contemporains ont parlé très sérieusement de sémiotiques des particules élémentaires, hadronique, leptonique, etc. Se recommandant pourtant de Saussure et de Hjelmslev, Greimas de son côté n'a pas hésité à formuler l'énigmatique programme d'une « sémiotique du monde naturel » (1970); et bizarrement, il a été suivi sur ce point. Nous nous cantonnerons pour notre part au monde culturel. Sémiotique philosophique et sémiotique linguistique divergent sur une seconde question critériale : leur objet comprend -il deux ordres de réalité ? Là encore la conception de la signification reste déterminante. Pour la tradition de la sémiotique philosophique, tant aristotélicienne qu'augustinienne, le réalisme l'emporte, et avec lui le postulat réaliste que la signification est un rapport entre un concept et un objet. Elle doit donc postuler à toute force une ontologie des objets. De tradition occamiste, le prétendu nominalisme de Locke et de la philosophie analytique n'est qu'un réalisme des individus, alors que la sémantique saussurienne milite en revanche pour un non-réalisme de principe. Son refus de l'ontologie revêt une valeur fondatrice pour distinguer la sémantique des langues de celle du langage, détenue depuis Aristote par la logique. L'ontologie le cède alors à une dé-ontologie, et la conception représentationnelle, théorétique, de la signification, à une conception praxéologique, qui la définit comme sens de performances sémiotiques au sein de pratiques sociales (cf. l'auteur 1996a). La linguistique a pu devenir le noyau constituant de la sémiotique contemporaine par son projet scientifique (qui la séparait de la philosophie), par son épistémologie et sa méthodologie de science historique et comparée. Cependant, cette évolution n'a pas été comprise, et la linguistique a souvent été exploitée et supplantée d'un même mouvement par des projets énonciatifs ou cognitifs qui entendaient la dépasser. Catégories universelles, sujets transcendentaux sont restés la matière ordinaire et passablement spéculative de la réflexion. Cependant, on ne peut fonder la sémiotique par abstraction. Par exemple, ce n'est pas l'abstraction de formes à partir des langues qui permet de décrire les fonctionnement propres aux images où aux musiques : cette abstraction ne peut retrouver que le fonds métaphysique de la tradition logico-grammaticale qui privilégie un petit nombre de relations et de catégories, combinées en modèles constitutionnels, beaucoup trop puissants, par leur trivialité même, et que l'on peut projeter sur des objets quelconques, certes sans grand effort, mais sans gain descriptif notable. Dès lors que l'on cesse de postuler divers universaux ethnocentriques et logocentriques qu'on lui donne pour organon, voire pour objet, la sémiotique ne peut être que fédérative : l'iconologie, la musicologie, la linguistique, la chorégraphie, etc. sont bien entendu parties prenantes de cette fédération. Conformément au projet saussurien, la création de la sémiotique à partir de la linguistique s'autorise du caractère exemplaire de cette discipline, qui occupe une place importante au sein de la fédération des sciences de la culture — nous développerons ce point à la fin de cette étude. La sémiotique contemporaine a peut-être défini trop restrictivement son objet. Elle se présente en effet comme une science des signes, et bien des ouvrages de sémiotique sont consacrés à la typologie des signes (cf. Eco 1992). Dans la tradition anglo-saxonne, la définition peircienne de la sémiotique comme « doctrine des signes » (1956 : I-98) a une grande autorité, et Thomas Sebeok, qui préside depuis trente ans aux destinées académiques mondiales de la sémiotique, souligne que le concept clé de la sémiotique demeure toujours le signe. Pap estimait naguère résumer l'opinion de tout sémioticien en réaffirmant que la sémiotique est l'étude des signes. L'affaire serait entendue si le signe n'était un artefact des sémioticiens : d'une part, son identification est le résultat d'une interprétation, non son point de départ; d'autre part, en règle générale, les pratiques sémiotiques ne mettent pas en œuvre des signes isolés, mais des formations complexes dont la segmentation est toujours problématique, parfois impossible. La définition de la sémiotique comme science des signes s'inscrit alors dans la tradition logique et grammaticale, d'ascendance aristotélicienne, ordinaire dans cette discipline. Universaliste, statique, réaliste, elle s'appuie sur une ontologie des substances, et subordonne donc le signe au concept : il semble bien que la solitude du signe soit la rançon de l'autarcie du concept. Certes, les courants sémiotiques issus de la linguistique plutôt que de la logique ou de la grammaire soulignent que la sémiotique prend pour objet les systèmes de signes. C'est le cas, dans la tradition européenne, de Saussure et Hjelmslev, tout comme de l' École de Tartu, chez Ivanov, Lotman, Lekomcev notamment. Cependant, les systèmes de signes sont ordinairement conçus comme des syntaxes : par exemple, la théorie de Hjelmslev étend des procédures d'analyse morphosyntaxique à l'ensemble des systèmes de signes. Or, même pour les langues, cette conception syntaxique ne convient pas, ou fort mal. Dans l'analyse des textes, on relève toutes sortes d'unités qui ne consistent pas en signes, comme les thèmes ou les fonctions narratives. Les signes sont les unités les moins complexes, cela n'entraîne pas qu'elles soient fondamentales, au sens où toutes les autres se réduiraient à elles sans reste. Enfin, une langue ne consiste pas en un et un seul système de signes, dans la mesure où tout texte témoigne de l'interaction de plusieurs sortes de systèmes, notamment de normes. C'est pourquoi aucune grammaire ne peut engendrer un texte; et faute de tenir compte des normes, celles qui peuvent engendrer des phrases ne peuvent écarter les phrases indicibles — ou non dicibles parce qu'inacceptables selon les canons de la rationalité. Une autre opposition intéresse les paliers de la description : on parle alors de la signification d'un mot et du sens d'un texte. Cette seconde distinction reflète alors la distinction entre les deux problématiques logico-grammaticale et herméneutique / rhétorique. Bizarrement, la plupart des théories de la signification en restent au signe isolé, bien qu'il soit un artefact : il n'est pas observé empiriquement et seule une décision méthodologique permet d'isoler un signe. En revanche, les énoncés empiriques sont des textes oraux ou écrits, ou des passages de ces textes. Bien qu'elle occupe une position intermédiaire entre le signe et le texte, la phrase est traditionnellement conçue à partir du signe et non du texte. Le recours de plus en plus fréquent au contexte reste ambigu, car c'est une zone d'extension, relativement au signe et à la phrase, mais une zone de restriction, relativement au texte. La sémiosis, relation fondamentale qui unit les deux faces du signe, doit être rapportée aux deux plans du contenu et de l'expression des textes et des autres performances sémiotiques, et non plus définie comme une relation entre le signifiant et le signifié du signe. D'autre part, elle ne peut être définie par une relation logique simplement formulable, comme l'inférence dans la tradition intentionnaliste ou la présupposition réciproque dans la tradition structuraliste. Enfin, le signifiant n'en est pas le point de départ, malgré les théories inférentielles ou associationnistes, car il a lui -même à être reconnu. En d'autres termes, les relations qui établissent le sens vont de signifié en signifié, aussi bien que du signifié vers le signifiant. Aussi, nous définissons la sémiosis à partir du réseau des relations entre signifiés au sein du texte — en considérant les signifiants comme des interprétants qui permettent de construire certaines de ces relations. Nous concevons ces relations comme des parcours orientés. On pourrait distinguer sans doute autant de sortes de sémiosis que de sortes de parcours élémentaires, mais il faut souligner que tous les signes linguistiques ne se prêtent pas aux mêmes parcours. Enfin, la sémiosis ne peut être fixée que comme résultat de l'interprétation, non comme son départ. L'identification des signifiants semble un des points d'entrée dans le parcours interprétatif, mais elle est précédée par les attentes et présomptions que définissent le contrat propre au genre textuel de la pratique en cours; aussi semble -t-elle également un point de retour. Redéfinir ainsi la sémiosis la rapporte nécessairement au concept de parcours interprétatif. Le sens n'est plus fixé par un codage préalable qui associerait strictement un signifiant et un signifié ou une classe de signifiés (car la langue n'est pas une nomenclature) : il est produit dans des parcours qui discrétisent et unissent des signifiés entre eux, en passant par des signifiants. Les genres, dans la mesure où ils déterminent au palier textuel les modes de corrélation entre les plans du signifié et du signifiant, sont les facteurs déterminants de la sémiosis textuelle. Ils contraignent non seulement le mode mimétique du texte, mais aussi ses modes de production et d'interprétation. Ils témoignent par ailleurs du caractère instituant des pratiques sociales dans lesquelles ils prennent place. Venons -en à une question cruciale et souvent omise; comment concevoir l'unité des deux plans du langage, mixte jugé intolérable de sensible et d'intelligible ? On peut bien entendu proposer une réponse fonctionnelle, et rappeler que le langage a de fait sinon par vocation une fonction médiatrice entre ces deux sphères. Il faut encore que cette conception même fasse droit à l'unité des deux plans du langage. Une conception non dualiste se doit en effet d'intégrer signifiants et signifiés dans les mêmes parcours : ils sont discrétisés d'ailleurs par les mêmes types d'opérations, et les signifiants ne sont pas plus « donnés » que les signifiés. La théorie des parcours interprétatifs permet de rendre compte du lien problématique entre les deux plans du langage : ainsi, la sémantique interprétative a maintes fois souligné que l'actualisation de traits sémantiques exigeait le passage par ces interprétants que sont selon elle les signifiants (par exemple, la rime est ordinairement l'indice d'une relation sémantique entre sémèmes). Toutes ces propositions convergent vers une refondation interprétative de la sémantique, et au-delà, de la sémiotique, à partir de thèses qui intéressent le palier du signe et celui du texte. (i) Un signe n'est qualifié comme tel que par un parcours interprétatif. Par exemple, un signe de ponctuation considéré comme une simple démarcation du signifiant peut être sémantisé en contexte, et fonctionner comme un morphème (un point d'exclamation peut signifier ‘ brusquerie ' par exemple). (ii) Aucun signe n'est par lui -même référentiel, inférentiel ou différentiel. Ces relations sont privilégiées par diverses théories, mais les parcours interprétatifs effectifs sont plus complexes, et leur analyse ne permet pas de retrouver des relations simplement qualifiables (par exemple, les inférences interprétatives ne sont pas formelles); ils sont sans doute plus près des processus perceptifs de la reconnaissance de formes que du calcul. (iii) Le texte, ou la performance sémiotique, est l'unité fondamentale pour la problématique rhétorique/herméneutique. Il faut cependant se garder de confondre, comme le fait la problématique logico-grammaticale depuis les Stoïciens, le fondamental et l'élémentaire : si par exemple le signe linguistique (morphème) est une unité minimale, elle n'est pas pour autant fondamentale. Si pour la problématique rhétorique / herméneutique le texte est l'unité fondamentale, l'unité linguistique maximale est le corpus de référence. Cette expression appelle deux précisions : le corpus dépend du point de vue qui a présidé à sa constitution — qu'il s'agisse de limites contigentes comme celles d'une histoire conversationnelle, ou réfléchies comme celles d'un corpus textuel à l'intérieur d'un genre. La référence s'entend ici dans l'acception philologique — et non dans l'acception logique, car on ne réfère jamais qu' à une doxa, c'est-à-dire un ensemble d'axiomes normatifs localement établis par le corpus des textes oraux ou écrits faisant autorité dans la pratique en cours. (iv) Ces formes d'incidence se composent, et l'on pourrait dire que le sens résulte de mises en relations internes et externes au texte, bref, de la rencontre d'un contexte et d'un intertexte. La détermination du local par le global s'entend ainsi de deux façons, par l'incidence du texte sur ses parties, et par l'incidence du corpus sur le texte. On pourrait certes objecter ici que la première sorte d'incidence est structurale, en quelque sorte immanente, et la seconde contingente, « imposée de l'extérieur ». Cependant, le texte pointe vers l'intertexte, que ce soit en général par les normes de son genre ou en particulier par des mentions, citations, allusions ou reformulations. Le rapport à une extériorité, qui fonde conventionnellement le processus d'objectivation, gageait la signification sur la représentation d'une altérité ontologique pleine, celle du monde des objets, et la fondait sur un « réel » qui n'est autre que la doxa des positivistes. Pour la problématique rhétorique/herméneutique, « l'extérieur » du texte est constituée d'autres textes et plus généralement d'autres performances sémiotiques : si, pour objectiver l'interprétation et le sens qui en résulte, le réquisit fondamental d'une altérité est maintenu par la référence au corpus, il n'impose plus le recours à une disparate ontologique, ni à un acte de foi qui subordonnerait l'apparence des signifiés à l'essence des choses. La sémiotique contemporaine a sans doute hérité son déficit herméneutique des sciences du langage, qui, privilégiant le signe, lieu de la référence, et la proposition, lieu de la vérité, répugnent de fait à traiter du texte. Benveniste en témoignait de façon tranchée : « La sémantique, c'est le “sens” résultant de l'enchaînement, de l'appropriation à la circonstance et de l'adaptation des différents signes entre eux. Ça c'est absolument imprévisible. C'est l'ouverture vers le monde. Tandis que la sémiotique, c'est le sens refermé sur lui -même et contenu en quelque sorte en lui -même » (1974 : 21). La frontière de la proposition correspondrait à la démarcation entre ces deux disciplines, ou du moins entre leurs objets. Pour pénétrante qu'elle soit, cette distinction n'exprime qu'un état de fait : la problématique logico-grammaticale prend pour objet les signes et leur combinaison syntaxique qui ne s'étend pas au-delà de la proposition. En revanche, la problématique rhétorique/herméneutique prend pour objet le texte et tous ses paliers, jusqu' à celui du mot. Il est constant que le sens d'un mot dépend du texte où il est inclus; c'est là par exemple une évidence pour la sémantique des textes littéraires. Le paradigme du signe, propre quant au contenu à la logique et à la philosophie du langage, et, quant à l'expression, à la tradition grammaticale qui culmine dans la morphosyntaxe contemporaine, se trouve ainsi rattaché à la sémiotique, alors que la sémantique se trouve à bon droit associée au paradigme du texte. En se gardant de généraliser à partir de la linguistique, on doit reconnaître que les textes sont des performances sémiotiques parmi les plus complexes, et exemplaires à ce titre. Par ailleurs, les textes, oraux et écrits, sont des formations plurisémiotiques qui mettent en œuvre outre des langues, des genres et des styles, des systèmes graphiques et typographiques (un signe de ponctuation ne fonctionne pas comme un morphème), prosodiques, gestuels (une kinésique est toujours associée à l'oral). Tous ces aspects restent négligés par la sémiotique, comme par les linguistiques qui se cantonnent à la morphosyntaxe. Enfin et surtout, les relations sémantiques que l'interprétation établit ou reconnaît entre les différentes parties d'un texte sont d'une complexité et d'une variéte irréductible à la compositionnalité logique, mais encore mettent souvent sinon toujours en jeu des interprétants qui relèvent d'autres systèmes sémiotiques que les langues. Dans le domaine de la linguistique, les théories du texte les plus en vue restent rattachées à la problématique logico-grammaticale par deux biais principaux. Le premier résume la textualité à des phénomènes phrastiques qui s'étendent sur des phrases adjacentes (concordances de temps, anaphores) qui sont autant d'isotopies locales. Malgré leur intérêt, les recherches sur la macrosyntaxe et la sémantique de la période ou du paragraphe restent en deçà du texte et de la textualité. À cette extension de la syntaxe répond une autre voie : celle de la réduction propositionnelle du texte. On en connaît le principe, illustré notamment par Van Dijk : après un codage des phrases en propositions, on supprime les propositions jugées secondaires, pour ne garder enfin qu'une proposition, dite macroproposition, censée représenter le texte. Ce format propositionnel permet la réduction du texte à ce que peut concevoir la problématique logico-grammaticale; aussi a -t-il connu, en psychologie cognitive et en psycholinguistique, un immense succès. Pour sa part, la sémiotique contemporaine ne paraît pas non plus avoir produit de théorie du texte pleinement compatible avec une problématique rhétorique/herméneutique. Certes, la pratique descriptive des sémioticiens contemporains excède souvent les théories logico-grammaticales dont ils se réclament. Ils ont créé la sémiotique discursive, développé la narratologie pour dépasser ainsi le cadre confiné de la linguistique. Et cependant leurs théories restent gagées sur la signification (propre au signe), non sur le sens (propre au texte). Hjelmslev, en choisissant l'épreuve de la commutation pour définir les unités linguistiques à tous les paliers, a unifié la définition du contenu sur le paradigme du signe (la signification ou dénotation étant définie comme rapport entre une unité du plan du contenu et l'unité correspondante du plan de l'expression). Plus complexe en l'espèce, la théorie de Greimas distingue la signification du sens, mais, par toute une suite de conversions, fait dériver le sens textuel de la structure élémentaire de la signification, emblématiquement résumée à un carré booléen affaibli, dit « carré sémiotique » — qui témoigne encore de l'origine logique du concept de signification. Les rapports de la sémantique et de la sémiotique restent ambigus. Mais ce qui nous importe ici, c'est que la sémiotique (dans la mesure où elle se limite aux signes) n'a produit que des théories de la signification, alors que la sémantique (quand du moins elle traite des textes) est appelée à produire des théories du sens. Le texte fait problème pour la sémiotique, dans la mesure où elle est l'héritière de philosophies logiques de la signification, qui s'attachent avant tout à la définition et à la typologie des signes, plutôt que des théories du sens issues de la pratique herméneutique (juridique, religieuse et littéraire notamment). La plus simple manière d'éluder la question consiste à considérer le texte comme un signe. C'est la solution que choisissent Peirce, comme Greimas ou Eco (cf. 1988 : 32 « le Message équivaut au Signe »); cette esquive fait évidemment peu de cas de la différence de niveau de complexité entre le signe et le texte, mais surtout empêche de penser l'incidence du global sur le local, en l'occurrence du texte sur chacun des signes qui le composent. En revanche, elle s'accorde parfaitement avec le principe logique (attribué à Frege) de la compositionnalité : comme il pose que la signification d'une expression est composée de la signification de ses sous-expressions, on pourrait dériver le sens du texte de la signification des signes, et l'on annulerait en fait la distinction entre signification et sens. La problématique du signe s'oppose pourtant, sur les plans historique et épistémologique, à la problématique du texte. Le signe, pourrait-on dire, c'est le contraire du texte. L'ontologie qui a tant pesé sur l'histoire de la sémantique ne s'est-elle pas édifiée sur l'oubli voire le déni de l'action ? L'Etre parménidien, unique, identique à lui -même, immobile et invariable, se définit par la négation des caractères fondamentaux de l'action. Et si la connaissance était une action oubliée ? De même qu'une encyclopédie est une archive de passages de textes décontextualisés, une ontologie pourrait être définie comme une archive d'actions : ces « choses » prétendues sont le résultat d'une objectivation dont on oublie qu'elle résulte d'un couplage entre l'individu et son environnement. Cependant, comme les expériences pédagogiques le confirment, l'appropriation de connaissances passe toujours par une adaptation qui se réalise dans un cours d'action; les exercices qui permettent cette appropriation n'appliquent pas la théorie, mais la contiennent, pour ainsi dire, « à l'état pratique ». Bref, savoir n'est alors rien d'autre qu'apprendre, au sein d'une pratique sociale. Comme la théorie et la pratique sont indissociables, l'interprétation et l'action le paraissent également, car toute action est rectification interprétative réitérée d'elle -même. L'interprétation semble alors constituée des moments critiques de l'action, et la théorie interprétative veut présenter la synthèse rationnelle de ces moments critiques à visée régulatrice. L'auto-rectification de l'action dans son cours suppose en effet une distance critique qui trouve un homologue dans la dimension critique de l'herméneutique. Les cercles de la théorie et de la pratique, de l'interprétation et de l'action n'ont au demeurant rien de vicieux, mais témoignent simplement de la dimension herméneutique de la connaissance. Les sémiotiques globales sont des philosophies (cf. Locke, Peirce, Apel); sans doute doivent-elles à leur nature philosophique leur caractère global. En revanche, les sémiotiques scientifiques ont des objets régionaux : langues, images, musique, etc. Une sémiotique générale ne peut être que fédérative; elle définit le champ où la linguistique, l'iconologie, la musicologie et les autres sciences sémiotiques procèdent à leurs échanges pluridisciplinaires. Si la linguistique se définit comme la sémiotique des langues, la sémiotique discursive se confond avec la linguistique du texte. Cette évidence a été longtemps obscurcie parce que diverses linguistiques restreintes se cantonnaient au palier de la phrase, et déléguaient l'étude de la textualité à diverses disciplines, comme la pragmatique conversationnelle, la poétique ou la sémiotique discursive. Mais une sémiotique discursive autonome ne serait sans doute que « l'envers complice » d'une linguistique restreinte. Outre qu'il faut remembrer les sciences du langage, on ne peut maintenir une frontière disciplinaire entre le texte et la phrase. Par exemple, une isotopie est instituée par la récurrence de sèmes (unités microsémantiques du palier inférieur au sémème); et pourtant elle peut s'étendre sur la totalité d'un texte. Pour rompre avec l'universalisme, il nous faut alors, dans le cadre d'une sémiotique des cultures, édifier une sémiotique historique et comparée. Prenons l'exemple de la narratologie. La méthodologie comparative de Propp procède de la linguistique historique et comparée. Il s'agit, en tenant compte des acquis postérieurs de la narratologie, d'appliquer cette méthodologie à d'autres corpus, pour définir, à l'intérieur des cultures étudiées, les modèles narratifs propres aux divers types de discours, voire aux divers genres. Cette diversification des modèles conditionne une meilleure application des principes méthodologiques généraux de la narratologie, et une meilleure adéquation descriptive. Plus généralement, il s'agit de rendre compte de diversités, sans confondre les principes théoriques et méthodologiques universels, qui sont ceux de la sémantique (conçue comme branche de la sémiotique des langues), avec tel ou tel modèle théorique, nécessairement partiel quelles que soient ses prétentions à l'universalité. Sans quoi l'on serait conduit à projeter indifférem­ment sur tout texte la même grille théorique, au risque de lire partout la même chose. La diversification des modèles sémantiques, qui répond au caractère culturel des textes, permet de renouer les liens avec la philologie, inexplicablement rompus par les courants formalistes, comme avec les autres sciences sociales (histoire, archéologie, etc.) qui participent de la sémiotique des cultures. L' œuvre exemplaire des grands philologues, comme Spitzer, Auerbach, Bollack, montre la fécondité du projet d'unifier l'herméneutique et la philologie. Étudier les textes au sein d'une sémiotique des cultures ne conduit pas à dissoudre leur étude dans une philosophie de la culture, ni même à étudier les structures culturelles dans leurs manifestations linguistiques. Comme le sens des textes ne leur est pas immanent, il faut pour l'établir tenir compte de leur caractère de formations culturelles. Maintes disciplines participent par vocation et de droit sinon de fait à cette entreprise fédératrice : la littérature comparée, la stylistique, la poétique, la linguistique, mais aussi l'ethnologie et l'histoire. Cependant, la linguistique et l'ensemble des sciences sociales hésitent depuis leur formation entre les modèles des sciences de la nature, des sciences de la vie et des sciences logico-formelles. Tous les projets réductionnistes s'appuient sur cette hésitation dont il importe de sortir en précisant le mode propre d'objectivité critique de l'objet culturel et les formes de sa temporalité.La fédération des sciences de la culture demande d'ailleurs une conception commune de l'objectivité. On sait que l'expérience naïve varie sans cesse avec celui qui l'éprouve, et tout l'effort des sciences expérimentales consiste précisément à éliminer ces variations. Le positivisme a tenté de les réduire, ne serait -ce qu'en les négligeant, mais sans succès, car il en demeure toujours un reste que l'on ne peut éliminer. Même dans les sciences de la nature, en physique quantique par exemple, la situation de l'observateur fait partie de la situation expérimentale. Ferdinand Gonseth puis Gilles Cohen-Tannoudji ont employé à ce propos l'image de l'horizon : il appartient à notre champ de vision, qu'il paraît borner. Le réel objectif n'en existe pas moins comme ensemble de conjectures : dans un langage unitaire, il reste ce sur quoi nous traçons notre horizon; et dans un langage infinitaire, il est fait de tous les horizons possibles. Cette situation reste le lot commun de toutes les sciences, leur minimum herméneutique. Mais si dans les sciences de la nature, du moins les sciences physiques, la situation de l'observateur est déterminée par des coordonnées elles -mêmes physiques, repérables dans l'espace-temps, dans les sciences sociales l'espace est médiatisé par la culture, dont la langue, et le temps physique par l'histoire et la tradition. La situation spatio-temporelle de l'observateur est ainsi redoublée par la situation historico-culturelle de l'interprète. Or le linguiste n'est pas seulement un observateur, mais aussi un interprète. La critique philologique joue en quelque sorte le rôle de la méthode expérimentale, non pour éliminer illusoirement toute subjectivité, mais pour hiérarchiser les subjectivités. L'objectivité des sciences de la culture se constitue ainsi dans la reconnaissance critique de leur part de subjectivité. En disant que le sens du texte est immanent, non au texte, mais à la pratique d'interprétation, nous reconnaissons que chaque lecture, « savante » ou non, trace un parcours interprétatif qui correspond à l'horizon du lecteur. La sémantique des textes propose une description des parcours interprétatifs : le sens actuel du texte n'est qu'une de ses actualisations possibles; le sens « complet » serait constitué de l'ensemble des actualisations, en d'autres termes l'ensemble des horizons possibles. Comme la notion même de sens complet reste illusoire, une description linguistique ne propose pas une lecture « scientifique » qui se substituerait aux autres, mais une identification des contraintes linguistiques sur les parcours interprétatifs. Le sens d'un texte n'est clôturable que par l'arrêt de ses lectures, qui appartiennent alors au passé; il quitte alors ainsi la tradition et la vie, et cette clôture témoigne plutôt d'une fermeture que d'une plénitude, car un livre fermé n'a plus de sens. En revanche, les textes qui sont relus gardent un sens ouvert. Leur sens a une histoire vivante, celle de leur tradition interprétative, série non close de réécritures, qui sont autant de nouvelles lectures : elles dépendent de la pratique où elles prennent place, obéissant à des objectifs éthiques, esthétiques, ou cognitifs. Cependant, le plaisir, le devoir, et la volonté de savoir restent inassouvis. Sur ce point crucial, une sémantique des textes peut distinguer entre les structures closes, qui épuisent la lecture, et les structures ouvertes, qui permettent au lecteur de transformer l'équivoque en infini. Discerner la spécificité des sciences de la culture permet en outre de dépasser la fausse complémentarité qui distingue les « sciences humaines » et les « sciences sociales », lointain écho peut-être de combats surannés entre l'humanisme et le marxisme. Leur richesse réside dans deux diversités : celle des cultures, qui les fait se mouvoir dans des temps et des espaces différenciés; et, pour chaque objet culturel, la multiplicité des paramètres non reproductibles, qui empêchent toute expérimentation au sens strict et écartent du même coup le modèle des sciences physiques. Même promus au rang d'observables, les faits humains et sociaux restent le produit de constructions interprétatives. Les sciences de la culture sont les seules à pouvoir rendre compte du caractère sémiotique de l'univers humain. Pour connaître l'humain par l'homme, elles doivent reconnaître la part qu'il prend dans cette connaissance, non seulement comme destinataire critique de « résultats », mais comme acteur doué d'affects et de responsabilité. Dans un écrit de jeunesse, Humboldt traçait ce programme : « il faut étudier le caractère des sexes, âges, tempéraments, nations, etc., avec autant de soin que les sciences naturelles étudient les races et variétés du monde animal. Quoi qu'il ne s'agisse à proprement parler que de savoir combien divers l'homme peut être, il faut faire comme s'il s'agissait de déterminer combien divers est en fait l'homme individuel ». Le programme anthropologique de Humboldt connut trois étapes successives : caractériser la différence sexuelle, puis la différence nationale, enfin la différence linguistique, ce qui le conduit à se consacrer, de 1819 à sa mort, à la linguistique comparée. Alors que le nombre de sexes reste fort restreint, regrettablement selon certains, les nations se comptent par centaines, et les langues par milliers. Mais leur diversité ne s'arrête pas là, et Humboldt les envisage dans leur diversité interne, jusqu' à traiter de leurs usages individuels. Ainsi son programme anthropologique va -t-il de l'humanité à l'individu et aboutit à reconnaître autant de langues que d'hommes. Une anthropologie de la diversité n'avait jusque là été ébauchée que chez Montaigne, sous une forme d'ailleurs radicale mais sans prétention scientifique : elle trouve chez Humboldt ses fondements épistémologiques et non plus seulement éthiques. Alors que la philosophie du langage est universalisante, la caractérisation des langues suppose que la linguistique décrit leurs singularités sans se cantonner à des règles générales, voire qu'elle reconnaisse dans les lois linguistiques une généralisation de phénomènes singuliers et non répétables, à la différence des phénomènes physiques. Le programme de caractérisation revêt ainsi une grande portée épistémologique, et Humboldt note ainsi : « Dans le monde inorganique il n'y a pas d'individualité qui pourrait être considérée comme un être existant en soi, et dans le monde organique, les sciences ne descendent jamais jusqu' à l'individu » (GS : VI-150; Trabant 1999 : 129). En ce sens, le processus de caractérisation est définitoire des sciences de la culture. Corrélativement, l'unicité de l'objet, qui culmine dans l' œuvre d'art non reproductible, peut devenir la caractéristique de l'objet culturel. Enfin, la caractérisation est un processus progressif indéfini : elle peut s'étendre aux parties de l'objet, et conduire par exemple dans l'étude d'un texte à montrer pourquoi tel mot dans tel contexte est un hapax. La portée d'une telle épistémologie de la diversité nous paraît considérable. Comment transformer en point de vue de la diversité les postulats traditionnellement universalistes de la gnoséologie comme de l'épistémologie ? Jusqu' à la constitution de la linguistique générale, la diversité des langues, voire leurs parentés, étaient connues, mais ne faisaient pas l'objet d'un programme de comparaison, car on se contentait de la ramener à des principes rationnels communs exprimés par des grammaires générales prétendant à l'universel. Elle n'est devenue un problème scientifique qu' à partir du moment où l'on a pu sortir de l'universel, et où leur contingence a pu devenir significative. La mesure de la diversité des cultures a suivi le même chemin que la perception de la diversité des langues. De fait, la découverte, ces deux dernières décennies, de « cultures » animales, notamment chez les primates, suggère que l'innovation et sa transmission ne suffisent pas à définir la spécificité des cultures humaines; la diversification des pratiques techniques et sémiotiques les distingue des « cultures » animales, ce qui érige la caractérisation progressive au rang de programme unificateur pour les sciences de la culture. Sans revenir au débat entre Herder et Kant, rappelons l'enjeu intellectuel de prendre pour objet la diversité culturelle. Comme chez Kant la Raison se développe pleinement dans l'espèce et non dans l'individu, les différences sont tout simplement inessentielles du point de vue de la Raison, d'où l'universalisme et le cosmopolitisme qui en découlent. Mais le concept de cosmopolitisme doit être réélaboré pour limiter l'universalisme qui lui a pourtant donné carrière. La perspective sémiotique peut en effet s'écarter de la philosophie transcendantale en « remplaçant », même comme condition de la connaissance, la Raison par les cultures, et en restituant à la description des objets culturels le caractère critique que la philosophie kantienne avait emprunté à la philologie. Si la Raison peut être pure, une culture ne l'est jamais, car elle est le produit de son histoire. Comparer les cultures et les langues, c'est passer de l'universel au général, c'est aussi passer de l'identité postulée à l'équivalence conquise, du droit au fait, de l'universel au mondial. Poursuivant un objectif de caractérisation, une sémiotique des cultures se doit donc d' être différentielle et comparée, car une culture ne peut être comprise que d'un point de vue cosmopolitique ou interculturel : pour chacune, c'est l'ensemble des autres cultures contemporaines et passées qui joue le rôle de corpus. En effet, une culture n'est pas une totalité : elle se forme, évolue et disparaît dans les échanges et les conflits avec les autres. La linguistique historique et comparée a acquis sur ce point une expérience à élaborer et à transmettre. L'enjeu est important : comment reconstruire le concept d'humanité hors de la théologie dogmatique et de la biologie qui rivalisent de déterminisme ? Comment concevoir l'humanité à partir des humanités — en comprenant par là, aussi, les sciences sociales ? La place du monde sémiotique, en position médiatrice chez l'homme entre le monde physique et le monde des (re)présentations, détermine la fonction épistémologique de la sémiotique elle -même. Nous avons pris le parti d'une sémiotique des cultures, et non celui des sémiotiques universelles ou transsémiotiques, sortes de philosophies du sens oublieuses de leur dimension réflexive. Quelques précisions terminologiques s'imposent ici. Nous avons utilisé deux expressions, sciences de la culture et sémiotique des cultures, dont aucune ne convient parfaitement à notre propos : alors la première est empruntée à Cassirer (1991 [1936-1939]), la seconde renvoie implicitement à l' École de Tartu. Le troc des pluriels que souligne leur juxtaposition permet de poser deux questions : une ou plusieurs sciences ? la culture ou les cultures ? Pour Cassirer, sciences de la culture s'oppose implicitement à sciences de la nature, et cette opposition se superpose à celle que Dilthey a tracée et les sciences de l'esprit (Geisteswissenschaften) entre les sciences de la nature (Naturwissenschaften); cependant Cassirer transpose implicitement en culture l ' esprit selon Dilthey. La réflexion y gagne, car, même si l'allemand distingue l'intellectuel, geistig, et le spirituel, geistlich, le terme forgé par Dilthey témoignait d'un spiritualisme individualisant qui ne pouvait véritablement aider à fédérer un champ scientifique. Si le terme de sciences de l'esprit est trop vague et trop vaste, le terme de sciences sociales semble pour sa part trop restrictif, depuis qu'on décrit la complexité des sociétés animales : c'est précisément la culture, et la diversification des cultures qui distingue les sociétés humaines. Cependant, réduisant les cultures à des superstructures somme toute inessentielles, et en tout cas non déterminantes, le marxisme a cherché à régir les sciences sociales, mais n'a rien fait pour les unifier, même s'il leur a fourni une impérative référence « matérialiste ». Entre la fausse unité diltheyienne et l'instrumentalisation marxiste, une conception critique reste à élaborer. La sémiotique peut sans doute y contribuer, mais la sémiotique des cultures contemporaine est-elle en mesure de le faire ? Pour l'école de Tartu, l'expression sémiotique des cultures (ou de la culture) vient sans doute de la littérature comparée — le domaine de son principal animateur Iouri Lotman. Cependant, cette sémiotique des cultures, devenue culturologie, a remplacé dans les cursus d'enseignement russes le Diamat — ou matérialisme dialectique —, en conservant souvent les mêmes professeurs. Elle est parfois tentée de remplacer la dialectique de classes antagonistes par celle de cultures antagonistes, ce qui ne va pas sans quelques risques de dérives nationalistes. Les mentalités seraient formées par la langue et la nation, donc un non-russe ne pourrait en fait comprendre un texte russe — ce qui rappelle fort certaines thèses de Heidegger voire de Gadamer sur le Grund, fond d'appartenance national et traditionnel qui conditionnerait toute compréhension. En outre, chaque culture est présentée comme une monade assiégée, qui n'aurait à l'égard des autres que surestimation ou répulsion; cette ambivalence, fréquente dans l'histoire intellectuelle russe, ne saurait être érigée en définition de la culture. L'expression sémiotique des cultures renvoie -t-elle à une seule science ou à plusieurs ? Dans le premier cas, on penchera vers une anthropologie philosophique, celle par exemple de Cassirer dans son Essai sur l'homme : un tel champ de réflexion, fort nécessaire, ne peut évidemment se prétendre une science. Dans le second cas, on cherchera à restituer l'unité des sciences humaines, et la réflexion sur le sémiotique en tant que domaine scientifique, plutôt que sur la sémiotique en tant que science. En effet, l'omniprésence des signes rend pour ainsi dire impossible la constitution de la sémiotique comme discipline. Une sémiotique des cultures, notamment, ne serait-elle pas une science des sciences ? La sémiotique des cultures n'est pas à vrai dire une discipline, mais le projet même de redéfinir la spécificité des sciences humaines et sociales : les cultures embrassent la totalité des faits humains, jusqu' à la formation des sujets. Elles restent cependant difficiles à concevoir, faute précisément d'un point de vue sémiotique sur la culture. En d'autres termes, c'est la reconnaissance de la spécificité et de l'autonomie relative du monde sémiotique qui permet de délimiter le champ des sciences de la culture, et d'en finir avec le dualisme traditionnel qui commande la division proposée par Dilthey. Le projet saussurien d'une sémiologie naît de la volonté de définir l'ordre scientifique auquel appartient la linguistique : « On a discuté pour savoir si la linguistique appartenait à l'ordre des sciences naturelles ou des sciences historiques. Elle n'appartient à aucun des deux, mais à un compartiment des sciences qui, s'il n'existe pas, devrait exister sous le mot de sémiologie […] le système sémiologique ‘ langue ' est le seul […] qui ait eu à affronter cette épreuve de se trouver en présence du Temps, qui ne se soit pas simplement fondé de voisin à voisin par mutuel consentement, mais aussi de père en fils par impérative tradition, et au hasard de ce qui arriverait en cette tradition, chose hors de cela inexpérimentée, non connue ni décrite » (1974 : II-47). S'il est clair ici que la sémiotique est conçue comme un compartiment des sciences et non comme une discipline de plus, la notion de Temps traditionnel, distingué de fait du temps historique, mérite une grande attention. Les performances sémiotiques se déploient dans le temps de la tradition, forme de temporalité propre aux objets culturels qui ne se confond ni avec le temps physique ni avec le temps de l'histoire. Si les sciences naturelles se satisfont du temps darwinien de l'évolution, les sciences de la culture se meuvent dans un temps lamarkien, fait de traditions et de ruptures. Ce temps traditionnel n'obéit pas aux métriques du temps historique : ni régulier, ni connexe, ni déterministe, il laisse ouvertes des rétrospections, des anticipations, il met en contact les contemporains et les anciens, les proches et les étrangers. L'herméneutique et la philologie nous permettent ensemble d'approcher ce temps interne du monde sémiotique. Entre le temps physique et le temps traditionnel, le temps historique occupe une position doublement intermédiaire : c'est à la fois le temps externe du couplage des sociétés avec leur environnement et celui de leur auto-réflexion, où elles choisissent ce qui fait événement pour elles. Les formulations du projet de la sémiotique des cultures sont restées éparses chez divers auteurs et elle ne s'est pas constituée en discipline autonome. En effet, elle garde une vocation épistémologique : fédérer les sciences de la culture autour des concepts de langage et d'interprétation, déplacer l'opposition métaphysique entre le sujet et l'objet en une distinction relative entre l'interprétation et le signe (le signe est une interprétation objectivée et stabilisée dans son prétexte signifiant), restituer la complexité radicale des textes et autres performances sémiotiques, sans chercher à les unifier dans une totalité. Comme une totalité se définit par l'unité à soi, elle n'a pas de sens, puisque le sens est fait de différences irréductibles reconnues et qualifiées par les parcours interprétatifs : la sémiotique des cultures se trouve donc devant la nécessité constitutive de rompre avec les ontologies, tant celle des sciences de la nature que celle des sciences logico-formelles. Elle s'ouvre ainsi d'une part sur l'éthologie des sociétés humaines, de l'autre sur une philosophie des formes symboliques. Face aux programmes réductionnistes qui menacent l'ensemble des sciences de la culture, son développement reste un enjeu pour les années à venir. D'une part, la sémiotique des cultures semble la seule perspective globale qui puisse s'opposer au computationnalisme qui a hypothéqué la problématique et les résultats des recherches cognitives. D'autre part, comprendre la médiation sémiotique reste indispensable pour décrire les facteurs culturels dans la cognition, jusqu'ici gravement sous-estimés par les recherches cognitives. Pour culturaliser les sciences cognitives, il faudrait en outre reconnaître le caractère culturellement situé de toute activité de connaissance, l'activité scientifique comprise. Le culturel s'identifie ici à l'humain, car la médiation sémiotique, caractéristique de la cognition humaine, la définit sans doute comme telle. Ainsi s'ouvre l'espace d'une réflexion sur la genèse des cultures, liée évidemment à la phylogenèse, mais échappant à des descriptions de type néo-darwinien. La distinction des formes symboliques, la diversification des langues, celle des pratiques sociales, celle des arts, tous ces processus poursuivent l'hominisation par l'humanisation, mais ne s'inscrivent pas dans la longue durée, s'autonomisent à l'égard du temps de l'espèce, et conditionnent la formation du temps historique sans pourtant se laisser rapporter à ses rapides scansions .
A la différence de la sémiotique du signe, extension de la tradition logico-grammaticale, le programme saussurien d'une science des signes au sein de la vie sociale conduit à privilégier les textes et autres performances sémiotiques complexes, comme à les contextualiser au sein des pratiques de production et d'interprétation où ils prennent sens. Cela permet d'esquisser un programme fédérateur pour les sciences de la culture : il développe l'anthropologie qui a donné naissance chez Humboldt à la linguistique historique et comparée. Après avoir interrogé le statut scientifique de la sémiotique, on souligne qu'une sémantique des textes peut contribuer à renouveler sa problèmatique. La linguistique est en effet la sémiotique des langues, et relève en cela d'une sémiotique des cultures.
linguistique_524-04-10152_tei_832.xml
termith-595-linguistique
Dans leur contribution à une publication sur les stéréotypes nationaux dans des discours interethniques, Reinhold Schmitt et Inken Keim (1995) ont critiqué ce qu'ils appellent la « logique déductive » (Subsumtionslogik, en allemand). Elle présupposerait qu'un entretien entre interlocuteurs d'origines culturelles et linguistiques différentes serait automatiquement une situation de communication interculturelle. Pour l'analyse des données conversationnelles, cette préconception des caractéristiques prétendues intrinsèques de l'échange entraînerait une interprétation qui décrit les données en termes d'interculturalité sans être capable de montrer exactement si un événement perturbateur prend vraiment son origine dans ce domaine spécifique de facteurs qui influent sur la situation et le comportement des interactants. Sur la base de ses origines ethnométhodologiques, l'analyse conversationnelle propose de qualifier un épisode interactionnel selon le principe des « catégories de(s) participants » (member categories, en anglais) : ce sont les interactants qui se manifestent mutuellement leur interprétation de la situation. Si, pour eux, la diversité des perspectives culturelles est pertinente pour l'interaction en cours, ils vont le montrer à travers leurs actions verbales et non-verbales. Dans un de nos textes, nous avons pu faire l'analyse d'événements de ce type : Les explications de faits politiques, géographiques ou autres qui présupposent l'ignorance de la part d'interlocuteurs qui n'ont pas fait l'école française et qui ne vivent pas régulièrement en France; ces épisodes interculturels concernent le problème du savoir commun présupposé (du « common ground ») et ils anticipent des problèmes d'intercompréhension. Ces situations risquent parfois de dégénérer en situations de dominance communicative quand l'autochtone exploite l'incompétence présumée de son interlocuteur alloglotte pour établir une asymétrie des places et des rôles. Le versant positif de la gestion de ces situations, par contre, exploite au maximum la diversité des perspectives et des points de vue pour enrichir la situation communicative. Si l'on accepte cette position méthodologique de l'analyse conversationnelle, on sera obligé de ne pas qualifier une interaction comme étant interculturelle mais de constater que les interactants, selon leurs besoins communs ou individuels, définissent des moments/épisodes de l'interaction pendant lesquels la divergence des savoirs culturels peut ou doit être mise en pertinence. Cela entraîne des conséquences pour l'analyse, qui distinguera alors systématiquement entre – des critères internes, c'est-à-dire les activités de mise en pertinence des interlocuteurs qui se manifestent mutuellement le sens et l'objectif de ce qu'ils sont en train de faire : comme ces critères ne sont que rarement communiqués au moment de l'interaction par les interlocuteurs eux -mêmes, ils ne nous sont pas accessibles directement; – des critères externes, c'est-à-dire les notions, théoriquement fondées et appliquées selon une méthodologie de recherche, que les observateurs développent et emploient pour décrire ce qui se passe dans une interaction. Par conséquent, je propose de qualifier le terme d'interculturel comme une catégorie d'observation tout en souscrivant à la remarque de Gülich et Mondada (2001 : 201) qui précisent que « la particularité de l'approche ethnométhodologique est que la méthodologie n'est jamais autonome par rapport à l'analyse de cas concrets ». Faire l'analyse de la dimension interculturelle d'une interaction est le résultat d'un choix théorique et méthodologique qui introduit une perspective spécifique par rapport aux données qui sont le point de départ de l'activité des chercheurs. C'est ainsi que se construit l'objet d'une recherche. Les principes méthodologiques que je viens d'exposer à l'exemple de l'interculturel s'appliquent également à l'analyse de ce qu'on a l'habitude d'appeler la communication exolingue. Il est vrai que, selon la définition proposée à l'origine par Porquier, la qualité exolingue d'une conversation réside dans le fait de l'inégalité des compétences linguistiques des interlocuteurs par rapport à la langue de la communication en cours. On peut donc supposer que les traces de cette inégalité, aussi minimes qu'elles soient, sont constamment présentes pour les interactants. Cela distingue, à première vue, l'exolingue de l'interculturel. Mais il est difficile de mesurer l'impact des ces traces d'inégalité sur la communication et les interactants peuvent facilement ne pas les tenir en considération. Par conséquent, il est approprié de constater que l'exolingue est une perspective de recherche de l'observateur extérieur et qu'il n'est ni une qualité intrinsèque de l'événement communicationnel ni une donnée empirique à priori. C'est bien dans ce sens que Porquier a essayé de clarifier quelques questions terminologiques : On voit […] que la distinction entre situation exolingue et communication exolingue apparaît pertinente. On a d'une part des paramètres qui renvoient aux deux axes (endolingue/exolingue et unilingue/bilingue) comme composantes de la situation; d'autre part des instances de communication (des « événements langagiers », pour de Pietro 1988) qui, de façon variable, mobilisent et actualisent ces paramètres. La compétence bilingue respective des interlocuteurs n'est pas un prédicteur de la nature unilingue/bilingue de l'échange, mais l'un des paramètres de l'observation. (Porquier 1994 : 166) Je vais expliquer ma propre perspective, qui radicalise d'une certaine façon le point de vue de Porquier, à l'aide de quelques exemples dont le premier est extrait de la conversation dans un café entre deux collègues de travail. Exemple 1 « tu connais le basque » Interlocuteurs : Jean-Philippe (J, français) et Mikkel (M, danois) J : après/après les soirées de rugby là '. y a toujours une comment ça s'appelle une grosse/ une grosse fête à paris quoi '. dans le paris'/. tu sais au sud de paris dans le paris treizième là '. < M : ah > et eh c'est une soirée basque tu connais le basque non ' le pays basque ' M : oui ' J : tu vois le pays basque est séparé entre. le sud de la france M : ouais ouais, J : et eh le nord de l'espagne M : ouais ouais c'est espagnol J : quoi mais c'est bon ,.. et eh c'est des gens qui font pas mal la fête '.. et là ' y a une soirée basque a paris dans un gymnase. ou y aura chais pas énormément de/ énormément de personnes quoi '.. eh euh c'est vraiment pas mal quoi ,.. M : ah < J : hm > et le treize/ treizième c'est. eh :.. bon eh : arrondissement ,. pour les riches, J : non ça c'est le SEIZième ça, M : le seizième, J :. mais le treizième c'est pas forcément pour les riches ouais ,. < M : ah > c'est le quartier chinois en fait, M : ah ouais ,. ouais d'accord, euh. ne/ na/ nation, J : <2sec> non place d'Italie M : place d'Italie, ouais, sud de nation, J :. ouais sud de nation ouais, M : ouais J :. et eh ouais c'est/ c'est pas mal ces soirées là ,. tu sors eh pas facile facile mais c'est pas mal ouais, On peut observer dans l'extrait un certain nombre d'activités qui attirent notre attention de linguistes et qu'on qualifierait d'inhabituelles par rapport à nos expériences d'une communication prétendue normale. On mentionnerait : les commentaires métadiscursifs de Jean-Philippe, les explications pour paris et le pays basque – inutiles d'ailleurs, comme l'indique Mikkel, les petites pauses fréquentes qui précédent les initiatives thématiques de Jean-Philippe qui en assure la presque totalité, les difficultés de Mikkel de se prononcer, mais aussi l'absence totale de corrections ou d'irritations (à l'exception, peut-être, des pauses) de la part de Jean-Philippe qui fait siennes les paroles de Mikkel pour confirmer la compréhension (sud de nation). On peut faire l'hypothèse que cette conversation est vécue comme un peu difficile par les participants qui vont attribuer les sources de ces difficultés aux compétences réduites de l'interlocuteur alloglotte. Mais ce qu'on peut observer avant tout dans l'interaction, c'est la construction commune d'une conversation qui réussit à tous les niveaux : progression thématique, intercompréhension, sauvegarde des faces, confirmation du rapport social. Dans la perspective des interactants, la question de savoir si la situation ou la communication est exolingue semble être de moindre intérêt; ce qui importe, c'est leur capacité de gérer, chacun de son côté, les compétences qui permettent de construire ensemble un monde social. Quant aux méthodes (au sens ethnométhodologique du terme) que mettent en œuvre les interactants pour gérer la situation difficile, elles sont les mêmes que celles que nous trouvons dans d'autres types de communication difficile, comme par exemple entre adultes et enfants, entre experts et non-experts ou entre enseignants et élèves. Décrire la spécificité de l'exolingue par rapport à ces autres types de difficulté n'est pas facile au seul niveau linguistique. Toutes les manifestations de difficultés linguistiques que nous venons de rencontrer dans l'extrait précédent sont absentes dans l'exemple suivant où la seule trace d'alloglossie est le petit accent de la jeune étudiante allemande, Hannelore. Elle vient rendre au directeur d'un foyer d'étudiants la clé de la chambre d'une de ses compatriotes qui est rentrée en Allemagne, mais son principal intérêt est bien sûr de récupérer la caution. Le directeur n'est pas très content, il ne veut pas rendre la caution sans papier signé de la main de la locutrice, et de plus il trouve dans ses notes le nom d'une autre étudiante allemande qui lui doit deux loyers et qu'il prend pour celle qui veut quitter le foyer à l'aide de son amie Hannelore. La confusion est totale, Hannelore et le directeur se perdent dans la jungle des différents noms allemands (Siebrecht, Brünger, etc) que le directeur n'arrive pas à bien articuler et le conflit se développe. Exemple 2 chez le directeur du foyer Interlocuteurs : Directeur (D, français), Hannelore (H, allemande) D : je ne peux pas rendre les clés ' à une personne que je connais pas !. vous je vous connais pas, H : oui D : je peux pas vous rendre l'argent, H : oui bien sûr, D : i faut que ce soit madame eh/ et moi (… ?) moi je connais qu'elle ' moi, < bruit >.. voilà.. et alors là ' il faut v/ v/ vous veniez avec une lettre écrite !. signée par elle ' H : non mais elle < soupire> D : je peux pas ' m/. vous êtes marrant vous, < bruit > H : vous me laissez expliquer : ‘ D : OUI : ‘ mais je vous laisse expliquer oui, moi je peux pas ,. oui ' H : alors le problème c'est que :. euh Elle ' furchner. elle est partie définitivement en Allemagne ,. et l'autre. Brünger '. /brungère/ ' comme vous dites. elle est partie en Allemagne aussi ' mais elle va revenir le d/ TROIS ou le quatre avril, D : ah ' ben qu'elle vienne le trois ou le quatre ' hein. < en articulant > moi '. je peux pas rendre ' les clés '. à une personne que je connais pas, H : ça je comprends bien, D : j'ai pas le droit Au moment où le conflit s'aggrave, Hannelore rappelle au directeur son incompétence linguistique à articuler correctement les noms propres allemands. Ce faisant, elle rétablit l'équilibre rituel des deux protagonistes, chacun a son petit accent. Les esprits se calment après cette thématisation de la dimension interculturelle – et exolingue – qui était sous-jacente à la situation. Loin d' être une donnée de cette communication, la dimension « inter » est une possibilité à exploiter pour des raisons stratégiques. En l'occurrence, il s'agit bien d'une négociation des places et des rôles interactionnels plutôt que d'une trace du caractère exolingue de la communication. Ces quelques remarques aux sujet des exemples, qui mériteraient plus d'attention, permettent de préciser deux aspects d'analyse qui résultent de notre approche interactionniste : – Pour les interactants, la problématique principale des communications difficiles est la mise en œuvre de méthodes interactives qui leur permettent de gérer la situation. La divergence des compétences linguistiques, difficile à mesurer et à saisir dans un entretien, est un facteur parmi d'autres qui influe sur le choix des méthodes, mais elle ne les détermine pas. Les verbalisations approximatives de l'interlocuteur danois Mikkel (exemple 1), par exemple, ne sont ni corrigées ni thématisées par son interlocuteur français, et la fréquence des activités d'ajustement linguistique ne semble pas perturber le déroulement thématique de la conversation. – Parmi les facteurs influant sur le choix des méthodes, il est difficile d'opérationnaliser la distinction nette entre linguistique (exolingue) et interculturel, comme l'a montré le deuxième exemple. Il me semble, par ailleurs, que le besoin de cette distinction est né du côté des linguistes et non des interlocuteurs, natifs ou non-natifs, experts ou non-experts, adultes ou enfants. Le monde communicationnel que je viens d'évoquer – avec ces partenaires collaborant à la construction d'un monde social et coopérant à la gestion d'une situation difficile – est très harmonieux et reflète une spécificité des corpus que nous avons recueillis pour nos recherches sur les « situations de contact entre locuteurs français et allemands ». Pour disposer d'une base empirique suffisamment riche et aussi peu préconstruite que possible, nous avons demandé à des étudiants ou élèves de faire, pendant leurs séjours linguistiques en France (études, cours de langue, visite chez des correspondants), des enregistrements de leurs entretiens quotidiens, à savoir des conversations à table avec des amis ou dans leurs familles, des demandes de renseignements dans la rue, à la banque ou aux services de la municipalité. Dans chacun des ces enregistrements, nous avons affaire à une situation qui met en contact des personnes qui se respectent mutuellement, qui acceptent les contrats de communication (rendre service, donner un renseignement, bavarder) et qui poursuivent communément les buts de leur interaction. Les interlocuteurs arrivent avec des degrés variés d'uni -, de bi - ou de multilinguisme, ils exploitent au maximum les ressources de la situation pour gérer la communication et les obstacles qui se produisent. Les alloglottes de nos corpus, majoritairement des étudiants ou des élèves, se trouvent plutôt en situation de tourisme linguistique ou de séjour d'études que dans une situation de migration. Leurs langues et cultures d'origine jouissent d'un statut haut dans la société d'accueil, leur altérité est soit perçue comme minime, soit connotée positivement. Toute communication étant située, les événements que nous analysons dans nos études doivent être compris comme des manifestations et constructions locales de ces estimations et évaluations réciproques. En particulier les situations dans les familles sont très particulières puisque le motif du séjour est bien l'amélioration des compétences linguistiques des jeunes étrangers. Il en résulte – un choix obligatoire du français ou de l'allemand comme langue de communication, les mélanges (des « parlers bilingues ») et l'alternance codique n'étant pas choisis; – une répartition de rôles interactionnels de tuteur et d'apprenant qui permettent un ménagement particulier des faces; – un éventail d'activités spécifiques, comme des hétéro-réparations fréquentes, des commentaires linguistiques, des séquences d'apprentissage, des séquences latérales explicites et expansives, etc. Nos observations sur les méthodes dont se servent les interactants pour gérer une situation plurilingue ont déclenché des recherches sur la modélisation du rapport entre interaction sociale et acquisition qui s'inscrivent dans un courant interactionniste général. Les concepts de SPA (Séquences Potentiellement Acquisitionnelles) et de contrat didactique (proposé par de Pietro, Matthey et Py) ou notre idée du SLASS (Second Language Acquisition Support System) ont été largement acceptés comme point de départ des réflexions nécessaires qui doivent compléter les études sur les lectes d'apprenants. Cependant, les considérations relatives aux contextes d'apprentissage, au caractère situé de toute cognition (et de toute acquisition) et à la spécificité des situations plurilingues des corpus étudiés appellent à une grande prudence pour toute généralisation de résultats d'analyse dans le monde social très particulier, harmonieux et marqué de coopérativité permanente de la part de tous les interactants dans les familles de nos étudiants et élèves. Les remarques de Mondada et Pekarek-Doehler (2000 : 166/7) à ce propos sont très stimulantes quand elles résument la conception des cognitions situées – elles sont situées dans l'organisation locale de la pratique sociale, dans un contexte socio-historique, et dans la distribution des cognitions entre les acteurs humains et les objets – pour en tirer la conclusion suivante : « Ces définitions du caractère situé de la cognition permettent de montrer qu'elle se manifeste dans des compétences qui sont imbriquées dans des activités et des cadres de participations spécifiques et qui donc ne peuvent pas être ‘ exportées ' sans problème, généralisées à d'autres contextes ou traitées comme universelles. (ibid. 169) » Il en résulte que la notion d'interlangue, habituellement liée au développement systématique (et probablement universel pour certains domaines) des compétences d'un individu apprenant une langue, doit être reconsidérée dans la perspective du caractère situé de toute action. La diversité des contextes de pratique sociale demande et stabilise des compétences d'action qui permettent à l'individu apprenant de répondre aux exigences habituelles des interactions quotidiennes. Ces compétences sont sociales, il est par conséquent difficile de les décrire en faisant abstraction du contexte de leur déploiement; il semble inapproprié de les concevoir comme étant prioritairement des compétences de l'individu qui par ailleurs dispose d'une grande variabilité de compétences selon les situations et les interactants; la diversité et les différences des compétences entre individus dans leurs capacités d'action s'expliquent par la spécificité des contextes d'appropriation et des pratiques sociales dans lesquelles elles émergent, se développent et se stabilisent selon les besoins. Pour exemplifier les conséquences d'une telle approche, je reviens à un des aspects de la particularité de nos corpus, c'est-à-dire des pratiques sociales qu'ils documentent. Les étudiants et élèves faisant un séjour linguistique en France ou en Allemagne ont conclu avec la majorité de leurs interlocuteurs habituels une sorte de contrat didactique qui, par moments, semble l'emporter sur tout autre contrat de communication. La fréquence des centrations sur la forme constitue en même temps une préférence d'activités qui sont censées contribuer à la construction de ce que Py appelle la microsyntaxe; elle concerne la structure interne des segments du discours, elle est analytique et s'ouvre directement sur la notion de correction grammaticale. Pour Py, son développement est ultérieur à l'émergence de la macrosyntaxe qui relie des unités, porteuses de sens discursif, selon les règles d'une « logique d'implication pratique » et qui accumule au fur et à mesure du développement d'une interaction la mémoire discursive des acteurs. La macrosyntaxe repose massivement sur l'emploi de structures figées, inanalysées et ayant le statut de simples lexèmes même si leur structure interne peut être décrite comme étant composée et syntaxiquement complexe; elle permet à l'apprenant, en particulier dans les premier stades acquisitionnels, de participer à la praxis sociale. On voit à l'exemple de Mikkel que ce système est très performant sans la moindre intervention au niveau de la microsysntaxe. Par conséquent, il n'est pas sûr que la centration sur la forme et son rôle facilitateur pour des processus du développement de l'interlangue explique, de façon générale, le fonctionnement de l'appropriation d'une langue seconde en interaction sociale. Il faut plutôt faire l'hypothèse que la présence d'un contrat didactique fait partie d'une pratique sociale spécifique qui favorise le développement de la microsyntaxe et qui s'inscrit dans le cadre plus large de l'enseignement des langues à l'école. Même si, à long terme, Mikkel (l'alloglotte du premier exemple) va être capable de se débrouiller aussi bien que Hannelore (exemple 2) dans son conflit avec le directeur du foyer, rien ne prouve que les processus qui l'y ont conduit aient été les mêmes. C'est autour de ce type de questionnements que la recherche interactionniste sur l'acquisition va continuer .
L'article développe l'argumentation méthodologique selon laquelle des choix théoriques constituent les objets de recherche. Or, les termes d'interculturel ou d'exolingue ne dérivent pas des qualités intrinsèques, ou objectives, de situations d'interaction ou de communication ; ils relèvent plutôt d'une perspective de recherche spécifique qui se construit son objet à partir de données empiriques. L'analyse d'exemples tirés de corpus de communication authentiques permet d'exemplifier ce point. Une deuxième argumentation souligne le caractère situé de tout corpus conversationnaliste dont la spécificité rend difficile la généralisation des observations par rapport à l'interlangue des interlocuteurs alloglottes ou par rapport aux processus acquisitionnels, en particulier en ce qui concerne la notion de contrat didactique.
linguistique_524-06-10732_tei_439.xml
termith-596-linguistique
Le continuum de Kendon (1988) repris et largement diffusé par David McNeill correspond désormais à un des canons des études sur la gestualité. Sans entrer dans le détail de cette taxonomie, on peut dire qu'elle linéarise les phénomènes gestuels. Ils vont du moins conventionnel au plus linguistique selon quatre axes majeurs qui distribuent les instances suivantes : Gesticulation > Gestuelle > Pantomime > Emblème > Langue des signes En creux des quatre continua, le découpage en instances apparemment non hiérarchisées répond à un ordre souvent en présence de la gestualité, celui de la parole articulée en langage. Rien ne dit que cette ontologie vocale/verbale s'applique de la même manière à des phénomènes gestuels dont les contextes d'apparition divergent tant (pantomime, langue des signes, gesticulation). Nous voulons montrer que la physiologique articulaire structure des Unités gestuelles (UG désormais) qui constituent une base stable et indépendante de la typologie proposée dans le continuum, et qui sont susceptibles d' être investies par des significations. Nous voulons montrer ici qu'une structuration corporelle opère pour certaines unités gestuelles. Ainsi, on ne saurait considérer le corps comme un simple support pouvant recevoir un ordre de constitution supérieur à lui, celui forgé par une linguistique durablement marquée par les langues vocales étudiées. Le corps ne porte pas seulement la gestualité, il l'informe. Plus qu'un support, c'est un substrat (Boutet et Cuxac, 2008). L'approche présentée ici inverse la direction générale du continuum. Il s'agit de considérer des gestes iconiques, voire certains bâtons, comme des gestes emblématiques esquissés soumis à un tempo parolier d'une autre nature. De ce fait les gestes considérés, iconiques ou bâtons, pourraient être porteurs d'un sens esquissé comme autant de gestes non aboutis. Une primauté du sens est donnée aux gestes au détriment – on va le voir – d'une appréhension visuelle de leurs formes. En revanche, des filiations formelles de ces gestes basées sur une structuration physiologique fournissent le substrat sur lequel vont se rassembler des unités pourtant redevables de différences visuelles importantes. Nous proposons ici d'exposer dans une première partie la matérialité de la gestualité à travers le modèle physiologique de structuration des gestes. Pour l'essentiel, non seulement celui -ci favorise l'émergence de formes gestuelles stabilisées mais en plus il organise la signification de ces unités gestuelles par des composantes identifiables, les degrés de liberté insérés dans des schémas d'action. L'organisation proposée est testée à travers une tâche d'assignation d'étiquettes demandée selon une méthode des juges. La description de ces tests ainsi que leurs résultats sont exposés dans une deuxième partie. Le membre supérieur est décomposable en segments. Il présente donc une infrastructure qui sous-tend l'ensemble des mouvements possibles : les degrés de liberté et leurs combinaisons (Kapandji, 1997). Répertoriés, ces degrés ne sont pas si indépendants qu'il parait au premier abord. D'ailleurs, ils n'ont pas tous une amplitude fixée; ils peuvent co-varier. En outre, ils ne sont pas exempts de mouvements involontaires déterminés mécaniquement par la forme des segments et de leurs articulations (pour une présentation plus détaillée voir Boutet, 2008). Des mouvements induits affectent parfois à distance des segments non adjacents. Nous verrons également que les rapports géométriques des axes de rotation d'un même segment peuvent changer au cours d'un geste. Commençons la description par l'extrémité la plus libre : la main. Ce segment présente 3 degrés de liberté correspondant à trois axes de rotation perpendiculaires les uns aux autres en position de repos (i.e. paume ouverte vers l'avant, la main ballante le long de l'avant-bras, lui -même dans le prolongement du bras, ce dernier étant sur le côté du corps). La pronation et la supination composent les deux pôles d'un degré de liberté de 180° d'amplitude dans à peu près toutes les positions de l'avant-bras à l'exception d'une position de flexion de 80° pour l'avant-bras (main collée à l'épaule) pour laquelle la pronation ne dépasse pas 45°. Une bonne représentation du mouvement de ce degré de liberté correspond au geste associé à la comptine « Ainsi font font font les petites marionnettes ». La flexion/extension de 180° compose un autre degré de liberté; elle est d'une amplitude équivalente à celle de la pronosupination. Lorsque les doigts pointent en avant ainsi que l'avant-bras, le mouvement de flexion extension porte la paume vers soi (flexion) ou vers l'avant (extension). L'orientation des axes de rotation respectifs ne varie pas pendant un mouvement. Le troisième degré de liberté le plus atypique de la main, l'abduction/adduction, est de faible amplitude (35° du côté de l'adduction – lorsque dans le plan de la paume le mouvement de la main oriente celle -ci vers l'auriculaire –, et 15° du côté opposé – abduction – du côté du pouce). Cette amplitude restreinte amène bien plus rapidement vers un transfert du mouvement sur l'avant-bras que pour les deux autres degrés de liberté. Au demeurant, l'orientation de l'axe de rotation de l'abduction/adduction varie à mesure que la main se rapproche d'une flexion ou d'une extension maximale (Kapandji, 1997, p. 142). Cette variation peut rendre parallèle et finalement coïncidant cet axe de l'abduction/adduction avec celui qui régit les mouvements de pronosupination. Confondus, ces deux degrés de liberté varient de manière polaire et symétrique : la flexion et l'extension inversent la liaison des deux autres degrés de liberté. Par exemple, le geste oscillant qui signifie « Au revoir » pour lequel la main en extension totale lie deux choses : la pronation avec l'abduction (l'un ne peut être fait sans l'autre) pour le mouvement vers l'index, et à l'opposé, la supination avec l'adduction lorsque le mouvement oscille dans l'autre direction, vers l'auriculaire. Pour un autre geste également oscillant qui place la main dans une position de flexion maximale cette fois : paraphrasé « Holàlà » (pointe des doigts vers soi, main fléchie au maximum, voir Calbris, 1990, p. 2 et 4) le mouvement de pronation va de pair cette fois avec celui d'adduction (du côté de l'auriculaire), tandis que le mouvement vers l'index (abduction) est coïncident de la supination. Bien évidemment cet alignement d'axes est une tendance qui augmente à mesure qu'on se rapproche d'une position de flexion/extension maximale. Ainsi, elle exerce son effet sur la quasi-totalité de l'amplitude de flexion/extension à l'exclusion de la partie neutre. Par ailleurs, une association de mouvements de deux degrés de liberté exerce une force sur la main dont le moment a un impact sur le troisième degré de liberté : elle oriente vers un mouvement induit de l'un des deux pôles. Du geste « Vous filez tout droit » en passant par celui d' « Attention à la fessée » jusqu' à celui d' « Au revoir », la position d'extension de la main croit et la coïncidence entre la pronation et l'abduction (mouvement du côté du pouce) augmente. Ainsi, sur le principe qu'on vient de décrire, on a toujours un mouvement induit – involontaire – dont l'impact en termes de pôles sur le troisième degré de liberté dépend de la différence de forces exercées par les mouvements volontaires qui affectent les deux autres degrés de liberté, mais aussi du nombre de degrés restant à l'amplitude maximale et des variations géométriques des axes de rotation. L'ensemble de ces facteurs permet de dresser une liste et une représentation de schémas d'action simples (24 en tout) sous forme de mouvements volontaires et liés à gauche du signe « > » et de mouvement induit à droite (voir schéma 1). L'avant-bras (voir schéma 2) présente 2 degrés de liberté (la flexion/extension et la rotation intérieure/extérieure) dont les amplitudes d'au moins 170° ont la particularité de ne pas être visibles dans toutes les positions au moins pour la rotation. Ainsi, lorsque l'avant-bras forme un angle droit avec le bras (flexion de l'avant-bras de 90° dirigé vers l'avant), la rotation intérieure/extérieure de l'avant-bras amène la pointe des doigts à tracer un demi-cercle dans un plan transversal au niveau de l'abdomen. À l'instar des longitudes sur un globe terrestre, lorsque la main se rapproche de l'épaule grâce à un mouvement de flexion de l'avant-bras, la distance séparant deux degrés de longitude diminue jusqu' à ce que l'ensemble de l'amplitude de la rotation intérieure/extérieure ne couvre plus qu'un arc de cercle de rayon très restreint pour une position de flexion totale. L'amplitude de la rotation intérieure/extérieure couvre une distance bien plus importante à l'équateur – pour filer la métaphore du globe terrestre – qu'aux pôles. Ainsi par exemple, la vision, ne rendant compte que de la distance parcourue, interprète de manière distincte la même différence angulaire de rotation intérieure ici et là. Dans l'autre direction, plus on se rapproche d'une extension totale de l'avant-bras (avant-bras dans le même alignement que le bras), plus le même phénomène exerce son effet, jusqu' à une particularité ajoutée, celle d'une coïncidence entre les axes de rotation de la rotation (intérieure/extérieure) de l'avant-bras et de la pronosupination de la main (l'avant bras, porteur de l'axe de rotation de la pronosupination est dans l'alignement du bras, porteur de l'axe de la rotation intérieure/extérieure). Ces deux mouvements, qui n'appartiennent pourtant pas au même segment, sont dès lors difficilement discernables. Ce qu'on en perçoit n'est rien d'autre qu'une rotation de la main sur elle -même, rotation qui ressemble fort à la pronosupination. Naturellement, ce phénomène que l'on vient de voir, de diminution de la distance parcourue, croit à mesure qu'on s'éloigne d'une position médiane de l'avant-bras, autour d'une flexion de 90° (angle droit entre le bras et l'avant-bras), à l'instar de ce qui se passe pour la flexion/extension de la main. De plus l'espace délimité autant que créé par les deux degrés de liberté de l'avant-bras est semi-ovoïde. À ses limites, les degrés de liberté se confondent visuellement. Par exemple, la main droite posée sur le cœur tandis que le coude est collé au côté (flexion de l'avant-bras d'environ 60°) peut glisser progressivement vers l'épaule (celle porteuse du bras en mouvement) jusqu' à la toucher. Pour ce faire, un mouvement de flexion de l'avant-bras est suivi d'un mouvement de rotation extérieure sans que l' œil délimite exactement quand on passe de l'un à l'autre degré de liberté. Quand un mouvement simultané affecte les deux degrés de l'avant-bras, on a une répercussion involontaire sur la main pour la pronosupination. Ici cette répercussion induite quoique trans-segmentale est aussi polaire et symétrique. Voici ci-dessous une représentation des combinaisons sous forme schématique. On peut remarquer une sensibilité à la différence de forces exercées sur les deux degrés de liberté qui bougent de manière volontaire (figurés dans la liste sous forme d'ordres différents) et une accentuation de l'induction à mesure qu'on se rapproche de l'amplitude maximale de l'un des deux pôles en mouvement volontaire. Le bras, quant à lui, comporte deux degrés de liberté d'au moins 180° d'amplitude chacun; l'un – l'abduction/adduction – amène un mouvement dans un plan frontal, d'une position basse où la main collée à la cuisse peut être projetée en haut, à l'aplomb de l'épaule en passant par le côté; l'autre degré de liberté – la flexion/extension – est effectuée dans un plan para-sagittal. Partant de la position de la main atteinte par une abduction de 180°, en haut et au-dessus de l'épaule, une extension d'au moins 180° voit les segments du membre supérieur alignés passer par l'avant puis atteindre en bas la position initiale, voire remonter vers l'arrière. Là encore un phénomène d'induction de mouvement, trans-segmental apparait et lie de manière symétrique et polaire un mouvement d'abduction (volontaire) à un mouvement de rotation intérieure et de pronation (involontaires), tandis que l'adduction du bras (sens horaire pour le gesteur) induit un mouvement de rotation extérieure et de supination involontaires (Kapandji, 1997, p. 22, pour une présentation du paradoxe de Codman et discussion). Tous les segments vus sont liés entre eux par une structuration physiologique articulaire telle qu' à côté des transferts inertiels des moments des forces en présence existent des abouchements transitoires de degrés de liberté. Ceux -ci, à moins d'un mouvement volontaire du pôle inverse à celui du mouvement induit, fusionnent transitoirement avec le(s) degré(s) de liberté volontaire(s). Ce type de transferts de mouvement, structurellement inscrit, est plus rapide et plus constant que celui dû à l'inertie. Le liage involontaire entre pôles réserve une part belle à la pronosupination qui est concernée à chaque fois; cependant dans un geste impliquant l'ensemble des segments du membre supérieur, le complexe de pôles en action, transférés involontairement ou non, peut amener à des non-congruences. Alors qu'un mouvement de pronation involontaire est attendu comme répercussion, le transfert inertiel d'un segment sur l'autre par exemple oriente vers une supination. On observe alors une compétition entre les deux pôles et finalement le mouvement qui en résulte. Fixons un système gestuel composé d'inerties et des structurations décrites. Au sein de ce système, seuls deux degrés de liberté bougent volontairement. Les mouvements sont transférés : le système distribue finalement un flux de propagation du mouvement soit proximal-distal (de l'épaule aux doigts) soit distal-proximal (propagation opposée). Les éléments qui participent à l'orientation générale du flux sont : les inerties de chaque segment qui donnent un gradient décroissant global par segment, du bras aux doigts; les transferts structurels que nous avons vus; l'amplitude des degrés de liberté et particulièrement la distance restant à l'amplitude maximale; et le différentiel des forces entre les deux degrés de liberté en mouvement volontaire. Sans entrer dans les détails de constitution des schémas d'actions, quarante unités gestuelles simples (UG, désormais) émergent à partir d'un double mouvement volontaire de deux degrés de liberté d'un segment. Ce double mouvement volontaire sur un segment diffuse sur tout ou partie du membre supérieur. Il compose finalement un schéma d'action unique (ensemble de mouvements de degrés de liberté reliés entre eux) représentant la matrice d'une UG. Ces UG remplissent l'espace multidimensionnel de possibilités physiologiques stabilisées et différenciées du membre supérieur – à l'exception des combinaisons des doigts et du pouce. Il s'agit bien ici d'un espace non métrique pour lequel les distances n'ont en conséquence pas de réalité, il s'agit également d'un espace à plusieurs allocentrages (au moins autant que de segments), c'est-à-dire d'un espace non égocentré. Enfin, il s'agit d'un espace dont la constitution n'est pas visuelle. L'auto-organisation des UG est donc fondée sur des déterminations physiologiques et physiques de déploiement du mouvement sur des degrés de liberté (ddl). Les différentes réalisations de ces UG répondent à un auto-contrôle proprioceptif. En fait, les réalisations que chaque UG déploie captent des enveloppes de formes. Celles -ci composent un réseau assez mêlé d'entre-croisements gestuels. Au point qu'il semble extrêmement long de pouvoir déterminer l'ensemble des variations d'amplitudes rassemblées sous une même UG, sans compter les transferts complets sur un autre segment (appelons -le support) que celui sur lequel l'unité gestuelle émerge et finalement se génère (ce sera le segment substrat). Ainsi, un geste organisé sur le bras, c'est-à-dire à partir de l'articulation de l'épaule, peut être partiellement transféré sur un segment adjacent comme l'avant-bras, il débordera de toute façon sur la main sous la forme d'un mouvement involontaire de pronosupination, comme nous l'avons vu. En respectant le schéma d'action de l'UG, le transfert du mouvement peut être total et finalement le geste peut être réalisé uniquement sur la main – et non pas par la main. La forme ainsi déployée sur la main capture une enveloppe plus qu'une forme unique (parce que dans un cas de transfert partiel, les variations d'amplitude de la même UG seront moindres), à côté de ce que la main génère en tant que substrat et non plus comme simple support. Ce qui est valable pour le bras l'est également pour les UG générées sur l'avant-bras qui débordent sur la main comme support cette fois encore. Cette distinction substrat/support est indispensable pour comprendre la génération de gestes d'une part et la zone de variations des unités ainsi constituées, d'autre part. Rappelons qu'ici les variations gestuelles de chaque UG ne sont pas repérables selon un cadre de référence égocentré (un repère haut, bas, avant, arrière ne signifie rien), ni selon une modalité visuelle, mais qu'elles appartiennent en propre à la matérialité corporelle et à la filiation formelle qu'offre cette matérialité. Si la filiation de réalisations à une même unité gestuelle constituée selon des paramètres physiologiques et physiques peut toujours être déployée sur le support membre supérieur, elle peut également être réduite aux mouvements de quelques degrés de liberté sur un segment support éloigné de son centre d'organisation. Jusqu'où va la réduction formelle de ces filiations ? En termes de distances segmentales, et en termes de nombre de degrés de liberté impliqués dans la réalisation ? En somme, constatant l'émergence et la constitution d'unités gestuelles autour de schémas d'action comme autant d'emblèmes potentiels, jusqu'où va la réduction de ceux -ci en gestes plutôt redevables d'une potentialité d'interprétation en gestes dits iconiques dans la typologie de McNeill ? Ces réductions du nombre de degrés de liberté en mouvement pour certaines réalisations permettent au locuteur/gesteur de s'adapter au débit parolier et la subsidiarité segmentale accroit les possibilités d'expression gestuelle par autant de segments disponibles hic et nunc. Nous ne présentons ici que 20 des 40 UG avec leur schéma d'actions respectif accompagné de leur proposition d'étiquette en guise d'unité de sens. Ces dernières relèvent de l'expérience et de l'intuition de l'auteur. La validité de cette assignation est testée (voir infra, partie 2). Le tableau 1 est organisé autour d'une césure verticale qui répartit de part et d'autre les inversions polaires des degrés de liberté manuels Flexion/Extension et Pronation/Supination. Une ligne horizontale sépare les UG en 2 blocs, 12 en haut, 8 en bas. Chacun de ces blocs est lui -même divisé par une ligne verticale. On a donc 4 sous-blocs en tout regroupés par pôles. Dans les deux sous-blocs supérieurs on distingue les UG 9, 10, 11 et 12 – les plus à l'extérieur – dont le substrat est l'avant-bras ou le bras. Sous l'étiquette de chaque geste figure le schéma d'actions organisé en ligne manuelle (de gauche à droite des quantités de mouvements décroissants), en ligne d'avant-bras (INT et EXT : abréviations de rotation intérieure et extérieure) et parfois en ligne du bras. Chaque UG est numérotée. La composante volontaire du segment substrat de chaque schéma d'action est soulignée. À position équivalente dans le schéma d'action, la casse des pôles manuels donne l'importance de la quantité de mouvement. Pour 20 UG nous analysons la validité de la catégorisation gestuelle fondée sur les principes de physiologie articulaire énoncés plus haut, à travers un test d'association d'étiquettes à des réalisations gestuelles. Il s'agit de présenter des réalisations gestuelles sous forme vidéo respectant les schémas d'action, hors de tout contexte verbal, à raison de 2 séries de 10 gestes chacun. Ces réalisations impliquent toutes au moins le mouvement du segment substrat. Chaque geste numéroté est présenté 3 fois de suite à 41 sujets. Pour chaque geste présenté, les sujets doivent sélectionner une seule étiquette sur 10. L'ordre de présentation des gestes n'est pas aléatoire : ils sont répartis dans l'une des 2 séries des 10 étiquettes dès lors qu'ils sont jugés comme proches. 41 sujets ont passé les deux séries de test. Nous testons ici la potentialité des gestes à être catégorisés de manière significative, d'une part, et, d'autre part, à l' être avec une étiquette attendue. Si c'est le cas, les gestes proposés sur une base de constitution purement physiologique révèleront alors que celle -ci est non seulement sémantique mais qu'elle organise aussi les sens en fonction d'une structuration qui repose sur les linéaments du corps. La situation du test met en présence deux systèmes sémiotiques présentant des proximités respectives entre éléments. On peut dégager à priori deux types de proximité, celle formelle des gestes présentés et celle sémantique des étiquettes proposées. La première s'apprécie d'abord à l'aune des centres d'organisation et des pôles des degrés de liberté en mouvement dans le schéma d'action : les schémas d'action les plus proches partagent les mêmes pôles, dans le même ordre (tels les gestes 1 et 3, voir tableau 1, supra), puis les mêmes pôles dans un ordre différent au moins pour un segment (les gestes 1 et 7), ensuite, toujours les mêmes pôles mais cette fois l'ordre différent touche deux segments (1 et 5, la main et l'avant-bras). Toujours pour les 20 UG, la proximité gestuelle diminue encore lorsqu'un des pôles du segment organisateur est inversé dans un autre schéma. Pour l'avant-bras (UG 3 et 4, 9 et 10, Rot.EXT vs Rot.INT), cette inversion entraine deux inversions polaires sur le segment support, c'est-à-dire la main (non générateur de l'UG). Lorsque la main constitue le segment substrat (UG 1, 2, 5, 6, 7, 8 et de 13 à 20), une seule inversion polaire entraine automatiquement un changement d'ordre sur le segment substrat (UG 1 et 13 par exemple). Lorsque les deux pôles de la flexion/extension et de la pronosupination de la main substrat sont inversés et pour une même quantité de mouvement (même ordre dans les schémas) alors on a un antonyme (« rejeter » 1 [pro+ADD>exten] vs « passer » 2 [supi+ADD>flex ], « refuser » 7 [ADD+EXTEN>PRO] vs « accepter » 8 [ADD+FLEX>SUPI]). Si en plus de cette double inversion l'ordre des degrés de liberté n'est pas le même, la distance s'accroit encore. L'antonymie ne constitue donc pas la distance gestuelle la plus importante. À côté de cette distance gestuelle, les étiquettes présentent elles aussi une distance propre non homéomorphe à cette dernière. Par-delà la signification attachée à chaque étiquette, la polysémie associée (Victorri et Fuchs, 1996) amène pour le test une lecture catégorisante de ces étiquettes. Chacune apporte dans sa globalité même un ensemble de sens qui doivent servir de cibles privilégiées à partir d'un geste source. Chaque cible/étiquette, multiple, ne partage évidemment pas les mêmes frontières avec le geste auquel elle sera associée par les sujets. Il s'agit plutôt de vérifier que des UG dont la constitution repose sur des principes physiologiques fonctionnent néanmoins comme des entités sémantiques distinguables malgré la proximité de formes des gestes présentés, d'une part, et, malgré le réseau sémantique serré des étiquettes, d'autre part. L'inférence statistique permettant de déterminer la significativité des résultats est la loi binomiale (voir tableau 2). On considère qu'en deçà de 5 % de chance que le hasard intervienne dans le choix d'étiquette fait par l'ensemble des sujets, on a bien un choix significatif des étiquettes de la part des sujets. L'inférence statistique utilisée ici mesure la probabilité d'intervention du hasard dans le choix des étiquettes : en dessous d'une probabilité de 5 %, le choix ne relève plus de l'aléatoire, il est fait de manière significative par les sujets. 18 réalisations gestuelles sur 20 sont étiquetées de manière significative par le mot attendu. Cela signifie que le modèle de structuration physiologique est validé, puisque 90 % des UG fonctionnent comme des entités susceptibles d' être mises dans une catégorie sémantique unique. En outre, derrière cette catégorisation unique, les étiquettes proposées correspondent, pour 90 % des cas aussi, aux étiquettes attendues. Les deux unités gestuelles qui sont reconnues de manière à peine significative (Probabilités 0,02; UG 15 [étiquette attendue : « arrêter »] et 19 [étiquette attendue : « disparaitre » ]) sont néanmoins de préférence étiquetées « refuser » et « arrêter », étiquettes qui, par ailleurs, sont significativement attribuées aux UG 7 et 3, comme nous l'attendions. La seule différence entre les schémas d'actions des UG présentés et des étiquettes non attendues réside dans l'alternance flexion/extension manuelle pour l'une – les deux pôles des deux autres degrés de liberté restent identiques – et dans une proximité d'ordre pour l'autre. Y compris pour les deux seules mauvaises attributions, on observe ainsi que la structuration physiologique est respectée. Parmi les 18 UG reconnues, d'autres étiquettes ont pu être attribuées de manière significative quoique dans une moindre mesure que celle choisie de préférence. On ne peut s'attendre à ce que des gestes non répertoriés comme emblèmes soient alloués à une seule étiquette à l'exclusion d'autres, surtout lorsque ces dernières sont proches (« considérer quelqu'un » et « révérer », « omettre » et « mettre de côté » ou bien « mettre de côté » et « rejeter », « accepter » et « constater » par exemple). En outre, les plus fortes proximités gestuelles sont nombreuses parmi les UG des deux tests : 2 trios et 5 paires d'UG partagent les mêmes pôles manuels, pour lesquels seul l'ordre d'enchainement du mouvement varie (proximité d'ordre : voir par exemple UG 1, 5, 12 pour un trio et 16, 18 pour un duo). Les doubles étiquetages surviennent 12 fois dans le premier test et 6 fois avec les UG du deuxième test. Pourtant ceux -ci ne concernent jamais les proximités d'ordre, soit les plus grandes. Ainsi, il n'y a pas de confusion dans la forme des gestes, fût -ce pour une simple différence d'ordre des composantes du mouvement : à grande proximité, parfaite distinction. En fait, outre cette quasi-identité gestuelle jamais confondue dans ces tests, trois autres facteurs de proximité sont à examiner ici. Le premier concerne le type de degrés de liberté qui change à travers le double étiquetage. Il est déterminé en comparant le schéma d'action de l'UG source avec celui de l'étiquette attribuée à tort (UG cible). Ainsi, l'UG 14 « constater » bien étiquetée, est aussi étiquetée « offrir » (UG 11, cible). La différence de degrés de liberté entre les deux schémas d'action est polaire : l'UG source (14) contient une extension tandis que l'UG cible (11) présente une flexion. La confusion concerne donc ici la flexion/extension. Nous verrons que le type de degrés de liberté est concordant avec le changement sémantique. Le deuxième type de proximité relève du nombre de pôles inversés entre l'UG source et celle(s), cible(s), pointée(s) par l' (es) étiquette(s) attribuée(s) de manière abusive. On peut avoir de 1 à 3 pôles inversés : l'exemple précédent présente une seule inversion, comme par exemple entre l'UG 10 (source) et l'UG 15 (cible), un pôle est inversé : l'abduction/adduction. Ce critère relève plutôt de la forme. Le dernier type de proximité a trait à la position du pôle qui change dans la composante manuelle du schéma d'action entre les UG source et cible. Trois positions sont susceptibles de changer. Les deux premières relevant d'un mouvement volontaire, on suppose qu'un véritable choix s'y opère. La troisième position, toujours induite, n'est modifiable qu' à la seule condition d'un changement d'ordre des deux premiers pôles en mouvement. Ce n'est jamais le cas ici ou bien par modification polaire d'au moins une des deux premières positions (voir supra entre l'UG source 19 et l'UG cible 15). Le statut de ce critère est difficilement qualifiable. Quelles composantes en termes de pôles sont confondues ? Voyons d'abord celle qui n'est jamais confondue : les schémas d'action visés par une étiquette cible jouant de la seule inversion polaire pronation/supination n'apparaissent jamais. De manière générale, sur 18 doubles étiquetages – 12 du test 1 et 6 du test 2 –, 8 concernent la seule alternance polaire flexion/extension, 2 celle de l'abduction/adduction simple, zéro pour la pronation/supination – on vient de le voir – et enfin on a 6 doubles inversions (flex/exten et pro/supi, par exemple) ainsi que 2 cas d'inversion polaire pour les 3 degrés de liberté manuels. On a donc une forte représentation de la flexion/extension, comme si à lui tout seul le changement polaire de ce degré de liberté n'opérait pas de changement important dans la signification des gestes. À l'opposé, la pronation/supination semble impliquée dans le changement sémantique, dans le double étiquetage des UG : son absence d'inversion polaire unique le prouve. Au demeurant rappelons que la pronosupination est le seul ddl à agréger autant de mouvement induit provenant de trois segments du membre supérieur, le rendant ainsi réceptacle potentiel de significations, et le seul de la main à ne pas présenter de transfert inertiel vers l'avant-bras ou le bras – marquant son absence de diffusion trans-segmentale de la signification. Ce dernier point est au contraire fortement assumé par l'abduction/adduction à cause de son amplitude limité (50°). L'abd/add fonctionne comme un rapide diffuseur trans-segmental des UG organisées sur la main. Couplé avec sa position dans le schéma d'action, il constitue un bon indice de distribution des centres d'organisation. En première position et en partie en deuxième, il marque une organisation manuelle des UG. Lorsqu'il est en deuxième position (pour une faible quantité) et en troisième position, la main en quelque sorte subit un flux proximal-distal de propagation du mouvement donné par des segments supérieurs à inertie plus grande : la main est alors non plus substrat mais support d'un geste. C'est le cas ici pour les UG 3, 4, 5, 6, 9, 10, 11 et 12. Le rôle de l'abduction/adduction dans la signification des UG n'est pour l'instant guère plus éclairci. À propos du deuxième type de proximité – celui du nombre de pôles inversés – un gradient à priori décroissant existe d'une seule inversion polaire jusqu' à trois possibles entre deux schémas d'action (dans leur composante manuelle). Moins il existe de pôles inversés, plus les schémas d'action sont proches et plus on peut s'attendre à une confusion entre les gestes, marquée par un double étiquetage. Les faits appuient cette conception : sur 18 doubles étiquetages d'UG, environ 56 % sont issues d'inversions polaires simples, 34 % d'inversions polaires doubles, et à peu près 11 % d'inversions polaires triples. L'étiquetage sémantique, y compris dans ces erreurs, repose sur un modèle gestuel prévisible, qualifiable par la physiologie articulaire. Le troisième facteur de proximité (et en conséquence de distance), la position des inversions polaires dans le schéma d'action, semble entretenir un rapport étroit avec au moins l'un des deux autres facteurs de proximité, on vient de le voir avec l'abduction/adduction, marqueur des centres d'organisation. À regarder les UG dans le tableau 1, on voit nettement que pour le seul changement d'ordre des pôles en mouvement dans les schémas d'action sans inversion polaire, la proximité la plus grande opère, les étiquettes en font foi (« rejeter » 1, « déconsidérer » 3, « refuser » 7 ou encore, « disparaitre » 19, « arrêter » 15, « omettre » 13 et « mettre de côté » 17), quand bien même cette proximité ne donne lieu dans les tests à aucune confusion. Par ailleurs, l'ordre dans le schéma d'action et par conséquent la position dans le schéma dépend toujours de la quantité de mouvement d'un autre ddl en mouvement et dépend aussi de l'amplitude restant à parcourir jusqu' à la butée articulaire. En somme, la position dans un schéma d'action est déterminée par la quantité de mouvement des deux premiers ddl; on ne peut envisager l'une sans prendre en compte l'autre. En outre les ddl – y compris chacun des pôles – réagissant différemment à l'endroit du transfert possible de leur mouvement, dans la pratique chaque UG constitue un cas quasi particulier. Pourtant, en théorie, on doit pouvoir suivre jusqu' à l'enchainement des proximités des schémas gestuels et donc des UG. Pour mieux déterminer les relations et les fonctions de l ' ordre, de la position de l'inversion polaire ainsi que les relations entretenues avec le nombre d'inversions et le type de degrés de liberté touchés, les tests présentés ici ne sont évidemment pas suffisants. Il faut, d'une part, les étendre aux 20 autres UG qui ont à peine été évoquées ici et, d'autre part, multiplier les tests en variant les associations d'UG. Nous avons montré qu'une structuration physiologique d'unités gestuelles est susceptible de comporter une catégorisation étiquetable, à l'instar d'emblème, sans contexte verbal. Ces gestes pourtant très proches par leur forme (plus qu'aucun emblème) sont isolables; mieux, leur entour le plus immédiat n'est pas confondu. En outre, un réseau interdépendant de proximités compose des relations qui commencent à être explicitables et dont certains retentissements sémantiques émergent. En somme, on peut aborder la composition même de ces gestes à l'aide de critères internes qui interrogent tout autant la sémiose gestuelle que les spécificités du substrat. Montrer qu'une organisation aussi forte maintient et différencie tout à la fois des réalisations aussi ténues ne peut être sans conséquence sur les catégories en place dans le continuum gestuel de Kendon. À position identique dans le schéma d'action, l'alternance polaire de la pronosupination qui débouche sur des antonymes (UG 1 versus UG 2, ou bien 7 vs 8 ou encore 19 vs 20) rend caduc l'argument d'une augmentation de la convention pour les emblèmes puisque cette alternance est entièrement fondée sur un fait de nature (la physiologie articulaire). Au demeurant, il serait douteux qu'une organisation morpho-dynamique et sémantique valable pour un input gestuel de double mouvement volontaire soit remise en cause pour une entrée gestuelle mettant en mouvement un seul degré de liberté, autrement dit pour un geste dont la forme serait plus simple (comme un bâton ?). Il reste à étendre l'étude de la structuration physiologique sur d'autres gabarits gestuels et à multiplier les tests d'assignation sémantique et de reconnaissance .
La gestuelle coverbale est trop souvent associée à (contaminée par?) la parole co-occurrente. Elle relève pourtant d'une modalité non linéaire. La compositionnalité possible de la gestuelle ouvre sur une voie d'expression multilinéaire du sens. En dehors des emblèmes, aucun inventaire lexical ne permet d'étudier les productions gestuelles. Une approche physiologique répond à ce préalable: inventorier pour éclairer la composition. Après avoir présenté la structuration articulaire de la gestualité, les résultats d'un test d'assignation d'étiquettes montrent la validité d'une catégorisation structurée par les degrés de liberté (ddl) de la physiologie articulaire. Des proximités formelles sont explorées, elles forment une typologie qu'il reste à informer. En outre, des relations formelles et sémantiques émergent entre ces ddl. Elles seront abordées ici.
linguistique_12-0078201_tei_845.xml
termith-597-linguistique
Le Portfolio européen des langues (PEL), développé entre 1998 et 2000, est présenté par le Conseil de l'Europe comme « un document dans lequel toute personne qui apprend ou a appris une langue – que ce soit à l'école ou en dehors – peut consigner ses connaissances linguistiques et ses expériences culturelles, ce qui peut l'inciter à réfléchir sur son apprentissage ». Le PEL se compose de trois parties principales : le Passeport, qui donne une vue d'ensemble des compétences en langues de son propriétaire, la Biographie langagière, qui vise à favoriser la réflexion sur l'apprentissage des langues, et le Dossier, qui illustre les compétences en rassemblant les productions langagières les plus significatives. À ces trois parties s'ajoute une Annexe qui décrit les compétences en fonction du système des niveaux du Cadre européen commun de référence pour les langues. Le PEL bénéficie de l'enthousiasme de nombre d'enseignants, même si beaucoup hésitent encore à franchir le pas et à l'utiliser avec leurs étudiants. Plusieurs raisons expliquent cet accueil favorable : le PEL jouit d'une reconnaissance internationale; il favorise l'auto-évaluation selon une échelle européenne, valable pour toutes les langues; il permet aux étudiants de consigner leur niveau dans toutes les langues qu'ils possèdent à des degrés divers; il stimule la réflexion sur la manière d'apprendre les langues; il propose des objectifs d'apprentissage définis; il peut être mis à jour au fur et à mesure de l'apprentissage; il rend concret l'enseignement des langues à l'université et permet aux candidats à un poste de présenter aux entreprises leurs capacités et leurs réalisations; son coût de duplication, même en version papier et même dans le cadre d'un enseignement de masse, reste raisonnable et sera même rendu nul par les portfolios numériques qui sont sans doute à venir. Pour les enseignants de langues, le PEL aide à structurer les enseignements et apporte une reconnaissance institutionnelle et internationale à leur travail. Il relativise l'importance à accorder aux certifications de type TOEFL et TOEIC. Dans le cadre d'une approche cognitive de l'enseignement, dans la mesure où il présuppose que la réflexion sur l'apprentissage favorisera l'apprentissage et développera la motivation, il est l'outil métacognitif par excellence. Pour Schneider et Lenz (2001), le projet du Portfolio possède deux objectifs : fournir, d'une part, un bilan des capacités en langues vivantes et, d'autre part, motiver les apprenants. Si les institutions ont validé le PEL étudiant, le considérant comme une avancée, comment ce dernier est-il perçu par les étudiants auxquels il est destiné ? Suscite -t-il le même enthousiasme ? Est-il motivant ? Les conduit-ils à travailler différemment ? Recourent-ils davantage aux méthodes en libre accès dans les centres de langues ? Se donnent-ils des objectifs d'apprentissage ? Nous proposons, dans ce travail, une étude quantitative permettant de jauger les changements, notamment sur la motivation, induits par une utilisation du PEL qui s'appuie essentiellement sur la Biographie et dans le contexte de l'enseignement présentiel en 1 e et 2 e années de Sciences économiques. Pour ce faire, nous avons mis en place un protocole d'expérimentation. Le PEL se prête à de multiples utilisations. Little et Perclová (2001) en présentent deux : la première consiste à commencer par le Dossier pour ensuite se fixer des objectifs; la seconde propose de considérer le Dossier comme un élément dynamique qui peut être mis à jour régulièrement et donner lieu à une auto-évaluation de l'apprenant, qui se fixera alors nouveaux objectifs. Pour Kohonen (2001), il en existe une troisième : le Dossier peut constituer l'élément central du dispositif, la Biographie langagière n'intervenant que pour réaliser un bilan en fin de parcours. Nous avons choisi de proposer aux étudiants de s'auto-évaluer au moyen du Portfolio et de Dialang, test diagnostique en ligne permettant l'évaluation en quatorze langues à partir des niveaux du Cadre européen commun de référence. Ensuite, les étudiants étaient invités à se fixer des objectifs d'apprentissage. Plusieurs raisons ont présidé au choix de cette utilisation du PEL. D'une part, l'auto-évaluation initiale au moyen de l'Annexe et de la Biographie tient compte de compétences de communication interculturelle qui sont à la fois un préalable et un objectif de l'apprentissage, considéré dans une perspective holistique. D'autre part, nous avons voulu nous appuyer sur les conditions locales, à savoir le multiculturalisme des étudiants, dont un quart sont ressortissants d'un pays étranger, en Licence 1 e et 2 e années dans un contexte national uniculturel où tous les cours sont dispensés en français (hors cours de langues). Ces conditions diffèrent, par exemple, de celles d'autres pays du Conseil de l'Europe où l'on utilise le Portfolio, par exemple en Suisse, qui compte trois langues officielles. Enfin, orienter le travail sur la Biographie et le Dossier suppose aussi la motivation et l'implication des collègues qui, dans ce cas précis, ont distribué le PEL, mais pas véritablement choisi de l'utiliser. Cette question de la motivation est capitale dans la manière, ou la méthode, de mettre en œuvre le PEL et dans toute l'expérimentation sur ce sujet, comme nous le verrons ci-après. Motiver les apprenants est l'un des deux objectifs qu'assigne au PEL le Comité de l'éducation du Conseil de l'Europe dans ses Principes et lignes directrices. Cependant, dans les faits, le PEL est-il véritablement motivant ? Dans son rapport sur la phase pilote de l'utilisation du PEL, Schärer ne répond pas clairement à cette question : Les enfants [les participants ], en effet, ont reconnu que le PEL les encourageait à réfléchir à leur apprentissage et 85 % d'entre eux ont considéré qu'il accroissait leur motivation mais 33 % d'entre eux seulement ont déclaré que le PEL les incitait à participer de manière plus active au processus d'apprentissage linguistique. (Schärer 2000 : 39) Or la motivation est précisément cette dynamique (Gardner & MacIntyre 1993) évoquée par Schärer. Ce dernier admet d'ailleurs que « la question de la motivation devra faire l'objet de nouvelles réflexions ». Une ambiguïté semblable existe concernant le bilan de l'utilisation du PEL par des apprenants étudiants : En ce qui concerne le transfert des capacités d'étude, 40 % de ces mêmes étudiants ont indiqué qu'ils étaient prêts à entreprendre des activités comparables d'auto-évaluation dans d'autres parties de leur cursus universitaire. Les capacités d'étude attribuées par les étudiants au rôle central du PEL dans leurs modules de langues vivantes comprennent en particulier : la définition d'objectifs d'apprentissage, l'établissement d'un calendrier d'étude, l'accroissement de la motivation, une meilleure compréhension du processus d'apprentissage et une plus grande capacité à la réflexion. (Schärer 2000 : 54) Ces propos ne permettent pas de connaître le pourcentage des étudiants qui ont jugé le PEL motivant pour apprendre les langues. Tout juste laissent-ils entendre en creux que 60 % ne sont pas prêts à transférer à d'autres matières leur capacité à l'étude acquise grâce au PEL. Pourtant, le rapport de synthèse 2001-2004 (Schärer 2004 : 5) indiquait que « [d]ans la plupart des cas, on a régulièrement constaté des effets positifs sur le processus d'apprentissage, les résultats de l'apprentissage et la motivation de l'apprenant ». Plus loin dans ce même rapport, on trouve une affirmation semblable, qui n'est toujours pas étayée : « [le PEL] influence de manière positive la motivation, le processus et les résultats de l'apprentissage » (Schärer 2004 : 17). Le fait que le PEL renforce la motivation constitue donc pour ses promoteurs plus une hypothèse de travail qu'une affirmation (Little & Perclová 2001). À supposer que le PEL soit effectivement motivant, comment cette motivation se développe -t-elle ? Selon Little et Perclová, le défi est donc de faire dire à l'apprenant ce qu'il trouve intéressant et de lui faire partager la responsabilité d'assurer que ce qui se passe dans la classe correspond à ses intérêts et lui est utile. (2001 : 41) Pour motiver les étudiants au mieux, il convient d'abord de les interroger sur ce qu'ils trouvent intéressant et ce qu'ils désirent faire, et ensuite de s'assurer que ce qui se passe en cours correspond bien à leurs attentes. Le PEL est conçu comme support à une discussion en TD et comme livre de bord de l'apprentissage. Il doit permettre d'instaurer une dynamique au sein du groupe : en étant conscient de ses processus d'apprentissage, on apprend mieux, ce qui renforce la motivation, laquelle conduit à travailler davantage et plus efficacement, etc. L'instauration de ce cercle vertueux dépend étroitement de l'attitude de l'enseignant à l'égard du PEL. Dans le Guide à l'usage des enseignants et formateurs d'enseignants (Little & Perclová 2001 : 47), les auteurs fournissent aux enseignants les explications suivantes : « […] il existe un parallèle clair entre (i) la détention du PEL par les apprenants et (ii) leur participation au travail et votre appropriation de l'approche de l'enseignement des langues décrite dans ce livre et votre engagement envers celui -ci ». Les conditions locales nous ont empêchée d'utiliser le PEL exactement de cette façon. Il est résumé au tableau 1. Les questionnaires ont été distribués en deux temps. Cent seize des questionnaires ont été recueillis en dixième semaine, avant ou après le test d'évaluation de fin de semestre, sur 471 étudiants inscrits en anglais en 1 e et 2 e années. Cela représente à peine 26,6 % des étudiants concernés. Contrairement aux instructions, tous les enseignants n'ont pas remis leurs questionnaires aux étudiants, parce qu'ils ont oublié de le faire (c'est la raison qu'ils ont invoquée). Un enseignant a fait remplir les questionnaires à un groupe mais ne nous les a jamais transmis. Devant le faible nombre de questionnaires reçus, nous avons organisé au second semestre, avant la reprise des TD, une réunion intitulée « Évaluation en anglais au premier et au second semestres ». Cette réunion était présentée comme obligatoire pour tous les étudiants inscrits en 1 e et 2 e années ayant choisi l'anglais. Elle visait à rappeler que le cursus d'anglais s'organisait sur trois ans, que le niveau attendu en fin de troisième année était B2, qu'il était important de s'auto-évaluer, que le PEL pouvait les y aider et qu'il leur permettrait aussi de planifier leur apprentissage. Sur les étudiants présents en début de réunion, vingt ont quitté l'amphithéâtre presque immédiatement, manifestant leur indifférence au PEL, et quarante-quatre de ceux qui n'avaient pas rempli le questionnaire au premier semestre ont accepté de répondre à nos questions. Au total, 34 % des inscrits en anglais en 1 e et en 2 e année ont rendu leur questionnaire. Il est reproduit en Annexe 1. Il comportait dix-huit questions, qui peuvent être réparties en plusieurs groupes. Le premier groupe de questions permet l'identification linguistique des étudiants. La première question leur demande de cocher l'année d'étude (1 e ou 2 e année). Les deuxième et troisième questions visaient, d'une part, à éclaircir l'intérêt et l'implication des étudiants dans leur apprentissage des langues et, d'autre part, à relier le PEL à Dialang et à l'échelle européenne des niveaux, rappelant ainsi la cohérence de l'ensemble. Le deuxième groupe de questions (questions 4 à 7) porte sur l'ergonomie du PEL et sa complémentarité avec les indications données en cours. En effet, la version Cercles/Ranacles comporte une soixantaine de pages en tout, et après hésitation, nous avons choisi de toutes les distribuer aux étudiants, y compris le fascicule intitulé Annexe, qui décrit les niveaux sur une trentaine depages. Ces trente pages ont pu nous sembler superflues, mais elles font pleinement partie du Portfolio de Cercles/Ranacles et nous savions que le Conseil de l'Europe ne valide les nouveaux PEL que lorsqu'ils sont accompagnés de listes de repérage très détaillées. D'ailleurs, la couverture de cette partie Annexe indique que « […] les listes de repérage n'ont pas la prétention d' être exhaustives ». Par conséquent, nous avons décidé de les conserver telles quelles. En distribuant un fascicule si épais, l'idée sous-jacente était de vérifier si cette épaisseur desservait le propos du PEL. Les réponses devaient nous permettre de nous rendre compte si les enseignants avaient reçu sur le PEL une information suffisante pour être en mesure de répondre aux questions des étudiants ou s'il fallait renforcer cette information. Les deux questions suivantes permettaient de vérifier comment les étudiants avaient organisé le temps passé à remplir le PEL, d'une part en début de semestre, et d'autre part éventuellement tout au long du semestre, pour, par exemple, se donner des objectifs et retourner cocher certaines cases lorsque l'objectif était rempli. Il s'agissait aussi de voir si les étudiants passaient plus de temps à essayer de se servir de leur PEL ou bien à travailler l'anglais en dehors du TD. Les questions 10 à 12 et 14 s'intéressaient à la motivation. La question 10 portait sur la perception par les étudiants de la valorisation de leur multilinguisme, notamment des langues patrimoniales. La forte proportion, en Sciences économiques, d'étudiants d'origine étrangère (Afrique noire, pays de l'Est, Maghreb) est l'un des motifs qui nous avaient conduite à adopter le PEL à la rentrée 2003. Le multilinguisme, tel que l'entend le Conseil de l'Europe, recouvre la maîtrise, à des degrés divers, de plusieurs langues étrangères. Les questions 11, 12 et 14 portaient sur les changements dans la manière d'apprendre induits par le PEL. Les trois dernières questions sollicitaient l'appréciation globale des étudiants quant à leur intérêt pour le PEL (question 15) en terme d'efficacité à moyen terme (six mois à un an), d'utilité réelle (question 16, première partie), d'utilité perçue (question 16, seconde partie) et d'appropriation de l'outil (question 17). Les résultats au questionnaire ont fait l'objet d'une saisie dans un logiciel de gestion de base de données. Nous avons collecté 158 questionnaires, dont 53,8 % d'étudiants de 1 e année et 46,2 % de 2 e année. Les pourcentages indiqués ici et dans l'Annexe 2 sont arrondis au demi-point. La première observation est que tous les questionnaires n'ont pas été remplis dans leur totalité. Si plus de 85 % ont répondu à toutes les questions du recto, moins d'un quart (24 %) ont répondu à l'ensemble de celles du verso. Un seul questionnaire comporte des réponses à chacune des 17 questions (hors questions portant sur l'année d'étude, et hors justifications). Cela ne peut s'expliquer parce que les étudiants n'ont pas lu le verso du questionnaire, puisque 92,6 % des étudiants ont proposé une réponse à au moins l'une des questions qui s'y trouvent. Le manque de temps pour répondre à des questions, dont beaucoup ne requéraient qu'une coche, suffit-il à expliquer la quasi-absence de questionnaires remplis totalement ? La deuxième question a suscité un grand nombre de réponses, puisque deux étudiants seulement n'y ont pas répondu. Seuls 17,7 % ont fait le test d'auto-évaluation Dialang, plus en 1 e qu'en 2 e année. Quant aux raisons qui expliquent pourquoi ils n'ont pas utilisé Dialang, un sixième environ de ceux qui ne l'ont pas fait déclare de diverses manières ne pas en avoir eu le temps (14,5 % citent le mot « temps » dans leur réponse, formulée le plus souvent de la façon suivante : « pas le temps », « je n'ai pas eu le temps », etc. La deuxième raison à égalité est l'ignorance; cela concerne 14,5 % étudiants. Pourtant, quatre diapositives de la présentation du PEL en début d'année concernaient Dialang. Les difficultés d'accéder à Internet depuis chez soi (3,8 % des réponses) sont aussi mentionnées, mais jamais celles pour y accéder depuis l'université. Ensuite, presque à égalité, les étudiants invoquent les problèmes techniques (6,8 % des réponses), leur propre organisation (l'oubli est cité par 4,4 %) voire assurent qu'ils ont l'intention de faire ce test (« je le ferai ce soir » ou « je le ferai demain » recueille 4,4 % des réponses). La distinction par année n'est pas pertinente pour l'analyse des réponses à cette question. Il était mesuré par les questions 3 et 13. Dans l'idéal, c'est le niveau C que les étudiants aimeraient avoir, à 76,6 %, mais leur objectif est légèrement en dessous, puisqu'ils visent plutôt B2. Plus d'un étudiant de 2 e année sur trois cible le niveau C2. Le fait que le niveau ciblé soit C pour 47,5 % des étudiants confirme les résultats de Taillefer (2004), mais il semble que notre échantillon soit encore plus demandeur d'un excellent niveau en anglais. Doit-on y voir un effet de la mise en œuvre de la réforme dite du LMD ? Quant aux 3,1 % qui ont répondu A1, ils se sont manifestement trompés sur la signification des indicateurs de niveaux, puisque à la question « Le PEL vous a -t-il permis de prendre conscience que vous en savez plus en langues que vous ne le pensez ? », quatre sur cinq ont répondu oui pour l'anglais et trois ont même travaillé en dehors du cours grâce au PEL (question 14). Elle est considérée comme globalement satisfaisante. Plus des deux tiers des étudiants ont trouvé que les objectifs du PEL y étaient clairement expliqués et seulement un quart ont jugé le PEL peu clair, mais bien expliqué par leur enseignant. Près de neuf étudiants sur dix ont compris les objectifs du PEL. Les enseignants, même sans aucune expérience antérieure du PEL, voire de l'enseignement, ont donc été clairs dans leur présentation aux étudiants. Le PEL étudiant est considéré comme globalement ergonomique (première et seconde réponses à la question 5) pour plus de 92 % des utilisateurs étudiants de premier cycle dans le cadre de l'enseignement présentiel. L'Annexe a été jugée claire et complète par 72,8 %, contre seulement 25,3 % qui l'ont trouvée « difficile à comprendre et confus(e) ». Visiblement, l'épaisseur du document et son nombre élevé de pages ne le rendent pas rébarbatif pour plus des deux tiers des utilisateurs, mais près d'un tiers affirment tout de même avoir été gênés par cette partie. Dans l'ensemble, le premier TD a été suffisant pour comprendre comment remplir le PEL et l'utiliser (pour près de 70 % des étudiants). Un tiers tout de même avait toujours besoin de l'aide de leur professeur au-delà du premier TD, ce qui souligne bien l'importance d'un accompagnement des étudiants. Cinquante-huit pour cent ont répondu qu'ils avaient mis « moins d'une heure » à remplir le PEL, et 29 % « une à deux heures ». À peine 5 % y ont passé plus de deux heures. Ces résultats nous ont étonnée à cause du nombre d'étudiants étrangers ou d'origine étrangère en 1 e et 2 e année. Le PEL demande des efforts de réflexion, de synthèse, de rédaction, en particulier dans la partie Biographie, qui nécessitent bien plus d'une heure. Vraisemblablement, les étudiants ayant répondu « moins d'une heure » et les douze étudiants qui n'ont pas répondu n'avaient pas, deux à quatre mois après la distribution du PEL, rempli toutes les rubriques de la Biographie. À noter que 5 % ont tout de même passé plus de deux heures, un étudiant citant le chiffre de cinq heures et un autre celui de dix. Néanmoins, la plupart se sont contentés de cocher des cases, ce qui confirme l'impression de certains enseignants. À peine 17 % affirment utiliser le PEL régulièrement. Parmi les raisons invoquées par les non utilisateurs réguliers (80 %), celle qui revient le plus souvent est que le PEL leur semble inutile. Ce point de vue est exprimé de façon plus ou moins nuancée. La plupart ne rejettent pas le fait que le PEL puisse être utile. Simplement, ils ne voient pas à quoi il pourrait leur servir. Les mêmes nuances se retrouvent dans les autres réponses. Parmi les trois étudiants qui ont répondu ne pas l'utiliser régulièrement parce qu'il est mal fait, l'un tempère son propos en suggérant que le PEL est une « bonne idée ». Pour ce qui est des autres réponses, trois déclarent ne pas savoir travailler avec le PEL, huit ne pas y penser, deux ne pas avoir fait l'effort de s'en servir, deux considèrent qu'une auto-évaluation grâce au PEL est moins valide qu'une évaluation et deux estiment ne pas avoir été suffisamment incités à utiliser le PEL. Seuls 9,4 % invoquent le manque de temps. Il ressort de ces diverses réponses que le PEL ne leur semble pas avoir d'utilité immédiate par rapport à leurs enseignements reçus en TD. Ils ne retiennent des fonctions du PEL que celle d'auto-évaluation et s'en servent peu pour fixer des objectifs et travailler en dehors du TD. Il existe un décalage entre les objectifs assignés en TD et ceux qui proposés par le PEL, seuls les premiers étant identifiables et concrets. La question 10 visait à vérifier si les étudiants percevaient la valorisation du multilinguisme opérée par le PEL et, au-delà, par notre université. La plupart des étudiants (74 %) se sont exprimés sur ce point et nous nous attendions à ce qu'ils citent des langues nombreuses et variées : celles étudiées au lycée, comme l'anglais ou l'allemand, des langues régionales, mais aussi l'arabe, l'hébreu et des langues africaines. Il n'en a rien été : seuls 16,5 % se sont sentis valorisés, chiffre sans rapport avec la forte proportion d'étudiants étrangers inscrits en 1 e et 2 e années de Sciences économiques (environ un quart). La langue la plus citée, l'anglais, ne l'est que par 6,3 % des étudiants, et toutes les autres, c'est-à-dire l'allemand, l'espagnol, le portugais, l'arabe, le belge flamand, le tahitien et le français ne l'ont été qu'une fois (0,63 % des étudiants à chaque fois). Aucune autre langue n'apparaît, en particulier aucune langue parlée en Afrique autre que l'arabe. Comment se fait-il que le PEL ne remplisse pas cet objectif de valorisation, du multilinguisme pourtant explicitement formulé dans le PEL ? Dans ce cas, la maîtrise de langues « patrimoniales » semble ne pas affecter la motivation, ce qui contredirait les observations de Clement, Dörnyei et Noels (1994 : 277). Le taux de réponses négatives à cette question (les trois-quarts) peut être mis en relation avec les 57 % qui ont indiqué avoir passé moins d'une heure à remplir le PEL. Celui -ci a été distribué en TD d'anglais. Peut-être les étudiants s'attendaient-ils à ne faire l'objet d'un suivi du dispositif PEL par l'institution que pour l'anglais, les autres langues relevant pour eux de la sphère purement privée. Pour plus d'un quart des étudiants interrogés, le PEL a permis de se fixer des objectifs concrets, plus en 2 e qu'en 1 e année. Une partie d'entre eux sont certainement ceux qui affirment l'utiliser régulièrement. Toutefois, rien n'indique que ces étudiants ont l'intention de travailler en autonomie pour réaliser leurs objectifs : peut-être comptent-ils surtout sur leur(s) professeur(s) pour atteindre ces objectifs. Le plus remarquable est la forte proportion (49 %) de ceux qui n'ont pas répondu à la question 11. Ne l'ont-ils pas comprise ? Doit-on y voir du désintérêt pour le PEL ou pour le questionnaire ? N'ont-ils pas eu le temps de répondre ? Par ailleurs, ceux qui répondent ne pas s' être fixés de nouveaux objectifs sont près d'un quart. Pourquoi ? Deux raisons sont invoquées : certains déclarent être autonomes et ne pas avoir besoin du PEL pour se fixer des objectifs; d'autres estiment, de façon très peu explicite, que les objectifs du PEL ne sont pas suffisamment concrets ou, en tous cas, ne les concernent pas (réponses du type « utiliser le PEL c'est ennuyeux » ou « je n'en vois pas l'intérêt »). Concernant les langues citées, celle qui revient le plus est l'anglais, dans près de 80 % des cas, mais l'ont été aussi le turc et l'hébreu, langues qui n'apparaissaient pas dans les réponses à la question 10. Quatre étudiants ont cité deux langues en plus du français et deux en ont cité trois. Par conséquent, l'interprétation des réponses à cette question dépend de l'observateur. On peut soit déplorer que le PEL n'ait profité qu' à un quart des étudiants, soit constater que le PEL a tout de même permis de donner de nouveaux objectifs d'apprentissage à 27,2 % des étudiants. Quant à savoir ce qu'il faut faire pour les aider à se fixer de nouveaux objectifs d'apprentissage, toutes les réponses suggèrent d'augmenter l'exposition aux langues. Bien que 27,2 % se soient fixé des objectifs grâce au PEL, 48 % s'y sont tenus ou s'y tiendront. Cette contradiction s'explique sans doute parce qu'ils ont compris la question, formulée ainsi : « Vous êtes vous tenus, vous tenez -vous ou vous tiendrez -vous à ces objectifs ? », comme « vous tiendrez -vous aux objectifs énoncés dans le PEL », et non « vous tiendrez -vous à des objectifs que le PEL vous aura permis de formuler ? ». La plupart ont mal interprété l'anaphorique « ces ». Aussi le « oui » à la question 12 doit-il être compris plutôt comme un « oui, j'ai effectué du travail personnel en dehors du TD ». Certains ne semblent pas différencier travail autonome et travail personnel. Cette interprétation est confirmée par les raisons des tenants du « non » à la question 12 : « les cours de langues ne sont pas assez structurés » et « on n'a qu'une heure et demie d'anglais par semaine; c'est insuffisant ». D'autres invoquent la difficulté de travailler en autonomie et le manque de motivation. Si 63 % n'ont pas changé leurs habitudes de travail grâce au PEL, il n'en reste pas moins que 27 % l'ont fait de diverses façons (travail en centre de langues, discussions avec amis étrangers, travail personnel à l'aide de manuels, etc.). Toutefois, de tels comportements, très concrets, demeurent assez peu motivants dans l'échelle de la motivation, comme le souligne Toffoli (2003). En outre, ils ne précisent pas ce qu'ils ont appris au cours de ce travail. À notre grande surprise, malgré la difficulté à travailler régulièrement avec le PEL et la difficulté, plus généralement, à étudier en autonomie, 36,5 %, plus en 1 e année qu'en 2 e, déclarent avoir l'intention de l'utiliser ultérieurement, même si leur enseignant ne le leur demande pas. Cette proportion est légèrement inférieure à celle des étudiants de 1 e année qui validera sans doute ses deux semestres, environ la moitié (les inscrits en anglais en 2 e année représentent 49 % de ceux de 1 e année). On peut s'interroger cependant sur la manière dont ils l'utiliseront : pour s'évaluer ou pour apprendre ? Toutefois, lorsque l'on demande s'ils trouvent le PEL motivant, près de 60 %, répondent par la négative, mais 34 % de ceux qui sont en DEUG 2 e année répondent « oui ». Là encore, le fait de considérer ces 34 % comme encourageants ou non dépend du point de vue de l'observateur. Les 27,1 % des 1 e année qui ont répondu par l'affirmative sont-ils aussi ceux, presque deux fois plus nombreux, qui valideront leur 1 e année ? Ces chiffres indiquent en tous cas que l'un des deux objectifs du PEL semble ne pas être rempli : le PEL n'augmente pas significativement la motivation. Il reste qu'un tiers des étudiants le trouvent tout de même « motivant ». En revanche, et c'est là une des multiples surprises que nous ont réservé les réponses à ce questionnaire, 55 % des 158 interrogés jugent le PEL « intéressant », à proportion équivalente en 1 e et 2 e année. Ils distinguent nettement efficacité et intérêt. Ceci confirme la distinction établie par Crookes et Schmidt (cités par Dörnyei 1994 : 277) entre « interest », c'est-à-dire la curiosité individuelle et le désir d'en savoir plus sur un sujet, et « relevance », qui est le besoin d'en connaître davantage pour des raisons de valeurs et d'objectifs personnels. Cette étude présente des défauts. Le questionnaire, par exemple, n'a pas incorporé les modèles théoriques permettant de décrire en particulier l'ergonomie, le travail en autonomie ou la motivation. Il n'a pas éclairci certains concepts pour les étudiants qui, manifestement, auraient pu être davantage guidés dans leurs réponses. Il suscite des questions sur l'interprétation de certaines données. Pourtant, il nous permet de dresser un portrait de l'étudiant-type qui y a répondu. Cet étudiant-type n'a pas fait le test en ligne Dialang. Cependant, il a bien compris l'échelle européenne des niveaux. Dans l'idéal, il aimerait avoir le niveau le meilleur (C2) et il vise un niveau à peine inférieur. Il trouve les objectifs du PEL clairement expliqués et le PEL lui paraît compréhensible, bien qu'organisé de façon complexe. Le descriptif des niveaux lui semble clair et complet. Les explications de la première séance de TD lui ont suffi pour remplir le PEL chez lui en moins d'une heure, même s'il n'a fait que survoler certaines rubriques sans rédiger. Il n'utilise pas le PEL régulièrement pour de multiples raisons : d'abord, travailler l'anglais en TD lui paraît d'utilité plus immédiate. D'ailleurs, il ne se sent pas régulièrement incité à utiliser le PEL, et par conséquent ne s'en sert ni régulièrement ni activement. Il lui réserve plutôt un rôle subsidiaire. De toute façon, il ne pense pas que la réflexion en français sur sa manière d'apprendre lui permettra de progresser en anglais. Il juge le Portfolio intéressant, mais pas motivant. Nous n'avons retenu ici que les réponses aux questions sur lesquelles se sont exprimés plus de la moitié de ceux qui ont rempli le questionnaire. On peut le constater, le bilan de l'introduction du PEL en enseignement présentiel en 1 e et 2 e années de Sciences économiques reste nuancé. Le PEL utilisé avec un encadrement minimal n'a pas eu tous les effets escomptés. Il n'a pas permis à la plupart de ceux qui possèdent à des degrés divers des langues qui ne bénéficient pas d'une reconnaissance académique de se sentir valorisés. La majorité des étudiants est consciente de l'importance de la maîtrise de l'anglais à un niveau élevé, mais pas de l'importance du multilinguisme, voire peu convaincue d'un multilinguisme pourtant réel. En revanche, les étudiants n'ont pas non plus massivement rejeté le PEL comme inutile et chronophage. Au contraire, plus de la moitié l'apprécient. Un quart déclarent posséder ou avoir développé, grâce au PEL, des aptitudes à l'étude et des aptitudes heuristiques suffisantes pour atteindre les objectifs qu'ils se sont fixés grâce au PEL. Plus d'un tiers disent compter l'utiliser en l'absence de guidage de l'enseignant dans le semestre ou l'année qui vient. Un tiers le jugent motivant, plus de la moitié intéressant et ils se le sont appropriés au point d'envisager de le recommander. Par conséquent, le PEL modifie effectivement la représentation qu'une minorité non négligeable d'étudiants se fait de son apprentissage. Il est frappant que ce soit précisément la partie à rédiger de la Biographie langagière portant sur la réflexion sur son apprentissage des langues, et au même type de questions du questionnaire (questions 10 à 14), qui aient été remplies de la façon la moins complète. Or, la Biographie est un élément crucial du PEL. Peut-on faire en sorte que les étudiants ne rejettent pas les tâches métacognitives ? Il existe d'autres utilisations possibles du PEL, moins centrées sur la Biographie et davantage sur la partie Dossier. Une recherche future pourra se baser sur les éléments permettant de définir la motivation, des étudiants bien entendu, mais aussi des enseignants, pour voir de quelle façon le PEL peut l'augmenter, si cela est possible. Cette recherche pourrait aussi nous permettre de construire des questionnaires en vue de produire un PEL peut-être plus motivant, compte tenu des caractéristiques de nos étudiants et des contraintes locales. Il faut aussi envisager d'augmenter la motivation des enseignants à l'utiliser et transformer en motivation l'intérêt que suscite le PEL parmi les étudiants .
Le Conseil de l'Europe et les enseignants qui utilisent le Portfolio européen des langues (PEL) avec leurs étudiants font le pari que cet instrument favorisera l'autonomie et accroîtra la motivation. Quel est le point de vue des utilisateurs étudiants? Cette étude se propose de l'examiner au moyen d'un questionnaire portant sur l'ergonomie du PEL, les changements qu'il induit dans leur apprentissage par son utilisation en semi-autonomie, la valorisation de leur multilinguisme, leur intérêt pour le PEL et les effets du PEL sur leur motivation. Le questionnaire a été administré en 2004-2005 à 158 étudiants de cycle de Licence de Sciences économiques (1e et 2e années). Son analyse suggère une réaction mitigée des étudiants face au PEL, plutôt favorables à son introduction, mais il reste globalement sans effet sur leur motivation.
linguistique_09-0345265_tei_595.xml
termith-598-linguistique
Quels que soient les documents que l'on consulte sur la Turquie, il est frappant de constater la dualité qui caractérise l'interdiscours sur ce pays. Le toponyme Turquie est généralement placé dans un environnement binaire, qu'on l'actualise dans un contexte historique, géopolitique ou culturel. Ainsi, à la Turquie ottomane s'oppose la Turquie moderne; à la Turquie musulmane, la Turquie laïque; à la Turquie occidentale ayant un pied en Europe, la Turquie orientale inscrite en Asie Mineure… La liste est longue de ces oppositions qui finissent par suggérer qu'il n'existe pas « une » mais « des » Turquie, dont les références varient au gré des énonciateurs. Cette dualité, liée en grande partie à la bicontinentalité du territoire et aux soubresauts de l'histoire récente (de 1453 à nos jours, en passant par la fondation de la République turque en 1923), revêt un caractère particulièrement troublant depuis le sommet européen de Copenhague. En effet, en décembre 2002, la candidature de la Turquie à l'entrée dans l'Union européenne (UE) est définitivement retenue. Cette éventuelle adhésion occupe désormais la scène médiatique française avec une intensité irrégulière au moment de l'élargissement de l'UE à dix nouveaux pays le 1 er mai 2004, devient un des thèmes majeurs de la campagne électorale pour le scrutin européen du 13 juin et continue de faire couler de l'encre au moins jusqu'en décembre 2004, lorsque l'ouverture des négociations officielles avec la Turquie est fixée au 3 octobre 2005. Dans cette perspective, il nous a semblé intéressant d'examiner l'interdiscours consacré à ce pays dans la presse écrite nationale entre le 1 er mai et le 31 décembre 2004. Pour ce faire, nous avons choisi de concentrer notre attention sur trois publications de la presse quotidienne généraliste à large tirage : Le Monde, Le Figaro et Libération. La lecture des gros titres de cette période a révélé d'emblée l'existence d'une autre dualité quand il s'agit d'évoquer la Turquie dans cette situation de communication spécifique, à savoir une mise en scène a priori parallèle des noms de ville Ankara et Istanbul. Il nous est apparu que l'actualisation de ces deux mots, chargés de valeurs référentielles ou métonymiques variées, renvoie à des réalités complexes, avec des effets et des implications multiples, essentiellement d'ordre représentationnel. C'est pourquoi, vu « le processus de focalisation qui est, dans la presse écrite (surtout en contexte de titrage) particulièrement productif » et « compte tenu précisément de la fonction majeure assurée par le titre […] dans la réception de l'information » (Boyer, 2003, p. 78), nous avons décidé d'étudier ces noms de lieux évocateurs en résonance avec l'imaginaire collectif des lecteurs et leurs représentations ethno-socioculturelles. Nous allons donc, après avoir présenté le corpus, proposer une analyse des significations et des enjeux de l'émergence des toponymes Ankara et Istanbul dans les gros titres de la presse écrite quotidienne française sur les huit derniers mois de l'année 2004. Bien que la presse hebdomadaire ne soit pas dénuée d'intérêt, nous avons préféré dépouiller certains quotidiens nationaux qui ont largement influencé ou reflété les opinions concernant l'éventuelle adhésion de la Turquie à l'UE, avant même que ne soit entériné le principe des négociations officielles. La période écoulée entre le 1 er mai 2004, qui voit l'élargissement historique de l'UE à 25 é tats membres, et le 31 décembre, qui clôture un trimestre marqué par les décisions des plus hautes instances européennes à propos de la question turque, a vu la prolifération exceptionnelled'un interdiscours sur la Turquie dans la presse quotidienne, comme nous le montre (notamment colonne 4) le tableau suivant : Les questions relatives à la Turquie sont plus amplement thématisées sur les huit mois dont nous nous préoccupons que sur les seize mois précédents, qui s'inscrivent dans la continuité du sommet de Copenhague et la préparation à l'élargissement majeur de l'UE, les dix mois suivants, qui permettent la transition avant l'ouverture officielle des pourparlers d'adhésion, et les huit derniers mois, caractérisés par l'étape préliminaire de ces négociations avant qu'elles n'entrent dans leur phase dite concrète à la mi-juin 2006. Ainsi l'actualisation du nom de pays Turquie est-elle extrêmement récurrente entre le 1 er mai et le 31 décembre 2004; elle évolue en fonction du calendrier européen, met en jeu des réalités et des représentations d'une grande complexité (voir Yasri-Labrique, 2007) et fait par conséquent l'objet d'autres recherches en cours. Dans cet article, nous nous intéresserons uniquement aux deux noms de ville Ankara et Istanbul, représentatifs à des degrés divers de cette république turque que de nombreuses cartes ont encore tendance à montrer comme étant dotée non pas d'une, mais de deux capitales. Au moment de l'ouverture des pourparlers d'adhésion, une carte de la Turquie a été proposée dans une publication hebdomadaire destinée à la jeunesse, en introduction d'un dossier politique intitulé « Turquie : le choix de l'Europe » (Clés de l'actualité, n° 634, du 29 septembre au 5 octobre 2005). Cet élément iconographique, situé en haut de la première page, au-dessus d'une photo dévoilant, d'une part, le drapeau turc et, d'autre part, une sculpture à l'effigie de Mustafa Kemal, délimite en jaune le territoire de la Turquie et y indique deux villes (non pas une, qui serait la capitale, ni quelques-unes, qui correspondraient aux plus grands centres urbains du pays dont font aussi partie Izmir ou Adana). Certes, la police de caractères d ' Ankara est très légèrement plus grande que celle d ' Istanbul, mais les deux mots sont inscrits en gras et accompagnés d'un point rouge de la même dimension. La consultation de la carte seule peut faire hésiter le jeune lecteur sur le choix de la capitale effective. Autre exemple : dans un recueil de contributions intitulé La Turquie (Vaner, 2005, p. 421), la carte qui a pour titre « Le réseau urbain de la Turquie en 2000 » mentionne de façon assez remarquable dans sa légende « les deux capitales », encerclées d'un épais trait noir. Nous ne pouvons donc ignorer cette ambigüité constitutive des représentations attachées à la Turquie moderne, plus de quatre-vingts ans après la décision d'Atatürk de transférer la capitale politique du pays d'Istanbul à Ankara, décision radicale et historique, empreinte d' « une double signification : la rupture avec un passé islamique et ottoman, totalement rejeté, et le recentrage sur l'Anatolie, territoire où s'exprime la pureté originelle turque » (Riaux, 2006, p. 5). Notre analyse, qui prend en compte les « deux durées de lecture d'un article : le simple relevé des éléments détachés en gras et en capitales, suivi éventuellement d'une véritable lecture du texte » (Maingueneau, 2005, p. 53), se base sur un corpus de 129 documents sélectionnés pour l'actualisation des toponymes Ankara ou Istanbul au niveau des gros titres. C'est à ces énoncés, dont la fonction d'appel est l'un des rôles primordiaux, que nous consacrerons l'essentiel de notre étude. Ces données se répartissent comme suit (figure 2) : On constate que le nom de la capitale politique actuelle est davantage présent dans ces gros titres que celui de la plus grande ville de Turquie. Dans l'hypothèse où la saisie de ces éléments accrocheurs peut faire naitre des images mentales ou des réactions émotionnelles susceptibles de s'ancrer dans l'imaginaire individuel, on est en droit d'envisager que la répétition massive du terme Ankara risque d'avoir des répercussions sur la perception, par le lecteur assidu, de cette ville peu connue et de la république turque qui lui est associée. Mais la récurrence n'est pas un critère suffisant. Il faut aussi examiner les significations profondes liées à ces deux toponymes dans la presse écrite française de cette époque -là, selon qu'il s'agit d'un emploi référentiel ou d'un emploi métonymique. En effet, nous pouvons classer l'usage des noms propres que nous étudions selon ces deux grandes catégories. L'emploi de type référentiel (également appelé locatif) permet de considérer la ville en question comme un espace restreint correspondant par exemple aux définitions qu'en donnent les dictionnaires usuels. Nous garderons en mémoire les premières précisions qu'apportent sans modifications des ouvrages de ce genre publiés chez Hachette en 1995 (Dictionnaire de la langue française) puis en 2002 (Dictionnaire Hachette) : A nkara : capitale de la Turquie (depuis 1924), dans l'Anatolie centrale. I stanbul : principale ville et port de Turquie, sur le Bosphore et la mer de Marmara. Ankara et Istanbul sont donc bien des sites particuliers, avec un statut et une histoire spécifiques, un emplacement géographique déterminé. Utiliser ces noms de manière référentielle revient à désigner ces centres urbains, à les reconnaitre comme lieux d'activités ou d'évènements. Qu'en est-il dans notre corpus ? Il est important de signaler, dans un premier temps, que l'actualisation du nom Ankara est avant tout de type métonymique (100 % des gros titres de Libération; 96 % de ceux du Monde; 88,37 % de ceux du Figaro) tandis que celle d ' Istanbul est essentiellement de type référentiel (77,78 % des gros titres de Libération; 85 % de ceux du Monde ;100 % de ceux du Figaro). Il y a donc une répartition tout à fait inégalitaire entre les deux types d'emploi concernant ces villes, ainsi soumises à l'attention des lecteurs selon des modes d'appréhension différents. Cela entraine vraisemblablement des constructions cognitives et des représentations ethno-socioculturelles dissemblables. Alors qu'Istanbul apparait dans sa dimension physique d'espace citadin où il se passe quelque chose, Ankara perd sa consistance géographique au profit d'une entité abstraite, théorique ou symbolique. Les deux repères ne participent pas d'un même univers. Nous venons de le voir, Ankara est peu utilisé dans notre corpus comme désignant de la capitale turque située en Anatolie, même si dans le corps des articles, on trouve souvent cette précision censée guider le lecteur. Dans les deux journaux (Le Figaro et Le Monde) où de rares titres font apparaitre Ankara en tant qu'espace urbain, le seul événement signalé, considéré comme digne d'intérêt, est la visite qu'un chef de gouvernement européen y a effectuée le 17 mai 2004. Elle se retrouve évoquée dans une brève de Libération sous le titre « Visite houleuse de Tony Blair en Turquie », où il est précisé que le Premier ministre britannique « s'est rendu hier à Ankara », le toponyme ayant pleinement ici sa valeur référentielle. Le Figaro propose aussi ce titre où Ankara désigne clairement la capitale turque : « Le nouvel express Istanbul-Ankara déraille » (23 juillet 2004), mais il s'agit simplement d'évoquer deux points du territoire dans le cadre de la mise en service d'une nouvelle liaison ferroviaire contestée. On trouve également quelques titres où le toponyme Ankara est actualisé de façon plutôt référentielle, mais dans un contexte qui met l'accent sur l'idée de non-évènement : « Avant l'invasion de l'Irak, George Bush aurait débarqué à Ankara comme en pays conquis » (25 juin 2004), où l'irréel du passé permet de déréaliser l'évènement évoqué, ou encore « Raffarin attend une “révolution européenne” à Ankara » (17 décembre 2004), où c'est le sémantisme du verbe « attendre », renforcé par la distance qu'implique l'emploi autonymique des guillemets, qui marque la non-réalisation du processus souhaité. Cette analyse confirme l'impression que, pour les lecteurs des quotidiens nationaux, Ankara serait au mieux une agglomération où il ne se passe rien, au pire une ville qui n'existe pas dans sa matérialité mais uniquement dans son essence représentative. Cela peut avoir des implications importantes au niveau de l'imaginaire collectif : quel crédit accorder à un pays dont la capitale s'apparente à une cité fantôme, sans repères spatio-temporels précis ? Au contraire, Istanbul est souvent évoquée dans son aspect concret de mégapole contemporaine. Des recoupements rapides entre les éléments descriptifs des 46 titres actualisant ce nom permettent d'en brosser un portrait schématique : c'est une ville qui, comme beaucoup d'autres familières aux lecteurs français, possède un « cœur touristique » et se trouve confrontée, d'une part, à des risques d ' « inondations » et, d'autre part, au problème des « embouteillages » (Libération); c'est également (fait ô combien rassurant) une cité qui a vu l'implantation d'au moins « un McDonald's », un endroit où se produisent des « manifestations » et où se trouvent des institutions aussi prestigieuses qu'une « université », une « Bourse » et un « Musée d'art moderne » (Le Monde); c'est enfin un lieu qui non seulement accueille une « wonderwoman », invite « le Pape » et célèbre la « Saint-Sylvestre », mais abrite aussi une population constituée en partie de « francophiles » (Le Figaro). On constate donc que cette esquisse pourrait s'appliquer à n'importe quelle grande cité européenne et que le côté étranger, voire spécifiquement turc, d'Istanbul n'est pas celui sur lequel les journalistes insistent le plus dans les gros titres de la presse quotidienne : ils en font au contraire une ville ordinaire. De par son histoire, sa situation géographique et son patrimoine architectural, Istanbul n'est pourtant pas une ville comme les autres (en témoigne par exemple, en décembre 2005, le dossier de L'Express intitulé « Istanbul la sublime » qui la consacre « ville de l'année »). Mais derrière ce portrait sommaire, plutôt valorisant malgré une certaine tendance au nivellement, se cache en fait une réalité plus complexe : Istanbul est, d'une part, un site dangereux, d'autre part un carrefour culturel. La lecture en continu des éléments contenant le toponyme Istanbul à valeur uniquement référentielle donne parfois froid dans le dos. C'est en particulier une ville qui semble cernée par le terrorisme : selon les journaux analysés ici, 40 à 45 % de ces gros titres sont en relation avec des « attentats », des « attaques », des « bombes » et des « explosions ». Par ailleurs, pour Libération, c'est également une ville en permanence menacée par « une faille majeure » et à certains moments « en état de siège ». Les aspects sympathiques sont estompés au profit de l'idée d'un danger tantôt ponctuel ou conjoncturel, tantôt structurel, qui transforme Istanbul en un lieu généralement menaçant. On verra cependant que, lorsque le toponyme est pris dans son emploi métonymique, les représentations attachées à celle qui fut Byzance ou Constantinople peuvent être plus favorables. Ce qu'il convient de retenir néanmoins, c'est la différence de perception qui existe entre les deux villes pour le lectorat de ces journaux : Istanbul, destination touristique et repère historique familier, ressort de ces titres comme un espace certes dangereux, mais tangible et somme toute relativement banal, tandis qu'Ankara, ville lointaine et méconnue, sans emblème particulier dans l'imaginaire collectif français bien qu'elle soit décrite ailleurs comme « une véritable ville européenne, avec son parlement, son théâtre national et son opéra » (Zarcone, 2005, p. 58), est complètement désincarnée. L'emploi métonymique quasi systématique de ce toponyme gomme l'idée du lieu et transforme l'espace géographique en un espace actanciel. Dans les gros titres de la presse écrite, Ankara, contrairement à ce qui se passe pour Istanbul, devient un acteur indépendant de son point d'ancrage, un personnage complexe aux caractères anthropomorphiques abondamment évoqués, une entité morale aux contours incertains. L'impact de cette représentation peut être d'autant plus important qu'elle émerge de la lecture de quotidiens réputés derrière lesquels le public place généralement « une instance subjective qui joue le rôle de garant de ce qui est dit » (Maingueneau, 2005, p. 80). Si on reprend les cinq titres où Istanbul est actualisé dans un emploi métonymique, en position de sujet grammatical, ce nom propre désigne à trois reprises les autorités locales chargées d'administrer cette ville eurasiatique. C'est bien ainsi que fonctionnent par exemple les expressions suivantes : « Istanbul envisage une taxe contre les embouteillages » (Libération, 22 novembre 2004) ou encore « Istanbul ouvre un Musée d'art moderne » (Le Monde, 16 décembre 2004), qui permettent d'ailleurs de montrer la municipalité d'Istanbul comme résolument moderne et dynamique, c'est-à-dire d'en véhiculer une image plutôt positive. Les autres actualisations s'avèrent légèrement différentes mais sont toutes deux en relation avec la création artistique. Dans « Istanbul, révélateur d'un nouveau cinéma turc » (Le Monde, 12 mai 2004), le toponyme se charge d'un sens inédit pour évoquer la grande manifestation cinématographique qui se déroule chaque année, tandis que dans « L'Istanbul emballant de Pina Bausch » (Libération, 8 juin 2004), il renvoie directement à la composition originale de la chorégraphe allemande. On voit donc que l'emploi métonymique d ' Istanbul peut véhiculer des signifiés multiples, rattachés à l'espace géographique correspondant à la ville située sur le Bosphore. Par ailleurs, il conforte l'image favorable que le lecteur français pourrait avoir de la mégapole turque, ce qui n'est pas le cas pour l'emploi métonymique d ' Ankara, ou plutôt les emplois métonymiques, car ces actualisations sont porteuses de différentes valeurs, de la plus généralisante à la plus particularisante. Sur les 77 occurrences de type métonymique d ' Ankara, environ la moitié représentent la Turquie comme pays pris dans sa globalité et surtout perçu comme candidat à l'intégration dans l'UE. On retrouve ici un fonctionnement stéréotypé où la capitale (la tête) est employée pour désigner le pays (le corps), ce que Michelle Lecolle appelle le « rapport lieu institutionnel/actant institutionnel : capitale d'un pays, lieu d'une institution » (2004, p. 5). Dans le cas qui nous occupe, cet emploi d ' Ankara permet une variation supplémentaire sur le thème de la question turque à travers la répétition de structures en cours de figement. Toutes déclinent cette perspective qui suscite bien des peurs et que les médias ont mise en scène selon divers processus de focalisation et de spectacularisation, celle de l'éventuelle adhésion de la Turquie à l'UE : « l'adhésion d'Ankara » (Le Monde du 13 octobre 2004, Libération du 13 septembre 2004, Le Figaro des 19 juillet, 24 septembre et 28 octobre 2004), « l'entrée d'Ankara » (Le Monde du 3 octobre 2004, Libération du 10 juin 2004, Le Figaro du 15 décembre 2004), « la candidature d'Ankara » (Libération du 1 er septembre 2004, Le Figaro du 26 juillet 2004), « l'arrivée d'Ankara » (Le Monde du 15 décembre 2004). Un fonctionnement métonymique plus restreint mais tout aussi courant en d'autres occasions permet à Ankara, dans une vingtaine de cas (soit un quart des occurrences métonymiques) de signifier les autorités turques qui officient dans la capitale, c'est-à-dire l'espace décisionnel. Il existe bien sûr des nuances : il s'agit essentiellement du gouvernement, mais on peut également envisager la représentation parlementaire. Lorsqu'il s'agit du gouvernement, Ankara est souvent utilisé dans un contexte symétrique où il est mis en parallèle avec une autre capitale : « Athènes soutient Ankara » (Le Figaro, 11 juin 2004); « Athènes appelle Ankara à la trêve » (Libération, 6 août 2004); « Unités de vue sur le terrorisme entre Moscou et Ankara » (Le Monde, 6 décembre 2004); « Paris demande à Ankara de reconnaitre le génocide arménien » (Le Monde, 13 décembre 2004). Par un phénomène de condensation maximale du processus précédent, Ankara peut en arriver à désigner non plus l'ensemble du gouvernement turc, mais un seul de ses membres, notamment le Premier ministre. Lecolle confirme cette hypothèse lorsqu'elle écrit : « Le cas de la métonymie lieu institutionnel / actant institutionnel relève également de la “polyréférentialité externe ”. Dans le discours journalistique, cette métonymie permet de référer à tout ce qui a trait à l'institution (dirigeant, groupe de dirigeants, institution) et ceci le plus souvent de manière indéterminée » (2004, p. 8). On relève alors des structures assez étranges où le nom de ville est associé non seulement à une activité humaine (c'était déjà le cas précédemment avec des formules telles que « Ankara espère », « Ankara s'inquiète », « Ankara adopte » … ou « Ankara réaffirme », « Ankara trouble ». ..), mais aussi à du discours cité de manière directe (« Ankara s'agace et juge “hors de question” un référendum en France », Le Monde, 7 octobre 2004). On trouve également des appositions qui singularisent et humanisent cet espace actanciel sans référer nommément à un représentant turc (« Invité par l'UE, Ankara prône un plan pour Chypre, sous l'égide de l'ONU », 21 décembre 2004). La ville, le pays, l'institution disparaissent; il ne reste plus qu'un personnage. De manière assez spectaculaire, le toponyme devient nom d'acteur, mais la personne réelle évoquée à travers ce nom de lieu perd parallèlement de sa consistance et de son humanité. Il existe deux autres emplois métonymiques particuliers, représentés chacun par un petit nombre d'occurrences dans notre corpus, mais cependant très significatifs. C'est toujours dans un souci de raccourci, afin de mieux frapper les esprits, que le toponyme Ankara en vient à désigner cette perspective effrayante dans l'imaginaire collectif français, à savoir la possible intégration de la Turquie dans l'UE, la fameuse question turque. On arrive ici au terme d'un processus de simplification et de figement qui renvoie à un aspect langagier de la mise en scène médiatique appelé « focalisation lexico-pragmatique » : « Cette pratique, qui consiste à promouvoir massivement l'usage d'un mot […] durant une période plus ou moins brève, n'est pas innocente car elle ne jette pas son dévolu, au départ, sur n'importe quel mot. Par ailleurs celui -ci ne sort pas indemne de l'aventure : son sémantisme en conserve plus ou moins longtemps la mémoire. » (Boyer, 2003, p. 74-75.) Ici, le nom de la capitale turque, ville méconnue dont le toponyme représente le plus souvent le pays dans son ensemble ou les autorités nationales, en vient à désigner un problème complexe autour duquel s'articulent des peurs cristallisées et qui touche aux rapports tumultueux entre la Turquie et l'Europe depuis 1963 (au moins). Cet emploi ne concerne dans notre corpus que Le Figaro, c'est-à-dire un journal qui reflète l'hostilité ambiante à l'entrée de la Turquie dans l'UE. Il est actualisé à plusieurs reprises à partir d'octobre 2004, au moment décisif où le principe des négociations d'adhésion est entériné. On le retrouve dans des titres d'articles parus à des dates symptomatiques, dans lesquels cette éventuelle adhésion est assimilée à une autre grande problématique soumise à consultation nationale, à savoir le projet de Constitution européenne : « Le PS se divise sur Ankara autant que sur la Constitution » (8 octobre); « Villiers lance sa campagne du non à Ankara et à la Constitution » (18 décembre). Avec ce type d'actualisation, le nom Ankara devient synonyme de problème politique et se charge de connotations négatives. Enfin, un usage plus difficile à interpréter revient dans les différents journaux. C'est ce que nous appellerons des « cas limites » où, comme dans certains exemples de polysémie, « la figure qui relie les significations peut n' être pas, ou n' être plus, sentie comme telle » (Ducrot et Todorov, 1972, p. 303). Le nom Ankara y est systématiquement associé au participe passé « condamné » : « Ankara condamné trois fois par la Cour européenne des droits de l'Homme » (Le Monde, 27 juillet 2004); « Strasbourg a régulièrement condamné Ankara pour tortures » (Le Monde, 5 octobre 2004); « Ankaracondamné pour sexisme » (Libération, 17 novembre 2004); « Ankara condamné » (Le Figaro, 10 novembre 2004). Que représente ce toponyme qui ne peut avoir qu'une valeur métonymique dans ces usages journalistiques ? Ce n'est pas la ville, ni même son administration ou sa population qui sont ici concernées par cette condamnation parfois énigmatique (Le Figaro), parfois plus précisément liée à des atteintes aux droits de l'Homme (Le Monde) ou en fonction d'un motif apparemment moins grave (Libération). Est -ce le pays dans son ensemble en tant qu'entité morale (quoique les actes soient concrets et relèvent d'individus ou d'administrations particulières) ? S'agit-il des autorités turques en tant qu'entité politique, même si les personnes ne sont pas incriminées ? S'agit-il du ministère de la Justice qui pourrait être mis en cause pour sa négligence, voire son laxisme ou sa tolérance par rapport à des situations jugées inacceptables ? Quelle que soit la réponse envisagée, il semble qu ' Ankara soit utilisé pour que la responsabilité en question soit reportée sur la Turquie en tant qu ' é tat et atteigne tout ou partie de la population (auteur, complice, témoin ?). En tout cas, cet emploi flou permet une fois de plus de jeter le discrédit sur cette capitale, symbole d'un pays condamnable, dont l'image négative rejaillit sur l'ensemble des habitants du territoire turc. Nous pensons donc que les effets liés à ces différentes productions de sens comportent des implications cruciales, notamment sur le plan des représentations ethno-socioculturelles en jeu. Alors que l'emploi métonymique du nom Istanbul est plutôt univoque dans la mesure où il renvoie à un signifié en relation avec cette ville, celui du toponyme Ankara recouvre une référentialité équivoque, multidimensionnelle (politique ou morale, structurelle ou conjoncturelle) qui ne permet pas facilement au lecteur de la presse écrite quotidienne d'avoir des représentations précises de cette capitale et du pays qu'elle symbolise. Les enjeux représentationnels se posent donc de manière différente pour ces deux cités turques. Le cas d'Istanbul est relativement facile à cerner : cette mégapole est évoquée dans les journaux que nous étudions comme un espace géographique unique, bien que la fascination qu'il exerce dans l'imaginaire collectif français soit gommée au profit de la mise en valeur de son caractère complexe d'endroit dangereux et de carrefour culturel ordinaire. Au même titre que beaucoup d'autres grandes villes contemporaines (Paris, Londres, New York, Casablanca…), c'est une cité présente dans la presse française pour des raisons similaires et récurrentes : d'une part, elle est confrontée au risque du terrorisme international; d'autre part, c'est un creuset reconnu de civilisations et de créations artistiques. L'emploi du toponyme Istanbul renvoie tour à tour à cet espace urbain circonscrit ou à la municipalité qui en a la charge, à des évènements dramatiques qui s'y sont produits ou à des manifestations culturelles qui s'y déroulent tantôt régulièrement, tantôt ponctuellement. L'unicité du cadre ne fait donc pas de doute. L'évocation d'Ankara est au contraire plus problématique et on peut s'interroger sur les effets que cela suscite. à la lecture des titres étudiés, on a d'abord l'impression que cette cité anatolienne, qui abrite pourtant musées, industries, bibliothèques et mausolées n'existe pas en tant que telle. Cette capitale, cette « tête » semble vidée de sa substance. Pour vérifier si cette hypothèse, émise à propos de la presse écrite quotidienne publiée en France après le 1 er mai 2004, fait écho à une situation familière dans l'esprit du lectorat français, nous avons choisi de nous tourner vers des ouvrages de référence récents, accessibles à la plupart de nos concitoyens, et de faire ainsi rapidement le tour de ce qu'indiquent les dictionnaires usuels et les encyclopédies familiales. Nous en avons sélectionné six, intéressants pour leur parution pendant une dizaine d'années (1995-2005) et pour la diversité des supports (livres volumineux, éditions simplifiées pour la jeunesse, fiches illustrées, Internet…). Il apparait que dans ces six ouvrages, le traitement de l'item Istanbul est systématiquement plus détaillé que celui de l'item Ankara. Plus significatif encore : le Dictionnaire Larousse Super Major (1997) n'a pas d'entrée pour Ankara. En revanche, la définition correspondant à Istanbul s'étale sur plusieurs lignes et fait référence à « Sainte-Sophie ». Il parait plus aisé pour un enfant français d'avoir des renseignements sur un monument d'Istanbul que sur la capitale. Si l'on se penche sur des publications destinées aux jeunes comme aux adultes, on s'aperçoit que le nombre de précisions sur Ankara ou Istanbul se fait toujours en faveur de cette dernière, comme dans le Quid 2004 : A nkara : 6 références, dont une définitoire p. 1324 (3 lignes); I stanbul : 10 références + une définitoire (omise dans l'index) p. 1324 (40 lignes + renvoi encadré p. 1327) + renvoi à Byzance (5 références) + renvoi à Constantinople (11 références). On constate donc une indigence généralisée des informations sur la ville d'Ankara dans les ouvrages de référence dont le rôle dans la construction des images cognitives et le développement des connaissances est primordial. La dissolution de la capitale turque, impression véhiculée à travers la presse quotidienne nationale, est en résonance avec un déficit de références dans des domaines plus académiques. Le discours médiatique fait ici la part belle à des « savoirs de croyance » qui relèvent de l' « appréciation » plutôt qu' à des « savoirs de connaissances » qui procèdent d'une « représentation rationalisée » du monde (Charaudeau, 2005, p. 32), et laisse la porte ouverte à toutes les évaluations de type normatif et à toutes les représentations figées ancrées dans l'imaginaire collectif. Une autre conséquence du jeu sur les divers emplois métonymiques du nom Ankara dans les titres de la presse quotidienne est un effet de confusion. Si l'on examine les signifiés exacts que recouvre ce toponyme devenu nom d'acteur, on ne peut que s'interroger sur l'identité et la responsabilité de celui -ci. Lorsque les journaux titrent sur Ankara en lui attribuant des propriétés anthropomorphiques, le lecteur est en droit de se demander de qui il s'agit et de se poser un certain nombre d'autres questions sur la teneur, la portée, l'origine et les suites des actes évoqués à son sujet. Mais le brouillage lié à ce seul et même désignant est tel que les distinctions entre les autorités turques et une population dont il n'est pas souvent question par ailleurs dans les gros titres, sont difficiles à établir. Les incidences sur le public risquent d' être peu propices à une remodélisation des constructions stéréotypées et d'encourager par ailleurs des amalgames regrettables, donnant une image négative de l'ensemble du peuple turc. Ce troisième effet concerne d'abord le plan local, mais a des répercussions plus générales que nous analyserons dans la partie suivante. Notons pour le moment que la lecture de ces gros titres favorise le sentiment qu'Istanbul et Ankara relèvent de deux univers séparés, voire opposés, dont l'union parait impossible. La non-congruence entre ces deux éléments ne se résume pas à leur situation géographique sur deux continents. L'un existe, l'autre pas; Istanbul est une ville où l'insécurité ne menace pas encore le développement et la vie quotidienne, tandis qu'Ankara est un espace abstrait, inquiétant et condamnable. Et quand un titre relie ces deux cités au statut différent, c'est pour faire un constat d'échec : le train express censé établir une liaison plus rapide entre ces deux points déraille, ce qui jette une fois de plus le discrédit sur les autorités d'Ankara (« Le ministre des Transports mis en cause », Le Figaro, 28 juillet 2004). L'idée d'incommunicabilité se trouve renforcée et il semble donc que la représentation binaire associée à la Turquie moderne soit relayée dans la presse écrite française et présentée sous forme de dichotomie inconciliable, plutôt que comme un atout potentiel, une richesse supplémentaire. En effet, l'opposition historique entre les deux grandes villes date des années vingt : « Les pressions d'Istanbul (condamnation à mort de Mustafa Kemal, fatawa promulguées contre lui, envoi de troupes contre ses fidèles ou encore encouragement de révoltes « antikémalistes ») radicalisèrent davantage les “dissidents” qui, le 23 avril 1920, inaugurèrent une nouvelle Assemblée à Ankara » (Bozarslan, 2004, p. 24). Les ruptures passées (fin de l'Empire ottoman et création d'un nouvel é tat) ainsi que l'éloignement spatial entre les deux têtes de cette république bicéphale sont répercutés, voire déformés ou amplifiés, à des niveaux variés : politique, juridique, social, culturel… Cette impression rencontre des échos significatifs dans une affirmation telle que « la Turquie est fondamentalement un pays déchiré, entre, d'une part, un Ouest prospère et une élite occidentalisée adhérant plus ou moins à l'idéologie officielle laïque héritée du Kémalisme, puis, d'autre part, un Est anatolien islamo-asiatique majoritaire, tourné vers le Moyen-Orient » (Del Valle et Razavi, 2005, mot de l'éditeur), qui fait allusion sans les nommer à Istanbul et Ankara, et leurs sphères d'influence respectives, au détriment de la capitale actuelle. à travers ces différents effets d'indigence, de confusion et d'éloignement, s'esquisse la mise en place de ce que Jean-Paul Honoré nomme des « dispositifs de fermeture » (1994, p. 42) qui renvoient directement aux enjeux représentationnels en phase avec l'imaginaire collectif du lectorat français. L'évocation a priori parallèle des deux principales villes turques dans les gros titres de la presse quotidienne française n'est en fait ni équivalente ni univoque. Ainsi la fonction de repérage propre à l'emploi locatif du toponyme est-elle presque exclusivement dévolue au nom Istanbul dans ce corpus, ce qui fait de cette ville un espace concret d'une banalité plutôt rassurante. Pour Ankara, le toponyme assure une fonction de désignation complexe rendue possible par l'usage des différentes métonymies mises au jour dans notre étude. Cette capacité de désignation révèle un double enjeu, apparemment contradictoire : d'un côté, elle implique des extensions de sens parfois opaques (Ankara pour « la Turquie », « les autorités turques », voire « les Turcs » dans leur ensemble là où cette formule pourrait apparaitre comme abusive) et fonctionne également comme une restriction à valeur de symbole. Cette ville, à laquelle se superposent toutes les valeurs ajoutées que nous avons définies, devient l'emblème par excellence de cette république candidate à l'intégration européenne. Mais dans ce double mouvement, on retrouve une constante : Ankara, contrairement à Istanbul qui représente le visage familier de la Turquie, ce qui est proche de l'Europe et même dans l'Europe, implique une plus grande altérité : ce n'est pas seulement le visage asiatique du pays (qui pourrait déranger les partisans d'une UE basée exclusivement sur des critères géographiques), c'est aussi l'éloigné dans l'espace et la connaissance, l'intrus à qui il est difficile d'accorder sa confiance, l'inconnu qui en devient inquiétant car il porte en lui les germes d'une menace insaisissable et par conséquent entre sans difficultés dans la sphère du condamnable. Les représentations complexes attachées à cette capitale officielle mais énigmatique, dont les composantes concrètes sont dissoutes au profit d'images floues oscillant entre la symbolisation d'un pouvoir étranger et celle d'une problématique effrayante pour la plupart des Européens, font que l'emploi insistant de ce toponyme dans les gros titres met à distance la Turquie, univers autre dont les références culturelles diffèrent généralement de celles du lectorat français. à l'issue de ces réflexions, il apparait que l'actualisation récurrente des toponymes Ankara et Istanbul dans les titres de la presse écrite quotidienne française renvoie au lecteur une dualité familière dès qu'il s'agit de la Turquie moderne. La presse joue sur une mise en scène complexe et un discours équivoque concernant les deux plus grandes villes du pays. Il ressort néanmoins de cette évocation asymétrique qu'Istanbul demeure une mégapole culturelle ancrée dans la réalité, accessible, vaguement ordinaire, déjà européenne, tandis qu'Ankara assume à la fois un statut de capitale reconnue et d'espace incertain. En effet, les occurrences plus fréquentes du nom propre Ankara, les connotations et le sémantisme du lexique qui lui est attaché, permettent de lever l'ambigüité que de nombreux documents iconographiques ou textuels semblaient vouloir conforter : les médias reconnaissent clairement à la cité anatolienne son rôle de capitale politique. Mais l'espace se dilue dans un flot de métonymies usuelles ou originales, qui substitue à l'image du lieu celle d'une entité virtuelle aux contours improbables. Cette capitale officielle, siège d'un gouvernement musulman et symbole d'une république laïque, finit par désigner un pays eurasiatique méconnu, un pouvoir différent qui inquiète, une population souvent appréhendée à travers des stéréotypes, et, s'épaississant de ces multiples représentations, elle devient l'emblème d'une problématique qui s'impose à la France et à ses partenaires de façon cruciale. Ainsi, par le biais de productions de sens introduites dans le discours médiatique, le mot Ankara en vient à représenter la candidature de la Turquie à l'intégration dans l'UE, éventualité d'autant plus redoutée qu'elle bouscule de très nombreux repères et pose finalement la question de l'identité européenne. à travers l'actualisation d'un tel toponyme, c'est l'image de tout un pays qui est en jeu. La Turquie, avec Ankara pour capitale, semble plus lointaine et plus menaçante pour l'Europe que si Istanbul en était restée la première ville .
L'analyse des toponymes Ankara et Istanbul dans les gros titres de la presse quotidienne française entre le 1er mai et le 31 décembre 2004 permet de mettre au jour des différences significatives concernant l'emploi des désignants (référentiels ou métonymiques) et les représentations liées à l'évocation des deux principales villes turques. Elle révèle que les effets et les enjeux de l'émergence de ces noms dans le corpus sont asymétriques et que l'actualisation récurrente et spécifique d'Ankara contribue à l'éloignement de la Turquie dans l'imaginaire européen.
linguistique_11-0173553_tei_665.xml
termith-599-linguistique
Nous nous intéressons aux discours causaux comprenant deux phrases, l'une décrivant la cause, l'autre décrivant l'effet par le truchement d'un verbe causatif. On peut distinguer d'une part les verbes causatifs psychologiques (e.g. agacer, amuser) qui admettent un sujet référent soit à un événement (Cet événement a agacé Marie), soit à un fait (( Le fait) que Fred ne soit pas venu a agacé Marie), soit à une entité (Fred /cette chaise a agacé Marie), d'autre part les verbes causatifs non psychologiques (fêler, casser) qui n'admettent généralement qu'un sujet référent à une entité (Fred a fêlé la carafe, * Cet incident a fêlé la carafe). Selon l'ordre dans lequel apparaissent les phrases, et selon la nature du verbe causatif et de son sujet, on observe les paradigmes suivants. (1) a Fred a heurté la carafe contre l'évier. Cela / Cet incident a agacé Marie. b Fred a heurté la carafe contre l'évier. Il a agacé Marie. c Fred a agacé Marie. Il a heurté la carafe contre l'évier. (2) a # Fred a heurté la carafe contre l'évier. Cela/cet incident l'a fêlée. b Fred a heurté la carafe contre l'évier. Il l'a fêlée. c Fred a fêlé la carafe. Il l'a heurtée contre l'évier. En (1a), le pronom cela ou le GN anaphorique cet incident réfère à l'événement décrit dans la première phrase. Une telle relation de coréférence événementielle ne peut s'observer en (2a) à cause des contraintes imposées par le verbe fêler sur son sujet. Les discours (b) sont obtenus à partir des discours (a) en remplaçant le sujet événementiel par le sujet il référent à l'entité Fred, agent de la cause. La paire (1a)-(1b) réunit tous les ingrédients pour parler de métonymie : en (b), l'agent de la cause est employée métonymiquement à la place de la cause. Cela nous amène à dire qu'un verbe causatif non-psychologique comme fêler n'admet qu'un sujet métonymique. Cette analyse s'accorde en tout point avec la structure événementielle et la structure de qualia des verbes causatifs proposées dans le cadre du Lexique Génératif (Pustejovsky 1995). Cette décomposition lexicale pour les verbes causatifs sera résumée dans la Section 2.1. Elle nous permettra de poser que les discours (b) mettent en jeu une relation de coréférence événementielle comme c'est explicitement le cas en (1a). Les discours (c) sont obtenus à partir des discours (b) en inversant l'ordre des phrases (et en inversant les relations anaphoriques). Nous montrerons qu'ils mettent aussi en jeu une relation de coréférence événementielle, (Section 2.2). Ces analyses par coréférence événementielle pour les discours (b) et (c) n'impliquent pas cependant que ces discours soient parfaitement symétriques. La paire en (3) met en évidence un contraste entre ces deux types de discours. (3) b # Fred a heurté la carafe contre l'évier. Il l'a fêlée à midi. c Fred a fêlé la carafe à midi. Il l'a heurtée contre l'évier. Les exemples (3b) et (3c) sont obtenus respectivement à partir de (2b) et (2c) en ajoutant l'adverbe temporel à midi qui vient modifier le verbe causatif fêler. On constate que (3b) ne reçoit plus d'interprétation causale contrairement à (3c) : si l'on accepte (3b) c'est dans une interprétation où les événements de heurtage et de fêlage sont considérés comme indépendants, sans lien de cause à effet. Nous expliquerons dans la Section 3 le contraste en (3) en introduisant un typage des relations de coréférence (qui est valide tant pour les événements que pour les entités). Cette étude sera aussi l'occasion de préciser différentes propriétés des verbes causatifs. La structure événementielle de Pustejovsky pour les verbes causatifs formalise le célèbre kill = cause become not alive (tuer = causer devenir pas vivant) de (McCawley 1968). Un verbe causatif saturé dans une forme transitive X Vc Y décrit un événement complexe, noté e 0, décomposable en deux sous-événements notés e 1 et e 2 : e 1 est le sous-événement causal et e 2 le sous-événement correspondant à l'état résultant. Quel que soit le verbe causatif, le constituant Y doit référer à une entité y. L'état résultant e 2 est l'état dénoté par le participe passé adjectival Vc-pp affectant y, si la morphologie le permet. Par exemple, si Vc = énerver, alors e 2 = ENERVE(y) et si Vc = fêler, alors e 2 = FELE(y), mais si Vc = tuer, alors e 2 = MORT(y) plutôt que TUE(y). Cet état résultant reflète que X Vc Y peut grosso modo être paraphrasé par X cause Y être (devenir) Vc-pp, si la morphologie le permet. Pour un verbe causatif non psychologique comme fêler dont le sujet ne peut référer qu' à une entité (humaine), le « paradigme conceptuel lexical » du verbe est celui de la causation directe dans lequel le sous-événement causal dénote une action non-spécifiée de x sur y, ce qui est noté e 1 = ?ACTE (x, y). La structure événementielle associée à un verbe comme fêler est schématisée dans la figure (4). Nous renvoyons à (Pustejovsky 1995) pour les autres points de cette structure événementielle. Pour un verbe causatif psychologique, l'entité y est basiquement humaine. Rappelons que le sujet X dénote, soit un objet abstrait de type événement ou fait, soit une entité. Si X dénote un objet abstrait, alors l'événement causal e 1 est cet objet abstrait, ou plus précisément le fait que y perçoive ou ait conscience de cet objet abstrait : l'interprétation causale de (1a) implique que Marie ait entendu, vu ou appris que Fred avait heurté la carafe contre l'évier. Sinon, comment pourrait-elle en être agacée ? Si X dénote une entité (humaine) x, alors x participe à un objet abstrait qui est l'événement causal e 1 (perçu physiquement ou intellectuellement par y). L'individu x peut participer « activement » ou « passivement » à e 1. Dans le cas d'une participation active, x est l'agent de l'action dénotée par e 1. Dans le cas d'une participation passive, x est l'objet d'une prédication du type propriété. Ces différents cas sont analysés par coercion de type, analyse par laquelle un sujet dénotant une entité est dynamiquement coercé en un objet abstrait. Muni de la décomposition lexicale des verbes causatifs proposée dans (Pustejovsky 1995), revenons aux discours causaux, en commençant par (2b-c) répétés ci-dessous en (5). (5) a Fred a heurté la carafe contre l'évier. Il l'a fêlée. b Fred a fêlé la carafe. Il l'a heurtée contre l'évier. Notre analyse est la suivante : l'interprétation causale de ces discours vient du fait que le sous-événement causal du verbe causatif est interprété comme étant coréférent à l'événement décrit dans l'autre phrase (celle ne contenant pas le verbe causatif). En (5), on sait que l'action faite par Fred sur la carafe qui a résulté dans le fait qu'elle est fêlée est son heurtage contre l'évier. Les analyses de (5a) et (5b) sont schématisées dans les diagrammes ci-dessous (les symboles F, c et ev sont les constantes permettant de repérer les entités dénotées respectivement par Fred, la carafe et l'évier). Insistons bien sur le point suivant : pour les discours construits sur le modèle de (5), la relation de coréférence événementielle est une condition nécessaire et suffisante à une interprétation causale. Illustrons ce point sur les discours en (7). (7) a Fred a photographié la carafe. Il l'a fêlée. b Fred a fêlé la carafe. Il l'a photographiée. D'aucuns y verront une interprétation causale, d'autres non. Peu importe l'interprétation, notre point est le suivant : les locuteurs qui donnent à (7a) ou (7b) une interprétation causale considèrent que l'acte de photographier la carafe est coréférent au sous-événement causal de fêler : l'action que Fred a faite qui a résulté en l'état fêlé de la carafe est le fait de l'avoir photographiée (par exemple, parce que Fred est muni d'une caméra digne de James Bond). Les locuteurs qui ne donnent pas une interprétation causale à (7) ne peuvent/veulent pas imaginer que photographier une carafe puisse induire un changement d'état pour la carafe, et par là -même excluent une relation de coréférence événementielle. Nous voyons que la notion linguistique de « coréférence événementielle » permet de cerner les discours causaux qui nous intéressent, qui sont traditionnellement analysés comme exprimant une causalité directe (Fodor 1970, Schank 1975). Cette analyse des discours causaux permet de préciser le point suivant sur les verbes causatifs non psychologiques. Si pour un bon nombre de verbes causatifs non psychologiques, le sous-événement causal est non spécifié, ce que nous traduisons par une variable de prédicat ?ACTE(e 1, x, y), certains de ces verbes ont un sous-événement causal spécifié et ils ne peuvent pas de ce fait apparaître dans des discours de causalité directe. Considérons le verbe couper (une baguette). On peut préciser le résultat (Fred a coupé la baguette en fines tranches) ou l'instrument (Fred a coupé la baguette avec un bon couteau), mais on ne peut pas préciser le geste de Fred : celui -ci est déjà défini dans la sémantique du verbe couper. Autrement dit, le sous-événement causal de couper est totalement spécifié, ce que nous notons ACTE-COUPER(e 1, x, y) sans variable de prédicat. Cette absence de variable explique qu'on ne peut pas faire précéder ou suivre une phrase X couper Y d'une phrase décrivant comment x s'y est pris. Comme autres verbes causatifs dont le sous-événement causal est totalement spécifié, citons les verbes techniques tels que scier (une branche), goudronner (une route), cirer (un meuble), beurrer (une tartine) ou encore égorger, guillotiner, décapiter, électrocuter qui sont des troponymes de tuer et qui seront étudiés dans la Section 3.2. On notera que ces verbes n'admettent aucune forme inaccusative (pronominale ou pas), * la route a goudronné, * la route s'est goudronnée, alors que les verbes causatifs dont le sous-événement causal est non spécifié peuvent admettre une forme inaccusative, la carafe s'est fêlée, ? la carafe a fêlé, la carafe s'est cassée, la carafe a cassé. On peut avancer l'hypothèse que les verbes causatifs à sous-événement causal spécifié n'admettent pas de forme inaccusative car une telle forme gommerait (passerait sous silence) une partie de la sémantique de ces verbes, à savoir l'acte causal. Néanmoins, cette hypothèse demande à être étayée par une vision exhaustive des données. Pour les verbes causatifs psychologiques, rappelons que le sujet peut référer directement au sous-événement causal, voir (1a) répété en (8a), ou indirectement par métonymie, voir (1b) et (1c) répétés en (8b) et (8c). (8) a Fred a heurté la carafe contre l'évier. Cela / Cet incident a agacé Marie. b Fred a heurté la carafe contre l'évier. Il a agacé Marie. c Fred a agacé Marie. Il a heurté la carafe contre l'évier. Tous ces discours mettent en jeu une relation de coréférence événementielle. Il faudrait néanmoins rendre compte du fait que l'entité y (Marie dans nos exemples) doit avoir perçu ou appris la cause, mais nous n'entrerons pas ici dans ces détails. Tournons -nous maintenant vers les verbes causatifs dont le sous-événement causal est non-spécifié lorsqu'ils sont employés à la forme pronominale réfléchie, on a donc x = y. Dans le paradigme en (9), seuls les deux premiers exemples sont naturels et ont une interprétation causale (les deux derniers sont donc précédés du signe #). (9) a Fred s'est propulsé hors de la voiture. Il s'est blessé. b Fred est tombé hors de la voiture. Il s'est blessé. c # Fred a été propulsé hors de la voiture. Il s'est blessé. d # Fred a reçu un pot de bégonias sur la tête. Il s'est blessé. En nous appuyant sur les proto-rôles thématiques de (Dowty 1991), à savoir les notions de « Proto-Agent » et de « Proto-Patient », nous avons avancé dans (Danlos 1999) l'hypothèse (H1). (H1) Dans un discours exprimant une relation causale directe, le résultat affectant une entité X peut être construit autour d'un verbe causatif à la forme réfléchie si et seulement si X est Proto-Agent dans la cause. Ainsi Fred est Proto-Agent en (9a) et (9b) (même si la chute est involontaire) alors qu'il est Proto-Patient en (9c) et (9d). L'hypothèse (H1) permet aussi d'expliquer le contraste en (10) : (10a) est meilleur que (10b), ce qui va de pair avec le fait que le sujet de regarder est plus Proto-Agent que celui de voir. (10) a Fred a regardé la foudre. Il s'est aveuglé. b ? Fred a vu la foudre. Il s'est aveuglé. Considérons aussi le contraste en (11) : on constate que la forme métonymique (i.e. Fred au lieu de la voiture de Fred) donne de l'agentivité à Fred et que de ce fait (11b) est meilleur que (11a). (11) a ? La voiture de Fred a percuté un camion. Il s'est blessé. b Fred a percuté un camion. Il s'est blessé. Enfin, signalons que l'on peut se servir des discours causaux pour déterminer le proto-rôle thématique de certains arguments. Ainsi les discours acceptables en (12) tendent à indiquer que les sujets de éternuer et ronfler sont Proto-Agent alors que les tests proposé par (Dowty 1991) sont assez inopérants pour ces arguments. (12) a Fred a éternué très fort. Il s'est fait mal aux côtes. b Fred a ronflé toute la nuit. Il s'est irrité la gorge. Dans cette section, aucune différence n'a été mise en avant selon que le verbe causatif apparaît dans la première ou dans la seconde phrase des discours de causalité directe. La section suivante va se concentrer sur de telles différences. Commençons par définir deux types de relation de coréférence par rapport à la quantité d'informations apportée. Deux descriptions successives D1 et D2 de la même entité x (événement ou entité) sont dans une relation de particularisation notée D2 = PART(D1) si et seulement si D2 apporte une ou des informations nouvelles sur x par rapport à D1. Deux descriptions successives D1 et D2 de la même entité x (événement ou entité) sont dans une relation de généralisation notée D2 = GEN(D1) si et seulement si D2 n'apporte aucune information nouvelle sur x par rapport à D1. Illustrons ces deux types de coréférence sur le cas connu où x est une entité – D1 et D2 sont alors des groupes (pro)nominaux. Dans (13a), le GN démonstratif cette Parisienne = PART( une gynécologue) car il apporte l'information que le femme de Fred est parisienne. Dans (13b), le pronom elle = GEN( une gynécologue) car un pronom n'apporte aucune information nouvelle. Enfin, dans (13c) le GN défini ou démonstratif la/cette doctoresse = GEN( une gynécologue) du fait de la relation d'hyperonymie entre gynécologue et doctoresse (ce GN ne nous apprend pas que la femme de Fred est une doctoresse puisqu'on le sait du fait qu'elle soit gynécologue). (13) a Fred s'est marié avec une gynécologue. Cette Parisienne agace Marie. b Fred s'est marié avec une gynécologue. Elle agace Marie. c Fred s'est marié avec une gynécologue. La/Cette doctoresse agace Marie. Quel type de coréférence est en jeu dans les discours de causalité directe ? Lorsque le verbe causatif apparaît dans la seconde phrase, voir (5a) et son analyse en (6a), la coréférence événementielle e 1 = e a est du type généralisation. En effet, la description de e 1, à savoir ?ACTE(e 1, F, c) n'apporte aucune information nouvelle par rapport à celle de e a, à savoir HEURTER(e a, F, c, ev). On peut d'ailleurs considérer ?ACTE(e 1, F, c) comme un hyperonyme de HEURTER(e a, F, c, ev). A l'inverse, lorsque le verbe causatif apparaît dans la première phrase, voir (5b) et son analyse en (6b), la coréférence événementielle e a = e 1 est du type particularisation car la seconde description de l'événement concerné, à savoir la description de e a, apporte de l'information par rapport à la première, à savoir celle de e 1. Cette différence dans le typage de la relation de coréférence événementielle va nous permettre d'expliquer les contrastes dans les discours de causalité directe selon l'ordre d'apparition des phrases. Nous allons examiner l'adjonction de modifieurs sur le verbe causatif dans nos discours causaux. Comme proposé dans (Pustejovsky 1991) et (Pustejovsky 1995), nous distinguons les modifieurs qui portent sur l'événement causal (et éventuellement sur l'état résultant), de ceux qui ne portent que sur l'état résultant. Parmi les premiers se trouvent les modifieurs temporels (Fred a fêlé la carafe à midi implique que l'acte de Fred sur la carafe a eu lieu à midi), les modifieurs locatifs (Fred a fêlé la carafe dans la cuisine), et ceux qui sont orientés vers l'agent (Fred a cassé la carafe volontairement implique que Fred voulait que la carafe soit cassée lorsqu'il a fait une action dessus). Parmi les seconds se trouvent principalement les modifieurs indiquant un degré de l'état résultant : Fred a salement fêlé la carafe implique que la carafe est salement fêlée, autrement dit, l'adverbe salement ne porte que sur l'état résultant. Commençons par les discours de causalité directe dans lesquels le verbe causatif apparaît dans la première phrase. On constate que n'importe quel modifieur peut s'adjoindre sur le verbe causatif sans altérer l'interprétation causale, voir (14). (14) a Fred a fêlé la carafe à midi. Il l'a heurtée contre l'évier. b Fred a fêlé la carafe dans la cuisine. Il l'a heurtée contre l'évier. c Fred a cassé la carafe volontairement. Il l'a heurtée contre l'évier. d Fred a salement fêlé la carafe. Il l'a heurtée contre l'évier. Par contre, lorsque le verbe causatif apparaît dans la seconde phrase, l'adjonction de modifieurs portant sur l'événement causal altère l'interprétation causale : les discours en (15) ci-dessous ne peuvent pas recevoir d'interprétation causale, d'où le signe #. (15) a # Fred a heurté la carafe contre l'évier. Il l'a fêlée à midi. b # Fred a heurté la carafe contre l'évier. Il l'a fêlée dans la cuisine. c # Fred a heurté la carafe contre l'évier. Il l'a cassée volontairement. Toutefois, l'adjonction d'un modifieur ne portant que sur l'état résultant n'altère pas l'interprétation causale, voir (15d). (15) d Fred a heurté la carafe contre l'évier. Il l'a salement fêlée. Comment expliquer le contraste entre les exemples en (14) et ceux en (15) ? Par le typage de la relation de coréférence événementielle avec l'hypothèse (H2). (H2) Dans un discours exprimant une relation causale directe, la relation de coréférence événementielle doit être de type généralisation lorsque le verbe causatif apparaît dans la seconde phrase et de type particularisation lorsque le verbe causatif apparaît dans la première phrase. Nous avons montré, à la fin de la section précédente, que l'hypothèse (H2) est respectée lorsque le verbe causatif n'est pas modifié par un adverbial, comme c'est le cas dans les exemples de base sous (5). Nous allons maintenant nous occuper des cas où le verbe causatif est modifié. Commençons par expliquer comment (H2) rend compte du paradigme en (15) avec le verbe causatif dans la seconde phrase. En (15a), les informations sur le sous-événement causal e 1 de fêler sont ?Acte(e 1, F, c)  à-midi(e 1). Or il n'y a aucune information temporelle sur l'événement e a de heurtage. La description de e 1 apporte donc de l'information nouvelle par rapport à celle de e a. Par conséquent, la relation de coréférence événementielle n'est pas du type généralisation, ce qui explique d'après (H2) que (15a) ne reçoit pas d'interprétation causale. Même raisonnement pour (15b) et (15c). Par contre, en (15d), le modifieur salement porte sur e 2 et non sur e 1 : les informations concernant e 2 sont FELE(e 2, c)  méchamment(e 2), celles concernant e 1 sont ?Acte(e 1, F, c). La relation de coréférence événementielle entre e 1 et e a reste du type généralisation, ce qui explique d'après (H2) que (15d) garde une interprétation causale. Passons au paradigme en (14) avec le verbe causatif dans la première phrase. En (14a), la description de e a, qui spécifie l'acte de Fred sur la carafe, apporte de l'information nouvelle par rapport à celle de e 1, même si elle ne comporte pas d'information temporelle. On comprend que le heurtage a eu lieu à midi, même si ce n'est pas dit explicitement mais implicitement via la relation de coréférence événementielle qui reste du type particularisation. D'après (H2), (14a) garde donc une interprétation causale. Même raisonnement pour (14b-d). L'hypothèse (H2) permet d'expliquer d'autres contrastes dans les discours de causalité directe selon l'ordre des informations. Par exemple, le contraste en (16) ou (17). Ces exemples montrent que les verbes causatifs assassiner ou se suicider peuvent apparaître dans la première phrase mais pas dans la seconde, alors qu'il n'y a aucune restriction pour les verbes tuer ou se tuer. (16) a Fred a assassiné / tué le Président de la République. Il lui a tiré dessus. b # Fred a tiré sur le Président de la République. Il l'a assassiné. c Fred a tiré sur le Président de la République. Il l'a tué. (17) a Fred s'est suicidé / tué. Il a sauté du 3ème étage. b # Fred a sauté du 3ème étage. Il s'est suici dé. c Fred a sauté du 3ème étage. Il s'est tué. Quelle est la différence sémantique entre assassiner et tuer ou entre se suicider et se tuer ? Le verbe assassiner (resp. se suicider) signifie « donner la mort (resp. se donner la mort) avec l'intention de le faire », alors que le verbe tuer (resp. se tuer) n'a pas de trait intentionnel. Dans la décomposition lexicale de ces verbes causatifs, cette différence se traduit par le fait que la description du sous-événement causal de assassiner ou se suicider doit comporter l'information que l'acte de x sur y (avec éventuellement x = y) est accompli avec l'intention d'atteindre l'état résultant MORT(e 2, y), alors qu'aucune information sur l'intention de x ne doit figurer dans la description du sous-événement causal de tuer ou se tuer. Examinons les répercussions de cette différence de sémantique lexicale dans les discours (16) ou (17), en commençant par expliquer comment l'hypothèse (H2) rend compte de l'inacceptabilité – la non-interprétation causale – de (16b) ou (17b). La seconde phrase de ces discours – construite autour de assassiner ou se suicider – comporte l'information sur l'intention de x. Or cette information n'est pas présente dans la première phrase de (16b) ou (17b) qui décrit une action et non l'objectif de cette action; par exemple, la première phrase de (17b) peut correspondre à une situation où Fred a sauté du troisième étage dans le but d'épater Marie et pas du tout dans celui de se tuer. La relation de coréférence événementielle n'est donc pas du type généralisation et ces discours n'ont pas d'interprétation causale d'après (H2). Par contre, en (16c) ou (17c), la description des sous-événements causaux des verbes causatifs – tuer ou se tuer – ne comportant pas de trait intentionnel, la relation de coréférence événementielle reste du type généralisation, et ces discours ont une interprétation causale d'après (H2). Pour (16a) ou (17a), la seconde phrase apporte de l'information nouvelle par rapport à ce qui est connu sur le sous-événement causal du verbe causatif, que celui -ci porte ou non un trait intentionnel. La relation de coréférence événementielle est du type particularisation, et ces discours ont une interprétation causale d'après (H2). L'hypothèse (H2) permet aussi d'expliquer le contraste en (18) où les premières phrases sont au passif sans agent. Le discours (18a) ne reçoit pas d'interprétation causale d'après (H2) car la description du sous-événement causal e 1 apporte l'information que l'agent de l'acte sur la carafe est Fred, information absente de la première phrase au passif sans agent : la relation de coréférence événementielle n'est pas du type généralisation. Par contre, l'interprétation causale de (18b) ne pose pas de problème car la relation de coréférence événementielle est bien du type particularisation. (18) a # La carafe a été heurtée contre l'évier. Fred l'a fêlée. b La carafe a été fêlée. Fred l'a heurtée la carafe contre l'évier. Enfin, nous allons terminer cette section en examinant les troponymes des verbes causatifs. Rappelons que la notion de « troponyme » pour les verbes, introduite dans WordNet (Fellbaum 1998), peut être considérée comme l'équivalent de la notion d' « hyponymie » pour les noms : un verbe V i est un troponyme d'un verbe plus général V 0 si V i « précise la façon dont V 0 est réalisé ». Parmi les verbes non causatifs gifler est un troponyme de frapper, siroter (du pastis) un troponyme de boire (du pastis). Parmi les verbes causatifs, égorger, guillotiner, décapiter, électrocuter sont des troponymes de tuer. Quelle est la décomposition lexicale d'un verbe comme égorger ? Son sous-événement causal est totalement spécifié et ne contient clairement aucune variable de prédicat, autrement dit on a ACTE-EGORGER(e 1, x, y) – rappelons qu' à l'inverse le sous-événement causal de tuer est non spécifié. L'état résultant de égorger est EGORGE(e 2, y), où le participe passé égorgé peut être considéré comme un hyponyme (troponyme ?) de mort. Examinons maintenant les discours comprenant deux phrases, l'une construite autour d'un verbe causatif, l'autre autour d'un troponyme de ce verbe causatif, les arguments étant sémantiquement identiques. Commençons par le cas où le troponyme se trouve dans la seconde phrase, cas illustré en (19). (19) Fred a tué un lapin. Il l'a égorgé. Le discours (19), parfaitement naturel, peut à première vue être qualifié de discours à causalité directe, dans la mesure où la seconde phrase spécifie l'acte accompli par Fred pour tuer le lapin. Mais regardons de plus près. Chaque verbe causatif dénote un événement complexe, e 0 pour tuer et e ' 0 pour égorger, décomposable en un sous-événement causal, e 1 pour tuer et e ' 1 pour égorger, et un état résultant, e 2 pour tuer et e ' 2 pour égorger. Si on considère que (19) est un discours de causalité directe, cela implique, d'après notre analyse, que l'événement décrit dans la seconde phrase, soit e ' 0, est coréférent au sous-événement causal de tuer, soit e 1. Mais cette relation de coréférence ne fait pas sens : c'est e ' 1 qui est coréférent à e 1. Le discours (19) n'est donc pas un discours de causalité directe. Par contre, il est tout à fait justifié de poser que e 0 et e ' 0 sont coréférents, autrement dit que (19) est un discours enchaînant deux phrases référant au même événement, la relation de coréférence étant de type particularisation puisque la seconde phrase apporte de l'information nouvelle par rapport à la première. Nous avons étudié en détail ce type de discours dans (Danlos 2001b) ou (Danlos 2004). En résumé, un discours comme (19) met en jeu trois relations de coréférence événementielle, à savoir e ' 0 = e 0, e ' 1 = e 1 ete ' 2 = e 2, ces trois relations étant du type particularisation. Passons maintenant au cas où le troponyme apparaît dans la première phrase, cas illustré en (20). (20) a * Fred a égorgé un lapin. Il l'a tué. b Fred a égorgé un lapin. Il l'a tué à midi. Le discours (20a) est perçu comme non naturel car la seconde phrase est totalement redondante par rapport à la première, elle n'apporte aucune information. Par contre, (20b) est naturel car la seconde phrase apporte une information temporelle par rapport à la première. Ces discours sont à rapprocher des discours en (21) ou (22). (21) a * Fred a égorgé un lapin. Il a fait cela. b Fred a égorgé un lapin. Il a fait cela à midi. (22) a * Fred a giflé Marie. Il l'a frappée. b Fred a giflé Marie. Il l'a frappée à midi. Les discours en (21) mettent en jeu l'anaphore verbale faire cela, ceux en (22) mettent en jeu la paire gifler-frapper où le premier verbe est un troponyme du second (sans que ces verbes soient causatifs). Dans tous les discours (20b), (21b) et (22b), les deux phrases réfèrent au même événement, la seconde phrase apportant une information nouvelle (temporelle) par rapport à la première. En résumé, les discours (19) et (20) comportant un verbe causatif et un troponyme de ce verbe causatif ne sont pas des discours exprimant une causalité directe mais des discours enchaînant deux phrases référant au même événement. Les acceptabilités en (20), qui sont exactement l'inverse de ce que prédirait (H2), ne sont pas des contre-exemples à l'hypothèse (H2) puisqu'il n'y a pas de relation de causalité directe. En nous appuyant sur la décomposition lexicale des verbes causatifs proposée dans (Pustejovsky 1995), nous avons montré que les discours exprimant une causalité directe mettaient en jeu une relation de coréférence événementielle entre l'événement décrit dans la cause et le sous-événement causal du verbe causatif. Un typage des relations de coréférence selon l'apport d'information nous a permis de mettre en évidence et d'expliquer différents contrastes selon que le verbe causatif apparaît dans la première phrase ou dans la seconde. Les exemples présentés dans cet article enchaînent deux phrases indépendantes non reliées par un connecteur de discours. Le lecteur vérifiera que les données sur la causalité directe ne changent pas si l'on utilise un participe présent ou un gérondif comme illustré en (23). (23) a Fred a heurté la carafe contre l'évier la fêlant. b Fred a fêlé la carafe en la heurtant contre l'évier. Notre analyse par une relation de coréférence événementielle typée généralisation ou particularisation fonctionne pour (23) comme pour les discours parataxiques. Dans cet article, nous avons fait abstraction de la notion de « relation de discours », qui est centrale dans toute étude sur le discours. Néanmoins, dans d'autres travaux, nous avons prolongé les données et analyses présentées ici par l'étude des relations de discours en jeu, voir (Danlos et Gaiffe 2004) et (Danlos 2006). Ces études montrent que les données de sémantique lexicale enrichissent les recherches sur le discours et vice-versa .
L'A. s'intéresse aux discours causaux comprenant deux phrases, l'une décrivant la cause, l'autre décrivant l'effet par le trébuchement d'un verbe causatif. Il distingue les verbes causatifs psychologiques qui admettent un sujet référent soit à un évènement, soit à un fait, soit à une entité et les verbes causatifs non psychologiques qui admettent un sujet référent à une entité. Il aborde ainsi les relations de coréférence événementielle.
linguistique_11-0078430_tei_878.xml
termith-600-linguistique
Cet article vise à illustrer ce que peut être un « lieu discursif », et à montrer comment il est envisageable d'en mener l'étude. Notre ambition est avant tout méthodologique : il s'agit d'exposer, à travers un exemple précis, la façon dont l'analyste du discours est susceptible d'appréhender son objet. À l'issue de ce texte, nous aurons ainsi exercé une de ces « manières de faire » en analyse du discours en faveur de laquelle nous avons milité dans un travail antérieur (Krieg-Planque, 2007). Après avoir circonscrit ce qu'est un « lieu discursif », nous poserons les spécificités de celui qui nous occupe ici. Dans le cas présent, le lieu discursif qui retient notre attention est une association lexico-syntaxique dont une des réalisations attestées est la suivante : « Nous ne pourrons pas dire que nous ne savions pas. » Les caractéristiques de cette association et de ses usages dans un corpus de discours relatifs à des conflits armés (guerres yougoslaves des années 1991-1995) nous amèneront à mettre en évidence les enjeux de valeurs que ce lieu discursif supporte. À l'issue de ce texte, après une analyse des principales dimensions pragmatiques, énonciatives et sémantico-référentielles des énoncés collectés, nous aurons montré comment peut s'opérer – et être étudiée – une axiologisation des discours politiques et sociaux. Il importe tout d'abord de préciser ce que nous entendons par « lieu discursif ». Cette notion, à laquelle nous avons consacré quelques développements (Krieg-Planque, 2003 et 2006a), entend être utile à qui veut saisir les discours politiques et sociaux à travers les différentes formes de figements qu'ils modèlent et font circuler. Un lieu discursif est un objet relevant d'une matérialité discursive, que les locuteurs façonnent et reprennent en y investissant des enjeux de positionnements et de valeurs. Il se distingue en cela des « lieux » tels qu'ils sont abordés en études argumentatives, où le topos constitue un schème logico-discursif à partir duquel il est possible de forger des arguments : par exemple, le « lieu de la qualité » suppose que la qualité est supérieure à la quantité, et peut représenter un appui pour le locuteur qui procède dans son discours à une valorisation de l'unique (Perelman, Olbrechts-Tyteca, 1970, p. 112-132). Certes, le topos peut s'illustrer dans des énoncés figés (ainsi, l'aphorisme « une tête bien faite vaut mieux qu'une tête bien pleine » se fonde sur le topos de la qualité), mais il ne s'y réduit pas. Ceci place le topos rhétorique à un niveau de généralité et de contenu notionnel bien plus élevé que ne se trouve le lieu discursif, dont la répétabilité s'observe nécessairement dans des régularités formelles. Le lieu discursif auquel nous nous intéressons ici se trouve être une association lexico-syntaxique. Mais d'autres formes peuvent être identifiées. En effet, au plan formel, un lieu discursif peut être par exemple : – un texte, ou plus souvent ce qui en tient lieu (car on fait assez rarement circuler un texte lui -même, mais plus fréquemment son titre, un élément du paratexte, un extrait…), tels que peuvent l' être l'Appel du 18 juin du général de Gaulle, le Mémorandum sur les questions sociales actuelles dans notre pays, de l'Académie des sciences et des arts de Belgrade, ou encore La Princesse de Clèves de Madame de La Fayette; – une unité lexicale simple (perestroïka, mondialisation …), ou une unité lexicale complexe (devoir de mémoire, commerce équitable…); nous sommes ici dans des catégories lexicologiques si l'on peut dire « classiques »; – une association lexico-syntaxique, comme c'est le cas ici, ou comme on l'observe également dans l'association lexico-syntaxique « travailler plus pour gagner plus », mise en discours dès 2005 par les membres du gouvernement Raffarin dans le contexte de la révision d'initiative gouvernementale de la législation sur le temps de travail (avant que cette même association ne devienne, en 2007, le support d'un des slogans de Nicolas Sarkozy en campagne pour l'élection présidentielle); – plus rarement une date (par exemple, le 28 juin de différentes années est convoqué comme charnière dans plusieurs narrations de l'histoire yougoslave; ou, plus notoirement, le 11 septembre fonctionne comme repère pour différents récits médiatiques d'évènements se produisant au cours des 20 e et 21 e siècles), ou encore des chiffres (ainsi, le chiffre « 200 000 » peut être repéré en divers points du récit de l'histoire yougoslave); Quant à leurs fonctions en discours, ces lieux discursifs peuvent faire office, par exemple : – de textes clés et de preuves authentifiantes; c'est le cas du Mémorandum sur les questions sociales actuelles dans notre pays, présenté à partir de sa parution par extraits, en 1986, comme émanant de l'Académie des sciences et des arts de Belgrade, et qui fonctionne dans les récits comme ce qui serait une preuve authentifiante d'une présumée « hégémonie grand-serbe »; c'est le cas du fantomatique Plan de conquête hima-tutsi, supposé attester la volonté d'hégémonie tutsie dans la région des Grands Lacs, et invoqué par les génocidaires en 1994; ou encore, pour prendre un cas bien documenté, c'est le cas des Protocoles des sages de Sion, faux témoignages d'une conspiration juive mondiale dont le caractère apocryphe bien établi depuis 1921 n'entrave nullement l'efficacité en discours; – de textes fondateurs et légitimants; c'est ainsi que fonctionne le rapport de la Commission mondiale sur l'environnement et le développement de l'ONU, titré Notre avenir à tous, plus fréquemment nommé Rapport Brundtland de 1987, qui apparait dans les discours comme le document qui fonde la définition autorisée du « développement durable » et légitime la promotion de ce qu'il est censé désigner; – de slogans et de mots d'ordre; c'est ainsi, par exemple, que l'on peut analyser certaines « petites phrases », comme celle du président de la République François Mitterrand selon lequel « ajouter la guerre à la guerre ne résoudra rien », mise en circulation par sa survenue dans une interview parue dans Sud-Ouest le 13 aout 1992, ou comme celle de la première secrétaire du Parti socialiste Martine Aubry, déclarant en mars puis, de nouveau, en avril 2009 qu' « il n'y a pas d'ordre sans justice »; c'est ainsi également que l'on peut appréhender les reprises et les subversions de slogans électoraux; – de désignants, ou encore de formules; c'est ainsi qu'une « formule », notion à laquelle nous avons consacré un travail approfondi (Krieg-Planque, 2009), peut être envisagée comme une catégorie particulière de lieu discursif; on pourra de cette façon appréhender droit d'ingérence humanitaire, mondialisation, développement durable ou diversité; Venons -en à présent au lieu discursif précis qui fait l'objet de cet article. Le patron du lieu discursif ne pas pouvoir dire que ne pas savoir est bien entendu construit par l'analyste : dans la réalité de son travail, celui -ci est bien sûr confronté, dans un premier temps, à des énoncés bien réels, attestés, dont il importe d'effectuer le relevé. Au cours d'une recherche antérieure portant sur l'émergence et les emplois de la formule purification ethnique, nous avons prélevé ce qui nous apparaissait comme des manifestations d'un même lieu discursif. Une forte diversité caractérise les énoncés rencontrés, par-delà la monotonie qu'induit l'appartenance à un même patron. Chaque énoncé, à sa façon, réalise le patron ne pas pouvoir dire que ne pas savoir, association lexico-syntaxique fondatrice d'un même lieu discursif par lequel les locuteurs offrent à comprendre les enjeux de leurs prises de parole. Nous présentons ci-dessous quelques-uns des énoncés répertoriés, de façon à illustrer la variété de la série : Finis les après-guerres où, comme en 1945, chacun a pu bafouiller piteusement : « J'savais pas… » Ces camps, ces visages osseux, ces corps décharnés, ces gestes lents d'automate, ces regards fixes, au-delà du désespoir, on les avait déjà connus en noir et blanc. Mais aujourd'hui, c'est en couleurs, ils sont encore vivants, toujours prisonniers et, cette fois, on ne pourra plus dire qu'on ne le savait pas. Nous ne pourrons pas dire que nous ne savions pas. Ce qui se faisait hier dans la honte des rafles nocturnes et des wagons plombés se fait aujourd'hui au grand jour, sous l' œil des reporters et des caméras de télévision. Nous ne pourrons pas dire que nous ne savions pas. Nous ne pourrons pas dire : « Nous ne savions pas. » Les événements se sont précipités, mais, au stade actuel de la guerre qui sévit dans l'ex-Yougoslavie, après le rapport de Tadeusz Mazowiecki sur les camps serbes de Bosnie-Herzégovine, nous ne pourrons plus jamais dire que nous ne savions pas, ou nous voiler la face sous le prétexte fallacieux que les droits de l'homme sont transgressés par tous les nationalismes. Pour que personne ne puisse dire : « Sarajevo ? je ne savais pas… » On ne peut pourtant pas dire, comme il y a cinquante ans : « On ne savait pas » … Cette fois, nous ne pourrons pas tricher avec l'Histoire. On savait, ON SAVAIT, ON SAIT ! Qui pourra dire : je ne savais pas ? Dans notre conception de la notion, une relative stabilité caractérise les lieux discursifs : les locuteurs doivent laisser le lieu discursif qu'ils traversent suffisamment intact pour que d'autres locuteurs puissent, à leur tour, le reconnaitre, l'investir et le laisser disponible pour d'autres locuteurs encore, non sans avoir au passage la possibilité d'imprimer leur propre marque (sous forme de changement sémantique et/ou référentiel, mais aussi de dérivation, de commutation, d'insertion, de changement déictique…). Dans le cas présent, la stabilité matérielle est assurée par l'association lexico-syntaxique des verbes pouvoir et savoir et de la négation telle que cette association s'opère dans le patron ne pas pouvoir dire que ne pas savoir. Dans une étude proposée par Jacques Guilhaumou et consacrée aux discours de la période révolutionnaire, la stabilité était assurée par une opération de coordination de deux groupes nominaux dont l'un des termes est du pain, dont Jacques Guilhaumou observait des déclinaisons à travers la profération de slogans tels que « Du pain et à Versailles ! » ou « Du pain et la liberté ! ». La notion de lieu discursif s'appuie donc sur le caractère central des matérialités langagières pour la compréhension des corpus. Elle permet des descriptions linguistiques rigoureuses et serrées. De fait, elle renvoie à des notions qui ont cours en sciences du langage, telles que figement, collocation, cooccurrence, segment répété, locution, phraséologie … qui rendent compte chacune à leur manière de formes d'arrêt de l'ouverture de la combinatoire. À l'inverse, le caractère réputé graduable du figement, également bien identifié en sciences du langage, de même que la notion d ' interdiscours, peuvent rendre compte de la variété des formes rencontrées. La suite de cet article est consacrée aux divers questionnements qu'ouvrent les formulations que nous avons relevées : ancrages politiques et médiatiques des discours en circulation, caractère dialogique des formulations, interrogation sur l'acte de langage accompli, valeurs des pronoms nous et on, question de l'objet de la prédication, identification du témoin de l'acte de langage et, enfin, réflexion sur le rôle des médias (mais aussi de l'image, des discours d'experts, etc.) dans l'administration de la preuve. L'émergence et les mises en circulation successives du lieu discursif « Nous ne pourrons pas dire que nous ne savions pas » ne sont pas indépendantes des faits et évènements dont les médias rendent compte et qu'ils contribuent à construire par leurs récits : un lieu discursif est ancré dans la mise à l'ordre du jour de certains thèmes et des valeurs et arguments que ces thèmes suscitent. Il est articulé à l'agenda politique et médiatique. Par exemple, ce n'est qu' à la faveur des déclarations réitérées du président de la République Nicolas Sarkozy en 2007 et 2008, et de la façon dont les adversaires de sa politique s'en sont emparés, que La Princesse de Clèves est devenu un lieu discursif à l'hiver 2008-2009. Dans le cas de la guerre yougoslave, plusieurs évènements activent la circulation et le réinvestissement du lieu discursif « Nous ne pourrons pas dire que nous ne savions pas ». En voici les principaux, d'après nos relevés : – la « découverte des camps serbes » en Bosnie, début aout 1992, qui mobilise le schéma de lecture fourni par la seconde guerre mondiale sur la base d'une identification des camps tenus par les nationalistes serbes aux camps d'extermination nazis, singulièrement à travers des photos et films évoquant, dans les représentations collectives, l'univers concentrationnaire; – la « découverte des viols systématiques » qui, à l'hiver 1992-1993, atteste de nouveau – dans l'ordre du récit – un projet serbe de destruction des populations musulmanes et croates, tout en investissant ce projet de significations nouvelles (crime de filiation, conjectures sur la souillure de l'ascendance et de la descendance, considérations sur l'identité musulmane des Bosniaques…) ;– la « chute de Srebrenica » aux mains des nationalistes serbes après sa tentative de sauvetage par le général Philippe Morillon, tentative de sauvetage et chute qui, au printemps 1993, génèrent un discours hautement pathétique, celui de la honte collective, en même temps qu'est salué le courage d'un seul; – l' « obus du marché de Sarajevo » qui, en février 1994, provoque chez les commentateurs un discours où s'expriment l'indignation et le sentiment du scandale, mais leur fait également espérer un « réveil des consciences » rendu selon eux nécessaire face à des images qui, immanquablement, ne devraient plus permettre d'ignorer le drame. Ces observations sur les ancrages politiques et médiatiques de la circulation des discours sont l'occasion de souligner un aspect important de la notion de « lieu discursif ». Si ce dernier est bien un objet relevant d'une matérialité discursive, dont il est possible de faire des descriptions linguistiques précises (nous entendons par là qu'il ne s'agit pas d'étudier un ordre relevant du conceptuel, du notionnel ou du logique, ce qui pose une des différences entre les lieux discursifs et les topoï, comme nous l'avons exposé en début d'article), il n'existe pas sans le fait que les locuteurs sont des acteurs politiques, institutionnels et sociaux, sans des contraintes et des ressources dans les pratiques professionnelles, sans des trajectoires sociales et des déplacements physiques des personnes qui font le récit des évènements, sans l'ensemble des valeurs et arguments qui structurent les arènes publiques à un moment donné. Une des caractéristiques remarquables de la série d'énoncés relevés est la forte présence du dialogisme interdiscursif qui s'y manifeste. Le renvoi à un interdiscours s'exprime sur des modes variés, qui vont d'un renvoi à une énonciation antérieure non explicitement située dans l'histoire (« cette fois ») jusqu' à des renvois à des discours plus fortement rattachés à des conditions d'énonciation précises (« les après-guerres où, comme en 1945 », ou encore « comme il y a cinquante ans »). C'est bien le dialogisme interdiscursif montré qui nous intéresse ici (c'est-à-dire la façon dont le discours se donne à voir explicitement comme renvoyant à un discours antérieur et extérieur), et non pas la présence historique effective d'un énoncé, telle qu'une enquête dans l'archive nous permettrait d'en établir la réalité (par exemple en trouvant une attestation de « Je ne savais pas » dans les déclarations de Wilhelm Keitel devant le tribunal de Nuremberg). À travers ces manifestations de dialogisme interdiscursif, on observe que le lieu discursif étudié ici, par-delà la variété de ses formulations, renvoie de façon plus ou moins explicite à un déjà-dit dans l'immédiat après-guerre de 1945 (lors des procès de Nuremberg et de Tokyo notamment, ainsi que lors des procès de la collaboration en France), et qu'il pose comme énoncé originaire celui de la justification donnée publiquement à l'inertie face aux crimes nazis, voire à la participation active à leur perpétuation (énoncé originaire dont les formulations elles -mêmes peuvent fluctuer : « Je ne savais pas », « Nous ne savions pas », « On ne savait pas »). L'idée reçue selon laquelle le nazisme serait le sommet de l'horreur dans l'histoire, ainsi que celle selon laquelle l'incapacité à empêcher cette horreur serait le sommet de la culpabilité honteuse, sont ici à l' œuvre. Le lieu discursif qui fait l'objet de notre étude constitue ainsi un exemple supplémentaire – s'il en fallait un – du prototype que représentent, dans les discours contemporains, la seconde guerre mondiale et singulièrement les crimes nazis dans les discours contemporains. Il renvoie à la question des analogies avec le nazisme et à la question du nazisme comme figure du mal radical et du crime impardonnable, ainsi qu'au caractère stéréotypique de ces analogies. Le dialogisme interdiscursif renvoyant à un énoncé originaire déjà dit dans l'immédiat après-guerre de 1945 n'est pas sans incidence sur la question de l'acte de langage accompli à travers la profération d'un énoncé réalisant le patron ne pas pouvoir dire que ne pas savoir, ainsi que nous nous y intéressons à présent. Face à un énoncé ou à une suite d'énoncés, le chercheur trouve toujours intérêt à s'interroger sur les actes de langage accomplis, ou susceptibles d' être accomplis. Ici, quel type d'acte de langage chacun de ces énoncés réalise -t-il ? Une injonction, un appel, une mise en garde, une menace, une admonestation, un aveu de culpabilité, une déclaration de responsabilité, une demande de pardon, une disculpation, un reproche, une culpabilisation… ? Conformément à l'un des principes épistémologiques élémentaires de l'analyse du discours (du moins telle que nous la pratiquons, dans la lignée de ce que l'on a pu appeler l' École française d'analyse du discours), notre propos n'est pas, bien entendu, de choisir une interprétation au détriment des autres, mais d'attirer l'attention sur l'intérêt de la dimension pragmatique du lieu discursif analysé. Nous avons, dans le passage précédent, souligné l'importance du dialogisme interdiscursif renvoyant à l'après-guerre. Il nous faut y revenir à présent dans la perspective pragmatique qui nous occupe. Dans l'immédiat après-guerre de 1945, se sont tenus des procès (des procès au sens pénal, comme à Nuremberg et à Tokyo, mais aussi des procès au sens moral d'une interpellation et d'une condamnation) au cours desquels l'énoncé originaire a été proféré. Cet énoncé a, de fait, été prononcé. Mais son existence comme telle dans la mémoire discursive collective eût suffi à notre analyse : l'important, ici, est que « Je ne savais pas » et ses variantes soient enregistrés dans la mémoire discursive collective comme une justification donnée par les contemporains de la destruction des juifs d'Europe pour expliquer leur inertie, leur insuffisante solidarité à l'égard des victimes, voire leur participation active au processus de destruction (dont « ils ne savaient pas » réellement à quoi il menait, comme ont pu en effet le dire devant le tribunal militaire international de Nuremberg Walter Funk, ministre de l' Économie du Reich, Wilhelm Keitel et Alfred Jodl, au commandement suprême de la Wehrmacht, ou encore Ernst Kaltenbrunner, de l'Office central de la sécurité du Reich). L'acte de langage accompli dans les années quatre-vingt-dix à travers « Nous ne pourrons pas dire que nous ne savions pas » et ses différentes variantes n'existent pas sans cet horizon rétrospectif, qui renvoie l'énoncé présent (celui portant sur les guerres yougoslaves) à la possibilité – voire à la certitude, dans certaines citations – de procès futurs qui prendront pour objet les crimes commis dans l'espace yougoslave et pour sujet du droit ou de la condamnation morale leurs auteurs et complices. On notera que l'existence de tels procès (les procès pénaux) est, dans la réalité du droit international des années quatre-vingt-dix, d'autant plus incertaine que le Tribunal pénal international pour l'ex-Yougoslavie n'a été créé qu'en février 1993, suivi, en juillet 1998 seulement, par la création de la Cour pénale internationale. Le futur utilisé dans certaines formulations (« Nous ne pourrons pas… », « On ne pourra pas… », « Qui pourra… » …) peut donc tout à la fois renvoyer à la nécessité historique du jugement (pénal et/ou moral) et constituer un appel à la création de tribunaux et institutions de poursuites et de jugement pénal, ce dont effectivement certains acteurs individuels ou collectifs ont été les militants actifs dans le contexte des guerres yougoslaves. Un passage situé plus loin dans cet article nous donnera l'occasion de revenir, mais sous un autre angle, sur la question de la justice pénale. Même si, comme nous y insistons, il ne s'agit pas de réduire le lieu discursif (ni même l'une de ses déclinaisons précises utilisées en contexte) à un acte de langage en particulier, nous ne pouvons pas manquer de repérer que les locuteurs qui ont recours à ne pas dire que ne pas savoir sont dotés, par leur statut social, par leur position institutionnelle, ou situationnellement, d'une autorité morale. Celle -ci tend à accroitre la portée culpabilisante de ce lieu discursif. Éditorialiste, chroniqueur, intellectuel, chef de l' Église catholique romaine, citoyen manifestant… : tels sont les locuteurs qui se font les porteurs des énoncés considérés. La valeur inclusive du pronom on ou nous, suggérée dans la subdivision suivante, tend à placer dans une situation d'égalité quant à leur aptitude au jugement moral les partenaires de l'échange. En revanche, le fait même pour le locuteur d'opérer un acte de langage par lequel il alerte moralement l'interlocuteur lui confère un ethos d'autorité. Tout en créant une image de lui -même par le moyen du discours, le locuteur s'en autorise pour adresser un discours de blâme. En même temps qu'il livre l'aveu de sa propre culpabilité, le locuteur fait porter sur la communauté du on ou du nous la charge de la faute et la menace du sentiment de honte que peut susciter l'inconséquence dans l'évaluation normative de l'action. C'est ainsi que les énoncés peuvent être appréhendés comme autant d'actes de culpabilisation, effectués à l'égard des lecteurs du journal, des citoyens témoins de la manifestation de rue, des croyants attentifs au discours pontifical… et de toute personne humaine qui se reconnaitrait dans la trajectoire de la référenciation. L'attention de l'analyste est attirée par une caractéristique saillante des énoncés : la présence régulière des pronoms nous et on, et singulièrement dans ce contexte, le caractère difficilement assignable des valeurs de ces pronoms. En effet, quelles sont les catégories d'acteurs visées à travers ces pronoms, dont les valeurs apparaissent ici comme particulièrement fluctuantes et non bornées ? Il peut s'agir d'un nous à valeur inclusive mais vague (par exemple « nous les démocrates », « nous les Européens », « nous les Occidentaux » ou « nous qui sommes dotés du jugement moral »), qui opère des partitions à l'intérieur de l'humanité (nous / eux). Ici comme ailleurs, la mise en discours et la prise de parole consistent bien plus à ouvrir des possibles interprétatifs qu'elles ne consisteraient univoquement à « délivrer un message ». Comme précédemment à propos de la question de la nature de l'acte de langage effectué (ou comme plus bas à propos de ce qui peut constituer l'objet de la prédication), il ne s'agit pas pour nous d'assigner une valeur ou une autre à tel ou tel pronom dans tel ou tel énoncé (au sens où il faudrait en quelque sorte « décoder » les discours ou leur faire dire explicitement ce qu'ils diraient incomplètement), mais bien de mettre au jour les questions que sous-tendent les formulations rencontrées. D'une façon générale, dans la continuité de l' École française d'analyse du discours, nous posons qu'il n'appartient pas à l'analyste de « lever » les ambiguïtés, ni de « résoudre » les faits de polysémie, ni de « trouver » l'univoque sous l'équivoque, ni d' « homogénéiser » ce qui se présente comme hétérogène, ni de « clarifier » les phénomènes de flou ou de vague, mais simplement de proposer une exhibition organisée de ces différents types de « non-un » : il n'appartient nullement au chercheur de résoudre ce qui ne l'est pas, mais il lui revient de voir l'irrésolu et de le décrire. Ici, le caractère potentiellement ouvert du référent visé constitue précisément un des enjeux majeurs du lieu discursif étudié. Par son flou référentiel, le pronom autorise toute personne humaine à se reconnaitre au nombre des destinataires interpellés. Mais, du fait qu'il se reconnait dans cette communauté apte au jugement moral, tout lecteur ou auditeur se trouve, dans le même mouvement, en position de culpabilité, démuni des excuses par lesquelles il aurait pu justifier l'absence de réaction (en parole ou en action). Le locuteur, pour sa part, en dissolvant le sujet de son énonciation dans une communauté de parole imaginaire qu'il transforme une communauté de conscience et de jugement, atténue la prise en charge individuelle de la responsabilité au profit de ce qui est donné à voir comme une responsabilité collective : énonciation et responsabilité ont partie liée, comme y insistent en détail deux récents numéros de revue (Rabatel, Chauvin-Vileno éd., 2006; Rabatel, Koren éd., 2008). Les énoncés analysés font encore apparaitre une caractéristique remarquable du lieu discursif étudié : le non-dit de l'objet visé par la prédication. En effet, le verbe savoir appelle usuellement un complément d'objet (savoir quelque chose). Mais, comme on le voit, dans les énoncés rencontrés, ce complément d'objet est le plus souvent absent et la tournure demeure elliptique. Que sait-on donc, en définitive, selon ces énoncés ? Le contexte de la formulation ne permet que rarement d'identifier cet objet de la prédication. Ainsi, parce qu'elle n'apporte pas toujours un complément d'objet qui indiquerait sur quoi porte le savoir, la série des énoncés effectivement réalisés rend possible l'évitement du difficile problème de la qualification des faits de la guerre yougoslave (qualification juridique, notamment, par exemple sous l'angle du génocide, du crime contre l'humanité ou du crime de guerre). Mais, parce que ces formulations sont rattachées par l'énoncé qu'elles citent à un déjà-dit par les contemporains du nazisme, elles suggèrent que ces faits sont comparables à ceux survenus sous le nazisme. Autrement dit, ces formulations renvoient à un objet qu'elles ne qualifient pas, mais dont elles suggèrent qu'il présente un air de famille avec des objets – également non spécifiés – typiques de la période nazie. Enfin, pour ne faire qu'évoquer l'un des nombreux enjeux de cette ellipse prédicative : la série contribue à donner à voir le réel comme irreprésentable, puisque non nommé. Cette question renvoie aux débats bien connus sur le caractère indicible de certains évènements historiques et humains, débats dans lesquels se croisent des réflexions sur l'intransmissibilité de l'expérience humaine, des analyses sur les usages de la parole testimoniale et des études sur les rhétoriques de l'innommable, de l'indicible et de l'ineffable dans la mise en récit des situations extrêmes. Les énoncés relevés ne laissent presque jamais percevoir l'identité de la personne ou de l'instance devant laquelle l'acte de langage est accompli. En effet, devant qui ou devant quoi sera -t-il donc dit « Nous ne savions pas » ? La syntaxe de la langue française suggère que l'on dit en général quelque chose, mais aussi de surcroit à quelqu'un. Pour reprendre les termes et concepts de la narratologie greimassienne, il apparait clairement qu'aucun acteur désigné n'occupe le rôle actantiel du « destinateur judicateur » (actant qui, selon l'analyse structurale du récit, émet un jugement après évaluation de l'accomplissement d'un programme narratif). Sur cet aspect comme sur tous les précédents évoqués dans cet article, il ne nous appartient pas de remplir une place laissée vide, mais plutôt de saisir l'épaisseur non finie de ses occupants potentiels. Cette dimension du lieu discursif « Nous ne pourrons pas dire que nous ne savions pas » attire notre attention sur le rapport des énoncés qui le réalisent au juridique, à l'histoire et à l'anthropologique. Elle nous éloigne de la seule question de la culpabilité pour resserrer le propos sur celle, évoquée plus haut, de la responsabilité, qui implique que les acteurs répondent de, devant et pour (Rabatel, 2008, p. 47-69). En droit, le rapport entre savoir et action se manifeste dans le fait que toute institution juridique entreprend de savoir ce que les acteurs savaient au moment où ils ont agi. À cet égard, certains des énoncés considérés renvoient à la justice pénale, et plus globalement aux tribunaux institués par les communautés humaines. En histoire, une partie de l'établissement des faits passe par la compréhension des déterminants de l'action à travers ce que les acteurs savaient de leur propre contemporanéité, notamment par le prisme des textes et des images dont ils pouvaient avoir connaissance. De ce point de vue, c'est au « jugement de l'histoire » que certains énoncés relevés sont susceptibles de référer. La dimension anthropologique, enfin, est présente sous le jour des questions liées à la descendance et à la filiation symboliques. Le destinateur judicateur est alors incarné par un acteur dont l'existence est projetée dans l'avenir et que dénomment dans d'autres contextes des termes tels que générations futures, générations à venir, nos enfants ou encore nos petits-enfants. À l'instar de ce que l'on observe dans les discours qui prennent en charge le développement durable et/ou le principe de précaution, apparait alors un acteur inédit, qui est en quelque sorte le symétrique de la figure des « ancêtres » (les ascendants inconnus) : les descendants inconnus. De fait, une recherche menée par ailleurs sur la formule développement durable nous donne l'occasion d'explorer des corpus liés à des thématiques sanitaires et environnementales. Il est aisé de constater que celles -ci favorisent la circulation du lieu discursif « Nous ne pourrons pas dire que nous ne savions pas », par lequel s'opère une mise en scène de l'attitude morale du locuteur et une mise en discours de la responsabilité collective. La déclaration du président Jacques Chirac devant l'assemblée plénière du Sommet mondial du développement durable à Johannesburg, le 2 septembre 2002, s'appuie notamment sur cette ressource : La terre et l'humanité sont en péril et nous en sommes tous responsables. Il est temps, je crois, d'ouvrir les yeux. Sur tous les continents, les signaux d'alerte s'allument. L'Europe est frappée par des catastrophes naturelles et des crises sanitaires. […] Certains pays insulaires sont menacés de disparition par le réchauffement climatique. Nous ne pourrons pas dire que nous ne savions pas ! Prenons garde que le xxi e siècle ne devienne pas, pour les générations futures, celui d'un crime de l'humanité contre la vie. Dans ce sillage thématique, une multitude de discours témoignent de la circulation du même lieu discursif, comme par exemple cette déclaration de Ségolène Royal en 2006 : « Personne ne pourra dire que l'on ne savait pas lorsque, dans cinquante ans, éclateront des guerres pour la maitrise de l'accès à l'eau potable. » Dans les énoncés qui font circuler le lieu discursif « Nous ne pourrons pas dire que nous ne savions pas » à propos des guerres yougoslaves des années 1991-1995, on est frappé par l'importance qui est accordée à l'image comme instrument de connaissance et comme outil d'administration de la preuve. Les énoncés cités précédemment sur les thématiques sanitaires et environnementales, pour leur part, feraient sans doute préférentiellement intervenir des documents d'expertise tels qu'ils structurent les controverses scientifiques (prévisions, rapports, mesures chiffrées…). Dans les énoncés relevés, l'image est, plus souvent que le verbal, signalée comme moyen d'accès à la réalité. Le fait de « savoir » serait lié à l'existence d'images du conflit, ainsi que le suggère l'article d'Yves-Guy Bergès dans La Croix cité plus haut. Dans son édition du 6 janvier 1993, Télérama présente en couverture la photo d'un homme décharné, accompagnée des surtitre et titre suivants : « Le génocide en Bosnie. Maintenant, nous savons ». En pages intérieures (p. 8-11), le même énoncé (« Maintenant, nous savons ») constitue le titre d'un article de Jean-Claude Raspiengeas. Ce titre figure en gros caractères, en surimpression d'un cliché pris en aout 1992, et qui représente en gros plan deux visages d'hommes maigres derrière des barbelés. L'image – et singulièrement l'image évoquant l'iconographie concentrationnaire – semble apporter en elle -même la preuve du fait que l'on sait. Dans les discours sur le conflit yougoslave, l'emploi du lieu discursif ne pas pouvoir dire que ne pas savoir en lien avec des photos (ou avec des propos évoquant l'image fixe ou animée) donne un exemple de la fonction épistémique de l'image et de la « conscience de l ' avoir-été -là » que provoque la photographie, pour reprendre l'expression célèbre de Roland Barthes (1993, p. 1424). À travers leur travail de maniement des images, associé à ce qui serait leur fonction de dévoilement et leur mission de mise en évidence de la vérité, les médias seraient ainsi (dans le discours qu'eux -mêmes produisent, ou dans les discours de ceux qu'ils font parler à travers eux) en charge de l'administration de la preuve. Au-delà des propos que les journalistes, conformément à l'imaginaire professionnel dominant, aimeraient voir tenus sur leurs propres pratiques, c'est très certainement là aussi une attente sociale que nous pouvons appréhender, celle qui se forme autour des médias, d'une part, et de l'image fixe ou animée, d'autre part, dans l'administration de la « preuve » du « savoir » – aussi indéterminé en nature soit-il – auquel le lieu discursif fait allusion. Nous en avons des indices bien au-delà du cas yougoslave, comme en témoigne par exemple une lettre de lecteur publiée par un magazine en 2005 à propos de la famine organisée au Darfour : Depuis quatre ans, nous voyons des images terribles [… ], mais cette année plus que les autres j'ai été révolté par ce que j'ai vu. Je ne peux plus me taire en pensant qu'au Darfour des enfants crèvent littéralement la bouche ouverte – et nous ne pourrons plus dire que nous ne savions pas – alors que ce qui leur reste de parents n'ont pour seule nourriture que les feuilles des arbres qui poussent autour du camp, qu'ils écrasent entre leurs mains et qu'ils allongent d'un peu d'eau de pluie. Et nous, pendant ce temps ? Nous sommes au chaud, bien assis sur nos bons gros derrières d'Occidentaux repus. Et nous ne faisons rien. Une étude historique détaillée de la façon dont la photographie de presse et le reportage télévisé opèrent, à partir des images de la famine au Biafra en 1968, comme éléments de preuve dans l'espace public contemporain, permettrait d'enrichir la recherche. Sans entrer dans le détail de la réflexion, soulignons par ailleurs que l'importance accordée à la strate iconique dans le lieu discursif étudié ici ne peut que contribuer au non-dit de la prédication observé plus haut dans la strate verbale : l'image, en effet, comme type d'objet sémiotique, ne permet en rien une catégorisation claire et univoque des faits. En conclusion, il apparait que la régularité des énoncés rencontrés, loin de restreindre les possibles de l'expression, en facilite au contraire le flou dans l'interprétation. À travers elle, le lieu discursif étudié permet la mise en œuvre dans l'espace public d'émotions politiques et morales aussi variées que l'indignation, la colère, l'angoisse d'impuissance, la frustration, la honte, le sentiment d'injustice, la compassion, la pitié, la culpabilité, ou la peur de la répétition. En somme, ce lieu discursif permet d'exprimer publiquement et de faire circuler des valeurs émotionnelles et morales, mais sans qu'il soit assigné à celles -ci un caractère univoque. Il participe, y compris dans ce qu'il porte de vague ou d'indéterminé, à la manifestation publique d'émotions politiques et morales. Celle -ci, pensons -nous, doit être prise en compte dans l'étude des configurations historiques des arènes publiques. C'est ce qu'invitait à faire Luc Boltanski (1993) dans son analyse de la « topique de la dénonciation ». C'est toujours ce qu'encouragent à considérer des travaux plus récents relevant de différentes sciences humaines et sociales, et portant par exemple sur la honte et le dégout (Nussbaum, 2004), l'indignation (Ambroise-Rendu, Delporte éd., 2008), l'intolérable, l'injustifiable et l'inacceptable (Fassin, Bourdelais éd., 2005), ou encore les formes de l'action publique et les expressions des mouvements sociaux (Cefaï, 2007, ou plus spécifiquement Siméant, 2009). Dans ses vertus méthodologiques et épistémologiques, l'étude exposée ici fait apparaitre l'importance de catégories issues des sciences du langage pour la description des enjeux que les discours supportent, importance que nous avons déjà eu plusieurs fois l'occasion de souligner (Krieg-Planque, 2006a et 2007). Dans le cas présent, des catégories aussi élémentaires (même si elles demeurent problématiques pour les linguistes spécialisés du domaine) que celles de « complément d'objet » et de « verbe transitif », sur le volet syntaxique de l'analyse, ou celle de « pronom », sur le volet énonciatif, manifestent leur caractère éclairant. En même temps, l'analyse que nous avons présentée n'aurait pas pu être menée sans une connaissance des réflexions qui ont cours, en histoire, en philosophie morale, en science politique, ou encore en sciences de l'information et de la communication, sur les discours tenus sur les violences de masse et les crises extrêmes, sur le caractère indicible des évènements historiques, sur le rôle des textes et des images dans l'administration de la preuve, sur les enjeux juridiques liés à la qualification des faits, ou encore sur la responsabilité des journalistes dans la prise de conscience individuelle et la formation des opinions publiques. C'est en ce sens que nous plaidons pour une analyse du discours qui soit à la fois résolument attentive aux matérialités langagières et une discipline encordée aux autres sciences humaines et sociales .
Cet article vise à illustrer la notion de « lieu discursif» et son utilité pour l'analyse des discours politiques. Le cas étudié est l'association lexico-syntaxique ne pas pouvoir dire que ne pas savoir, telle qu'on la rencontre par exemple dans la formulation « Nous ne pourrons pas dire que nous ne savions pas », au sujet de conflits armés ou de crises extrêmes mais aussi à propos de thématiques environnementales. L'analyse, qui met l'accent conjointement sur les dimensions pragmatique, énonciative et sémantico-référentielle, permet de dégager les différents dits et non-dits et les enjeux de valeurs émotionnelles et morales que supportent les énoncés considérés.
linguistique_11-0481559_tei_867.xml