id
stringlengths 18
25
| text
stringlengths 3.75k
78.6k
| reference-summary
stringlengths 202
4.45k
| source
stringlengths 33
79
|
---|---|---|---|
termith-701-linguistique | Peut-on analyser le discours politique sans tenir compte de l'argumentation ? Chez Aristote, le discours délibératif, destiné à réguler la vie de la Cité, est au centre du dispositif rhétorique. Fondé sur l'exhortation et la dissuasion, il vise l'avenir en termes d'avantages et d'inconvénients. C'est en des termes similaires qu'on définit aujourd'hui la communication politique qui, en régime démocratique, tente de faire adhérer les destinataires aux choix politiques qui leur sont proposés (Gerstlé, 2008, p. 79). Si l'on suit l'évolution des études sur le discours politique menées en France dans le domaine des sciences du langage et de la communication, on s'aperçoit pourtant que l'étude de l'argumentation est loin d'y tenir une place centrale. Cet état de fait tient à diverses raisons, dont la première relève d'un état du champ : la linguistique accorde encore peu de place aux théories de l'argumentation rhétorique (par opposition à l'argumentation linguistique de Ducrot); elles n'ont pénétré que tardivement, et très partiellement, dans l'analyse du discours. Mais d'autres raisons tiennent à des positions de principe sur le discours politique. La première déplore sa décadence, topos dont l'ouvrage de Simone Bonnafous et al. (2003) a montré la persistance au cours des âges, en affirmant que le logos comme parole et raison s'efface de plus ou en plus au profit de l ' ethos, de l'appel au sentiment et de la séduction. La seconde, plus radicale, consiste à se situer dans le sillage de Pierre Bourdieu pour dénoncer les pouvoirs de la parole et attribuer son autorité à la seule légitimité institutionnelle (Le Bart, 1998, p. 97-108). Malgré ces diverses résistances, les fructueux travaux réalisés durant ces trois dernières décennies reviennent néanmoins par des biais divers à la question de l'argumentation, ouvrant la voie à des entreprises d'investigation plus systématiques. En un premier temps, il importe de préciser les sens dans lesquels on peut prendre la notion d'argumentation, comme d'ailleurs celle de discours politique : ces préliminaires sont indispensables pour déterminer ce qui peut être englobé dans la rubrique « argumentation et discours politique ». Pour Christian Le Bart, comme pour de nombreux autres chercheurs, le discours politique est celui que tiennent les hommes et femmes politiques dans l'exercice de leurs fonctions (1998, p. 7). Il s'agit là d'une définition ciblée et restreinte, à laquelle s'oppose une définition plus large et délibérément un peu floue, à savoir « tout propos qui implique un jugement sur l'organisation de la communauté » (Bonnafous et al., 2003, p. 12). L'objet d'étude va ainsi de la parole professionnelle des politiciens à tous les discours qui traitent de la chose publique dans l'espace public. C'est dans cette perspective que les divers travaux pris ici en compte explorent une pluralité de situations allant de l'orateur face à son auditoire, du débat parlementaire ou télévisé et du journalisme politique à la parole participative sur le Net. Quant à l'argumentation, elle peut être définie comme un raisonnement cohérent qui mène à une conclusion par déduction ou induction, comme une logique des valeurs et du préférable inscrite dans les moyens verbaux destinés à faire adhérer l'auditoire à une thèse (Perelman, Olbrechts-Tyteca, 1958) ou comme un fonctionnement discursif qui oriente des façons de penser et de voir (Amossy, 2006). Dans le premier cas, on considère que seuls les arguments et les séquences argumentatives relevant d'une conception « théorique » formelle de la raison sont à prendre en ligne de compte. Dans le second cas, on considère qu'un jeu d'influences mutuelles s'exerce dans l'échange verbal qui recherche un accord sur le raisonnable; ce jeu d'influences se situe dans les espaces discursifs de la « raison pratique ». Dans la troisième éventualité, l'argumentation traverse le discours tout entier selon des modalités qui vont de la polémique à la co-construction des réponses. On retiendra une conception englobante qui tient compte de la raison pratique gérant l'évaluation, la décision et l'action politiques, inclut les modalités indirectes d'argumentation et accorde une importance égale au logos, au pathos et à l ' ethos. On considérera par ailleurs que l'argumentation politique relève aussi bien de la recherche du consensus (but que lui assignent la plupart des théories de l'argumentation) que de la gestion du dissensus qui est au cœur de la vie politique, par définition conflictuelle. Dans cette perspective, on présentera brièvement un tableau raisonné (non chronologique) des acquis dans le domaine francophone. Certains travaux se focalisent sur les arguments qui caractériseraient le discours politique. Bertrand Buffon (2002) propose ainsi un chapitre sur la « rhétorique politique » qui étudie, sur la base de la nouvelle rhétorique, les types d'arguments (liaison, dissociation, métaphore…) utilisés dans le champ politique. André Gosselin (1995) se penche sur les arguments de la cause en croisant la théorie des attributions causales et la rhétorique pour éclairer le « biais de complaisance » : les instances politiques expliquent leurs succès par des causes internes valorisantes, leurs échecs par des causes externes incontrôlables (et vice-versa pour les adversaires). Gilles Gauthier (1995), quant à lui, explore le décentrement des arguments ad rem vers les arguments ad hominem, soit l' « argumentation périphérique » ou ensemble des procédés discursifs qui se rapportent à la polémique, en répertoriant les divers types d'arguments ad hominem politiques – l'argument de la girouette, du tartuffe, de l'homme de paille, etc. Catherine Kerbrat-Orecchioni (1981, p. 45) fait un recensement de « quelques “fautes” argumentatives » constitutives de la mauvaise foi, relançant ainsi par un autre biais la question des paralogismes chère à la logique informelle. Un autre type de travaux se focalise sur une rhétorique politique singulière. Albert O. Hirschman (1991) avait ouvert la voie dans son étude des trois arguments qui alimentent le discours réactionnaire depuis deux siècles en bloquant le débat : l'argument de l'effet pervers (ce qui doit permettre de progresser produit en fait le contraire), de l'inanité (le changement est impossible) et de la mise en péril (le changement met en danger des acquis). Il dégage ainsi les argumentaires qui fondent une « rhétorique réactionnaire » en offrant un modèle pour l'étude transversale d'autres rhétoriques politiques (libérale, progressiste, etc.). Marc Angenot met l'accent sur les topiques de discours étudiés sur un axe temporel long : celles, par exemple, de La propagande socialiste (1997), la plus grande entreprise rhétorique des temps modernes, ou de la Rhétorique de l'anti-socialisme (2004), parole de combat qui rejette les positions adverses en dehors du raisonnable dans un long « dialogue de sourds ». Pierre-André Taguieff (1984) explore les ressorts du discours démagogique à travers « la rhétorique du national-populisme » exemplifiée par le chef de file du Front national, Jean-Marie Le Pen : il fonctionne par réduction des incertitudes, accumulation d'affirmations simples, empilement de pseudo-évidences, construction d'une façade logique et d'une image acceptable. Roselyne Koren (1996) retrace les modalités spécifiques des enjeux argumentatifs du journalisme politique. Dans une approche plus sociologique, Uli Windish (1995) se penche sur l'argumentation du citoyen « ordinaire » qui participe activement à la démocratie délibérative en Suisse; il met ainsi en évidence une argumentation qui a sa rationalité propre et diffère des modèles abstraits en cours. C'est aussi l'argumentation politique du citoyen ordinaire qui est en cause dans les travaux de plus en plus nombreux consacrés aux échanges dans le cyberespace. L'autorité des institutions politiques représentatives y est déstabilisée et contestée par les mises en cause critiques de la société civile. La Toile permet ainsi aux internautes, démontre Galia Yanoshevsky (2009a), de s'immiscer dans la gestion de l ' ethos du candidat en lui faisant subir des modifications parfois incontrôlables; elle peut aussi donner à une notion perelmanienne aussi classique que celle d'auditoire particulier un éclairage inédit qui éclaire les enjeux de l'illusion de proximité (Yanoshevsky, 2009b). Les forums électroniques apparaissent comme un lieu alternatif de confrontation critique des points de vue qui instaure un nouveau type de démocratie participative. Certains y voient le déploiement de raisonnements qui ressemblent à des « monologues interactifs » en l'absence de véritable écoute et discussion. D'autres, comme Mathieu Chaput (2006 et 2008), montrent au contraire que le dispositif favorise une grande interactivité, privilégiant des échanges courts et une « élaboration progressive de l'argumentation qui s'affine et se précise au contact des autres participants » (2006, p. 63). Dégager les spécificités de ces conversations numériques (éparpillement, fragmentation, recadrage permanent, construction d'un ethos discursif par des internautes masqués par un pseudonyme, etc.) s'avère alors indispensable pour analyser une discussion qui, hors de la portée des hommes de pouvoir et des journalistes politiques, se déroule au rythme de questions posées et gérées par les internautes dans un ordre informel et imprévisible. La rhétorique des échanges politiques sur le Net est considérée par les uns comme un tournant culturel bénéfique et par les autres comme une menace pour le fonctionnement de la démocratie représentative et la défense du bien commun. D'autres travaux portent sur la rhétorique particulière de personnalités politiques. Dans les efforts pour contrer l'extrême droite, on s'est longuement penché sur l'argumentation de Jean-Marie Le Pen. Ainsi, Isabelle Cuminal et al. (1997) étudient une pratique discursive de l'évidence, du déplacement, de l'ambiguïté; Simone Bonnafous (2001) analyse l'arme de la dérision comme un mélange d'humour et d'agressivité dans le discours de Le Pen. Par ailleurs, Thierry Herman a publié en 2008 un ouvrage sur la rhétorique de Charles de Gaulle (1940-1945) et analysé l'éloge funèbre de François Mitterrand par Jacques Chirac (2001). De façon plus globale, on travaille également sur le fonctionnement argumentatif de certains genres relevant du champ politique : les débats politiques télédiffusés (Burger, 2005, Cabasino, 2007), les slogans (Amossy, 2006, dans la foulée de Reboul, 1975), les clips électoraux (Amossy, 2005). Raphaël Micheli (2004, 2008) explore le genre du débat parlementaire à partir d'un corpus portant sur l'abolition de la peine de mort. Dans ce cadre, il étudie aussi bien la question des stratégies de crédibilisation (relative à l ' ethos), que l'argumentation qui vient justifier ou délégitimer une émotion (relative au pathos). Dans ces différents contextes, l'accent est mis de façon de plus ou moins marquée sur la matérialité discursive. On trouve ainsi des analyses ponctuelles de procédés classiques comme la question rhétorique dans le discours parlementaire (Ducard, 2003), mais aussi de fonctionnements discursifs comme les enjeux argumentatifs de la nomination (Lecolle, 2007), des indications chiffrées (Koren, 2003), de l'exploitation des apparences de neutralité du récit (Adam, 1984, sur un discours de Giscard d'Estaing), de l'effacement énonciatif (Rabatel, 2006, sur un journal de campagne électorale), etc. Certains travaux, sans se consacrer exclusivement au discours politique, offrent des cadres d'analyse globaux qui permettent d'en éclairer concrètement les modalités argumentatives. Ainsi Jean-Michel Adam (1999) jette les fondements d'une linguistique textuelle au sein de laquelle il analyse la « rhétorique de l'appel : de Gaulle et Pétain en juin 1940 » en confrontant sur des bases langagières les dominantes argumentatives des deux discours. Après avoir proposé un cadre « au carrefour des disciplines » pour l'analyse de la construction de l ' ethos, exemplifiée par un discours de Jean-Marie Le Pen et un écrit politique de Jean Giono (1999), Ruth Amossy développe une théorie de l'argumentation dans le discours (2010) qui situe l'argumentation au cœur de l'échange verbal et permet de traiter aussi bien des allocutions de Jean Jaurès à la Chambre que des manifestes d'intellectuels ou des interviews d'hommes politiques. Enfin, parmi les tentatives de cibler le discours politique comme tel, il faut signaler l'ouvrage de Patrick Charaudeau (2005a), Le discours politique. S'inscrivant dans une logique d'influence sociale, il minimise l'argumentation comme échange raisonné pour lui substituer la persuasion entendue comme séduction, voire manipulation. Selon lui, il s'agit tout au plus pour l'homme politique de « proposer un raisonnement causal simple en s'appuyant sur des croyances fortes […] et de les renforcer en apportant des arguments destinés à produire un effet de preuve » (2005a, p. 77). C'est que le politique (lieu de fabrication et de confrontation heuristique des idées) le cède de plus en plus à la politique – « lieu d'exercice du pouvoir et d'influence pour faire partager les idées de la gouvernance » (ibid., p. 236). Dès lors, la mise en scène prime sur le contenu des idées et l ' ethos l'emporte sur le logos. Ces divers angles d'attaque confirment qu'il n'existe pas de conception intégrative consensuelle de l'argumentation ni, a fortiori, de l'argumentation politique. Ce qui soude toutefois le métadiscours critique des diverses approches, c'est – comme le souligne Pierre-André Taguieff (1990, p. 262-263) – « un ensemble de questions que se posent tous ceux qui s'interrogent sur les modes de fonctionnement, de production et d'efficacité du discours dans le champ du politique ». La lecture des travaux recensés permet de percevoir la place fondamentale occupée par diverses problématiques : 1) le refus de limiter la situation de communication politique type à celle de l'orateur face à son auditoire (Taguieff, 1990, p. 278; Windisch, 1995, p. 80). La recherche en argumentation politique aurait à se mesurer par exemple aujourd'hui aux formes inédites que revêt la politique participative sur la Toile (Barbet, Bonhomme, Rinn éd., 2006; Hermès, n o 47; Doury, Lefébure, 2006; Marcoccia, 2003); 2) la distinction et les rapports entre conviction et persuasion, où « convaincre » est associé à « raisonner » et donc au logos tandis que « persuader » est le plus souvent associé à « séduire » ou même « manipuler » et donc aux passions du locuteur décidé à imposer son point de vue de gré ou de force (Danblon, 2005; Charaudeau, 2005a, p. 62, 2005b, 2008). Cette distinction est liée par des liens essentiels à la problématisation des notions de rationalité et/ou d ' irrationalité. Il s'agit tout particulièrement aujourd'hui de défendre, à l'encontre d'une conception cartésienne dogmatique du rationalisme, la thèse de la pluralité des régimes de rationalité possibles jugés aussi valides et légitimes les uns que les autres. Quelques théoriciens envisagent même la possibilité d'une éthique de la responsabilité, comparable à celle défendue par Weber, qui autoriserait l'homme politique à argumenter ses décisions à rebours des prescriptions de la raison dans le cas de conflits ou de tragédies hors normes (Taguieff, 1990; Gosselin, 1995); 3) la revalorisation du dissensus qui n'est plus présenté systématiquement comme un échec, mais comme un des moteurs démocratiques du politique et de ce fait comme un constituant intrinsèque du conflit, en tous points préférable aux violences de la guerre (Wolton, 1995, p. 13; Amossy, 2010); 4) un questionnement éthique (Gauthier, 1995, p. 179; Koren, 2006 et 2008) qui accorde une place centrale aux controverses autour des notions de manipulation, et donc en creux de rectitude (Taguieff, 1990, p. 274; David-Blais, 1995; Breton, 1997; Danblon, 2005) ou de « bon » vs « mauvais » argument (Kerbrat-Orecchioni, 1981; Charaudeau, 2005b, p. 34-35) et donc à la question de la validité des normes argumentatives. Cette problématique repose la délicate question de la position du chercheur : l'analyse de l'argumentation politique doit-elle être purement descriptive ou au contraire également normative, lui faut-il rester neutre ou doit-elle être guidée par des principes éthiques qui débouchent sur la critique, voire parfois sur la dénonciation ? Si la question concerne l'analyse du discours en général, elle se pose avec une particulière acuité dans le double champ de l'argumentation et de la politique. Il apparaît qu'elle est loin d' être résolue . | Peut-on analyser le discours politique sans tenir compte de l’argumentation ?L’objet d’étude va ainsi de la parole professionnelle des politiciens à tous les discours qui traitent de la chose publique dans l’espace public. C’est dans cette perspective que l’A. explore l’argumentation à travers divers travaux. | linguistique_11-0104626_tei_37.xml |
termith-702-linguistique | Les éléments de synthèse qui suivent se proposent d'offrir une lecture globale des derniers travaux sur le mot comme en soulignant les grandes problématiques qu'a favorisées le récent regain d'intérêt pour ce morphème. Cet état de l'art se veut un prolongement de la présentation de Flaux & Moline (2008), axé en priorité sur les problèmes méthodologiques que soulève l'étude particulière du morphème comme. On observera d'abord que les études sur comme adoptant une perspective morphosyntaxique traditionnellese heurtent à un problème qui est d'abord taxinomique : dans quelle(s) catégorie(s) grammaticale(s) faut-il classer ce mot ? Par ailleurs, doit-on postuler que la pluralité des emplois de comme correspond aux facettes d'une même entité lexicale (hypothèse polysémique) ou bien à des unités distinctes (hypothèse homonymique) ? Et quels sont du reste les présupposés et les implications de ces différentes hypothèses ? Ce sont là les problèmes que doivent résoudre les études grammaticales et linguistiques du mot comme – quitte à ménager de nouvelles places dans les nomenclatures. D'une part, dans des travaux relevant essentiellement de la sémantique ou de la stylistique, comme est souvent évoqué dans les champs onomasiologiques de la manière, du degré et de la comparaison. L'un des attraits de ces approches est de dégager la valeur de comme par opposition à celle de morphèmes sémantiquement voisins ou concurrents formant système; mais à leur tour les notions de manière, de degré et de comparaison appellent un effort définitoire. D'autre part, un second ensemble de contributions cherche explicitement à pallier l'un des défauts majeurs de l'approche sémasiologique – qui est aussi son principal atout, à savoir l'adoption d'un simple signifiant pour point de départ. Ces travaux s'attachent à distinguer les propriétés qui sont attribuables au seul morphème, c'est-à-dire à un élément objectivé et isolé de tout contexte, et celles qui ne le sont pas, étant au contraire liées à ce qu'on peut appeler des « effets contextuels ». Cela peut en particulier conduire à l'identification de constructions, dotées de propriétés non compositionnelles, par conséquent non observables à partir du seul morphème comme. Les approches descriptives traditionnelles ont pour objectif de consigner dans une nomenclature les différents éléments de la langue et non de discuter la constitution de cette nomenclature. Pour un mot tel que comme, qui connaît comme on sait une large variété d'emplois, on note d'importantes variations dans le classement que proposent les grammaires, mais aussi quelques positions communes. Ainsi, dans le corpus examiné, la plupart des auteurs reconnaissent un avatar conjonctif de comme, porteur de trois valeurs majeures : comparative, temporelle et causale. En confrontant ces trois valeurs, certains remarquent que la confusion fréquente des deux dernières est sans doute liée à ce que l'effet de sens causal procède de la valeur temporelle, qui note l'antériorité ou la simultanéité. Sandfeld (1965 : 325) reconnaît pour sa part qu'il « n'est pas toujours possible de faire nettement la différence entre comme causal et comme temporel », et il réunit ces deux valeurs autour d'un comme « primitivement […] comparatif », qui peut aussi marquer la simultanéité (de même que quand et lorsque) et « la conformité de la cause avec l'effet » (à l'instar de puisque). En comparant ainsi plusieurs morphèmes, Sandfeld note un fait de système rarement souligné, à savoir que la valeur temporelle de comme remédie à l'impossibilité pour quand de fonctionner avec l'imparfait sans se charger de facto d'une valeur itérative (Ex. : *Quand il sortait, il se mit à pleuvoir). Malgré tout, il n'existe qu'un consensus limité autour de comme conjonctif. L'édifice semble même se démanteler de part et d'autre : non seulement la relation entre les valeurs conjonctives n'est pas régulièrement pointée (il y aurait donc plusieurs conjonctions), mais en outre la catégorie de comme pour chaque valeur ne fait pas l'unanimité : ainsi pour Wagner & Pinchon (1993 : 451, 656), comme comparatif est selon sa « portée » tantôt conjonction, tantôt adverbe. Lorsqu'il est question des segments comparatifs non propositionnels introduits par comme, les points de désaccord sont bien connus : ils touchent à l'alternative entre une interprétation par l'ellipse et le postulat d'un comme préposition. Si Monneret & Rioul (1999) s'élèvent contre cette dernière hypothèse, celle -ci est soutenue par Moignet (1981), Béchade (1996 : 296), Wilmet (1997) et (quoique prudemment) par Riegel et al., (1994 : 515). Quant au Bon Usage, des cas tels que « Je le prends comme témoin » contraignent ses auteurs à délaisser le rasoir d'Occam pour le marteau du forgeron et à créer ex nihilo une classe d'introducteurs. Cela dit, les études récentes proposent des tests formels convaincants, qui mettent en évidence des propriétés prépositionnelles du mot comme dans quelques cas précis (Pierrard, 2002) : (i) les constructions à attribut du complément d'objet (« Je considère Paul comme fou. ») et (ii) les segments périphériques en comme N introduisant une prédication seconde (« Tu prendras quoi/ du chocolat comme dessert ? »). Le principal critère est que la reconstruction d'une configuration comparative est plus difficile à partir de ces exemples qu' à partir des comparants non propositionnels; mais encore faut-il prêter crédit au test de la reconstruction de séquences absentes en surface (Desmets, 2001 : 144). Autre point commun des ouvrages examinés (relevant ou non de la « tradition »), la reconnaissance du comme adverbe exclamatif, qui ne soulève guère de problème dans le cas de l'exclamation directe : « Comme c'est beau ! ». On sait pourtant en quels termes la classe grammaticale de l'adverbe a été décrite, ce qui a amené à distinguer une fonction adverbiale non coextensive à la classe proprement dite (Nølke, 1993 : 25). Dans l'exclamation, le morphème est associé au haut degré par Riegel et al., à l'intensité par Wagner & Pinchon ou Charaudeau (1992 : 369), lequel reprend l'idée culiolienne de « comparaison non évaluable tant elle est extrême ». Comme est généralement analysé dans ces cas -là comme un adverbe portant sur des procès ou des « qualités » (Arrivé et al., 1986 : 263). Mais le consensus sur ces emplois s'effrite dès qu'on approche de l'interrogation et de l'exclamation indirectes, comme étant alors donné pour équivalent de combien ou comment, selon les cas.Ainsi Wagner & Pinchon (1993 : 441) voient dans « Vous n'ignorez pas comme vont les choses » une persistance archaïque du « Comme est-il mort ? » de Corneille (où comme équivaut bien à comment), mais ils font correspondre comme à combien dans un tour moderne qu'ils décrivent comme une interrogation portant sur la manière : « Avez -vous vu comme il dort ? ». Le Bon Usage, pour sa part, fait de comme un adverbe équivalent « littéraire » de comment dans l'interrogation indirecte : « Vous verrez comme il faut que l'on gouverne » (Grevisse, 1993 : 1390, §940) mais reconnaît ailleurs l'exclamation indirecte dans « Regarde comme il est sage » (Id. : 1681). Pour Sandfeld (1965 : 60), comment est limité, dans l'exclamation, à l'expression de la manière, autrement dit-il caractérise la qualité « remarquable, excellente, révoltante, blâmable, etc. » d'un procès, d'un état ou d'une qualité; à l'inverse, comme traduit principalement le degré, mais il peut aussi apparaître comme un équivalent familier de comment : « Ça m'épate comme vous dirigez. » On peut tenter d'expliquer la disparité de ces multiples analyses; il ressort tout d'abord que l'objet de la demande d'information ou de l'exclamation n'est pas toujours bien identifié dans les phrases complexes à Interrogative ou Exclamative enchâssées. En outre, le sens très ténu de comme lui confère une place ambiguë entre exclamation et interrogation (avec circonspection, Riegel et al., 1994 : 404, en font mention). Seul Sandfeld semble tenir compte de la porosité de la frontière entre les deux « modalités ». Il affirme ainsi « qu'une proposition interrogative indirecte, introduite par un mot interrogatif marquant le degré ou la quantité, s'emploie également comme exclamation »; cependant, cette analyse ne semblera pas valable au même degré pour « Si c'est possible de rentrer à pareille heure ! » et « Ah mon frère, comme tu as raison et que c'est vrai ! », que Sandfeld (1965 : 78) range pourtant dans la même catégorie. En tout état de cause, l'analyse des interrogatives indirectes est grandement compliquée par l'instabilité actuelle des mots comme, comment et combien, dont les recouvrements, les concurrences et l'usure sont encore difficilement lisibles, étant en outre soumis à d'importantes variations sociolectales. Autre valeur du comme adverbe, l'emploi modalisateur est reconnu par la plupart des auteurs mais il connaît des analyses très différentes sur le fond. Certains, à l'image de Wagner & Pinchon, soulignent une valeur d'approximation ou parlent « d'adverbe modificateur » (Riegel et al., 1994 : 515), mais d'autres le rattachent explicitement à la comparaison (Charaudeau, 1992 : 369; Monneret & Rioul, 1999 : 267). Pour ces derniers, le lien avec les emplois comparatifs s'établit en restituant le terme implicite d'une relation d'analogie : Il se tut encore quelques instants (pour une certaine raison), comme (s'il se taisait parce qu'il était) désireux de plonger plus avant ou comme (s'il était) désireux… (Monneret & Rioul, ibid.) Paradoxalement, le rattachement au système comparatif ne s'accompagne cette fois d'aucune interrogation sur la catégorie grammaticale de comme : sa nature d'adverbe n'est pas mise en doute. Au-delà de ces emplois bien observés, on rencontre dans les grammaires quelques cas moins communs. Arrivé et al. (1986 : 22), Monneret & Rioul (1999) et Béchade (1996) recensent ainsi un comme de coordination (explicitement conjonctif ou non); si les premiers s'appuient sur des critères de distribution et d'accord (« L'alcoolisme comme le tabagisme sont des fléaux sociaux. », Arrivé et al., 1986 : 25), Monneret & Rioul (1999 : 261) n'évoquent la coordination qu' à demi mot, comme un effet secondaire de « l'expression de la similitude, réduite au minimum ». Or, il semble qu'une approche strictement syntaxique du phénomène soit préférable à une analyse fondée sur le degré d'analogie de deux prédications, lequel n'est pas toujours facile à quantifier (voir la contribution de Mouret & Desmets dans le présent numéro). Comme on peut le constater, les cadres usuels de la morphosyntaxe semblent peu préparés à intégrer de manière cohérente tous les emplois de comme. Moins assujettis à cette vulgate grammaticale, Damourette & Pichon (1941-1943) proposent une approche originale du morphème dont certains aspects seront repris sous la plume d'autres linguistes travaillant la même matière (notamment Le Goffic). Selon leur analyse, les emplois de comme sont répartis dans trois catégories : les chaînons à noyaux factifs (§ 3122), les chaînons à noyaux non factifs (§ 3123 à 3127), et les emplois exclamatifs (§ 3128). Les premiers et deuxièmes correspondent aux occurrences de comme introduisant un segment subordonné, propositionnel ou non. Pour ces auteurs, c'est la valeur « confrontante » (i.e. comparative) qui est primordiale. Dans les segments propositionnels, où comme est de nature conjonctive, elle subsume les valeurs comparative, temporelle et causale (ce qui est un avis assez partagé, on l'a vu). Dans les chaînons à noyaux non factifs, Damourette & Pichon subsument sous la valeur confrontante les tours échantillants (i.e. comparatifs elliptiques) et qualifiants, considérés comme très proches, ainsi que les tours quasiceptifs. On note par ailleurs que ces derniers reçoivent la même analyse chez Monneret & Rioul (1999). Étudié à part, l'emploi exclamatif est dérivé d'anciennes constructions interrogatives directes ou indirectes, considérées par les auteurs comme disparues : « Comme est -ce que chez moi s'est introduit cet homme ? » (Molière, Ibid. : § 3128); « Il commença à lui raconter comme il avoit entendu sa conversation… » (Mme de Lafayette, Ibid. : § 3128). N'hésitant pas à se défaire de l'appareil traditionnel de la morphosyntaxe, la tentative de description unifiée du morphème comme menée par Damourette et Pichon a été pionnière dans un domaine aujourd'hui plus fréquenté. Depuis lors, en effet, un certain nombre d'études linguistiques ont été exclusivement consacrées à comme. Adoptant une démarche sémasiologique, ces études avaient en commun le postulat d'un unique morphème polysémique correspondant à la pluralité des emplois et d'effets de sens rencontrés en discours. C'est le cas chez Moignet (1981), qui, par le biais du concept de subduction (éso - et exotérique), étend son analyse à un micro-système composé de comme et ses dérivés étymologiques combien et comment. Il répartit l'ensemble des emplois du mot sur les catégories de l ' adverbe non-prédicatif et de la conjonction. La première rassemble les emplois exclamatifs, comparatifs et interrogatifs, la seconde les emplois temporels et causaux. Mais Moignet n'exclut pas, dans la première catégorie, que comme comparatif ait des propriétés de relatif sans antécédent (« Il ment comme il respire », Ibid. : 198) voire de « quasi-préposition, du fait que la phrase qu'il introduit est très aisément elliptique du verbe » (Ibid. : 198). La démarche critique de Le Goffic (1991, 1993, et passim) conduit elle aussi à une refonte de certaines catégories grammaticales, et par conséquent à un réagencement des emplois de comme. Dès ses premiers travaux touchant au problème, Le Goffic (1991) fonde son analyse sur l'hypothèse de la famille des mots * kw -, dans laquelle celui -ci assigne à l ' adverbe tous les emplois de comme; il y associe selon les cas le rôle de connecteur intégratif, qui lui confère le rôle de subordonnant et souligne sa double fonction, dans la structure matrice et dans la structure enchâssée : Le terme connecteur est […] le pivot organisateur des deux structures de phrase. Il est doté d'une fonction dans sa subordonnée [… ]. Mais il est aussi en rapport avec le verbe principal : il a en fait une double portée (fondamentalement à l'identique), sur les deux verbes [… ]. (Le Goffic, 1993 : 45) Autour de cette valeur centrale sont distribuées la plupart des valeurs secondaires (Le Goffic, 1993 : 394 sqq.) associées à des changements contextuels, syntaxiques et sémantiques (ellipse, absence de déterminant du nom situé à droite de comme ,etc.). La ligne théorique demeure la même dans l'importante étude de Fuchs & Le Goffic (2005), qui confère cette fois à comme la valeur fondamentale de marqueur d'identité ,opérant tantôt sur des « manières de faire » (modus faciendi), tantôt sur des « manières d' être » (modus essendi). Le choix se porte ainsi sur une base sémantique abstraite dont dérivent dix-neuf types de configurations syntaxico-sémantiques réparties en trois sous-ensembles. Certains travaux de Pierrard (1999b, 2002a, et passim) et de Léard (Léard & Pierrard, 2003) adoptent une même approche sémasiologique visant à produire une description unifiée du morphème. Dans la continuité de Le Goffic (1991), Pierrard fait du morphème comme une forme en qu - dont les emplois essentiels combinent les traits d ' indéfinition et d ' identité. « Le partage du trait / indéfini / entre deux prédications, expliquent les auteurs, représente le mécanisme de subordination, d'intégration » (Léard & Pierrard, 2003 : 207). Reprenant l'esprit du guillaumisme (mais non la lettre), les auteurs donnent le primat au sémantique – sinon dans les faits, du moins dans l'analyse et la typologie. Dans cette optique, les auteurs dégagent certaines valeurs prototypiques de comme, délimitées par la superposition des traits d'indéfinition et d'identité; celles -ci sont complétées par des emplois dits « périphériques », qui trahissent un affaiblissement sémantique et ne relèvent, quant à eux, que de l'identité. Soucieux de ne pas objectiver à l'excès (voir infra), les auteurs confrontent chaque valeur à des expressions concurrentes dans un contexte donné, ce qui, notamment, fournit quelques éléments d'une typologie en creux des différents emplois de comment. Le problème de la catégorisation de comme prend ensuite une nouvelle dimension avec la notion de proforme indéfinie, introduite par les mêmes auteurs afin de répondre à deux questions essentielles : Comment expliquer la large diffusion des termes indéfinis en qu - en connexion interpropositionnelle […] ? Et comment concilier des emplois particuliers disséminés dans de multiples tours avec une appréhension cohérente de leur rôle dans le mécanisme de subordination ? (Pierrard, 2005 : 235) Ces proformes sont définies par un faisceau de traits assez réguliers (qui peuvent être neutralisés selon les contextes) : au plan sémantico-référentiel, l ' indéfinition affectant les traits ± animé (que, qui), lieu (où), temps (quand), manière (comme, comment), etc.; au plan syntaxique, l'instauration d'un rapport de « dépendance par cosaturation », associé au marquage fonctionnel du rôle joué dans la prédication intégrée (fonction proforme) (Pierrard, ibid. : 239). Malgré ces propriétés qui l'intègrent de droit à l'ensemble des proformes, comme se distingue de celles -ci par des aspects importants (Pierrard & Léard, 2004 : 270 et sqq.) : en premier lieu, il refuse les emplois interrogatifs, étant remplacé à ce poste par comment; deuxièmement, son sémantisme ne différencie pas toujours la qualité et la quantité; enfin, il ne tolère pas la réduction propositionnelle (Muller, 1996) à la proforme « nue » (ou sluicing) : « *je ne sais pas comme » vs. « je ne sais pas comment ». De toute évidence, la catégorie proforme est d'une grande plasticité. C'est sans doute là, du reste, que réside son principal intérêt : dans la déformabilité acquise par l'appareil descriptif. En effet, l'ensemble des critères définissant la catégorie n'a pas à être intégralement réalisé dans un objet particulier pour qu'il soit intégré à celle -ci. En somme, les problèmes rencontrés par l'approche traditionnelle ont trouvé des amorces de solutions dans l ' hypothèse polysémique, qui a permis des descriptions unifiées du morphème via un signifié fondamental associé au signifiant, ainsi que dans la classe des proformes, qui a mis en lumière d'importantes parentés syntactico-sémantiques entre des formes jusque là séparées (parenté confortée par l'étymologie, qui plus est). Il est difficile d'évoquer comme sans aborder plus généralement le système de la comparaison (Rivara, 1990). Question très vaste, intéressant autant les sciences du langage que les philosophes, elle ne sera considérée ici que sous son aspect proprement linguistique. Comme processus sémantique, la comparaison pourrait se définir comme le marquage « d'un rapport d'égalité ou d'inégalité d'une action ou d'un fait quelconque avec une autre action ou un autre fait » (Sandfeld, 1965 : 424). Mais le caractère peu approprié de la dyade égalité / inégalité fera préférer la définition de Muller (1996 : 89), plus moderne, pour qui la comparaison consiste en une « confrontation de mesures »; ce procédé implique au moins deux quantités ou qualités entre lesquelles elle établit une « commensuration ». Ainsi, c'est la dimension quantitative de la comparaison qui semble avoir la primauté. Pourtant le rapport privilégié de comme avec le degré soulève des contestations : pour Sandfeld (1965 : 424), par exemple, comme sert d'abord à « désigner la conformité en ce qui concerne la manière dont s'accomplit une action ou se présente un fait » (nous soulignons). Dans leur étude comparative de comme et des tours corrélatifs en que, Fournier & Fuchs (2007) semblent confirmer cette idée : Analogues en tant qu'opérateurs de chevillage, les deux adverbes s'opposent par leur sémantisme : que est à la base un marqueur de degré et comme est un marqueur de modus; ainsi la comparaison avec que est prototypiquement une comparaison quantitative (par identification d'un degré indéterminé), et la comparaison avec comme est prototypiquement qualitative (par identification d'un modus indéterminé). (Fournier & Fuchs, Ibid. : 102) En outre, l'utilisation assez contrainte du premier s'oppose à la souplesse du second, dont la portée variable est propice à de nombreux effets de sens conduisant jusqu'aux limites de la comparaison. Cette souplesse d'emploi ressort tout autant si l'on considère plus largement le système de la comparaison, ce que font Hadermann, Pierrard & Van Raemdonck (2006), qui s'intéressent conjointement aux introducteurs de propositions comparatives, les « marqueurs d'identité similative » ainsi que, comme, de même que, etc. Plus spécifiquement, d'autres travaux s'attachent aux seules comparatives en comme, avec l'objectif de rendre compte des régularités à la fois syntaxiques et sémantiques correspondant à des « types » de constructions identifiés. En s'intéressant à l'articulation des plans syntaxique et sémantique, Desmets (2001) montre comment le sens de manière associé à comme, alors introducteur d'une relative adverbiale sans antécédent, produit l'effet de sens comparatif portant sur des qualités. En cherchant à proposer une analyse unifiée du fonctionnement comparatif de comme, l'étude de Desmets fait dériver les différentes valeurs interprétatives (manière, degré, qualia, valeur de vérité, etc.) du type d'items confrontés par la comparaison : entités, procès, propositions, etc. Prônant également une unification des comparatives en comme, Moline (2006) s'élève contre la sous-spécification proposée par Leroy (2003, 2004), qui suggère d'isoler le type des comparaisons à parangon, du type « sale comme un peigne ». Pour Leroy, en effet, ces constructions ne sont comparatives qu'en apparence, faisant usage d'un comparant stéréotypé pour signifier en réalité le haut degré. Pour des motifs essentiellement méthodologiques, Moline (2006 : 19) s'inscrit en faux contre une telle analyse et, afin de conserver une « description syntaxique unifiée des comparatives en comme », elle choisit de faire passer au second plan l'effet de sens de haut degré lié à certains comparants. Bien que ce débat semble consacré à des aspects très particuliers de la comparaison, il soulève la question difficile de la délimitation de l'objet en linguistique : faut-il limiter la description aux propriétés inhérentes au mot ou au morphème (si tant est qu'on les ait identifiées), ou bien faut-il au contraire proposer une typologie des macrostructures dans lesquelles ce morphème apparaît ? Illustrant cette dernière approche, les travaux de Lambrecht (1995, 2004), reprenant la suite de Fillmore & Kay, s'attachent à identifier et à décrire des constructions grammaticales intégrant le morphème comme, c'est-à-dire des configuration[s] morphosyntaxique[s] et prosodique[s] dont la forme et l'interprétation ne peuvent être entièrement expliquées à partir des autres propriétés grammaticales du langage, et qui requièr[ent] donc une description indépendante (Lambrecht, 1995 : 187, nous traduisons). Le travail sur des structures de grande dimension nécessite de déborder le cadre morphosyntaxique, aussi Lambrecht prend -il également en compte les propriétés pragmatiques et informationnelles de son objet. Néanmoins, l'identification de telles constructions ne présente un réel intérêt que si les effets de sens non-compositionnels sont motivés, c'est-à-dire reliés à d'autres régularités de la langue. C'est ainsi que Lambrecht s'attache à confronter les constructions du type « c'est joli, comme endroit », à d'autres constructions fréquentes du français oral contemporain, qui entrent en concurrence dans certains contextes précis. On voit ainsi se dessiner la possibilité d'une systématique des unités de discours qui articule très clairement les déterminations globales (contexte, macrostructures) et les phénomènes analysés localement (microsyntaxe). Les points abordés dans ces quelques pages n'ont pas l'ambition de constituer la synthèse complète des études relative au morphème comme : la brève étude qui vient d' être proposée ne vise qu' à poser un regard prospectif sur les problématisations à venir. En premier lieu, la question de la polysémie ou de l'homonymie de comme semble devoir se résoudre à l'avantage de la première hypothèse, ce à quoi l'influence du paradigme cognitiviste et, avant cela, celle de la psychomécanique du langage, ne sont sans doute pas étrangères. Mais les théories mentalistes de comme doivent proposer une description plus précise du signifié fondamental de comme au sein du lexique mental mais aussi une simulation du fonctionnement cognitif du morphème. Quoi qu'il en soit, faute de données neurolinguistiques, cette question relève encore d'un parti pris méthodologique et ne se résoudra sans doute pas par l'observation empirique des faits linguistiques. Il reste que l'hypothèse polysémique apparaît en outre plus élégante par son économie – et par le fait qu'elle masque partiellement (ou du moins qu'elle retarde) la répartition des occurrences en classes artificielles. Ensuite, le problème de la catégorie de comme ne sera sans doute pas tranché sans une résistance des tenants de la nomenclature traditionnelle des parties du discours. Fort heureusement, la possibilité d'une autre typologie demeure, une typologie ayant acquis les propriétés de déformabilité nécessaires à la prise en compte d'objets complexes. Mais acceptera -t-on de parler de mots plus ou moins conjonctifs ou prépositionnels ? Se résignera -t-on aux comportements adverbiaux ? Rien n'est moins sûr. En somme, la remarque très pertinente de Culioli peut paraître optimiste : Pendant longtemps et de façon, au reste, inévitable, on a insisté sur les propriétés classificatoires des phénomènes linguistiques. D'où un travail fondé sur des étiquettes, des propriétés en tout ou rien, des identifications stables et prises dans des hiérarchies rigides [… ]. Grâce à une solide division disciplinaire (phonétique; syntaxe; sémantique; pragmatique), on n'avait pas à aborder de front la question de la complexité des phénomènes. (Culioli, 1990 : 128) Pourtant, la plupart des études récentes du morphème comme semblent avoir pris acte de ces nouvelles exigences, que ce soit par l'intermédiaire de classes aux contours flous ou à travers la notion de proforme, dont les traits définitoires prototypiques relèvent de niveaux d'analyse différents (syntaxe, sémantique). Mais il n'est pas exclu que cette classification prenne pour objets les contextes où apparaissent les morphèmes, et non les morphèmes eux -mêmes : la classification réductionniste des unités lexicales doit être complétée par une typologie holiste des structures fondée sur la mise en évidences de contraintes globales correspondant aux différents paliers de complexité (Rastier 2001) . | Cette contribution constitue une synthèse des principaux problèmes théoriques liés à l'étude du morphème 'comme'. Dans un premier temps, nous nous interrogeons sur les réponses apportées dans la littérature au problème de la classification du mot au sein des catégories morphosyntaxiques traditionnelles, puis nous examinons les études ayant choisi de s'affranchir - ou au moins de s'écarter - de ce problème en adoptant une lecture polysémique du morphème. Enfin, nous rendons compte des travaux attachés à l'analogie, ou à la comparaison, qui inscrivent le morphème dans des systèmes fonctionnels beaucoup plus vastes. Nous concluons en évoquant quelques scénarios possibles de la recherche sur le morphème "comme". | linguistique_11-0201949_tei_691.xml |
termith-703-linguistique | Dans le cadre d'une recherche en cours portant sur des médias associatifs de quartier diffusés dans une grande ville du Nord de la France, nous étudions ces médias dans leur fonction d'expression au sein de l'espace public local et sous l'angle de leur contribution à la production du territoire dudit quartier. Jusqu'ici, nous nous sommes particulièrement intéressé à Quartier libre, publié par un comité de quartier depuis 1980. Ce journal en était, en février 2008, à son 176 e numéro. Il est distribué dans toutes les boites aux lettres d'un quartier d'habitat ancien dont la configuration et le bâti témoignent de l'histoire industrielle de la ville. Peuplé d'environ 12 000 habitants, celui -ci a été répertorié par l'INSEE, sur la base du recensement de 1999, comme quartier de « pauvreté extrême ». La requalification du bâti et des espaces publics et la redynamisation de l'activité menées sous l'égide de la municipalité depuis une dizaine d'années dans le cadre des programmes nationaux de rénovation urbaine ont conduit à redonner de l'attractivité à ce quartier. Il n'en reste pas moins dans une situation fragile, ce dont témoigne également, comme on le verra, le taux d'abstention aux élections. Nous nous proposons, dans cet article, d'approcher ce journal dans sa fonction de médiation, et cela à partir de l'analyse de sa production discursive. Considérer cette fonction de médiation, c'est certes envisager le média en ce qu'il contribue à rendre visibles, voire à soumettre à la discussion critique, dans un espace public donné, tant des questions du quotidien que des questions de société. Nous cherchons donc à comprendre en quoi un média de quartier participe de la mise en forme et de la mise en sens du débat public dans un cadre spatial délimité, en quoi il contribue à façonner un espace public local au point de rencontre de l'attachement au quartier et de l'engagement politique (Neveu, 2007, p. 37). Mais derrière l'idée de médiation, dont on considère ici la « matérialité discursive » qui lui donne « forme publique » (Delforce, Noyer, 1999, p. 36), il s'agit aussi de cerner ce que le texte du journal peut nous révéler de ce qui semble faire (ou ne plus faire) sens pour ses producteurs, de pointer quelques-uns des ressorts sociologiques et politiques qui fondent le journal et expliquent son évolution. Outre le fait d'appréhender un aspect de ce qui fait « le lien inscrit dans le lieu » (Boure, Lefebvre, 2000, p. 271), nous proposons un regard sur les dynamiques sociales d'un quartier inscrites sous l'enseigne de la participation (en prenant toutefois appui sur une approche différente de celle d'autres travaux concernant ce thème : Authier et al., 2007; Neveu, 2003; Blondiaux, 2000; Lefebvre, Nonjon, 2003). Sur le plan méthodologique, nous intéressant au discours d'un type de médias spécifique (propre à un territoire bien délimité, émanant d'un acteur de ce territoire dont la mission première n'est pas de produire un journal), il s'est agi moins de « construire » un corpus (d'articles) sur la base d'hypothèses qui le fondent a priori (Bonnafous, 2006; Krieg-Planque, 2006) que de réunir un corpus (de journaux) qui existe à l'état latent. Un tel « corpus clos » nous fait accéder à un genre de discours prédécoupé institutionnellement (Maingueneau, 2005, p. 72). Nous nous sommes attaché à interpréter, dans une perspective interdisciplinaire, la matière discursive du journal en portant plus spécialement notre attention, lors d'un premier repérage, sur les thèmes traités, le lexique, les formules discursives et les modalités énonciatives, sans oublier la forme même du média. Nous avons pu ainsi identifier des constantes, d'une part, des inflexions, voire des ruptures, d'autre part, et une investigation plus systématique nous a ensuite amené à travailler sur des points particuliers pour explorer plus profondément l'évolution de la publication. Notre analyse privilégiant une perspective diachronique, nous avons relevé une évolution des valeurs qui sont au fondement de la publication : celle -ci est passée du régime discursif correspondant à une posture militante (structuration, argumentation dans la réflexion et les revendications) à un régime narratif (lequel n'exclut pas la contestation) concernant les réunions et autres évènements du quartier. Le discours verse de plus en plus dans l'anecdotique, voire, parfois, dans le registre de la dénonciation publique et dans une exploitation individualisante, quelque peu instrumentale, de la « parole habitante ». Dans cet article, en nous centrant sur trois thèmes d'investigation (l'interpellation du lecteur, l'interpellation de l'électeur, la parole des habitants) et donc en considérant trois types différents de rapport au public, nous repérerons les mouvements de la fonction de médiation du journal. Nous verrons aussi comment se décline, sur une dizaine d'années, un décalage progressif entre l'ambition originelle du comité de quartier et la difficulté que celui -ci rencontre aujourd'hui à faire montre, par ce moyen, d'une vigilance critique et argumentée dans l'espace public local, d'une capacité d'analyse et d'une force de proposition programmatique équivalentes à celles dont il a pu témoigner dans la première moitié des années quatre-vingt-dix. Dans un petit encadré publié de manière récurrente de 1990 à 1996 sous l'intitulé « mode d'emploi », le comité de quartier se présente comme un « interlocuteur privilégié de la municipalité » et explique que son « but » est d' « organiser un débat ouvert entre les habitants sur les différents projets que peuvent avoir le maire et son équipe municipale ». Cette formule subit toutefois une légère modification, début 1993, pour attribuer au comité un rôle en même temps moins circonscrit et plus vague : « […] un débat ouvert entre les habitants sur le quartier dans tous les domaines ». Pourtant, le journal laisse aussi transparaitre un autre objectif du comité : « Nous voulons mobiliser plus d'habitants pour faire changer le cadre de vie de ce quartier » (n° 54, janvier 1992). Il est précisé par la suite que « faire [les] réunions une fois par mois en invitant de temps en temps un élu est nécessaire mais pas suffisant pour obtenir les transformations que nous souhaitons pour le quartier » (n° 55, février 1992). Il y a là, de manière sous-jacente, une autre dimension de l'enjeu de la démocratie participative (même si le terme n'est pas alors employé), et le journal en est le vecteur. En effet, sa fonction ne se limite pas à informer ni à engager des débats dans l'espace public : il est aussi un instrument d'interpellation des habitants dans une perspective de mobilisation militante. Et le style peut être parfois à l'injonction, typographie à l'appui – gros titre de une, caractères gras : « avec le comité de quartier, prenez votre quartier en main » (n° 62, novembre 1992) –, voire friser la provocation : « Ne restez pas passifs, prenez en mains votre vie au quotidien et votre avenir à votre porte; n'attendez pas qu'il soit trop tard, réagissez dès maintenant pour prévoir et préparer votre vie de demain et celle de nos enfants pour de longues années » (supplément du n° 82, septembre 1994). À l'occasion, un dessin pourra être convoqué : « Le quartier a besoin de vous ! » dit, en une, le personnage de l'oncle Sam, le plan (bien agrandi) du quartier dans une main, l'index de l'autre main pointé avec autorité vers le lecteur (n° 108, janvier-février 1997). Dans un style moins autoritaire, mais néanmoins pressant, on trouve : « Ne subissez pas sans réagir, ne laissez pas toujours les autres décider pour vous. Consacrez -nous quelques heures par mois. Rejoignez -nous au Comité de quartier. Faites -nous parvenir vos constats, vos remarques, vos propositions… » (n° 163, janvier 2006). Enfin, l'invitation peut être plus feutrée : « Pour qu'on ne relègue pas les Comités de quartier au Musée, section “Traditions du Passé” », écrit ainsi un administrateur à l'occasion de la nouvelle année, « je vous souhaite pour l'année 2002 une profonde envie de changer votre vie » (n° 138, janvier 2002). Dans son souci de se distinguer des institutions de la « démocratie représentative », le comité de quartier explique ainsi le sens de l'engagement de ses militants : « Car n'oublions surtout pas que, contrairement aux “vrais” élus issus des urnes de la République, qui n'arrivent à obtenir, à l'issue de deux tours de scrutin, qu'un pitoyable quart des suffrages exprimés, les bénévoles associatifs, acteurs dans la vie de leur quartier, ne perçoivent aucune indemnité. Alors qu'ils se dépensent tout autant sinon parfois plus pour l'intérêt public que ne le font les élus indemnisés… » (n° 138, janvier 2002, dans un article appelant à s'investir dans le conseil d'administration). À l'automne 2002, dans un éditorial au titre simplificateur et démagogique – « Tout se détache ou tous des taches » [sic] –, le président du moment invite les lecteurs, dans un style lyrique (il est question des « liens » et des « ponts de communication » entre les personnes et les territoires), à « reprendre [leur] place dans la gestion de la ville » et à « veiller à ne pas passer à côté de la chance qui [leur] est donnée de sauver la démocratie et les droits de tout un chacun ». Le texte est dans la même veine que l'éditorial du numéro précédent, qui évoquait les « politiciens de complaisance » (n° 144, octobre 2002). De tels appels aux lecteurs et, au-delà, aux habitants du quartier sont légitimés par la posture que revendique le comité de quartier : celle d' être non seulement le porte-parole de ces derniers, mais aussi le garant de leurs intérêts. De ce fait, Quartier libre apparait parfois comme le support sinon l'aiguillon de la contestation quand l'heure est à celle -ci (contre la municipalité, notamment), voire comme le moyen de lui donner forme et de la faire exister. En ce qui concerne les habitants eux -mêmes, ils sont envisagés comme pouvant et devant se mobiliser, notamment pour se faire entendre auprès de la municipalité et ne pas se laisser dessaisir du pouvoir qu'ils détiendraient collectivement. C'est la figure d'un habitant passif, d'un habitant « qui subit sans réagir » qui est ainsi dénoncée et qui fait pendant à celle d'un habitant-citoyen, acteur impliqué. Mais la récurrence de tels appels à l'implication peut aussi s'interpréter comme un indice de la difficulté du comité de quartier à mobiliser et donc à représenter les habitants. Finalement, en considérant l'ambigüité de l'expression « représentation des habitants » telle qu'elle peut s'entendre ici (« parler au nom des habitants », d'une part, « perception des habitants » par les responsables de l'association, d'autre part), on entrevoit en quoi la fonction de médiation du journal trahit un entre-deux révélateur de la difficulté du comité de quartier à afficher un positionnement clairement établi. Un tel comité n'a de représentativité que celle qu'il parvient par lui -même, par ses statuts, par ses assemblées générales, par ses propres actions, à argumenter et à légitimer, et il ne dispose pas d'une caution institutionnelle fondatrice comparable à celle que confère une élection au suffrage universel. Son aptitude à parler au nom des habitants tient donc de sa capacité à construire une certaine figure de ceux -ci, colportée par le journal, étant entendu qu'il lui faut l'invoquer là où l'élu du suffrage universel peut agir au nom de l'intérêt général. Nous verrons plus loin comment, depuis trois ou quatre ans, le journal s'y prend pour faire valoir dans ses pages le point de vue des habitants du quartier. En attendant, nous relèverons que, sur la même période, et contrairement à ce qui se faisait auparavant, les comptes rendus des assemblées générales ordinaires que propose Quartier libre ne permettent pas de se faire une idée de la teneur des débats. Ainsi, le lecteur, bien que souvent interpellé pour rejoindre le comité, devra se contenter de brefs rappels très généraux, sinon anecdotiques, sur la mission et les actions de celui -ci et ne disposera pas de repères solides et argumentés sur le bilan des actions menées ni sur les orientations de travail retenues pour l'année à venir. D'une certaine manière, on peut se dire que le journal a aujourd'hui du mal à informer sur ce qui est au fondement de la légitimité institutionnelle du comité lui -même. « S'abstenir de voter, c'est ne pas utiliser son droit civique mais aussi refuser son devoir civique. Aussi, nous invitons tous les électeurs du quartier à se rendre massivement aux urnes. » (Éditorial du n° 139, février 2002, avant le premier tour de la présidentielle) Le comité peut mêler posture normative et injonction s'il s'agit de défendre des principes qui sont au fondement du pacte républicain. Cet énoncé nous permet, pour reprendre une formule de Denis Barbet, d' « accéder aux représentations du vote » qui sont celles, ici, de militants investis dans la cause de la démocratie participative et pour lesquels l'abstention semble relever du « pôle “négatif” » (alors que le vote relèverait du « normal », du « bien », du « haut ») (Barbet, 2007, p. 64). Depuis une dizaine d'années, en se faisant régulièrement le support d'un appel au civisme électoral, le journal s'est trouvé un autre sujet d'interpellation, à côté de l'habitant d'une part, de l'institution municipale d'autre part : l'électeur. La thématique apparait progressivement dans les pages de la publication à partir des municipales de 1995. Évoquées sous la forme d'une simple annonce au début, les élections font l'objet d'un véritable appel aux urnes dans le numéro de mars 1998 (n° 113), à l'occasion des cantonales et régionales, à travers un article d'une quinzaine de lignes en bas de l'avant-dernière page : « Le 15 mars prochain, tous aux urnes ! ! ! » Le même slogan – on notera la modalité injonctive fortement soulignée par la ponctuation – est repris dans le numéro de juin 1999 (n° 122) pour annoncer et présenter, sous un format comparable, les élections européennes. Il faut attendre les municipales de 2001 pour voir un tel appel figurer en une du journal. En la circonstance, le comité de quartier prend plus sérieusement en main la question en présentant, sur une demi-page, les enjeux de ces élections. Ce type d'appel fera l'objet d'un éditorial, signé du conseil d'administration, en fin d'année 2003 (n° 150) à propos des différentes échéances électorales de l'année suivante (cantonales et régionales, puis européennes). À l'automne 2004 puis 2005, le journal mentionne en une, parmi d'autres « dates à retenir », celle relative aux élections des représentants de parents d'élèves dans les établissements scolaires. L'observation permet d'apprécier une autre déclinaison de la fonction de médiation du journal. L'interpellation du lecteur n'a donc pas pour objectif, ici, de déclencher un retour vers le comité de quartier lui -même. En prenant pour cible non plus l'habitant mais l'électeur, le journal de quartier pourra, à l'occasion, devenir support d'instruction civique et adopter un registre quelque peu didactique. Ainsi, lors de la présidentielle de 2002, non seulement seront expliquées les modalités du vote mais aussi, de manière assez précise, le rôle du chef de l' État (n° 139, février 2002). C'est le rapport aux institutions et à la nation qui fait ici l'objet de l'énoncé du journal. Le numéro de mai 2002 proposera, en première page, une petite photo du président élu accompagnée de cette légende : « Le 5 mai, le candidat démocrate a gagné », et en pages intérieures une analyse des résultats locaux des deux tours de la présidentielle. Si on sent beaucoup de prudence dans la conception de l'article et dans les commentaires, la position du comité concernant les résultats sur le secteur n'en est pas moins explicitement formulée : « On peut donc se réjouir que l'extrême droite n'ait pas fait de percée dans tous les quartiers dits populaires. Sur le quartier, cette réaction est certainement due en partie à la richesse inter culturelle. » (n° 141, mai 2002) Autre signe de sa volonté de se faire bien identifier dans l'espace public local au moment où la situation politique est critique dans le pays, le comité de quartier tiendra à assumer pleinement sa position dans le numéro suivant, à la suite des réactions suscitées par la photo du candidat victorieux : « Nous nous réjouissons en effet du sursaut républicain pour faire barrage à l'extrême droite. Loin de nous la pensée de faire de la publicité pour le candidat RPR. Nous estimons avoir eu une réaction tout à fait citoyenne en présentant le nouveau chef de l' État. » (n° 142, juin 2002) La récurrence de tels appels aux urnes dans les pages du journal ne tient pas à une soudaine redéfinition des missions que se donne le comité mais au contexte abstentionniste. L'indice d'une vigilance à ce propos apparait clairement dans l'éditorial du numéro qui suit les élections européennes de 1999 quand le journal, pour la première fois d'après nos observations, fait état de cette question et l'articule à la principale raison d' être du comité : « On ne saurait évoquer la nécessité du renouveau de l'engagement sans le relier au contexte d'un absentéisme grandissant qui marque les élections les unes après les autres » (n° 123, juillet 1999). Un second indice du même ordre se repère dans le texte de une déjà évoqué et appelant au vote lors des municipales de 2001 : « Depuis quelque temps, lors des scrutins électoraux, une nouvelle forme d'expression est apparue comme une réalité incontournable. Il s'agit de l'abstentionnisme, et le dernier référendum [sur le quinquennat] en est une parfaite illustration » (n° 133, décembre 2000). En se montrant de plus en plus vigilant sur cette question, quitte à entamer le procès des responsables politiques, le journal témoigne de ce qu'il ne se contente plus de soutenir ni d'expliciter un principe civique : il s'est mobilisé contre ce qui lui semble être un problème de fond et parait en prise avec une problématique qui, travaillant la société française dans son ensemble, affecte tout particulièrement le quartier et la ville. Devant cette entreprise d'information, de mobilisation, de médiation au niveau de l'infralocal, il nous semble possible de dire que le comité de quartier, via son journal et parmi d'autres acteurs associatifs, s'efforce de remédier à une défaillance de la « puissance formante » (pour reprendre une formule de Louis Quéré) de l'espace public. Cette défaillance fait que l'acte de voter, fondement de la citoyenneté républicaine, ne va pas de soi pour tout un chacun, ne prend pas le même sens pour tous. Dit autrement, en endossant une autre formule du même auteur, « l'espace public » cesse de « fabrique[r] des comportements », ici dans le domaine précis d'une élection, évènement pourtant censé actualiser, structurer, rendre manifeste la démocratie représentative (Quéré, 1995). À l'aune de cette action locale, la participation ne s'entend plus comme un contre-pouvoir de la représentation, mais comme la caution de celle -ci. C'est là d'ailleurs un autre trait révélateur de l'évolution conceptuelle de la notion et de l'institutionnalisation de la pratique à laquelle elle renvoie (Blondiaux, 2004). Cela dit, au cours de l'année 2007, le journal semble s' être mis en retrait d'une telle mission. Le contraste est saisissant entre les gros titres à la une des numéros 139 et 142 (« Tous aux urnes ! ! ! » … « Les 9 et 16 juin, votons ! ! ! ») et la mention « Élection présidentielle : le 22 avril puis le 6 mai de 8 heures à 19 heures », simple « date à ne pas oublier » dans le n° 171. Et dans un éditorial qui recense différentes manifestations et animations ponctuant le printemps, les élections législatives sont assimilées à d'autres menus évènements du mois : « JUIN avec le marché et la fête des mères, les élections législatives pour élire nos députés, le 26 e marathon de marche épeulois, la fête de la musique […] » (n° 172, juin 2007). Pas un mot de plus au cours de ce premier semestre, sinon de manière très évasive, dans les éditoriaux des deux premiers numéros de l'année où le président du comité rappelle que « voter est autant un devoir qu'un droit ». La référence aux municipales de 2008 reste tout aussi allusive. Ce retrait, non explicité dans les pages de la publication, semble assez conforme à une posture de désengagement vis-à-vis de préoccupations d'ordre social et politique, auparavant structurantes dans l'action de l'association et le discours du journal. Longtemps, Quartier libre a été un support utilisé par différentes structures pour faire passer des communiqués, des informations relatives à des services, ou pour faire connaitre publiquement des revendications (nous parlons au passé, cette fonction étant aujourd'hui moins visible) : il a relayé la parole émanant du centre social, des associations de défense de locataires, d'associations de parents d'élèves, voire, de manière très exceptionnelle, celle de salariés en grève ou d'employés de la mairie. En même temps, pendant la période faste de cet usage du journal (les années quatre-vingt-dix), il n'a offert ni courrier des lecteurs ni, sinon très exceptionnellement, tribune libre où se seraient exprimés des habitants. Il faut attendre mai 2003 pour que le journal affiche une nouvelle vocation à côté de celle d'informer, de sensibiliser, de mobiliser : devenir un espace où les habitants du quartier prennent la parole, en leur ouvrant ses colonnes ou en déclarant se faire leur écho. Cette possibilité est indiquée dans un court encadré au sein de la rubrique « Place publique », en dernière page du journal : « Cette rubrique concerne tous ceux qui désirent s'exprimer ou communiquer ». Mais ici, le journal glisse parfois vers une restitution du discours des habitants qui amène l'analyste à s'interroger sur le sens et la portée qu'elle peut prendre dans l'espace public local. Dans un numéro dont l'éditorial est une « lettre au maire » cinglante, signée du conseil d'administration, l'humeur des correspondants (sept habitants, photos à l'appui) tourne à l'acrimonie à propos de l'état du quartier : Voilà 30 ans que j'habite ici et pourtant je n'en peux plus. Je m'en vais, je suis presque parti. Adieu mon quartier bien aimé. (n° 147, mai-juin 2003) Je ne veux pas rester ici […] mais surtout parce que dans cet immeuble, ma vie est en danger. La sécurité est une catastrophe, un commissariat de police est plus que nécessaire. J'aime la rue de [… ], mais je pense quitter le quartier. (Ibid.) Le quartier est moins plaisant qu'avant, il y a trop de magasins identiques, après le marché, les rues sont sales et remplies de détritus. (Ibid.) Il y a des gens qui se foutent vraiment de notre gueule, ils vont le comprendre aux prochaines élections. (Ibid.) La portion [entre deux rues] est pourrie, déguelasse [sic ]. (Ibid.) De ces extraits, on retiendra tout particulièrement la formulation et la mise en forme d'une exaspération générale. La « parole habitante » (dont la trivialité entend garantir la véracité, le « parler vrai » du peuple étant supposé témoigner de difficultés elles aussi réelles) vient ainsi appuyer le propos tenu par le comité de quartier lui -même; elle contribue à soutenir et à légitimer une montée en tension du rapport du comité avec la municipalité (Raoul, 2006). Elle officie à charge. Mais la médiation du journal ne verse -t-elle pas en l'occurrence dans l'instrumentalisation du témoignage individuel public ? L'analyste est fondé à se poser la question à la lecture de cette même rubrique dans les numéros qui suivent et qui témoignent du retour à une relation apaisée. En effet, deux mois plus tard, le lecteur pourra discerner, à côté notamment d'une assez longue lettre ouverte au maire mettant explicitement en cause sa personne, des propos plus mesurés dans les « morceaux choisis » qui lui sont offerts : « Le quartier est moyen. J'aimerais qu'il y ait plus de loisirs dans le quartier »; « Il faudrait plus de policiers, des patrouilles la nuit, même de la police municipale. Maintenant, ça va mieux, c'est calme, les jeunes vont bien. Tout me plaît dans le quartier » (n° 148, juillet-août 2003). Dans le numéro suivant – entre deux articles d'une autre teneur –, la « parole habitante » est plus élogieuse encore : Cela fait 46 ans que j'habite le quartier et je l'aime. Les habitants, de toutes origines, sont très gentils, ils sont très corrects. […] Je trouve qu'il y a moins de “casses” qu'avant, cela se calme, il y a du mieux. (n° 149, octobre 2003) Je suis un lycéen de 17 ans. Je trouve que ça va dans le quartier. Il est en nette amélioration grâce à la Ville qui a créé un stade de loisirs pour qu'on puisse s'occuper. (Ibid.) J'ai remarqué que le quartier est en évolution : la propreté, le carrefour, les trottoirs; il a évolué à travers le projet urbain que je trouve satisfaisant. J'aime le côté vivant, la réalité des gens. (Ibid.) Avant de laisser place à la rubrique qui lui succédera, « Place publique » peut rendre compte, entre autres, de réactions d'habitants vis-à-vis de problèmes liés au stationnement, aux animaux; elle fait état de « coups de gueule » à propos de risques pour la sécurité des piétons ou d'actes de vandalisme attribués aux jeunes du quartier. Si l'intention contestataire à l'encontre de la municipalité, qui a semblé animer un temps la rubrique, s'est dissipée, une mise en cause ne s'en repère pas moins à l'occasion, mais de manière plus vague : L'ancien site LOCATRA [suit le nom de la rue] nous cause bien des tracas [… ]. Faut-il attendre que le quartier saute pour réagir ? (n° 151, février-mars 2004) Il serait plus qu'urgent de trouver une solution à ce problème. En plus, la rue est sale, elle devient un dépôt d'ordures sauvages. Alors je m'adresse aux personnes qui ont pris cette décision : avant d'agir, il fallait d'abord consulter les personnes concernées. (n° 152, avril-mai 2004) On frôle parfois la dénonciation entre voisins : Je suis handicapée physique, on a fait un marquage au sol de stationnement handicapé dans la rue devant chez moi. Hélas, je peux rarement m'en servir. Les visiteurs des maisons avoisinantes occupent continuellement l'emplacement. (n° 152, avril-mai 2004) Depuis le mois de janvier, une personne de la rue, mal intentionnée, met des pièges dans sa cour pour (je pense) faire fuir les chats. Un de mes chats a été blessé une fois. (Ibid.) Le lancement dans le n° 154 de la rubrique « “Tchos potins ”, la rubrique des Tartines » (titre qui fait résonner le parler populaire des courées du Nord), confirme la bascule de cet usage de la parole locale vers un type de registre discursif plus narratif et anecdotique, mais aussi plus insidieux lorsque sont évoquées les relations entre voisins. Cette rubrique, dans le prolongement de la précédente et sous la forme (qui se veut humoristique et allusive) de paroles recueillies auprès des habitants par trois « commères » attitrées du journal (elles en feront « toute une tartine »), évoque des problèmes du quartier (le « vivre ensemble », les conditions de vie de certains habitants, les tracasseries au quotidien…). Elle constitue également un moyen de poser des questions – sans forcément avoir un objectif autre que celui de les poser –, voire de faire des suggestions. Elle peut conduire à la mise en cause publique, l'adresse étant précisée, d'habitants au comportement inconvenant sinon agressif (vols, insultes, ébriété, drogue…) envers leurs voisins : Mesdames et messieurs du […] : c'est votre droit de ne pas vouloir de publicité, Des habitants de la cour […] en ont assez des locataires de deux des maisons de la cour : ils agressent verbalement, insultent, volent le linge [… ], sont régulièrement en état d'ébriété et drogués. (n° 158, mars-avril 2005) Au [… ], le locataire du 2 e étage, lorsqu'il rentre le soir, urine dans l'ascenseur. (n° 160, juillet-août 2005) Un commerçant de la rue de […] gêne beaucoup de personnes. Depuis plusieurs mois, il a ennuyé les riverains de la rue […] avec ses camions plein d'ordures [photos des deux camionnettes à l'appui ]. (n° 170, février 2007) L'inconvenance peut prendre une tournure malicieuse sous un intitulé aguicheur (« Porno à volonté ») pour déplorer le comportement de locataires qui « ne se gênent pas de se balader nus devant leur fenêtre, voir [sic] pour ouvrir la porte d'entrée. Que dire ! » Au numéro suivant, le lecteur apprendra que « les locataires ont lu [le] journal » et que « le porno a été remplacé par des rideaux et des tentures ». En contribuant à refréner les ardeurs exhibitionnistes, le journal de quartier fait œuvre de médiation très pragmatique, circonstancielle. Par une telle rubrique, le journal entend semble -t-il se montrer ouvert à l'expression des sociabilités ordinaires qui font le quotidien d'un quartier et donc, pourrait-on dire, « élargir l'espace public local ». Pour autant, ce genre de rubrique relève, du fait de la position énonciative adoptée, d'une forme de fétichisation (il s'agit d'aller encore plus près du vécu des habitants, du « peuple ») et parfois d'instrumentalisation du témoignage individuel, à moins que ce ne soit d'une procédure d'interpellation et/ou de dénonciation publiques. En même temps, elle renforce une logique d'atomisation, de fragmentation de la parole publique et d'individualisation de la vie du quartier lors de sa mise en visibilité dans le journal. Les énoncés sont juxtaposés, mais on ne constate aucune intention de mise en débat public, de mise en confrontation de points de vue ou d'élaboration d'une parole collective. Aucune préoccupation de construire une légitimité n'est repérable. Chaque énoncé de la rubrique, voire chaque parole retranscrite ou rapportée semble avoir sa légitimité publique en soi, du seul fait qu'elle émane d'un habitant ou d'une habitante (ou prétendus tels). Le journal peut donc, tout en s'instaurant en « puissance de cautionnement » (Boltanski, 1984, p. 15), instituer en problème public (local) les implications de certaines pratiques individuelles considérées par les responsables de la publication comme dérogeant à la normalité. Considérant le discours d'un journal de quartier en tant qu'il contribue à donner forme et sens à un espace public local, nous nous sommes ici attaché à étudier l'évolution de sa fonction de médiation, en particulier au cours de la dernière décennie. Quelques enseignements majeurs, corrélés entre eux, nous paraissent ressortir de cette investigation et nous permettent de mettre en évidence une forme de dépolitisation de cette publication. Le journal « donne la parole » aux habitants ou entend s'en faire directement l'écho. En retour, il semble que la « parole habitante » confère un gage d'authenticité et de sincérité au discours du média, en même temps qu'elle vient conforter sa légitimité et donc celle du comité de quartier à faire état des situations ordinaires des habitants, à parler en leur nom, à les représenter. Mais le journal s'en tient à une forme de restitution atomisée de cette parole, il ne cherche pas à la construire en parole collective et à l'inscrire dans une perspective de débat. Résonne ici l'observation faite par Dominique Cardon et Jean-Philippe Heurtin au cours d'une recherche portant sur une émission de radio publique : « L'authenticité du témoignage lui confère une autorité qui le soustrait à la discussion argumentée. » (Cardon, Heurtin, 1999, p. 89) Mais c'est de manière plus générale que la production discursive du journal tend aujourd'hui à faire prévaloir une vision factuelle, événementielle et, par là, fragmentée de l'espace public local. Non content de renoncer à la mission d'information et de sensibilisation civique qu'il a assumée quelques années, le journal affiche aujourd'hui une orientation polémique et un ton moraliste bien plus qu'il ne fait montre d'un souci d'investigation et d'explication, d'une force d'analyse et d'argumentation. En d'autres termes, il ne parvient plus à « monter en généralité » à propos des différentes problématiques du quartier, à inscrire les phénomènes qu'il évoque dans un cadre de catégorisation et d'interprétation permettant de « gagner en intelligibilité » (François, Neveu, 1999, p. 32). Bref, c'est la capacité du journal à instruire le débat public en offrant au lecteur un regard structurant et politique qui s'est altérée, c'est sa fonction de médiation critique qui tend à se déliter. Pour conclure, nous dirons qu'en révélant une telle tendance, l'analyse du texte du journal invite à une investigation d'un autre ordre, notamment dans une perspective comparative . | Dans la perspective d'une recherche en cours portant sur des médias associatifs de quartier, l'article étudie l'évolution du rapport d'un journal de quartier à l'espace public local. Sur la base d'une analyse diachronique du texte de ce journal, il montre comment se repère, sous l'enseigne de la participation, une approche de plus en plus événementielle et fragmentée de cet espace public et, par là, le délitement d'une médiation critique. | linguistique_11-0392165_tei_864.xml |
termith-704-linguistique | Réfléchir sur l'apport de la sémantique lexicale aux langages du politique dans les trente dernières années semble s'imposer dans le cadre d'une revue qui conjoint ces deux aspects dans son titre même, Mots. Les langages du politique … Et pourtant, cette jonction interdisciplinaire n'a rien d'évident dans les faits. J'essaierai d'apporter un éclairage, qui ne pourra être que partiel, à cette problématique. L'éventail des disciplines qui constituent la linguistique est en expansion constante : la sémantique et la sémantique lexicale en particulier n'échappent pas à la règle (Tamba, 2007, Larrivée, 2008). Je m'attacherai à un aspect particulier de l'évolution de cette discipline en France, en tentant de retracer le tournant qu'a représenté, après le courant dominant de sémantique structurale, l'intérêt croissant porté à partir du milieu des années quatre-vingt à la polysémie. J'essaierai de montrer en quoi ce tournant peut être profitable à la science politique et aux langages du politique, sans que, pour autant, l'on puisse parler d'un véritable apport. Pour cela, il est nécessaire de mettre en contraste les deux types d'approche, onomasiologique et sémasiologique. On partira de la conception aristotélicienne de la définition, de nature logique, représentée par une périphrase du type : Fauteuil : siège + à dossier + à bras + pour une personne qui pose d'abord le genre prochain (siège), c'est-à-dire la classe plus générale immédiatement supérieure à l'espèce considérée, puis les différences spécifiques permettant de distinguer cette espèce d'autres espèces appartenant au même genre. Ce type de définition, qui a une « visée référentielle » (Lehmann, Martin-Berthet, 2008, p. 41) se trouve exploité de manière empirique par les dictionnaires. Il s'agit de la définition par inclusion, qui comporte un trait définitoire ou incluant (représenté par l'hyperonyme immédiat du mot) et des traits différenciateurs. Dans le cadre de la sémantique structurale des années soixante-dix / quatre-vingt, c'est une décomposition de ce type qui est systématisée, à partir du modèle phonologique et avec une tout autre conception théorique, sous le nom d'analyse sémique ou componentielle. On construit un champ lexical à partir d'un commun dénominateur sémantique (l'archisémème représenté ou non par un archilexème) et on extrait, par une analyse différentielle, les sèmes qui opposent les sémèmes (significations) de ces mots à l'intérieur d'un ensemble lexical clos. On se reportera au très célèbre champ des sièges de Bernard Pottier qui reste présent dans tous les manuels. Ce type de champ lexical présente les caractéristiques suivantes : – les mots sont décontextualisés; – ils sont « toilettés » de leur polysémie; – ils s'inscrivent sur l'axe paradigmatique des substitutions, dans le cadre d'une structuration hiérarchique verticale impliquant des relations telles que l'hyponymie, l'hyperonymie, la cohyponymie, la synonymie, l'antonymie. Le fondement théorique est celui du concept de valeur défini par Saussure et du principe d'immanence du système linguistique par rapport aux données de l'expérience. La structuration, qui résulte de la seule mise en opposition des unités lexicales du champ, se trouve donc rigoureusement déconnectée de la référence et de l'extralinguistique. Cette théorie produit une méthodologie robuste et rigoureuse permettant d'appréhender le lexique d'une manière systématique et formalisable au moyen de grilles, de tableaux ou d'arborescences. L'apport qui en résulte pour l'étude des langages du politique est plus discutable pour les raisons suivantes : – la dimension des discours est ignorée; – l'analyse sémique s'attache à dégager les sèmes relatifs à la dénotation du mot, c'est-à-dire la partie de la signification de ce mot qui permet de renvoyer au référent, mais elle tend à faire apparaître les connotations du mot comme des « valeurs additionnelles, secondes, périphériques, etc. » (Kerbrat-Orecchioni, 1977, p. 12); – malgré la revendication du principe d'immanence, on remarque (et le débat a été largement ouvert sur ce point) que la signification est fortement adossée au référent (du moins à la perception qu'on en a), qui fournit le réservoir de sèmes qui la constituent; – le trait définitoire (ou incluant) des mots du champ lexical (par exemple, « siège » pour les mots chaise, fauteuil, tabouret, canapé, etc.) joue un rôle crucial : il est au point de départ de la signification des mots qu'il est le premier à « connecter » en quelque sorte au référent et, en tant qu'archisémème, il est au point de départ de la constitution du champ lexical. Or les mots du politique ne se prêtent pas de bonne grâce à ce type d'analyse. La recherche du trait définitoire, dont les lexicographes soulignent eux -mêmes la difficulté, peut devenir une quête impossible pour des mots qui appartiennent à des domaines d'expérience non physiques (vie politique et sociale, histoire, psychologie, etc.). Quel est le trait définitoire de nation, de croissance, de l'adjectif social ? Un pays est-il un groupe humain ou un territoire ? Qu'est -ce que la base d'un syndicat, qu'est -ce que… la politique ? Et quand bien même on réussirait à le stabiliser, ce trait définitoire, quelle en serait finalement la pertinence ? Ce qui fait sens dans les discours politiques, n'est -ce pas justement la partie la plus subjective et la plus interprétative de la signification des mots, celle qui relève moins de la dénotation que de la connotation ? Et cette partie -là, c'est celle que révèlent les usages des mots enchâssés dans des énoncés, engagés dans des contextes, pris dans la trame discursive de l'argumentation, du débat, de la polémique… De fait, située hors discours, l'analyse sémique a pu produire des équations « déshydratées » assez dissuasives (par exemple, pour femme, une formule telle que « humain » + « non mâle » + « adulte ») et elle a trouvé son terrain d'élection dans la constitution de champs lexicaux tels que celui des sièges, des habitations, des animaux domestiques, etc., c'est-à-dire de noms dits concrets renvoyant à un référent immédiatement perceptible et susceptibles d'entrer une structuration de type taxinomique. Plus rares ont été les études portant sur des mots prédicatifs (verbes, adjectifs, encore moins adverbes) et sur des noms abstraits. On comprend que tout cela ait pu être rebutant pour ceux qui s'attachent avant tout aux représentations véhiculées par les mots … La polysémie vint… ou, du moins, affirma sa prééminence et s'inscrivit au cœur des débats. Cette problématique est en complémentarité avec la précédente. En effet, si en onomasiologie, à une signification unique (l'archisémème) se rattache une pluralité de mots lexicaux, en sémasiologie, à un mot unique se rattache une pluralité de significations. Encore faut-il que ces significations puissent être reliées entre elles, si l'on veut éviter l'éclatement homonymique qui résulterait de l'absence de ce principe d'unité. L'approche de la polysémie présente les caractéristiques suivantes : – elle nécessite une contextualisation minimale afin de faire apparaître les différences de significations d'un mot donné; – le mot inscrit donc ses différents emplois sur l'axe syntagmatique; – cette procédure doit prendre en compte les contextes d'usage, si l'on entend appréhender des significations relativement stabilisées au niveau du lexique général; – ces contextes d'usage sont les constructions courantes, les collocations, les expressions plus ou moins figées, figurées et non figurées, les énoncés, les proverbes, etc., qui abondent dans les exemples des articles des dictionnaires. Ce glissement du paradigmatique au syntagmatique a une incidence forte sur la description de la signification lexicale. L'expérience montre en effet que, lorsqu'on examine le fonctionnement interne d'un mot polysémique en listant l'ensemble des significations de ce mot, il est relativement rare que ces significations se rattachent à un même trait définitoire et renvoient à des référents homogènes (comme le fait le champ lexical). Tel est le cas, par exemple, du mot robe, qui conserve le trait définitoire « vêtement qui entoure le corps », qu'il s'agisse du vêtement d'homme, du vêtement distinctif de certaines fonctions, du vêtement d'enfant, du vêtement féminin ou de la robe de chambre. Il en est de même du mot peuple qui décline plusieurs significations à partir du trait définitoire « ensemble d' êtres humains », qu'il s'agisse de la population d'un pays (relations entre les peuples), du corps de la nation (souveraineté du peuple), du plus grand nombre opposé aux classes supérieures (sortir du peuple) ou de la foule (il y a du peuple). Mais, dans une grande majorité de mots et d'emplois, on constate que le trait définitoire manque de robustesse et s'efface, en particulier dans les dérivations métaphoriques et métonymiques, qui « travaillent » en profondeur le lexique commun. C'est en fait à un véritable basculement de la structuration sémantique qu'on assiste, la « radiographie » de la polysémie du mot montrant la prégnance des traits spécifiques et surtout de ces fameux traits subjectifs et évaluatifs prétendument secondaires – au détriment du trait définitoire. Ainsi le verbe mener perd son trait définitoire spatial « faire aller » dans de nombreux emplois métaphoriques tels que se laisser mener, mener l'enquête, une négociation, mener une chose à terme, etc. Mais il conserve le trait subjectif « pouvoir », « maîtrise », présent implicitement dès l'acception spatiale dans des contextes usuels tels que l'instituteur mène les enfants au cinéma, le paysan mène les bêtes aux champs, le colonel mène ses troupes au feu, où la dissymétrie des actants suggère une autorité de l'agent sur le patient. Ce trait devient manifeste, allant même jusqu' à l'abus de pouvoir, dans des expressions figurées telles que mener quelqu'un en laisse, à la baguette, par le bout du nez (qu'on ne trouve pas avec conduire), ainsi que dans le dérivé meneur (bien différent de conducteur !). On voit le bénéfice que l'étude des langages du politique peut tirer de l'approche de la polysémie, dans la mesure où celle -ci permet de mettre au jour des représentations qui ne font l'objet ni des définitions des dictionnaires ni de l'analyse sémique. Ainsi, dans un débat qui a opposé à la fin de l'année 2009 la droite et la gauche à propos de la large régularisation des sans-papiers prônée par Martine Aubry et dénoncée comme une régularisation massive par la droite, on voit bien comment deux mots en emploi synonymique peuvent devenir antonymes par le seul biais des représentations qui leur sont attachées. L'adjectif large possède un trait évaluatif positif d'ouverture, de générosité (large sourire, esprit, idées larges, être large avec quelqu'un, ainsi que le dérivé largesse) tandis que l'adjectif massif connote l'indistinction, le poids, la lourdeur (traits massifs, bombardement massif ainsi que le syntagme usuel masse informe) … C'est seulement par une structuration d'ensemble des significations et la prise en compte des régularités discursives et de la sédimentation des usages que ces représentations émergent. Or l'analyse des discours politiques ne peut que s'intéresser tout particulièrement à ces représentations logées au creux des significations, qui conditionnent les points de vue, fondent les convergences et les divergences, et peuvent au gré des discours fluctuer, s'inverser, se contredire, ces traits connotatifs étant particulièrement fluides et flexibles … Si Maurice Tournier a été pionnier dans cette conception des mots « habités » (Bakhtine) d'histoire et de discours, de valeurs, d'antagonismes, d'échos des luttes sociales, de nombreuses recherches s'inscrivent dans cette filiation. Pour ne prendre que quelques exemples récents, on peut citer les travaux relatifs à l'emploi des métaphores et des métonymies en politique, à l'attitude des locuteurs à l'égard des emprunts, au surgissement de valeurs associées à des mots qui jusque -là vaquaient sans bruit, aux images, impressions et valeurs que véhiculent les noms propres, aux coagulations syntagmatiques qui s'imposent à un moment sociohistorique donné, produisant des formules, des petites phrases, des slogans (Krieg-Planque, 2009), et même au-delà des discours à la reconstitution des cadres sémantiques collectifs (ou prédiscours) qui les organisent (Paveau, 2006). Peut-on parler pour autant d'une véritable jonction entre la sémantique lexicale et la science politique ? Rien n'est moins sûr. La recherche de l'unité du polysème donne lieu en France à des modélisations du sens lexical de plus en plus abstraites, très stimulantes au plan théorique et épistémologique, mais difficiles d'accès – parfois pour les spécialistes eux -mêmes – et, de ce fait, d'un faible rendement interdisciplinaire. Ce n'est pas encore le cas avec Picoche (1986) qui introduit la sémantique lexicale dans le cadre de la psychomécanique du langage (Guillaume). Attentive aux collocations et expressions figées et établissant une navette constante entre les sens dits propres et les sens figurés, elle réussit à proposer, malgré le caractère réputé hermétique de cette théorie, une structuration dynamique de la polysémie, qui ordonne les différentes significations du mot comme autant de « saisies » sur un cinétisme continu allant du sens plénier aux sens « subduits » (ou appauvris). Ainsi le verbe marcher, dans des emplois tels que marcher sur le trottoir, Garibaldi marche sur Rome, ma machine à laver marche, mon entreprise marche, Pierre marche dans la combine, se déleste progressivement des traits physiques tout en conservant d'un bout à l'autre les traits évaluatifs de « normalité », « régularité », « facilité » qui conduisent à voir par dérision, dans le dernier exemple, l'humain comme une machine bien réglée… Mais les théorisations plus récentes poussent jusqu' à l'extrême cette quête du Graal de l'unité du polysème. Partant de l'observation des contextes d'usage et privilégiant les acceptions figurées par rapport aux significations dénominatives, elles se détachent des significations « effectives » pour atteindre un niveau de modélisation totalement abstrait, qui situe l'analyse dans une logique purement intensionnelle où toute distinction entre sens propres et sens figurés est abolie. Leur objectif est de poser un « sens aréférentiel » de niveau supérieur, capable de subsumer toutes les significations du mot sans ordonnancement ni hiérarchisation aucune. Cadiot (1994) propose par exemple pour le mot boîte un « modèle mental flexible » qui prend la forme d'un schéma actanciel du type X contenir Y pour produire/fournir Z, ce qui conduit aussi bien à la boîte munie d'un couvercle, à la partie du corps (boîte crânienne), à l'entreprise et à la boîte de nuit. Plus récemment, la théorie des formes sémantiques de Cadiot et Visetti (2001), inscrite dans une conception sémiotique de la perception (liée à l'action, à l'expressivité, aux valeurs), s'attache à dessiner le « motif » du mot (noyau de sens très instable) destiné à trouver une stabilisation (un profil) dans le lexique puis une thématisation en discours. À ce niveau, une banale pomme fait l'objet d'une glose telle que « rond, dense, lisse, de contact agréable, appelant un certain geste de prise en main ». On citera enfin la théorie culiolienne des formes schématiques, qui porte le principe d'unité du mot polysémique au niveau d'une représentation métalinguistique, faite d'une chaîne d'opérations totalement désémantisée. Ainsi peut-on donner à un mot aussi inoffensif que lit une forme aussi inattendue que « lit est la détermination qualitative que confère un prédicat P à son repère de construction par le fait qu'il ne construit rien d'autre que P » (Franckel, Lebaud, 1992). L'écart se transforme en abîme… On peut alors se poser la question suivante. La difficulté vient-elle de l'objet lui -même, du lexique ? Celui -ci n'est-il pas trop ondoyant et divers pour faire l'objet d'un traitement unitaire ? On observe que les modélisations les plus abstraites ont tendance à s'appuyer encore et toujours sur des mots renvoyant à des entités concrètes ou physiques (par exemple, les verbes de mouvement). Le vocabulaire politique se soustrait-il finalement à toute entreprise de modélisation ? Ou alors, devrait-on rester plus modestement au plus près des mots, de tous les mots, quitte à renoncer aux aspects les plus ambitieux de théories qui, si légitimes et enrichissantes soient-elles, les prennent peut-être plus comme prétextes que comme objets véritables ? | L'A. réfléchit sur l'apport de la sémantique lexicale aux langages du politique dans les trente dernières années. Cette jonction interdisciplinaire n'ayant rien d'évident, il essaie d'apporter un éclairage à cette problématique en passant par les champs lexicaux et la polysémie. Il met ainsi en contraste une approche onomasiologique et semasiologique. | linguistique_11-0106457_tei_829.xml |
termith-705-linguistique | Il est proposé dans cet article d'envisager l'enseignement supérieur britannique comme un domaine spécialisé dans le cadre disciplinaire de l'anglais de spécialité (désormais ASP). Cette démarche s'appuie sur un certain nombre de définitions qui ont jalonné les réflexions sur l'identité de l'ASP et sur la nature de ses objets (notamment Petit 2002, 2008 et 2010; Van der Yeught 2009). Elle soulève plus largement la question d es points de vue disciplinaires au sein de l'anglistique en France. En effet, à partir d'un champ de recherche commun que l'on peut désigner de façon générale comme « le monde anglophone », divers courants disciplinaires se sont développés : littérature, linguistique, civilisation et anglais de spécialité. Dans ce paysage, la construction de l'enseignement supérieur britannique comme objet de recherche au sein de l'ASP nécessite d'identifier et d'analyser dans un premier temps de quelles façons l'enseignement supérieur a été étudié jusqu' à présent non seulement au sein de l'anglistique mais également dans d'autres disciplines afin, dans un second temps, de positionner clairement la perspective adoptée en ASP. Or, au-delà des cloisonnements institutionnels du système universitaire français, de nombreux points de croisement apparaissent, d'une part entre les courants disciplinaires des études anglophones et, d'autre part, entre l'ASP et d'autres disciplines. Ces points de convergence me semblent refléter un trait majeur de l'identité de l'anglistique et de chacun de ses affluents disciplinaires : l'interdisciplinarité. C'est précisément sur ce principe d'inter-disciplinarité que je propose de m'appuyer pour suggérer des éléments de réflexion d'ordre théorique et méthodologique pour la caractérisation des domaines spécialisés en contexte anglophone dans le cadre de l'ASP et j'illustre mon propos avec l'enseignement supérieur britannique. En cherchant à rendre compte de la majeure partie des travaux de recherche en anglais de spécialité et de leur orientation vers l'enseignement de l'anglais à des spécialistes d'autres disciplines, Michel Petit a proposé, en 2002, de définir l'anglais de spécialité comme « la branche de l'anglistique qui traite de la langue, du discours et de la culture des communautés professionnelles et groupes sociaux spécialisés anglophones et de l'enseignement de cet objet » (2002 : 2-3). Cette définition, qualifiée parfois de définition lato sensu, est aujourd'hui reprise par de nombreux chercheurs (entre autres Rouveyrol 2004; Isani 2004; Charpy 2011). Toutefois, selon son auteur lui -même, elle ne permet pas de rendre compte des travaux de recherche qui ne se situent pas nécessairement dans une perspective d'application à l'enseignement en France mais portent, de façon plus fondamentale, sur les domaines spécialisés et le « spécialisé » en contexte anglophone. Cela a conduit M. Petit à proposer une autre définition de l'ASP, qualifiée de stricto sensu, comme « la branche des études anglophones qui a pour objet l'étude des domaines spécialisés et du spécialisé en contexte anglophone » (2008 : 23). Cette définition, que j'adopte dans le cadre du présent article, vise à ne pas envisager l'anglais de spécialité uniquement à travers les besoins langagiers des étudiants, même si ces besoins restent une préoccupation centrale, mais à chercher à connaître et à comprendre, de façon plus globale et systématique, les domaines spécialisés et le spécialisé en contexte anglophone. Cette démarche répond à la volonté de certains chercheurs en anglais de spécialité de dépasser la seule perspective d'enseignement pour orienter leur recherche, comme l'exprime, entre autres, Shirley Carter-Thomas : « our identity as a community should not solely or even primarily be defined by who we teach, nor by the particular institutional environments in which we work » (GERAS 2008 : 11). De ce point de vue, les approches diverses, parfois qualifiées de « kaléidoscopiques » (GERAS 2008 : 13), adoptées par les chercheurs en anglais de spécialité me semblent pouvoir être considérées comme des voies de saisie multiples des variétés spécialisées de l'anglais. Les aspects particuliers de ces variétés sur le plan linguistique, historique ou culturel constituent autant d'expressions et, partant, autant de voies de compréhension et de connaissance des domaines spécialisés correspondants en contexte anglophone. Selon cette logique, lorsqu'un domaine spécialisé est ancré dans une communauté professionnelle ou disciplinaire spécialisée, l'étude des traits particuliers de la langue et des discours qui s'y rapportent peut être prolongée ou complétée par une démarche plus générale qui consiste à souligner ses caractéristiques culturelles, organisationnelles et fonctionnelles dans un contexte anglophone national particulier. De nombreux travaux en ASP adoptent cette perspective globale selon des modalités diverses (entre autres, Van der Yeught 2006, 2009; Laffont 2006; Saber 2006; Biros 2011; Wozniak 2011). Le lien avec l'enseignement n'en est pas exclu puisqu' à partir d'un travail de caractérisation générale, le chercheur peut déterminer en quoi certains des éléments qu'il a analysés sont pertinents pour la communauté des apprenants spécialistes d'autres disciplines sur le plan culturel, linguistique ou didactique. La recherche en anglais de spécialité peut se donner pour cible « les domaines spécialisés en contexte anglophone […] tels qu'ils sont constitués et peuvent être saisis dans les sociétés anglophones » (Petit 2010 : §19). La réalité sociale de ces domaines, et donc leur identité, se manifeste avant tout à travers la façon dont ils sont désignés au sein de la société dans un contexte national particulier. Ils peuvent être nommés de façon générique à travers leurs acteurs (« les enseignants », « les médecins », « les journalistes », etc.), leurs activités (le monde de « la boxe », de « la philatélie », de « la politique », etc.) ou encore à travers des structures, des institutions ou des lieux spécialisés (« l'hôpital », « l'université », « les cités », « the Privy Council », etc.). Ces dénominations attestent l'existence d'ensembles structurés qui contribuent à la cohésion du corps social. En d'autres termes, leur désignation au sein de la société préexiste à leur saisie comme objets de recherche. Cependant, malgré leur appellation générique, qui se fonde sur une unité d'activité ou de lieu et semble suggérer une certaine homogénéité, ces ensembles constituent des systèmes hétérogènes complexes : le monde de l'hôpital, qui se définit principalement à partir d'un lieu et d'une fonction (soigner ou prendre soin de personnes malades), inclut, entre autres, des personnels de santé, de gestion, de direction, d'entretien ou encore de communication qui occupent des fonctions et des statuts divers et dont les activités s'imbriquent de multiples façons. Une telle hétérogénéité rend problématique l'appréhension des domaines spécialisés comme objets de connaissance car ils regroupent des ordres de réalité extrêmement divers : leur mode de saisie est donc complexe. Dans une perspective de recherche, les domaines spécialisés peuvent être appréhendés de façon partielle selon différents points de vue disciplinaires : dans la plupart des cas, certaines de leurs dimensions sont envisagées sans qu'ils ne soient nécessairement appréhendés de façon globale ni désignés, ou construits épistémologiquement, comme des domaines spécialisés. Chaque discipline applique ainsi son propre regard aux différentes facettes de ces ensembles complexes, qu'il s'agisse de leurs acteurs, de leurs institutions, de leurs idées, de leurs pratiques ou de toute autre dimension propre à susciter l'intérêt des chercheurs. Or, la démarche en ASP que je propose d'adopter repose sur l'hypothèse selon laquelle le spécialisé se construit « globalement au niveau du tout plutôt que séparément, et parfois problématiquement, au niveau des parties » (Petit 2010 : §21). Dans ce cadre, un domaine spécialisé peut être appréhendé de façon globale en ce qu'il constitue un système complexe « dont l'identité en tant que domaine spécialisé résulte de la combinaison spécifique de l'ensemble des éléments d'ordre divers qui lui sont rapportés » (Petit 2010 : §23). Il s'agit donc, en d'autres termes, de définir les domaines spécialisés en extension, à travers tous les éléments qui le composent, plutôt qu'en compréhension, à travers les propriétés partagées par tous les éléments de cet ensemble : leur caractère spécialisé réside dans le tout et non dans la somme des parties, d'où l'intérêt d'appréhender un domaine de façon générale en complément ou préalablement à la spécification de ses aspects particuliers. Cette conception s'appuie sur l'idée selon laquelle les fondements de la spécialisation sont essentiellement d'ordre extralinguistique, même si cette spécialisation se manifeste de diverses façons et à des degrés divers sur le plan linguistique. Une démarche de recherche inclusive permet alors d'intégrer les dimensions disciplinaires et/ou professionnelles du spécialisé sans exclure les autres dimensions qui s'y rapportent : on songe, par exemple, à la Fiction à substrat professionnel (FASP) anglophone sur laquelle portent de nombreux travaux de chercheurs en ASP − comme Jean-Pierre Charpy dans le domaine médical (Charpy 2010), Shaeda Isani dans celui du droit (Isani 2005) ou, plus récemment, Camille Biros dans celui de l'environnement (Biros 2010) – ou encore à toutes les formes de pratiques qui relèvent du bénévolat ou de l'amateurisme. Avant d'envisager l'enseignement supérieur dans le cadre de l'ASP, il convient de dresser succinctement un panorama des approches disciplinaires actuelles de l'enseignement supérieur, à l'intérieur et hors du champ de l'anglistique. Au sein de l'anglistique, en France, l'enseignement supérieur a principalement été appréhendé par les civilisationnistes en lien avec l'alternance politique et les réformes successives qui l'affectent. Il est le plus souvent inclus dans la thématique plus large de l'éducation (Revue française de civilisation britannique 1990; Pochat 2009). Il est également, mais plus rarement, appréhendé comme thème principal à l'occasion de certaines réformes majeures. Dans l'avant-propos d'un numéro de la Revue française de civilisation britannique exclusivement consacré à l'enseignement supérieur britannique après l'arrivée au pouvoir des travaillistes et la parution du rapport Dearing, Michel Lemosse résume ce qui me semble refléter la façon dont l'enseignement supérieur est actuellement envisagé en civilisation : L'enseignement supérieur britannique évolue et se transforme. Le rythme des changements s'est accéléré au cours de l'actuelle décennie à un point tel que nous risquons, nous continentaux, de ne plus le reconnaître tout à fait si nous détournons trop longtemps notre regard. Le présent numéro vise précisément à prendre la mesure des aspects les plus saillants des évolutions récentes, replacées dans leur déroulement historique. (Lemosse 1999 : 7) L'enseignement supérieur est présenté ici, de fait, comme un objet de connaissance à part entière, mais essentiellement à travers ses mutations envisagées d'un point de vue diachronique : ce sont ces changements qui justifient que l'on s'y intéresse, de façon récurrente mais irrégulière, sans qu'il constitue un champ de recherche en soi. Un nombre croissant de travaux portent toutefois exclusivement sur l'enseignement supérieur et témoignent de l'intérêt propre qu'il suscite auprès des civilisationnistes (Halimi 2004; Masseys-Bertonèche 2006; Elliott et al. 2011). Au sein de l'anglais de spécialité, la plupart des travaux sont adossés aux spécialités disciplinaires enseignées dans le contexte universitaire français : l'enseignement supérieur n'y a donc pas été envisagé, jusqu' à présent, comme un champ de recherche à part entière. Il est uniquement abordé par le biais de l'EAP (English for Academic Purposes) mais de façon indirecte et partielle. Au sein de l'ESP (English for Specific Purposes), ce courant s'intéresse en effet à l'étude du discours « d'enseignement et de recherche en milieu universitaire » (Mémet 2008 : 16). L'un de ses fondateurs, Ken Hyland, définit pour sa part l'EAP comme « language research and instruction that focuses on the specific communicative needs and practices of particular groups in academic contexts » (2002 : 2). L'EAP s'intéresse donc aux conventions propres aux genres universitaires, comme la communication en colloque ou la rédaction d'articles scientifiques : il porte sur l'anglais conçu comme lingua franca et ne s'appuie pas spécifiquement sur une connaissance des communautés linguistiques et/ou professionnelles nationales correspondantes. Les travaux d'autres disciplines abordent, eux aussi, l'enseignement supérieur de façon relativement fragmentée et partielle : les économistes, historiens, spécialistes des sciences de l'éducation et sociologues du Réseau d'étude sur l'enseignement supérieur (RESUP) s'intéressent par exemple à différents systèmes nationaux d'enseignement supérieur, le plus souvent par le biais d'études comparatives qui favorisent certaines dimensions. En sociologie, Christine Musselin (2001, 2007, 2008) aborde les universités comme des organisations complexes dans le marché international de l'enseignement supérieur tandis que Marie Duru-Bellat (2006) porte davantage son attention sur le parcours des étudiants à l'université et sur les inégalités auxquelles ils sont confrontés dans divers systèmes nationaux. En sciences de l'éducation, les travaux dirigés par Marie-Françoise Fave-Bonnet (1999, 2003, 2010) favorisent l'analyse comparative pour étudier l'enseignement supérieur britannique : ils sont axés sur certaines dimensions comme l'évaluation des formations ou les pratiques pédagogiques. En économie, Annie Vinokur étudie le marché international de l'enseignement supérieur et, notamment, le management de l'éducation par la qualité et l'impact de la déréglementation des marchés des capitaux sur le secteur de l'éducation (Vinokur 2002, 2008). Enfin, les analystes du discours d'horizons disciplinaires variés s'intéressent aujourd'hui à la spécificité des discours universitaires. Dans le monde anglophone, l'enseignement supérieur constitue un champ d'étude et de recherche à part entière depuis longtemps déjà. L'abondance des revues qui portent sur ce sujet, au Royaume-Uni et aux États-Unis notamment, témoigne de l'intérêt qu'il suscite. On peut citer, entre autres, Higher Education, The Journal of Higher Education, Higher Education Quarterly ou encore The European Journal of Higher Education. Un tel intérêt est également confirmé par l'existence de centres et de sociétés de recherche qui lui sont exclusivement consacrés : on songe notamment, au Royaume-Uni, à la Society for Research into Higher Education (SRHE) ou encore au Centre for Higher Education Research and Information (CHERI) de l'Open University. Les points de vue disciplinaires adoptés sont, dans la plupart des cas, ceux de la sociologie, des sciences de l'éducation ou des sciences politiques et les thématiques de recherche explorent, entre autres, les questions de la gouvernance, des politiques publiques, de l'identité professionnelle ou de l'assurance qualité. On peut noter, enfin, l'existence du Times Higher Education, revue spécialisée ancrée dans une communauté professionnelle nationale, celle de l'enseignement supérieur britannique. Dans l'ensemble, ces travaux de recherche ou articles de presse spécialisée envisagent implicitement l'enseignement supérieur comme un domaine spécialisé mais de façon éclatée, selon certains aspects d'ordre professionnel et/ou disciplinaire. En complément des travaux susmentionnés, je propose d'envisager l'enseignement supérieur en contexte anglophone comme un champ de recherche à part entière au sein de l'anglais de spécialité. Mon propos concerne plus spécifiquement l'enseignement supérieur britannique, mais ma réflexion porte plus largement sur tous les systèmes d'enseignement supérieur en contexte anglophone. L'enseignement supérieur constitue un secteur d'activité clairement délimité au sein de la société. Ses missions sont fondamentalement liées au savoir : les universitaires œuvrent pour le développement et la transmission des connaissances et l'organisation et le fonctionnement des établissements d'enseignement supérieur repose sur un découpage disciplinaire du savoir (départements, facultés, etc.). En conséquence, l'enseignement supérieur présente la particularité, me semble -t-il, de relever à la fois du spécialisé d'ordre professionnel (le métier d'universitaire) et du spécialisé d'ordre disciplinaire, chaque universitaire étant spécialiste de telle ou telle discipline, tant sur le plan de la recherche que sur celui de l'enseignement. On peut ainsi considérer que les discours scientifiques des universitaires relèvent davantage du spécialisé d'ordre disciplinaire tandis que les discours qui se rapportent au métier d'universitaire, à travers les activités d'enseignement ou les responsabilités collectives au sein d'un établissement, appartiennent à des types d'ordre professionnel. Dans ce cadre, l'analyse des discours universitaires (Defays & Englebert 2009a; Détourbe 2011) contribue à « éclairer la connaissance et la compréhension d[u] domaine » de l'enseignement supérieur (Petit 2010 : §28). Dans un contexte national spécifique, l'enseignement supérieur peut être étudié selon différentes dimensions qui, combinées entre elles, fondent sa spécificité. L'analyse peut porter sur le profil des différents établissements d'enseignement supérieur, leur statut, leur organisation et leurs missions dans les différentes nations britanniques (Halimi 2004; Détourbe 2011). L'enseignement supérieur peut également être appréhendé à travers la communauté professionnelle nationale de ses universitaires (academics, the community of scholars), leur statut, leurs pratiques et leur culture spécifiques. Il peut également être étudié par le biais de la communauté étudiante et de la place qu'elle occupe dans le système universitaire national. Enfin, et ce parcours pourrait être davantage élargi, il est possible d'appréhender l'enseignement supérieur en étudiant les différentes politiques publiques qui lui sont consacrées; elles rythment la vie des universités britanniques et orientent leurs missions à partir de choix d'ordre politique ou financier. Ma démarche d'étude de l'enseignement supérieur s'appuie sur différents points d'intérêt. Comme objet d'enseignement, tout d'abord, l'enseignement supérieur britannique me semble pouvoir intéresser les étudiants français à plusieurs niveaux. L'organisation des études et la vie universitaire de leurs homologues britanniques fournissent des éléments d'information et de comparaison précieux, en lien avec leur propre expérience d'étudiant. L'étude des filières britanniques qui correspondent à leur propre spécialité permet, en outre, de compléter leurs connaissances disciplinaires au niveau thématique et terminologique : un étudiant en droit pourra percevoir, dans les programmes de diverses universités, la spécificité de la common law britannique et les aspects culturels qui lui sont attachés, par rapport au droit français. Enfin, les rapports fonctionnels particuliers que le système universitaire britannique entretient avec le monde professionnel dans diverses spécialités (accréditation de formations, participation à des jurys, etc.) constituent une voie de compréhension privilégiée des milieux professionnels en contexte anglophone. Comme objet de recherche, l'enseignement supérieur présente l'avantage de correspondre au propre milieu professionnel des universitaires français, ce qui leur permet sans doute, par comparaison, de saisir plus aisément sa spécificité en contexte anglophone. Il constitue, en outre, un domaine spécialisé singulier qu'il me semble essentiel d'examiner de façon globale, au-delà des réformes et des polémiques qui le traversent ou encore d'aspects particuliers, comme son financement public ou privé, ces éléments faisant l'objet d'une attention certes récurrente mais partielle, comme je l'ai indiqué précédemment. En conséquence, une démarche globale de recherche sur ce domaine spécialisé permet de dépasser la fragmentation qui définit généralement les travaux sur l'enseignement supérieur. Il reste toutefois à construire un cadre méthodologique adapté. La méthodologie que je propose d'adopter consiste à étudier l'organisation, les acteurs et les discours de l'enseignement supérieur, cette perspective générale pouvant être complétée par l'étude de tout autre aspect particulier. Je suggère pour cela d'adopter un cadre méthodologique fondé sur le principe d'interdisciplinarité. Or, les études interdisciplinaires impliquent souvent des arbitrages, tant sur le plan théorique que sur le plan méthodologique, qu'il est difficile de justifier scientifiquement sans référence à un cadre théorique construit de l'interdisciplinarité. En conséquence, je propose de présenter une théorie de l'interdisciplinarité qui me semble adaptée à l'étude des domaines spécialisés puisqu'elle repose sur la spécificité de l'objet. J'esquisse ensuite la façon dont les principes de cette théorie peuvent être appliqués à la recherche en ASP en général et à l'étude de l'enseignement supérieur britannique en particulier. Dans un article intitulé « A Theory of Interdisciplinary Studies » publié en 2001, William H. Newell définit la démarche interdisciplinaire (interdisciplinary study, IDS) comme : a process of answering a question, solving a problem, or addressing a topic that is too broad or complex to be dealt with adequately by a single discipline or profession. […] IDS draws on disciplinary perspectives and integrates their insights through construction of a more comprehensive perspective. (2001 : 13) Le modèle d'interdisciplinarité qu'il construit découle donc de la complexité de l'objet envisagé et il peut fournir un ancrage théorique pertinent pour la recherche en ASP à plusieurs égards. L'intérêt de cette théorie réside tout d'abord dans le fait qu'elle articule les principes théoriques et méthodologiques de l'interdisciplinarité avec la théorie des systèmes complexes. W. H. Newell souligne en premier lieu les limites de la perspective mono-disciplinaire pour l'étude d'éléments complexes. La spécificité d'une discipline réside en effet moins dans son objet, qu'elle peut partager avec d'autres disciplines, que dans le point de vue spécifique et exclusif qu'elle construit sur lui : « it is widely accepted that each discipline focuses on a set of interrelated variables observable from its perspective » (2001 : 2). L'auteur illustre son propos avec le phénomène des pluies acides : il peut être appréhendé séparément et selon différents points de vue par des chimistes, des météorologues, des géologues et bien d'autres spécialistes disciplinaires qui s'intéressent le plus souvent à un aspect particulier. Chaque discipline détermine donc un niveau et un mode spécifiques de saisie du réel dont elle ne rend compte que partiellement, ce qui rejoint l'analyse effectuée plus haut à propos de la fragmentation disciplinaire des recherches sur l'enseignement supérieur. W. H. Newell appuie plus spécifiquement sa théorie de l'interdisciplinarité sur le concept de « système complexe ». Selon lui, un système complexe se caractérise par sa multi-dimensionnalité ainsi que par l'articulation dynamique de ses différents sous-systèmes selon des modes variés : A complex system is composed of components actively connected through predominantly nonlinear relationships. The components can be molecules, cells, organs, phenotypes, species, individual human beings, institutions, groups, nations, artistic movements, cultures—in short, the stuff of the system. (Newell 2001 : 9) Longtemps utilisée dans les sciences du vivant (natural sciences), la notion de système complexe est également opérante aujourd'hui dans les sciences de l'homme : sociétés, communautés et groupes humains peuvent être appréhendés comme des systèmes complexes selon différentes perspectives disciplinaires. En prenant comme point de départ la complexité de l'ensemble étudié, la recherche interdisciplinaire consiste à associer différents points de vue en dépassant les cloisonnements conceptuels, théoriques et méthodologiques des disciplines : The distinctly interdisciplinary research challenge is to identify and study the typically nonlinear linkages between disciplinary sub-systems. For example, just what are the connections between the economic and political sub-systems studied by social scientists and the atmospheric and biological sub-systems studied by natural scientists that combine to produce acid rain ? Since those connections fall outside the purview of every discipline, their exploration is left to interdisciplinarians. (2001 : 18) Il s'agit d'appréhender un système de façon globale, en prenant en compte conjointement le tout et ses parties et en considérant que le premier ne se réduit pas à la somme des secondes : The more comprehensive understanding produced by interdisciplinary study is an understanding of how the behavioral pattern of the system comes about from its constituent parts. (2001 : 21) Cette démarche me semble particulièrement congruente avec celle adoptée en ASP puisqu'il s'agit d'appréhender les domaines spécialisés comme des « système[s] complexe[s] dont l'identité résulte de la combinaison spécifique de l'ensemble des éléments d'ordres divers qui lui sont rapportés » (Petit 2010 : § 23) en dépassant l'étude partielle de ses différentes dimensions et en prenant en compte la diversité des rapports entre ses différentes composantes internes et externes. La méthode interdisciplinaire requiert d'identifier les disciplines pertinentes pour l'étude de l'objet choisi. La démarche implique de déterminer au préalable les différentes dimensions ou « sous-systèmes » de cet objet, et partant, les différents points de vue disciplinaires correspondants. Sur ce point, W. H. Newell souligne la nécessité d'ouvrir au maximum le spectre disciplinaire adopté afin d'intégrer des phénomènes qui auraient pu échapper aux premières observations : Because the overall system is complex, however, the contributions of individual sub-systems to the behavioral pattern of the overall system may not be obvious even to the disciplinarians who study them. Thus, interdisciplinarians are well advised to err on the side of inclusiveness (at least in their initial inquiries) and to be alert for nonlinear connections that may have escaped attention. (2001 : 17) Cette ouverture intellectuelle qui consiste à n'écarter aucun point du vue disciplinaire, aussi éloigné puisse -t-il paraître de prime abord, et qui permet dès lors d'associer différentes dimensions d'un même objet de façon originale, semble particulièrement pertinente et éclairante pour l'étude de domaines spécialisés aussi complexes que l'enseignement supérieur, la bourse ou encore l'environnement. L'interdisciplinarité consiste alors non pas à juxtaposer les différents points de vue disciplinaires mais à les intégrer dans un cadre théorique et méthodologique cohérent qui découle de la spécificité du champ exploré. Selon W. H. Newell, cette intégration n'implique pas une maîtrise complète de chacune des disciplines retenues : Interdisciplinarians need not become experts in the disciplines they utilize. Beyond a general feel for the perspective of the discipline, they merely need sufficient command of its relevant portions to illuminate the specific features of that particular complex system. (2001 : 17) Trouver le juste niveau de maîtrise et d'intégration des concepts et des outils empruntés aux autres disciplines n'est pas aisé. Or, la proximité constitutive de l'anglais de spécialité avec d'autres disciplines, notamment en ce qui concerne le spécialisé disciplinaire, constitue un atout majeur dans le cadre d'entreprises de recherche interdisciplinaire. La proximité professionnelle entre les chercheurs en ASP et leurs collègues d'autres disciplines au sein de l'enseignement universitaire peut en effet être utilement étendue aux activités de recherche et ouvrir des perspectives de collaboration féconde. Les arbitrages nécessaires à une démarche interdisciplinaire fondée sur le point de vue de l'ASP, tant sur le plan théorique que méthodologique, peuvent ainsi s'appuyer utilement sur une collaboration avec les spécialistes d'autres disciplines dans le but de construire un cadre de recherche solide et respectueux des spécificités disciplinaires. En ce sens, la convergence de l'ASP avec les autres disciplines trouve sa légitimité non seulement au niveau de l'enseignement mais également au niveau de la recherche. La recherche interdisciplinaire requiert notamment une clarification rigoureuse de la terminologie employée, plus encore sans doute que dans des travaux de type mono-disciplinaire dans lesquels la plupart des termes présentent une certaine stabilité sémantique et sont employés de façon consensuelle. Cette clarification est d'autant plus importante que certains termes peuvent être utilisés différemment d'une discipline à l'autre. De plus, la démarche interdisciplinaire étant globale, elle peut révéler des dimensions et des connexions non envisagées au sein des différentes disciplines et nécessiter parfois l'emploi de termes nouveaux : Technical terms are defined by a discipline to bring out the characteristics of a component or relationship relevant to its subsystem. When seen in the larger context of the entire complex system, additional (perhaps even different) characteristics are likely to become relevant. (Newell 2001 : 19) Le défi consiste alors à établir un domaine terminologique interdisciplinaire afin d'éclairer l'ensemble étudié dans le respect des termes spécialisés importés de l'une ou de l'autre discipline : In the process of oscillation between sub-systems and overall pattern, the terminology and assumptions of contributing disciplines are adjusted to the larger understanding as it is developed with input from their terms and assumptions. […] The trick is to modify terms and assumptions as little as possible, while still creating adequate common ground on which to construct a coherent understanding. (2001 : 20) Ici encore, la recherche en ASP présente une forte compatibilité avec le principe d'interdisciplinarité puisque la langue et le discours spécialisés d'autres disciplines y constituent un champ d'étude à part entière, ce qui peut en faciliter d'emblée la maîtrise et la compréhension. À de nombreux égards, une étude interdisciplinaire rigoureusement élaborée permet donc d'associer des perspectives disciplinaires de façon souvent inédite et de construire un point de vue original sur des ensembles complexes, ce qui me semble correspondre précisément à l'angle d'approche adopté en ASP sur le spécialisé en contexte anglophone. Je voudrais maintenant esquisser la façon dont la théorie de l'interdisciplinarité de W. H. Newell peut être appliquée à l'étude d'un domaine spécialisé en illustrant plus particulièrement mon propos avec l'enseignement supérieur britannique. Le monde de l'enseignement supérieur se présente comme un système complexe ancré dans une communauté nationale spécifique : il peut être défini comme un réseau social et professionnel dont les activités sont articulées autour des missions d'enseignement supérieur, de recherche et de transfert de connaissances (Détourbe 2011 : 71). Il s'agit bien, selon la définition proposée par W. H. Newell, d'un ensemble cohérent d'éléments orientés vers une même finalité et reliés entre eux de façon dynamique selon des modes divers. En adoptant les principes de l'interdisciplinarité évoqués précédemment, l'enseignement supérieur peut être envisagé comme un ensemble qui repose sur l'articulation complexe de trois grandes dimensions : son organisation, ses acteurs et ses discours. Chacune peut être envisagée selon différents points de vue disciplinaires, notamment la sociologie, l'économie, les sciences politiques ou encore l'histoire, que l'on peut intégrer à des degrés divers en suivant un principe de pertinence et de cohérence. L'étude générale du domaine peut alors être fondée sur ces dimensions selon les trois volets suivants. Un premier volet consiste à analyser l'organisation et le fonctionnement de l'enseignement supérieur britannique. On peut par exemple étudier ses structures et son organisation selon une perspective fonctionnelle en identifiant les différents types d'établissements qui le composent ou les organismes publics ou semi-publics qui encadrent leurs activités, en soulignant certaines évolutions saillantes selon une perspective diachronique. Dans ce cadre, certains concepts de la sociologie des organisations comme ceux de parties prenantes (stakeholders), d'organisation en matrice (matrix structure), d'articulation lâche (loose coupling) ou encore de relation d'agence (agency theory) sont particulièrement éclairants. Un second volet s'attache à identifier ses acteurs principaux – qu'il s'agisse d'acteurs collectifs ou individuels – en les situant au sein d'une cartographie générale fondée sur leur identité, leurs fonctions et les rapports qu'ils entretiennent. En s'appuyant sur certains concepts empruntés à la sociologie, comme celui d'acteur social qui pose que « la variété des comportements individuels n'est jamais entièrement l'affaire d'aléas individuels, mais est structurée systématiquement par des caractéristiques collectives » (Duru-Bellat 2006 : 184), il est intéressant de construire une typologie des acteurs collectifs de l'enseignement supérieur au Royaume-Uni afin d'identifier un certain nombre de caractéristiques collectives et d'éclairer l'identité globale du domaine. Cette typologie peut être complétée par une analyse des rapports intra -, inter - ou extra-professionnels entre les différents acteurs internes et externes. L'appui sur la tradition durkheimienne selon laquelle les acteurs sont représentés comme cherchant, consciemment ou inconsciemment, à satisfaire leurs intérêts s'avère alors fort utile (Clark 1983). Le concept de partie prenante, particulièrement mis à contribution aujourd'hui en sociologie des organisations permet, lui aussi, d'appréhender les acteurs selon leur dimension stratégique et selon les rapports multiples qui les unissent. Cette démarche, au sens de M. Van der Yeught, me paraît particulièrement opportune dans le cadre de travaux portant sur des domaines peu ou pas explorés, comme ceux de l'alpinisme aux États-Unis (Wozniak 2011) ou de l'environnement au Royaume-Uni (Biros 2011). Elle contribue à la connaissance générale d'un domaine spécialisé dans une communauté nationale spécifique et peut constituer un prolongement ou un complément pertinent aux études portant sur des aspects particuliers, comme les discours qui s'y rapportent. Le troisième et dernier volet d'étude que je propose est l'analyse des discours en circulation dans le domaine spécialisé de l'enseignement supérieur. Ce volet renvoie à une dimension plus traditionnelle peut-être de la recherche en anglais de spécialité. Une première étape peut consister à recenser et à cartographier les genres de discours en circulation dans le monde de l'enseignement supérieur. Une seconde étape, complémentaire, vise à étudier plus en détail les traits sémiotiques, linguistiques, rhétoriques. .. de ces discours spécialisés selon différents points de vue disciplinaires (linguistique, analyse de genre, terminologie, analyse de discours, etc.), ce qui correspond à la perspective adoptée par de nombreux chercheurs en ASP. Si l'on s'intéresse par exemple aux discours d'évaluation en circulation dans les universités britanniques (textes de cadrage, référentiels de critères qualité, rapports d'évaluation ou encore réponses des universités à ces rapports), il est possible de définir plus largement les pratiques et la culture professionnelles et disciplinaires du milieu universitaire au Royaume-Uni. En effet, ces discours traduisent le fait que l'évaluation institutionnelle y constitue un véritable « terrain de lutte » (Demailly 2001 : 29) et les stratégies d'adaptation, de détournement ou, parfois, de rejet qu'elle induit peuvent être appréhendées comme autant d'aspects particuliers de l'identité du monde universitaire. La recherche en anglais de spécialité vise à améliorer la compréhension et la connaissance des domaines spécialisés et du spécialisé en contexte anglophone. En s'appuyant sur une perspective interdisciplinaire, elle permet d'intégrer les travaux issus de différents horizons disciplinaires afin d'éclairer le spécialisé dans le monde anglo-saxon. Dans ce cadre, l'étude de l'enseignement supérieur britannique à travers la caractérisation de son organisation, de ses acteurs et de ses discours souligne pleinement son caractère de domaine spécialisé, tant sur le plan professionnel que sur le plan disciplinaire. À différents égards, la démarche interdisciplinaire, ancrée dans un cadre théorique et méthodologique solide, peut donc soutenir efficacement la recherche en anglais de spécialité, non sans poser certaines limites, ou certains défis, que je me contente d'évoquer pour clore mon propos. Afin de ne pas dévoyer certains concepts ou outils empruntés à des disciplines autres que l'anglais de spécialité, une collaboration active avec des spécialistes de ces autres disciplines est nécessaire, comme je l'ai évoqué plus haut : elle risque toutefois d' être freinée par le cloisonnement disciplinaire du monde universitaire, en France comme à l'étranger. D'une part, les revues spécialisées se situent le plus souvent dans des champs disciplinaires précis, comme en témoignent les listes de revues publiées par l'AERES : même si un certain niveau de perméabilité entre disciplines est constaté, les revues les plus exigeantes favorisent encore, dans la plupart des cas, les approches mono-disciplinaires « pointues » qui fondent leur identité. Dans ce contexte, il est peu probable que les travaux interdisciplinaires puissent bénéficier de la même reconnaissance et de la même valorisation que les travaux mono-disciplinaires. Ce handicap renvoie directement à la question de l'évaluation des travaux de recherche interdisciplinaire et donc, d'une part, au choix de spécialistes en mesure d'évaluer l'originalité, la portée et la rigueur des travaux soumis et, d'autre part, aux critères retenus pour cette évaluation. Le défi que la recherche en ASP paraît devoir relever, outre la stabilisation de sa propre identité en tant que courant disciplinaire à part entière, est donc celui de la reconnaissance institutionnelle de la recherche interdisciplinaire, phénomène qui dépasse largement les frontières de la recherche française et auquel n'échappe pas la recherche sur l'enseignement supérieur . | Dans cet article, il est proposé d'envisager le monde de l'enseignement supérieur britannique comme un domaine spécialisé dans le cadre de la recherche en anglais de spécialité (désormais ASP). On sait que l'enseignement supérieur au Royaume-Uni est appréhendé dans différents champs disciplinaires, à l'intérieur et hors de l'anglistique, mais ces points de vue disciplinaires, dont il est proposé un bref panorama, aboutissent le plus souvent à une vision partielle et éclatée du domaine. La perspective disciplinaire de l'ASP permet, pour sa part, de caractériser l'enseignement supérieur britannique de façon globale, en tant qu'il constitue un domaine spécialisé. Dans cet article, cette démarche est adossée à une théorie de l'interdisciplinarité: des éléments d'ordre théorique et méthodologique sont proposés pour la caractérisation des domaines spécialisés en contexte anglophone et ils sont appliqués à l'étude de l'enseignement supérieur britannique. | linguistique_13-0046627_tei_578.xml |
termith-706-linguistique | Cette étude constitue une introduction à l'analyse des modalités d'évaluation en langue dans la fonction publique de pays anglophones ainsi que de pays membres du Conseil de l'Europe. Le présent travail s'attache à décrire des systèmes que les enseignants français préparateurs aux concours administratifs, civilisationnistes ou spécialistes de langue de spécialité, connaissent parfois peu. Ces collègues se sont immanquablement posé les questions suivantes, relatives à la didactique et à la civilisation. Questions didactiques, d'abord : quels sont les critères d'évaluation des futurs fonctionnaires ? Quelle langue de spécialité enseigner à nos étudiants qui préparent les concours administratifs ? Questions de civilisation ensuite : comment se passe l'évaluation en langue dans l'entrée à l'administration dans les pays anglophones ? Dans quelle langue est-on évalué, par qui et selon quels critères ? Les études globales sur ces questions font défaut. Pourtant, l'évaluation en langues à l'entrée de l'administration coûte cher et les enjeux sont importants dans un contexte d'augmentation des échanges internationaux, y compris dans la fonction publique, et d'évaluation des dispositifs publics, avec en toile de fond les recommandations du Conseil de l'Europe sur l'évaluation et la conception de tests. Le premier pays sur lequel porte notre étude comparative est le Canada. En effet, dans ce pays officiellement bilingue, les citoyens peuvent s'adresser à leur administration indifféremment en français ou en anglais, ce qui impose une efficacité managériale ainsi qu'un haut niveau de compétence linguistique pour certains fonctionnaires. Le système d'évaluation linguistique vient d' être remanié après un chantier de plusieurs années. Le Canada s'est doté d'un système de niveaux analogues à ceux du Conseil de l'Europe, attribuant aux compétences une lettre en fonction du niveau de maîtrise de l'une des deux langues officielles, la lettre A indiquant un niveau faible, B, un niveau intermédiaire et C, un niveau élevé. Nous décrivons ici le système français d'évaluation à l'entrée de l'administration et le système canadien d'ELS (évaluation de la langue seconde) et les comparons au Cadre européen commun de référence (CECR) pour finalement formuler des propositions visant à faire évoluer l'évaluation dans les concours administratifs français. Les épreuves de langues remplissent des fonctions très différentes dans les deux pays. Au Canada, les postes exigeant des compétences dans les deux langues se voient affecter un niveau dans la langue seconde. Par exemple, pour un poste de directeur général / directrice générale, service fédéral de médiation et de conciliation, poste pour lequel le bilinguisme est requis, la Commission de la fonction publique demande un niveau minimum identique en français et en anglais : C en compréhension de l'écrit, B en expression écrite et C en interaction orale. Les compétences sont donc directement mises en œuvre par le fonctionnaire. En France, les administrations ne recrutent pas pour un poste, mais pour un corps. Il existe quelques exceptions, comme les concours d'officiers de port ou de contrôleurs aériens ainsi que la fonction publique territoriale. Le principe général est de proposer une affectation après le concours, éventuellement après un passage dans une école de formation, souvent en fonction d'un classement intégrant les performances globales des nouveaux recrutés dans un certain nombre de matières. Les langues font partie des connaissances globales évaluées par le concours, au même titre que la culture générale, le droit administratif, l'économie ou la capacité à rédiger une note de synthèse ou parfois le sport. Les écoles de formation prévoient parfois une formation en langue mais pas dans toutes les langues offertes aux concours (il s'agit le plus souvent d'une formation en anglais). Dans la fonction publique d' État, les besoins en langues dans les postes à pourvoir ne sont, le plus souvent, pas évalués préalablement. La France ne possède qu'une langue officielle mais vise officiellement pour ses citoyens le multilinguisme pour favoriser la mobilité de la main d' œuvre. La présente étude s'appuie sur l'analyse des 536 concours de la fonction publique d' État et de la fonction publique territoriale que nous avons recensés. Notre travail ne couvre donc pas les autres fonctions publiques, à savoir les fonctions publiques hospitalières, la fonction publique de la ville de Paris et la fonction publique européenne. Les données ont été recueillies entre 2000 et 2006. Le dénombrement des concours est une opération extrêmement difficile. Les concours sont nombreux, organisés par des administrations très diverses : ministères, juridictions (comme le Conseil d' État), Hauts Commissariats de la République, secrétariats d' État, services du Premier ministre. Certains ministères sous-traitent la gestion de concours à d'autres administrations. Le nombre de fonctionnaires à un moment donné n'est pas connu avec précision. La fonction publique représentait à peu près 5,2 millions de personnes en France au 31 décembre 2003, selon le rapport annuel 2004-2005 de l'Observatoire de l'emploi public, Nous pensons que les concours que nous analysons dans cette étude représentent une grande majorité des postes ouverts au recrutement et qui figurent dans la base de données de la direction générale de l'administration et de la fonction publique. Nous avons exclu de l'étude les concours d'enseignement qui font l'objet d'un rapport de jury détaillé tous les ans. Nous avons aussi exclu les concours d'accès aux Grandes Écoles (type École Normale Supérieure) lorsqu'elles ne donnent pas accès au statut de fonctionnaire. Nous avons collecté les données en contactant par téléphone les services des examens et concours des administrations, en visitant leur site et en rassemblant les sujets et les rapports de jury chaque fois qu'ils étaient disponibles, en consultant le Journal Officiel, en interrogeant les étudiants qui suivent ou ont suivi une préparation spécifique à l'Institut de préparation à l'administration générale de Poitiers, le tout pendant dix ans (1997-2007). Nous avons également rencontré deux présidents de jury et plusieurs examinateurs et nous avons assisté à des épreuves de concours dans deux jurys différents. Certaines épreuves n'ont pas été répertoriées, soit parce que le concours n'était pas ouvert au moment de l'enquête, soit que les renseignements disponibles n'aient pas été complets. Les données ont été traitées à l'aide du logiciel Access. Au delà de la diversité des épreuves, l'évaluation des compétences en langues aux concours administratifs français semblent constituer un système. Nous nous proposons de dresser une typologie des épreuves puis d'évaluer la validité de l'évaluation. L'accès à un corps peut faire l'objet de plusieurs concours différents (interne, externe, « 3 e concours », destiné aux candidats ayant acquis une expérience dans l'exercice d'une activité professionnelle, d'un mandat d'élu local ou d'une activité associative, concours professionnels, concours déconcentrés, etc.) dont les épreuves peuvent être différentes, de sorte qu'un concours interne peut ne pas comporter d'épreuve de langue alors qu'il en existe au concours externe. Certains concours ne comportent pas d'épreuve de langue alors que la maîtrise d'une langue, en général l'anglais, est importante dans le poste. Les langues ne sont pas traitées à égalité. L'anglais est parfois obligatoire, comme dans les concours des ministères des affaires étrangères ou la direction générale de l'aviation civile. Le plus souvent cependant, les administrations offrent aux candidats un choix entre l'anglais, l'allemand et l'espagnol, avec parfois le russe, l'italien, l'arabe et même le chinois mandarin. Le concours dont le choix de langues est le plus vaste est celui de l'ENA : pas moins de quatorze langues sont proposées. Concernant les langues régionales, le seul concours qui semble offrir des épreuves de ce type est celui de conseiller d'éducation populaire et de la jeunesse, qui propose un choix de sept langues régionales en plus des langues étrangères, mais il reste l'exception; à noter que le baccalauréat offre, lui, un choix de langues étrangères et régionales beaucoup plus vaste. En outre, aucun concours ne comporte d'épreuve de langue régionale étrangère. Dans l'ensemble, le panel de langues semble relever du choix politique de l'administration organisatrice. 137 concours sur 536, soit 25,5 %, comportent au moins une épreuve de langue. Nous avons recensé 25 types d'épreuves au total (cf. tableau en annexe 1). Nous disposons d'informations sur la nature de l'épreuve de langue pour 124 concours. En dépit de l'hétérogénéité des épreuves, on remarque une homogénéité globale de l'esprit des exercices. À l'écrit, l'épreuve reine est la version (27 % des épreuves de langues), le plus souvent sans dictionnaire. La majorité des épreuves de langues sont orales (19 types d'épreuves sur 26), et il s'agit alors d'une version assortie éventuellement d'une conversation, d'une conversation libre ou du trio lecture / version / conversation. La version, à l'écrit ou à l'oral, apparaît au total dans 59,1 % des épreuves de concours analysées ici. La plus grande partie des concours (90,5 %) se contentent d'une seule épreuve, soit écrite, soit orale. Les concours des ministères des affaires étrangères et de la direction générale de l'aviation civile sont ceux qui testent les candidats de façon plus complète. La validité est le fait, pour une évaluation, de mesurer de façon réelle, précise et cohérente ce qu'elle est censée mesurer. Il existe plusieurs sortes de validité, que nous examinerons tour à tour. Le contenu des épreuves de langue peut être considéré comme valide si est évalué un échantillon représentatif des compétences, des structures, du vocabulaire, etc., si les items sont en rapport avec le niveau attendu (Hughes 2003 : 36), si les candidats sont interrogés sur ce que doivent connaître les fonctionnaires. Dans une logique de corps de fonctionnaires polyvalents, les ministères et administrations organisatrices ne font pas état d'une analyse des besoins linguistiques langue par langue, par corps et par affectation des futurs fonctionnaires. Les administrations se bornent à définir des compétences générales que devraient posséder les lauréats, par exemple la capacité à comprendre un article de presse et à en restituer le contenu oralement. Ces derniers peuvent ne jamais avoir ensuite à se servir de la langue dans leurs attributions. Cela explique peut-être la présence de certaines langues modimes (moins diffusées, moins enseignées), comme le néerlandais et le grec, à des concours comme attaché territorial. Ensuite, le niveau de maîtrise de la langue requis par concours n'est en général pas défini avec précision. Le concours d'officier de port est le seul qui renvoie les candidats à un référentiel. Plus généralement, les concours qui permettent d'accéder aux rapports des jurys des années précédentes restent l'exception. Entre les sujets d'anglais proposés aux concours de catégorie A, B et C, qui requièrent des niveaux de diplômes différents, il n'existe pas de différence manifeste de longueur ni de niveau de difficulté du passage à traduire (Méthy & Monglon 2000b).Certains sujets, trop longs, sont en fait impossibles à traiter dans le temps imparti aux candidats. C'est le cas notamment du texte à traduire en une heure pour le concours externe d'informaticien (corps des administrateurs adjoints, catégorie A) de l'Assemblée nationale, en septembre 1998, qui comptait 496 mots. Hormis l'épreuve d'anglais du concours d'officier de port, aucune épreuve de concours ne possède de validité de contenu. Elle est mesurée en comparant les résultats de l'évaluation à tester aux résultats d'une évaluation pour tous les items relatifs à un niveau donné (Hughes 2003 : 27), que celle -ci soit une évaluation plus longue ou bien une évaluation fiable d'un étudiant par un enseignant. On peut considérer que certaines épreuves d'oral suffisamment longues, surtout lorsque le jury est constitué d'enseignants de langues rompus à l'évaluation du fait de leur expérience en lycée ou en université, permettent de se faire une idée de la capacité d'un candidat à s'exprimer sans préparation sur une diversité de sujets. Cependant – et ceci est vrai pour tous les concours examinés – comme il n'existe pas de référentiel des compétences, ni en fonction du niveau de langue, ni de la langue, ni du poste à pourvoir, les critères d'évaluation à l'écrit comme à l'oral n'ont aucune validité simultanée. La validité prédictive d'une évaluation est sa capacité à prévoir la performance future d'un candidat lorsqu'il sera en situation dans sa vie professionnelle (Hughes 2003 : 29). Les épreuves de langues aux concours n'en ont aucune. En effet, il n'existe pas de description, par poste à pourvoir, des compétences en langues nécessaires. Pour la mesurer, il faut se demander ce que doivent être les compétences en langues pour le corps pour lequel on recrute et comment les mesurer. À notre connaissance, il n'existe pas d'étude précise par corps, ni à plus forte raison par poste, permettant de définir les besoins, dans quelles langues et avec quel(s) niveau(x) de compétence. La plupart des épreuves de langues intègrent un document rédigé en langue étrangère dont il est demandé une traduction écrite ou orale; pour les concours des bibliothèques, il s'agira d'un texte littéraire et, pour les autres concours, un article de presse, avec un contenu lexical parfois en rapport avec le corps pour lequel sélectionne le concours. Toutefois, les concours s'attachent rarement à évaluer les compétences en langue de spécialité (un savoir propre à une communauté de discours et qui relève d'un champ d'expérience de la profession), ou langue spécialisée (objet linguistique d'une communauté de discours), propre à une profession ou à l'administration en général. Dans la mesure où les candidats préparent souvent plusieurs concours, et où les langues de spécialité font rarement l'objet d'un enseignement spécifique, les administrations ne s'attendent pas à ce que les candidats les maîtrisent. Concernant la civilisation des pays où la langue est employée, elle ne fait pas directement l'objet de l'évaluation, même si des connaissances dans ces domaines sont souvent sollicitées pour la compréhension d'un texte écrit ou à l'oral pendant le dialogue avec le jury. Lorsque ce jury est composé de professionnels, on peut estimer qu'il possède une connaissance empirique des besoins en langues par corps mais pas par poste, puisque cela est déterminé bien après le concours. En revanche, on peut s'interroger sur ce que les enseignants qui siègent aux concours savent de ces besoins. Lorsque les membres du jury sont des professionnels et non des enseignants, ils ont tendance à faire abstraction des erreurs de placement de l'accent tonique et de prononciation des voyelles dans leur conversation avec les candidats. Or, ces erreurs entravent la compréhension par des locuteurs natifs, voire la rendent impossible. La version, parce qu'elle évalue la langue cible (L2) à travers le français langue maternelle (L1), ne permet pas de distinguer avec certitude une maîtrise insuffisante de la L1 par rapport à celle de la L2. Un faux-sens peut conduire à un contresens et dans ce cas, le jury peut prendre en compte soit la source de l'erreur (l'ignorance d'un mot), soit le résultat (l'ignorance du sens d'un passage). Concernant les fautes d'orthographe, les administrations ne donnent pas systématiquement d'instructions aux jurys concernant leur pénalisation. Il en est de même pour la grammaire française, que certains candidats, étrangers ou dont le français n'est pas la langue maternelle, connaissent plus ou moins bien. Si, à l'oral, l'accent d'un candidat ou son nom révèle parfois une origine étrangère, l'écrit reste anonyme. Par conséquent, les 59,1 % des épreuves qui comportent une version manquent de validité dans la notation. Il faut ajouter à ce chiffre tous les concours dont les membres du jury à l'oral ne sont ni des locuteurs natifs, ni des enseignants de la langue. D'une façon générale, on peut être réservé sur la validité apparente (Hughes 2003 : 33) de l'évaluation de la compréhension de l'écrit à travers la version parce que la traduction mesure la compréhension non directement, mais par rapport à une production en français. La version, exercice issu de la méthodologie traditionnelle (Puren 1988), est héritée de l'enseignement du grec et du latin tel qu'ils étaient pratiqués dans l'ensemble de l'Enseignement secondaire du XVII e au XIX e siècle. Les enseignants qui participent à des jurys de concours administratifs évaluant les candidats, pour tout ou partie de l'épreuve, à travers des versions, s'inscrivent dans une tradition et une continuité : eux -mêmes ont été soumis à cet exercice lorsqu'ils ont passé les concours d'enseignement des langues. La loi d'isomorphisme, qui veut que « le formateur tende spontanément à reproduire dans sa pratique ce qui a présidé à sa propre formation » (Puren 1988 : 52), s'applique ici alors que le modèle théorique de l'apprentissage qui sous-tend l'exercice de version n'a plus cours. Dans la mesure où la plupart des concours n'évalue qu'une partie des compétences, et où le construct, c'est-à-dire ce qui est mesuré, n'est pas défini précisément, les concours n'ont donc pas de validité apparente. Enfin, du point de vue stylistique, les renseignements sur les épreuves de langues aux concours administratifs en France font l'objet de tournures impersonnelles ou à la troisième personne du singulier : les administrations se contentent d'énoncer des procédures. Les caractéristiques de l'évaluation en langue étrangère dans les concours sont : l'autonomie des administrations en matière d'évaluation. Il existe une décentralisation extrême des décisions. En pratique, ce sont les présidents de jury et le plus souvent l'enseignant ou le professionnel responsable qui définissent les épreuves; le faible cadrage des jurys, c'est-à-dire le peu d'instructions quant aux critères d'évaluation; le plus souvent, l'absence de validité de l'évaluation. Heureusement, certaines administrations, par exemple le ministère de l'Intérieur pour le concours de lieutenant de police, effectuent un réel travail de réflexion, et parfois de communication, sur les épreuves et répondent aux besoins de terrain en langue étrangère des lauréats en aval des concours par une offre de stages de langue étrangère spécialisée. Il n'en demeure pas moins que les concepteurs d'évaluation, même s'ils sont des enseignants expérimentés, ne sont pas épaulés par des spécialistes de psychométrie, un paradoxe compte tenu de l'importance de l'enjeu des concours pour les candidats et la collectivité. L'évaluation en langues à l'entrée de la fonction publique diffère de celle pratiquée en France, ne serait -ce que parce que les langues se limitent au français et à l'anglais. La fonction publique doit pouvoir satisfaire les besoins de ses administrés en deux langues et seulement deux. La Commission de la Fonction Publique du Canada (CFP-PSC) vient de moderniser les modalités d'accès à la fonction publique après un chantier de plusieurs années. Nous nous proposons de comparer le référentiel des niveaux qui est entré en vigueur le 31 décembre 2005 avec le Cadre, puis d'examiner la validité de l'évaluation selon les critères en vigueur depuis cette date. Le descriptif des niveaux (CFP-PSC 2005), ventilés sous forme de tableau pour faciliter la comparaison avec le Cadre, est présenté en annexe 2. Ce référentiel ne saurait se résumer à une simplification de la grille du Conseil de l'Europe. Il résout trois questions laissées en suspens par le Cadre, à savoir l'absence de compétence, l'expertise et la place de la langue de spécialité. Comme dans le Cadre, la perspective dans laquelle sont décrits les niveaux n'est pas culturelle, puisque la langue est le véhicule de la culture nationale, mais actionnelle : aux niveaux A, B et C correspondent des tâches précises, tandis que X indique qu'un candidat n'est pas capable d'agir dans l'autre langue officielle. À l'écrit du niveau A, il s'agit de « […] parcourir des lettres, des notes de service ou des formulaires afin de les classer ou de les acheminer vers les agents responsables; parcourir divers textes afin d'en dégager des éléments d'information précis (dates, chiffres, noms, etc.); prendre connaissance de formulaires tels que des demandes, des commandes et des factures, afin de les traiter; et parcourir des listes, des index, des relevés d'ordinateur en vue de compiler des données ou de noter des changements ». Ce sont les tâches de l'agent au contact à la fois avec le public, les fournisseurs et les supérieurs hiérarchiques. Elles supposent une compréhension partielle et littérale des documents. Le niveau inférieur de compétence définit déjà des compétences concrètes relevant de la langue de spécialité. En interaction orale, un candidat à la fonction publique de niveau A est capable de « répondre à des demandes simples […] au sujet de fournitures, de dossiers, d'équipement, de documents et de lettres ». La terminologie à connaître concerne les objets concrets du bureau. Cette terminologie du Conseil de l'Europe qui, pour les niveaux inférieurs, évoque la simplicité des tâches, se retrouve dans le référentiel de la CFP-PSC mais le contexte d'utilisation est précisé. Contrairement au Cadre (Petit 2006), le seul « versant public » est évalué : ce n'est pas le niveau de l'usager des services publics que la CFP-PSC teste, mais le niveau du seul professionnel au contact du public. Les tâches que doit accomplir le futur fonctionnaire diffèrent selon le niveau de compétence. Au niveau A, il s'agira essentiellement de tâches d'exécution, tandis que le niveau B définit des tâches de coordination avec par exemple des collègues de l'autre langue officielle. Au niveau B, il faut également être capable de hiérarchiser les informations, de les analyser, de les interpréter, de les vérifier, de les superviser et de les contrôler. Le niveau C implique davantage de responsabilités. En compréhension écrite par exemple, le fonctionnaire devra « évaluer les répercussions, […] formuler des commentaires ou […] faire des recommandations »; en interaction orale, il devra « expliquer des politiques, procédures, règlements, programmes et services reliés à un domaine de travail et en discuter; participer efficacement à des discussions qui comportent un échange rapide d'idées ». Les tâches de niveau C correspondent à des postes d'encadrement, des postes sensibles, où les fonctionnaires analyseront des énoncés complexes et abstraits et où leur capacité d'abstraction sera sollicitée en L2. Ils doivent pouvoir participer à une décision politique ou administrative, exercer leur jugement, expliquer, synthétiser et présenter leur travail. Les tâches à accomplir, pour tous les niveaux, sont définies clairement. Une autre différence entre le CECR et ce référentiel est le fait que la grille canadienne ne s'interdise pas les formulations négatives. Aux niveaux A et B, elles sont plutôt attendues. Un candidat de niveau B en interaction orale, par exemple, pourra faire des fautes de grammaire et de prononciation (« Bien qu'il puisse y avoir de nombreuses erreurs et lacunes sur le plan de la grammaire, de la prononciation, du vocabulaire et du débit, la communication ne s'en trouve pas sérieusement entravée. Toutefois, on ne doit pas s'attendre à ce qu'un candidat de ce niveau puisse faire face à des situations délicates, ou à des situations où l'on discute de questions abstraites ou subtiles, ou encore, à des situations où l'on formule des hypothèses et où l'on défend des arguments »). Là où les formulations sont plus surprenantes en regard du Cadre, c'est au niveau C, clairement défini comme différent du niveau de langue d'un natif : […] il ne faut pas s'attendre à ce qu'elle [la personne] le fasse avec la même aisance et au même rythme qu'un locuteur natif. Il peut y avoir des lacunes sur le plan de la prononciation, de la grammaire et du vocabulaire, mais celles -ci n'entravent pas sérieusement la communication. Le niveau C n'est pas celui du locuteur natif mais de la personne capable d'accomplir une série de tâches aussi bien qu'un natif. Sur cette distinction encore, le système canadien se montre plus précis que le Cadre. En effet, le niveau C2 du Cadre n'est pas nécessairement celui du locuteur natif, mais d'une personne capable d'accomplir en langue étrangère des tâches complexes sur le plan cognitif. La prise en compte de la langue de spécialité constitue la troisième particularité du système canadien. La CFP-PSC est même allée jusqu' à décrire les compétences particulières et les a ventilées en deux catégories. La première, désignée par la lettre P, renvoie d'une part à l'expertise dans une des deux langues officielles (la langue comme objet de l'expertise), d'autre part à l'expertise professionnelle en l'une des deux langues officielles (la langue comme medium de l'expertise). En pratique, P fait référence aux compétences en matière de langue spécialisée ou de spécialité et distingue clairement langue générale, parlée par tout natif, et langue spécialisée dans un type de discours, soit du praticien de la langue, soit de l'expert du domaine. Ainsi, un locuteur natif peut très bien ne pas être « P », alors que peut l' être un non natif connaissant la langue d'une spécialité particulière. P renvoie aux langues de spécialité dans le sens plus large de « langue des usages sociaux spécialisés », puisque la culture est sociologiquement similaire dans les deux langues officielles et que le bilinguisme considéré par l'administration canadienne concerne les seuls français et anglais tels que pratiqués au Canada. Le niveau de compétences en L2 est établi après avoir dressé la liste des tâches à accomplir dans le poste. Un exemple de cette liste pour les postes de chef de la validation et des recouvrements, commis de bureau, méthodologiste, rédacteur-réviseur et secrétaire est fourni par la CFP-PFC (CFP-PFC 2006e). On peut ainsi dire que le contenu de l'évaluation est valide. Le gouvernement canadien, conscient de l'importance d'une évaluation fiable, tient à la disposition des jurys des exemples de performances sur support vidéo, disponibles pour les deux langues officielles, pour illustrer les niveaux A, B et C en situation d'interaction orale. La CFP-PSC tient compte de l'évolution linguistique des candidats à un poste par plusieurs moyens. D'abord, le test de langue prévoit la possibilité, pour un candidat dont le niveau est supérieur à C dans une compétence donnée, d' être exempté d'autres épreuves pour les compétences que le jury juge permanentes et qui ne seront pas testées par la suite. Cependant, le test envisage aussi la déperdition des compétences langagières. Lorsque le jury pense que le niveau du candidat risque de baisser pour une compétence donnée, il remplit une case spéciale indiquant que le niveau devra être maintenu. La question se pose de savoir sur quels critères le jury décide qu'un candidat risque de perdre ses compétences, ou au contraire ce qui lui fait penser que de telles compétences sont permanentes. Par ailleurs, on peut se demander quelle est la force prescriptive de la décision du jury. Le candidat peut-il, par exemple, décider de repasser l'épreuve de langue s'il pense qu'il a amélioré son niveau ? C'est le Conseil du Trésor (Secrétariat du Conseil du Trésor du Canada, 2006) qui détermine dans sa politique quels postes doivent être « bilingues ». Pour l'administration canadienne (CFP-PFC 1993), « bilingue » ne signifie pas possédant le même niveau, en principe très élevé, dans deux langues, ni ayant deux langues maternelles, mais seulement capable de fonctionner en français et en anglais avec au moins le niveau B. Un locuteur au niveau A n'est pas considéré comme bilingue. Il l'est au niveau C, même s'il commet fautes et erreurs. Le bilinguisme dont il est question dans le contexte canadien concerne la capacité à fonctionner en français et en anglais, mais pas dans d'autres langues, de sorte que le ministère de la Justice (ministère de la Justice du Canada, 2003) considère qu'une personne maîtrisant plusieurs langues, mais pas l'une des deux langues officielles, est tout de même considérée comme unilingue. Ce sont directement les besoins des administrés dans l'une des deux langues officielles qui commandent le recrutement à des postes dans lesquels est imposée la maîtrise à la fois du français et de l'anglais. Pourtant, si des besoins se font jour dans d'autres langues (en particulier au contact des populations indiennes, inuit et immigrées), ils ne sont pas pris en compte par le Conseil du Trésor. Le nouveau Décret d'exemption concernant les langues officielles dans la fonction publique (Gouvernement du Canada 2005) a même pour objectif de « favoriser l'accès des Canadiens et des Canadiennes unilingues aux postes bilingues de la fonction publique fédérale », mais pas de refléter le multilinguisme, et pas seulement le bilinguisme anglais / français, des administrés. Une fois déterminés les besoins en postes « bilingues », on effectue une analyse des besoins langagiers dans ces postes. L'analyse de la CFP-PFC (CFP-PFC 2005) tient compte des compétences mises en œuvre dans le poste et de celles qui ne le sont pas. En pratique, la détermination des compétences dans chaque langue se fait en deux étapes : 1) énumération des tâches à réaliser et des langues dans lesquelles elle doivent être réalisées; 2) indication du niveau de compétence dans la ou les langues concernées. Enfin, les candidats à tous les corps sont invités à se soumettre à des tests de langue qui permettront d'établir leur « profil linguistique ». Les candidats recrutés à des postes bilingues devront apporter la preuve de leur compétence en langue au niveau requis par le poste. Le système d'évaluation en langue en vigueur dans l'administration canadienne semble donc théoriquement valide; le fait de ne tenir compte des besoins que dans les deux langues officielles relève évidemment d'un choix politique. Les services qui établissent le profil linguistique des postes bilingues reçoivent des instructions précises du CFP-PSC. Les jurys disposent du référentiel, valable pour tous les postes bilingues et, pour l'oral, reçoivent des instructions précises sur le déroulement de l'épreuve et le contenu des questions. Les épreuves orales sont enregistrées, officiellement dans un but d'archivage, dans un dossier linguistique propre à chaque candidat. Ces derniers ont accès aux référentiels. Le fort cadrage des jurys et la relative transparence des épreuves garantissent la validité de la notation. L'examen de langue nous semble effectivement valide. Le descriptif des compétences est précis et prévoit les deux extrémités de la compétence, l'absence de compétences et la compétence maximale, laquelle est déclinée de plusieurs manières. Les candidats sont informés des critères d'évaluation, des sujets sur lesquels portera la conversation à l'oral, de la confidentialité de leurs réponses, de l'archivage de leur prestation et bénéficient en outre de conseils pratiques sur la préparation et le déroulement des épreuves. À l'écrit, des exemples de questions sont disponibles avec les réponses sur le site de la Commission de la Fonction Publique. L'administration se donne aussi la peine de répondre aux perceptions des candidats sur le caractère arbitraire et injuste de l'évaluation à l'oral (CFP-PFC 2006f). À l'issue des épreuves, les candidats reçoivent également une rétroaction sur leur performance avec des conseils sur la façon de l'améliorer (CFP-PFC 2006g).Stylistiquement, toujours dans un souci de clarté, les informations à l'intention des candidats sont rédigées à la deuxième personne du pluriel et à l'impératif. L'enjeu des langues dans les concours administratifs est très important, à la fois pour l'administration et pour les candidats aux concours. Pour la première, il est crucial de s'assurer que les fonctionnaires exerçant des postes à responsabilité possèdent bien les compétences requises. Les seconds ont besoin de savoir, pour réussir un concours qui se prépare parfois sur plusieurs années, quelles compétences ils doivent maîtriser et à quel niveau. En dépit d'enjeux personnels et sociétaux majeurs, l'évaluation en langues aux concours, en France, manque de validité. Plusieurs raisons peuvent expliquer ce phénomène. Il existe d'abord une tension entre deux conceptions de la fonction des concours. Selon une première conception que nous pourrions qualifier d'humaniste, le concours sélectionne sur des critères académiques les candidats dont la culture économique, générale, administrative et souvent linguistique (puisque ce sont les épreuves qui reviennent le plus fréquemment dans les concours), doit être la plus vaste possible. L'autre vision des concours, utilitariste, conçoit le concours comme moyen de sélectionner sur critères professionnels les candidats les plus aptes à remplir les fonctions qu'ils exerceront dans leur métier. Ces deux conceptions se trouvent devant des difficultés pratiques. La conception humaniste, qui a décidé du choix de l'épreuve de version, considère qu'il existe un absolu de la compétence en langue qui peut s'évaluer au contact d'un texte général. Le candidat compétent doit être capable de percevoir, et si possible de rendre en français, les effets de style du locuteur. Il doit en outre pouvoir dégager de ce texte le sens, la problématique, les enjeux, au besoin grâce à la maïeutique de l'épreuve orale. Cette conception du concours n'intègre pas les recherches concernant l'apprentissage des langues : l'expression en français (en supposant que c'est bien là la L1 du candidat) n'est pas un reflet valide de la compréhension d'un texte. La traduction fait aussi l'impasse sur les langues de spécialité. Le nouveau système en vigueur au Canada reprend le modèle utilitariste. Il s'assure que ceux qui aspirent à des postes où sont requises des compétences dans la seconde langue officielle sont bien en mesure d'effectuer les tâches que leur impose leur fonction. Ce faisant, le système ne vise pas à reconnaître la diversité linguistique de sa population (et ne le permet pas), ni à promouvoir d'autres minorités linguistiques autres que les francophones (qui sont une majorité au Québec). Il s'agit d'un choix politique éloigné du choix français. Ce système entérine la domination de fait de l'anglais dans le contexte nord-américain, tout en reconnaissant les mêmes droits linguistiques aux francophones. Les mêmes dispositions ne sont, bien entendu, pas possibles en France parce qu'elles seraient inadaptées au contexte européen. Cependant, la fonction publique française semble bien s' être engagée sur la voie utilitariste. Elle a entamé une démarche « métiers » qui consiste à définir les métiers de la fonction publique (243 ont été dénombrés dans la seule fonction publique territoriale) et les compétences qui sont nécessaires. Toutefois, le Répertoire Interministériel des Métiers de l' État ne comporte pas encore d'espace relatif aux langues à maîtriser, par métiers, en fonction du CECR. Peut-être la connaissance de langues étrangères n'est-elle simplement pas indispensable pour l'exercice de ces métiers. Pourtant, le ministère de la Fonction publique (Direction générale de l'administration et de la fonction publique 2005), évoquant la notion d' « espace administratif européen », entend développer les échanges entre les fonctions publiques des pays de l'UE, ce qui suppose des compétences langagières encore non évaluées. D'autres besoins se sont faits jour, notamment la traduction de sites Internet du français vers l'anglais, préconisée par le rapport Bloche (Bloche 1998). Néanmoins, la démarche « métiers » comporte elle -même des limites. Elle ne permet pas de promouvoir certaines minorités, ni d'assurer leur représentation, ni non plus d'encourager la maîtrise de langues rares. La fonction publique territoriale, quant à elle, de création plus récente, combine souvent, pour le recrutement, épreuves théoriques de concours et recrutement à un poste donné après examen d'un curriculum et après entretien. Dans l'attente d'un choix politique éclairé et plus affirmé, les administrations en France ont intégré des professionnels dans les jurys des épreuves de langues, proposant des formations postérieures au recrutement, toujours dans un choix de langues réduit, et sans résoudre la question de l'hétérogénéité des langues de leurs administrés. La plupart des administrations se trouvent cependant toujours devant une aporie, devant sélectionner des candidats pour un corps (donc pouvant remplir des missions hétérogènes en métropole comme dans les DOM-TOM), non pour un poste. Les épreuves de langues, lorsque les responsables des concours cherchent à les réformer, restent néanmoins perçues comme secondaires par rapport à d'autres épreuves; cette faible importance se reflète dans leur caractère souvent optionnel, voire facultatif et dans les coefficients. Les enseignants de langues, qui constituent l'essentiel des jurys de langues aux concours, se sentent d'autant moins impliqués dans la conception des épreuves de concours, sans doute parce qu'eux -mêmes sont souvent issus d'un recrutement fondé sur le modèle humaniste, bien que les concours d'enseignement comportent un volet pratique ou professionnel. La docimologie les intéresse lorsqu'elle porte sur les concours d'enseignement, qui suscitent des débats passionnés entre membres des sociétés savantes, mais pas lorsqu'elle porte sur les concours administratifs. La minorité qui possède une culture des langues de spécialité est impuissante à conduire une analyse des besoins dans des postes dont elle ignore tout et reste peu, voire pas du tout impliquée dans la formation post-concours, préalable à la prise de poste. Quelle que soit la formule retenue – maintien d'un statu quo avec une évaluation non valide, chronophage, redondante lorsque les candidats passent plusieurs concours, et donc coûteuse pour les aspirants au statut de fonctionnaire comme pour l'administration, ou bien évaluation des besoins dans les métiers à défaut de pouvoir les évaluer dans les corps et dans les postes – deux mesures demeurent souhaitables. D'une part, les compétences langagières devraient être évaluées de façon distincte sans passer par le français, ce qui implique la fin des épreuves de version et thème. D'autre part, pour les concours où les langues étrangères revêtent un caractère obligatoire, il pourrait être demandé un niveau minimal au candidat dans chacune des cinq compétences définies par le Conseil de l'Europe (lire, écrire, parler, comprendre et interagir). La charge de la preuve du niveau pourrait revenir au candidat, qui devrait produire un Portfolio Européen des Langues (PEL) dans le Dossier duquel figureraient les attestations de niveau nécessaires, délivrées par des autorités accréditées. Une évaluation unique valable pour tous les concours où sont requises des compétences en langues, à l'image de celle pratiquée au Canada, permettrait d'accroître la transparence des critères d'évaluation. Le « profil linguistique » serait établi pour toutes les langues que maîtrise le candidat, soit en le testant selon les recommandations du Conseil de l'Europe en utilisant la grille développée par l'équipe de chercheurs de J.C. Alderson (Alderson et al. 2006), soit en examinant son PEL ou ePEL, pour ensuite affecter le lauréat au plus près des compétences en langues identifiées. L'observation des modalités de recrutement en langues dans au Canada se révèle un champ particulièrement riche pour les spécialistes d'anglistique, civilisationnistes et docimologues, en particulier pour contribuer à la diffusion des bonnes pratiques d'évaluation et, au-delà, de management public. Cette étude nous conduit à établir également d'autres observations. Le nouveau référentiel canadien se montre plus précis dans certaines de ses formulations que le tableau des niveaux du Cadre, dont les imprécisions ont été soulignées par Alderson (Alderson et al. 2006). Le système canadien propose également une définition de la maîtrise de la langue spécialisée. Une comparaison des modalités d'évaluation en œuvre dans les fonctions publiques d'autres pays anglophones permettra d'élargir cette étude en comparant la mise en œuvre du CECR et d'autres référentiels, puisque les opérateurs dans le domaine de l'évaluation de la fonction publique dans et hors Europe tendent à développer leurs propres outils . | Cet article se propose de comparer les modalités de l'épreuve de langue aux concours d'accès à la fonction publique en France et au Canada. Concernant la France, l'étude concerne les concours des fonctions publiques d'État et territoriale. Une typologie des épreuves laisse apparaître un nombre restreint de types d'épreuves, dominées, à l'écrit comme à l'oral, par la version, accompagnée voire remplacée à l'oral par une conversation. Ceci reflète une organisation des épreuves extrêmement décentralisée. Les besoins en langues sont rarement envisagés par poste; ils le sont plutôt par corps. Au Canada, l'évaluation du niveau de compétence dans la seconde langue officielle vient d'être revue. Les candidats sont évalués en fonction d'un référentiel qui pallie certains points problématiques du référentiel établi par le Conseil de l'Europe, le Cadre européen commun de référence (CECR), comme, par exemple, la place des langues de spécialité. Les besoins en langues par postes sont analysés grâce à ce référentiel. Nous proposons enfin quelques pistes pour améliorer la validité des épreuves de langues aux concours administratifs en France. | linguistique_11-0218975_tei_583.xml |
termith-707-linguistique | Les travaux de A. Millet et ses collègues (voir l'article de Millet et Estève dans ce numéro) offrent un aperçu de la richesse des combinaisons entre langues et modalités dans la communication langagière spontanée des enfants et adultes sourds. Qu'en est-il chez leurs pairs entendants évoluant dans ce même contexte bilingue et bimodal, en d'autres termes les enfants entendants de parent(s) sourd(s) (désormais EEPS) ? La majorité des EEPS sont entendants et ont la langue des signes française (désormais LSF) comme langue première, ils ont par ailleurs un accès total aux deux canaux (visuo-gestuel et audio-oral); ces deux aspects les rapprochent et les distinguent des locuteurs sourds. Nous examinons ici les chemins possibles et les chemins effectivement empruntés par des locuteurs bilingues bimodaux entendants. Retrouve -t-on les mêmes combinaisons que chez leurs pairs sourds ? Ces locuteurs EEPS utilisent-ils des formes que l'on ne s'attendrait pas à trouver du fait que l'accès au son est complet ? Existe -t-il des formes spécifiques aux sourds que l'on ne trouve pas dans les productions des EEPS ? Observe -t-on des formes mixtes dans l'expression des EEPS que l'on n'observe pas chez les sourds signeurs ? Ce sont autant de questions que nous nous proposons d'explorer dans une première mise en regard de nos corpus d'enfant et d'adultes EEPS. Notre objectif est d'interroger des typologies existantes pour ces formes, fruits du contact interlangues et inter-modalités, et d'affiner autant que possible le grain de la classification. Ce que nous gagnons en nuances et en variétés, nous le perdons inévitablement en efficacité pour un traitement d'ordre quantitatif : dégagées des contraintes liées à l'élaboration des outils didactiques, nous souhaitons ici contrebalancer la dichotomie « pure LSF » d'un côté, « pur oralisme » de l'autre, compléter l'inventaire des usages plurilectaux et bimodaux, souligner la variété, la richesse et, autant que possible dans une étude de cas, la systématicité des formes et combinaisons observées dans les répertoires langagiers des EEPS. En parcourant la littérature sur la gestualité dans le langage ou la multimodalité de ce dernier, nous avons noté les éclairages portés sur les langues vocales (faute de mieux, désormais LV) par les langues des signes (désormais LS), et réciproquement. Nous avons ainsi relevé un certain nombre d'observations relatives aux formes vocales et gestuelles, ainsi qu' à leurs combinaisons. McNeill (1992, entre autres) formalise les liens entre gestes et parole (gestures and speech) comme étant les deux versants d'un système « intégré » (integrated). Le langage n'est plus envisagé comme exclusivement sonore, et les rapports entre gestes et production linguistique vocale sont conçus comme résultant d'un même processus mental sous-jacent. McNeill (1992, p. 76) propose une nomenclature des gestes fondée sur les caractéristiques des référents de ces gestes. Il distingue ainsi les beats qui font référence aux discontinuités du discours, les déictiques qui font référence aux orientations et aux directions, les métaphoriques qui réfèrent aux concepts abstraits et aux relations, les gestes iconiques qui renvoient aux évènements concrets; l'auteur ajoute une cinquième catégorie plus marginale qui comprend les gestes produits lors de tentatives pour trouver ou se rappeler un mot. McNeill (1992, p. 37) établit également quatre registres mobilisant la gestuelle, placés sur une échelle allant du plus spontané au plus codifié; cette échelle est elle -même fondée sur ce que l'auteur appelle le continuum de Kendon et sa présentation sous forme de tableau (1) ne doit pas gommer les chevauchements, envisagés par McNeill lui -même. Quel est l'éclairage apporté par l'étude des LS sur l'étude de la gestuelle des entendants ? Nous avons noté précédemment que les LS servaient de repère à l'extrémité du continuum de Kendon. Pourtant, les travaux sur les LS de sourds isolés montrent combien les emblèmes ou la pantomime peuvent servir de socle aux LS et comme la frontière est difficile à tracer entre une structure pantomimique qui serait « globale » (ou holistique) et une prise de rôle qui serait « segmentable » (ou compositionnelle). Quelle place donner en retour aux gestes grammaticaux des LS observés chez des non-signeurs également ? Pour les pointages par exemple, doit-on traiter hors du système linguistique des formes telles que le pointage vers soi ou vers l'interlocuteur dans une communication parlée si on lui attribue des propriétés linguistiques dans les LS ? Pizzuto (2007, p. 292) argumente en faveur d'un système intégré aussi bien des LV que des LS, dès lors que l'on s'attache à décrire les langues parlées comme de véritables systèmes de communication face à face. Lorsque des exemples d'emblèmes sont donnés, il s'agit de gestes manuels; or, la définition de Ekman et Friesen (1975) indique que ce sont des actes non verbaux (non-verbal acts) mais sans préciser la forme manuelle ou non manuelle de ces actes. Pourtant, en parallèle, d'autres chercheurs dans les années 1970-1980 décrivent et codent les paramètres non manuels de la communication non verbale : les expressions faciales, les regards, les positions relatives du corps (voir Cosnier et Brossard [1984] pour un aperçu des travaux de cette période). Du fait que les instruments de mesure s'affinent, on est désormais capable d'apprécier de façon très fine les effets de synchronisation ou plus généralement les ajustements entre les différents timings. Or on observe un effet d'écho dans les ajustements de patrons rythmiques des différents articulateurs : vocal et manuel; manuel et non manuel; vocal et non manuel. Que les effets soient concordants ou non, il semble que, à un niveau ou à un autre de l'organisation du discours, des frontières d'unités de ces différents canaux s'ajustent. En ce qui concerne les formes manuelles observées, Volterra et al. (2006), entre autres, distinguent les gestes déictiques des gestes représentationnels, chacune de ces catégories se subdivisant en sous-rubriques comme l'illustre le tableau 2. Volterra et ses collègues retiennent comme signes uniquement ce qui ressemble à la LS cible (adulte) et qui n'existe pas chez le petit entendant non exposé à la LS. En cela, les auteurs pensent éviter un phénomène de surinterprétation qui expliquerait pourquoi des études ont conclu à l'avantage de la LS dans l'émergence du lexique. Mais les auteurs ne mentionnent pas les formes problématiques ou récalcitrantes, notamment les proto-formes dont il est difficile de décider si ce sont des gestes non verbaux ou des signes pas encore maitrisés; d'autre part, ces études ne prennent pas en compte, à notre connaissance, la gestuelle non manuelle (les mouvements de tête, les mouvements de sourcils par exemple) qui joue un rôle important à l'interface prosodie/morphosyntaxe dans la LS cible. L'enfant entendant associe les gestes entre eux, ainsi que les gestes et paroles entre eux. Les combinaisons peuvent se faire de manière consécutive pour deux gestes manuels ou en simultané pour gestes et paroles. La superposition peut être complète, partielle ou sous la forme d'un chevauchement. Du point de vue de la référence, il est à noter que l'enfant entendant ne combine pas deux gestes référentiels (Capirci et al., 1996). Dans les combinaisons entre gestes et paroles, les auteurs distinguent celles où les deux unités ont un référent commun (l'enfant pointe vers son doudou et dit « doudou ») et celles où les deux unités ont des référents différents (l'enfant pointe vers son doudou et dit « moi »). Capirci et al. (1996) et Volterra et al. (2006) observent trois degrés de complexité dans les combinaisons bimodales chez des enfants entendants non exposés aux LS : les combinaisons équivalentes (l'enfant dit « au-revoir » et fait au-revoir de la main), les complémentaires(avec même référent) et les supplémentaires (avec référents différents). En parallèle de la démarche qui consiste à rendre compte de la complexité et des raffinements de la gestuelle coverbale, les chercheurs sur les LS se sont demandé comment, au sein des LS, séparer gestuelle grammaticale et gestuelle coverbale. Autrement dit, « Do signers gesture ? » demande Emmorey (1999). L'auteure répond par l'affirmative et reconnait que la distinction est particulièrement subtile au sujet des constructions à classificateurs parce que ces formes peuvent être plus ou moins élaborées et oscillent donc entre les formes gestuelles holistiques et les formes linguistiques compositionnelles. L'auteure souligne que la distinction est d'autant plus difficile à effectuer dans les corpus enfantins. Par ailleurs, et là aussi à titre de « co-sign gesture », Fontana (2008) explore plus particulièrement les labialisations (mouth actions) des locuteurs sourds lorsque la communication visuo-gestuelle est choisie. Est-il étonnant que les sourds labialisent et plus encore qu'ils vocalisent ? Pas vraiment si l'on pense aux entendants qui gesticulent au téléphone, et moins encore lorsque l'on prend en compte l'hétérogénéité des profils de surdité et l'hétérogénéité des profils langagiers en contexte de surdité. Cette prise en compte des profils variés en contexte sourd, bilingue et bimodal, est précisément l'objectif d'un ensemble de travaux sous la direction de Millet (Millet et Mugnier, 2004; Millet et Estève, 2009). Les auteures veulent rendre compte des compétences de l'enfant et de l'adulte sourd dans une perspective langagière qui englobe leurs dimensions bilingue (français/LSF) et bimodale (modalité vocale et gestuelle) et proposent une typologie des pratiques langagières enfantines orales (par opposition à écrites) afin d'établir des profils. Ces profils sont fondés sur l'association entre toutes les ressources disponibles (le français et les onomatopées, la LSF et les gestes), et réparties comme indiqué dans le tableau 3. Tandis que la LS est considérée comme la langue des Sourds, les locuteurs natifs de cette langue sont pour la majorité, entendants. Comme la plupart des bilingues et biculturels, les EEPS ont souvent l'impression de se trouver entre deux mondes et de faire sans cesse l'aller-retour entre les deux. Dans les années 1980, aux États-Unis, des interprètes LS américaine/anglais, nés de parent(s) sourd(s), décident de constituer un groupe à part entière sous le nom de CODA (Child Of Deaf Adults), en opposition aux autres interprètes de parents entendants et créent en 1983 l'Association internationale CODA. Plusieurs conditions doivent être satisfaites pour qu'on soit considéré comme CODA (au sens de l'Association internationale). Il est nécessaire qu'au moins un des deux parents de l'enfant entendant soit sourd, que la langue première, ou privilégiée dans la vie de tous les jours soit la LS, et que l'EEPS soit fortement, de quelque façon que ce soit, impliqué dans la communauté sourde. Cependant, cette dimension psycho-socio-linguistique de l'EEPS ne rend pas compte de la totalité de la population EEPS, comme en témoigne la situation française. Bien qu'ait eu lieu un premier colloque concernant les EEPS en région parisienne en mars 2009, évènement qui a rassemblé près de 400 personnes, il n'existe aucune association en France qui regrouperait et dans le même temps enfermerait les EEPS dans un « profil type », selon des critères précis. En effet, lors de nos recherches de Master 2 (Fiore, 2009) il nous est apparu très rapidement que le profil des EEPS différait d'un contexte à l'autre tant les implications sociologiques, psychologiques, historiques et linguistiques étaient diverses (et compte tenu de l'hétérogénéité des profils chez les parents sourds eux -mêmes). Nous avons émis l'hypothèse d'un continuum pour représenter les différents profils d'EEPS : à l'une des extrémités nous trouvons le profil de l'EEPS qui ne se considère pas comme bilingue et biculturel et à l'autre extrémité se trouve l'EEPS qui se sent entièrement bilingue et biculturel; tout au long de ce continuum, nous pouvons décliner les cas d'EEPS plus ou moins bilingues et biculturels. Le bilingue possède différents modes de communication, que Grosjean (2003, p. 26) met en évidence à l'aide d'un continuum. L'auteur explique qu'aux extrémités de ce continuum, se trouvent « le mode de communication monolingue » d'une part, et le mode de communication bilingue, appelé « parler bilingue » de l'autre. Ce dernier mode de communication se traduit par différentes stratégies, telles que le code-switching et l'emprunt. De la bimodalité du bilinguisme des EEPS émerge une nouvelle stratégie langagière, appelée code-blending qui consiste à produire de façon simultanée un message vocal et signé. Les études sur les productions des Codas (Emmorey et al., 2008; Bishop et Hicks, 2005) concordent sur le fait que les Codas préfèrent utiliser le code-blending au code-switching. Bishop and Hicks (2005) supposent, à partir de l'observation de van den Bogaerde (2000) auprès des mères sourdes qui utilisent cette même stratégie lorsqu'elles s'adressent à leur enfant entendant, que cette production mixte est le fruit d'un même input mixte qui a duré tout au long de l'enfance. Bishop et Hicks (2008) émettent alors l'hypothèse de l'existence d'un troisième système, qui serait en réalité, la langue première de ces enfants entendants : un « parler bilingue » propre aux Codas américains, le coda-talk, qui a été analysé dans un environnement exclusivement bilingue bimodal et dont la structure grammaticale tend à suivre celle de l'ASL et non celle de l'anglais. Les auteures indiquent également que le coda-talk va au-delà de la stratégie langagière du code-blending par sa forte corrélation avec l'identité Coda (être bilingue et biculturel) et par l'utilisation de la Deaf Voice (« Voix Sourde »), qui consiste à imiter ou « recréer » les sons de certaines personnes sourdes, amies ou membres de la famille. Bien qu'en France, aucune étude n'ait porté sur le cas des EEPS en contexte exclusivement bilingue bimodal, les observations sociolinguistiques exposées plus haut et les différents témoignages lors de la première rencontre EEPS en mars 2009 nous amènent à émettre l'hypothèse que la situation française se distinguerait de la situation américaine dans la mesure où le mouvement identitaire EEPS français est moins marqué (Fiore, thèse en cours). S'intéressant à la production des EEPS adressée à un interlocuteur entendant, Casey et Emmorey (2009) montrent que quelques signes (tels que désignés plus haut) subsistent dans les échanges entre entendants. Cette étude montre que la LS langue première n'est pas complètement inhibée en contexte entendant, et que c'est surtout dans la proportion de chaque catégorie de gestes que les sujets EEPS se distinguent des non-signeurs : davantage de signes iconiques, moins de gestes bâtons (beats) et davantage de gestes réalisés du point de vue du protagoniste. En acquisition, l'étude longitudinale d'un petit garçon EEPS, Marco, a permis à Volterra et al. (2006) d'établir – en comparaison avec la gestuelle produite par des enfants non exposés à la LS italienne – un répertoire de gestes représentationnels plus riche et plus fréquent chez le petit Marco dans le cours de sa deuxième année que dans le répertoire de ses pairs non-signeurs. Emmorey et al. (2008) ont fait l'inventaire des combinaisons observées dans des corpus de 11 adultes bilingues bimodaux, lors de conversation entre EEPS et notent des alternances séquentielles ainsi que des encodages simultanés. Il est intéressant de souligner que les formes de combinaisons obtenues nous renvoient aux catégories utilisées dans la combinaison des gestes et paroles, à savoir sémantiquement congruentes/incongruentes. Or les auteurs remarquent dans leurs corpus respectifs (enfants et adultes EEPS) que la plupart des énoncés mixtes sont du code-blending et que la plupart de ces occurrences sont sémantiquement congruentes. Chez des adultes, Pyers et Emmorey (2008) notent que la syntaxe de la LS américaine reste active (sous la forme d'indices non manuels comme la mimique faciale) lorsque les adultes EEPS parlent en anglais et se demandent si les deux systèmes sont vraiment autonomes. Emmorey et al. (2008) notent en outre que gestuelle coverbale et gestuelle signée des code-blends partagent des propriétés rythmiques : elles respectent une forme d'ajustement du timing vocal-manuel. Les auteurs s'appuient sur un modèle adapté de la description des relations gestes-paroles (Kita et Ozyurek, 2003), modèle dans lequel générateurs d'action et de message interagissent. Casey et Emmorey (2009) considèrent que, dans le cas des EEPS, on est face à « des systèmes de production langagière séparés tout en étant liés » (p. 292). L'envie nous prend alors de poser cette question : ne peut-on considérer que l'on a une forme de gestuelle coverbale sophistiquée, y compris dans les code-blends ? L'étude présentée ici repose sur l'exploitation de deux corpus d'EEPS. L'un des corpus (Blondel et Tuller, 2002-2003) est l'enregistrement vidéo entre 6 mois et 2;9 d'une petite fille, Illana, entendante bilingue (LSF-français) exposée dès la naissance aux deux langues de manière relativement équilibrée. Le père de l'enfant est sourd, signeur de naissance, et de parents sourds qui signent; la mère de l'enfant est entendante et signe couramment. Au moment du recueil, l'enfant fréquente la crèche en journée et est donc en milieu majoritairement entendant et vocalisant, mais elle fréquente également depuis toute petite la famille qui signe et la communauté sourde; ses parents échangent en LSF lorsqu'ils sont seuls, et dans différentes variétés de contact en présence d'Illana ou lorsque les personnes en présence constituent un public mixte (plus ou moins signeur). Le recueil de 22 sessions (d'une demi-heure pour les premiers mois, puis d'une heure mensuelle environ) a été effectué au domicile de l'enfant et les situations de recueil sont assez variées : jeux avec l'enfant, lecture de livres illustrés, repas, bain et change. Le second corpus (Fiore, 2007) a été recueilli lors d'une étude transversale de trois jeunes adultes entendants bilingues qui ont entre 20 et 22 ans. Ces jeunes adultes avaient encore une relation forte et des contacts réguliers avec leurs parents et la communauté sourde. La langue des signes était de ce fait encore présente dans leur vie de tous les jours. Le fait que l'entretien était mené par une jeune femme elle -même EEPS permettait par ailleurs d'instaurer une complicité avec ces jeunes adultes et des conditions favorables pour évoquer leur enfance en tant qu'EEPS et, par la même occasion, de leur permettre d'exprimer, avec un certain recul, leurs avis et impressions sur leur(s) langue(s), leur(s) culture(s) et leur identité. Les enregistrements se sont déroulés sur deux jours de la manière suivante : nous avons donné les consignes en LSF aux informateurs, qui devaient s'adresser à un interlocuteur sourd; les tâches à effectuer s'appuyaient sur différents supports, qui ont permisd'aborder des thèmes et genres variés, tels que le narratif, l'explicatif, l'argumentatif ou encore l'humoristique; l'entretien final, qui s'est déroulé en LSF, était semi-dirigé. Bien que les deux situations d'enregistrements soient différentes, la consultation croisée des deux corpus permet de mettre en évidence des formes et combinaisons de formes propres aux bilingues bimodaux, qu'ils soient tout jeune enfant (comme Illana) ou jeune adulte (comme Sabrina, Aurélien et Abel). En confrontant nos corpus aux typologies décrites plus haut, nous avons constaté qu'un ensemble de formes n'apparaissaient pas dans les rubriques proposées, que les rubriques pouvaient être décomposées en sous-rubriques pour un inventaire exhaustif des possibilités offertes par le contexte bilingue et bimodal et qu'un certain nombre de frontières établies pour dessiner des profils langagiers pouvaient être repensées pour mettre en valeur l'interaction entre les modalités dans le répertoire disponible des EEPS. Au regard des propositions de Millet et Estève (2009), la distinction verbal/non verbal nous a posé question, notamment en ce qui concerne les onomatopées dans la modalité vocale, ou les constructions à classificateurs dans la modalité gestuelle. Les onomatopées, définies comme sons et bruitages vocaux, sont considérées par les auteures comme non verbales, et les exemples extraits des données grenobloises couvrent aussi bien des formes iconiques non (ou peu) conventionnelles comme « brrrrr » ou « pffff » que des formes iconiques et (plus) conventionnelles comme « aïe » ou « poum poum ». Or, dans le corpus de la petite Illana, nous relevons des formes comme « mlml », qui nous semble relever d'une forme iconique non conventionnelle, comparée à une forme comme « miam-miam » qui nous parait plus conventionnelle, et notamment reprise dans l'input. Dans la répartition verbal/non verbal en modalité gestuelle, les auteures distinguent signes et gestes non verbaux sans préciser de quelle catégorie relèvent les emblèmes faisant partie du lexique de la LSF. Ceci n'est pas très surprenant dans la mesure où, comme nous l'avons vu précédemment, LSF et français – y compris sous sa forme coverbale – sont en contact depuis toujours et que l'une se nourrit principalement de l'autre – notamment via sa partie coverbale. La distinction entre verbal ou non verbal est plus aisée lorsqu'il existe deux formes assez proches sémantiquement (comme le geste et le signe signifiant ‘ partir ', illustrés dans la figure 1), mais elle semble plus délicate lorsqu'un seul geste-signe est en usage (comme ce serait le cas pour ‘ après ' ou ‘ au-revoir '). Toujours pour la modalité gestuelle, les auteures semblent en difficulté, de manière tout à fait logique, avec les formes à classificateurs (les auteures préfèrent utiliser les termes de proformes lorsqu'un référent a été préalablement identifié et structure de taille ou de forme lorsque cette structure sert à introduire une nouvelle forme sans référent préalablement identifié). Dans leur manuel de codage, les auteures précisent que ne doivent figurer dans la ligne LSF que les formes « attendues ». Ainsi, on note dans les exemples fournis qu'un pointé vers soi (PT1) relève de la LSF mais qu'un « index tendu avec mouvement latéral de gauche à droite » référant au mouvement d'un bébé oiseau relève de la ligne gestes non verbaux. Les constructions à classificateurs forment comme nous l'avons vu précédemment une « catégorie récalcitrante ». À titre d'illustration, considérons trois formes signifiant ‘ partir '. L'une correspond à la forme de citation que l'on trouve dans un dictionnaire LSF (fig. 1a), l'autre correspond à l'emblème, partagé par sourds et entendants (fig. 1b) et l'autre enfin est une forme à classificateur (fig. 1c). Comment répartir ces trois cas de figures dans la structure binaire verbal/non verbal ? Une rubrique séparée concerne les labialisations qui recouvrent « les productions labiales sans émission sonore correspondant à des mots français ». Or, dans nos deux corpus EEPS, nous observons des formes hybrides, entre labialisation avec vocalisation et labialisation sans vocalisation; il s'agit de voix chuchotées, ou dé-vocalisées comme en produisent précisément les sourds et que l'on désigne plus haut sous l'expression « voix sourde ». Il nous semble qu'Illana par exemple a une gestion graduée du son, et qu'elle joue avec la perception visuelle qu'a son papa de son articulation labiale (à elle). Dans un exemple à 29 mois, elle produit ainsi le mot banane tout d'abord labialisé sans son à l'adresse de son papa sourd, puis comme il insiste pour qu'elle le produise en LSF et qu'apparemment elle ne le connait pas en LSF, elle le répète avec une voix assourdie, puis le vocalise de manière enfantine à l'attention de l'interlocutrice entendante. Dans le corpus des jeunes adultes EEPS, il est intéressant de noter plusieurs profils concernant les labialisations avec ou sans vocalisation. Par exemple, le rire d'Aurélien ressemble parfois à celui d'un sourd (autrement dit un rire grave, guttural). Il utilise de façon marquée et régulière la « voix sourde », c'est-à-dire que sa voix émet des sons gutturaux et sans vibration des cordes vocales. En revanche, il est plus rare de noter des émissions sonores chez Abel. Nous supposons qu'il existe un lien entre ces caractéristiques et le profil sociolinguistique du locuteur à partir de l'entretien final mené lors de l'enregistrement du corpus, ainsi qu' à partir d'entretiens informels avant et après l'enregistrement. Aurélien souligne tout au long du corpus son appartenance à la communauté sourde, alors qu'Abel a une identité sourde moins marquée. Dans le tableau 4 ci-dessous, nous reprenons les catégories proposées par Millet et Estève (2009) et ajoutons, en gras, des exemples pour illustrer les rubriques existantes et de nouvelles rubriques « hybrides » dont nous cherchons à rendre compte plus précisément. Il est bien sûr plus aisé de chercher « ce qui coince » dans une classification en prétendant à l'exhaustivité que de proposer une nouvelle classification exhaustive. Il nous a semblé pourtant intéressant de tenter d'intégrer toutes les formes présentes dans une grille aménagée à partir des propositions de nos collègues. Deux questions se sont rapidement imposées : faut-il se placer du point de vue de la production ou de la réception ? Et quelle logique appliquer : le point de vue articulatoire ou la catégorisation en langues, incluant leurs volets non verbaux et illustrant les zones de contacts entre langues ? Les tableaux 5 et 6 appliquent respectivement chacune des logiques. Nous observons également dans le corpus adulte la présence de sons émis par le locuteur alors qu'il s'adresse à un interlocuteur sourd. Ainsi, tout en s'adressant à un sourd, Aurélien associe au signe TIRER-UN-COUP-DE-FUSIL, le son « poouu ». Il associe également le son « grrr » au signe CHIEN-ATTRAPE-QUEUE-CHAT dans une autre production narrative. Sabrina, quant à elle, accompagne le signe PARTIR-EN-S'ENVOLANT du son « pchpch ». D'autres formes encore nécessiteraient un examen plus approfondi. Ainsi, au sein de la rubrique signes, on peut relever des formes de contact plus subtiles, présentes à des degrés divers dans les usages des sourds et des EEPS. Le Corre (2006) relève ainsi des déviations involontaires de la norme du français, intégrées, parfois avec humour, par les sourds au lexique de la LSF. L'auteure donne des versionsbretonnes de [VOEU ], [TABOURET ], [CANADA] et [TOUSSAINT ], fondés sur la parenté phonétique et/ou graphique des mots veau et vœu, tambour et tabouret, canard et Canada, Tu sais et Toussaint. Ce type de constructions nous semble relever également, comme la labialisation, des procédés d'exploitation visuelle de la LV. Le Corre note par ailleurs (p. 112) qu'un bon nombre de signes comportant un mouvement simple correspondent à des mots du français qui manifestent une seule syllabe – [JOUR ], [PRÊT ], [FAIM ], [SOIF ], [FILS ], etc. – ou qui ne sont bi-syllabiques qu' à l'écrit – [VACHE ], [LIBRE ], [HONTE ]. L'hypothèse de Le Corre est que le découpage syllabique du français pourrait conduire les sourds à user du rythme syllabique qui articule les mots du français pour structurer les signes de la LSF. Cet ajustement rythmique entre les langues ouvre également une piste dans les influences possibles entre dimension rythmique de la gestuelle coverbale et la prosodie de la LSF. Dans le cadre de notre étude de la prosodie enfantine en LSF (Limousin et Blondel, 2010), nous avons ainsi relevé des patrons rythmiques qui pourraient correspondre à l'intégration des mouvements de beats dans la structure rythmique des signes. Par exemple, les séquences de signes ENCORE PAPA sont marquées par un patron régulier des durées de chaque segment dynamique. Dans le cas d'Illana, les combinaisons simultanées d'un mot en français avec un signe consistent en des combinaisons de deux éléments ayant un même référent comme le mot chat associé simultanément (/) au signe CHAT [chat/CHAT] à l' âge de 1 an et 2 mois (1;2). Dans les sessions suivantes, on trouve des combinaisons simultanées de signes/mots ayant des référents différents comme [papa/ENCORE] à 1;3. Les alternances codiques séquentielles apparaissent plus tard et, de façon remarquable, lors de la session des 19 mois, lorsqu'apparaissent les premières séquences à deux mots (deux signes LSF ou deux mots français). Ces combinaisons associent séquentiellement (+) dans un premier temps des unités sémantiquement congruentes comme [chat + CHAT] à 1;7. Il est à noter que, pour un cas comme [POISSON + et une feuille] à 2;10, cas classique de code-switching qui apparait après l'étape de congruence sémantique, l'enfant regarde son père tandis qu'elle réalise le signe POISSON et regarde sa mère pour finir son énoncé avec [et une feuille ]. Les énoncés mixtes relevés dans le corpus d'Illana jusqu' à la session 2;10 présentent plus d'énoncés mixtes simultanés que séquentiels (Révérand, 2004), conformément à ce que Petitto et al. (2001, p. 486-487) ont relevé dans leur corpus de deux enfants bilingues français/LS québécoise. On obtient une progression entre trois formes de combinaisons bimodales qui correspondent aux paliers observés par Capirci et al. (1996) et Volterra et al. (2006) dans les combinaisons bimodales chez des enfants entendants non exposés aux LS : les combinaisons équivalentes (1), les complémentaires (2) et les supplémentaires (3). L'inventaire des formes et variétés de combinaisons possibles révèle la richesse de la palette à disposition des entendants bilingues bimodaux, et cet inventaire complète de précédentes typologies proposées pour les corpus bimodaux en général et d'EEPS en particulier; mais l'organisation de cet inventaire souligne également toutes les questions que posent la catégorisation et la délicate tentative de tracer des bornes à la notion de « linguistique » au regard de la multimodalité du langage. La notion de gestes reste également un joli bric-à-brac et Kendon (2004) lui préfère la notion de visual actions, permettant ainsi de dépasser la dichotomie gestes/signes et de chercher autrement, dans l'ensemble des formes de visual actions, observables chez des locuteurs vocalisant et des signeurs, les points communs et différences entre les deux populations dans la variété des formes observées, la systématicité des usages et les procédés sémiotiques impliqués. L'air de rien, ces essais de typologies ont un enjeu d'identification : qu'est -ce qui appartient/n'appartient pas à la LS étudiée ? Qu'est -ce qui est digne d' être enseigné ? Quelles formes pour quels registres ? Comment se situer sur les différents continuums et comment situer son interlocuteur pour mieux le rejoindre dans une communication harmonieuse ? Montrer le caractère systématique des mélanges contribue à éclairer « le paradoxe EEPS » : un mélange d'atypique (lié au contexte de surdité) et de typique (l'acquisition bilingue, l'utilisation des ressources multimodales du langage). Bien entendu, nous aspirons à passer d'une étude très qualitative à une étude plus quantitative et à éprouver ces premières balises exploratoires dans le cadre de corpus et de contexte d'élicitation variés. Ainsi, S. Fiore (thèse en cours) examine, dans une perspective linguistique et sociolinguistique, le caractère systématique des structures et procédés en usage chez les jeunes adultes EEPS, en jouant sur les paramètres de la variation inter-individuelle et intra-individuelle. Par ailleurs, nous comptons sur l'éclairage apporté par une étude en cours (Parisot et al., 2009) qui nous permettra de contrôler et de mesurer jusqu' à un certain point (à l'aide d'enregistrements, vidéo classique et biomécanique) la variable ‘ sourd signeur ' versus ‘ entendant non signeur ' quant à l'usage des articulateurs non manuels (mouvements de la tête et du buste, regard) dans l'expression d'un certain nombre de structures analogues dans trois LS différentes ainsi que dans leur version orale (y compris gestuelle) correspondante. Ce protocole pourra à l'avenir être appliqué à une population EEPS . | La richesse des combinaisons entre langues et modalités nous amène à nous interroger sur un profil particulier: l'enfant entendant de parent(s) sourd(s) (désormais EEPS). Ce dernier évolue dans un contexte bilingue bimodal, un mélange d'atypique (lié au contexte de surdité) et de typique (l'acquisition bilingue, l'utilisation des ressources multimodales du langage). En nous appuyant sur deux corpus, qui ont été élaborés dans deux perspectives de recherches différentes et concernant pour l'un une enfant et pour l'autre trois jeunes adultes, nous essayerons de répondre à diverses questions: retrouve-t-on les mêmes combinaisons que chez leurs pairs sourds? Existe-t-il des formes spécifiques aux sourds que l'on ne trouve pas dans les productions des EEPS? Observe-t-on des formes mixtes dans l'expression des EEPS que l'on n'observe pas chez les sourds signeurs? | linguistique_12-0078138_tei_508.xml |
termith-708-linguistique | Dans l'article fondateur des études sur la fiction à substrat professionnel (FASP) dans le cadre de la recherche en anglais de spécialité, Michel Petit évoque à titre d'exemple le « legal thriller », le « medical thriller », le « military thriller », le « adventure thriller » et le « technical thriller » (Petit 1999 : 57). L' « ecothriller » ne figure donc pas dans la liste de ce qui peut être considéré comme FASP. Cette absence pourrait s'expliquer tout simplement par la date à laquelle cet article a été écrit, 1999, date à laquelle l ' ecothriller demeurait encore un genre confidentiel, bien que plusieurs fictions de ce type eussent déjà été écrites. Certains situent l'émergence de l ' ecothriller en tant que genre vers la fin des années 1990. Dans un article de juin 2007 publié dans Library Journal, on peut lire : « One of the newest fiction subgenres emerging over the last decade is ecothrillers » (Schollmeyer 2008). Pourtant le succès de ce genre encore modeste n'est que récent – sans doute a -t-il été porté par les préoccupations écologiques grandissantes de l'opinion publique relayée par les médias. Pour la présente tentative de définition du genre, nous avons retenu un corpus composé d'une vingtaine de romans. Un passage en revue de leur résumé, de leur couverture cartonnée et de critiques à leur sujet, nous a permis de les sélectionner comme étant représentatifs du genre. Nous nous sommes concentrée sur l'étude des paratextes de ces romans et de la littérature critique les concernant, et nous avons procédé à la lecture et à l'analyse d'un certain nombre d'entre eux. La liste non exhaustive d ' ecothrillers qui composent notre corpus peut être consultée dans la section bibliographique. Une lecture rapide de cette liste permet d'observer que, sur vingt-et-un romans, seuls trois ont été publiés avant l'année 2000 et seulement huit avant 2005. Le succès récent et indéniable du genre peut également être mis en évidence par la conversion à l'écriture de romans de ce genre par des auteurs qui étaient jusqu'alors connus pour écrire d'autres types de thriller. Michael Crichton, considéré avant tout comme le fondateur du technothriller, en offre un bon exemple puisqu'il a produit un roman que l'on peut qualifier d' « ecothriller » en 2005 avec sa fiction State of Fear. La nouveauté du succès du genre peut s'expliquer par une référence à l'actualité. Il semble en effet que des phénomènes de prise de conscience de l'importance des questions écologiques ont eu lieu récemment. On peut par exemple évoquer l'impressionnante médiatisation de différentes catastrophes écologiques (tsunami en Asie du Sud-Est, canicule en Europe du Nord, ouragan Katrina) ainsi que la diffusion de documents suggérant l'ampleur des conséquences possibles du réchauffement climatique comme la publication très commentée du rapport Stern (Stern 2006) et le film au succès étonnant présentant le point de vue d'Al Gore sur le réchauffement climatique (Guggenheim 2006). Ces phénomènes semblent avoir conduit le public à un intérêt renouvelé pour tout ce qui a trait aux problématiques environnementales, intérêt qui a été aisément exploité par les auteurs de fiction. Le rapport particulier au réel que M. Petit analyse dans son article sur la FASP, qui montre qu'un roman de FASP « accorde […] une large place à la représentation des divers éléments qui composent ce réel, personnes, objets, procédures » (Petit 1999 : 68), explique que la FASP est peut-être plus influencée par ce qui se passe dans le monde réel que les autres types de fiction. Des romans de science-fiction ayant pour sujet la fin du monde (catastrophe thrillers), ont été écrits depuis bien longtemps, mais avec la crise écologique qui prend actuellement une importance considérable dans la société, les auteurs de FASP n'ont plus besoin de tout inventer. Il s'agit bien de s'appuyer sur des éléments scientifiques et technologiques réels pour construire le contexte des thrillers. L'auteur de cet article s'interroge tout d'abord sur les raisons pour lesquelles le genre de l ' ecothriller peut être considéré comme un nouveau type de FASP. Elle tente ensuite de définir ses caractéristiques principales avant de se poser la question des rapports entre le réel fictionnel des FASP et le réel prédit par la science dans le contexte actuel. Les ecothrillers pourraient avoir un effet sur le monde réel car ils permettent la représentation d'une catastrophe écologique qui reste, sans ce type de représentation, du domaine de l'impensable. Lorsqu'il définit les caractéristiques récurrentes des différentes fictions à substrat professionnel, M. Petit établit une distinction entre les caractéristiques externes, liées aux conditions dans lesquelles les romans sont publiés, et les caractéristiques internes qui permettent de définir le genre. Nous allons commencer ici par considérer les caractéristiques externes. Parmi celles -ci, il faut évoquer le fait que les ouvrages de FASP aspirent à devenir des bestsellers (Petit 1999 : 58). Les différents ouvrages considérés ici répondent bien à cette description. Des occurrences du mot « bestseller », ou de mots appartenant à la même famille, se retrouvent ainsi dans le paratexte d'un nombre élevé de nos ouvrages. En première page de couverture de The Swarm (Schatzing 2006), figure : « the two million copy international bestselling phenomenon » et sur celle de The Last Albatros (Irvine 2000) : « a compelling thriller from internationally bestselling author ». Les exemples possibles sont multiples. Les ecothrillers semblent donc bien respecter ce premier critère de la FASP. Ils visent à conquérir un large public plutôt qu'un public de spécialistes. Le fait que la diffusion de ce genre soit visiblement plus importante à la suite de l'intérêt croissant pour la crise écologique chez le grand public, peut sembler signifiant de ce point de vue. Lorsqu'il définit en quoi la FASP peut être qualifiée de « genre à succès international » (1999 : 60), M. Petit met en évidence le fait que certains éléments du paratexte permettent de mettre en relation l'ouvrage avec d'autres ouvrages du même genre, montrant par là que le genre est cristallisé et aisément identifiable par le public. Ce n'est pas le cas des ouvrages étudiés ici. Il semble que le genre de l ' ecothriller est apparu trop récemment pour que ce critère de définition de la FASP s'applique. La seule référence à un autre auteur se trouve sur la couverture de Freezing Point de Karen Dionne. La critique suivante y figure : « Karen Dionne is the new Michael Crichton ». M. Crichton est surtout connu comme le père du technothriller et c'est probablement une référence à ce genre que l'on trouve ici. Il est possible que la raison pour laquelle la plupart des romans étudiés ici ne comprennent pas le terme ecothriller dans le paratexte est que le genre n'est pas encore suffisamment connu pour avoir été assimilé par un large public. Il existe quelques exceptions notables. Ainsi Zodiac (Stephenson 1988) a pour sous-titre « the ecothriller », soulignant clairement son appartenance au genre. Pour ce qui est de Dark Rain (Corderoy 2006), on peut également dire qu'il est visiblement présenté comme un ecothriller puisqu'on trouve dans ses critiques en début d'ouvrage la phrase suivante : « An energetic and agreeable example of the ecothriller » (Corderoy 2006 : 4). Dans d'autres cas, ce qualificatif est absent. Le terme pourrait ne pas être assez connu pour être utilisé dans tous les cas. Une périphrase est parfois utilisée à sa place, ce qui suggère que la notion a un sens mais que le terme n'est pas très répandu. Afin de respecter le principe d'économie de langage, les formulations condensées sont en général préférées aux formules longues. Cette idée a été théorisée par le linguiste O. Ducrot qui fait figurer la « loi d'économie » (1972 : 201) parmi les six « lois du discours » que nous devons respecter dans nos actes de communication. Il est donc d'usage d'utiliser un seul mot plutôt que plusieurs lorsque ce mot permet d'exprimer la même notion, sauf si l'on pense qu'il ne sera pas compris par les récepteurs du message. Il existe une périphrase qui aurait pu être remplacée par le terme « ecothriller » dans un extrait des critiques qui précèdent le roman Bones of Coral : « He has crafted a thriller with an eco-twist » (Hall 1991 : 6). Cette formulation suggère que l'auteur ne connaît pas ce genre ou qu'il estime qu'il n'est pas familier au public qu'il vise. Le fait que le terme « ecothriller » apparaisse peu dans les paratextes de livres par ailleurs étiquetés comme tels par les critiques, suggère également que le terme n'est pas encore très répandu. L'origine de l'utilisation du terme « ecothriller » reste incertaine. Sa première occurrence n'a pas été identifiée précisément mais il semble possible d'indiquer qu'elle se situe dans les années 1980. La publication de Zodiac : The Ecothriller en 1988 paraît marquer une étape dans sa diffusion. Il n'y a pas pour autant lieu de croire que l'auteur de cette fiction soit le premier à l'avoir utilisé. Ce sous-titre montre cependant que c'est un terme que certains auteurs utilisent et trouvent pertinent pour la catégorisation de leurs œuvres. Aujourd'hui l'usage en est limité; il reste caractéristique de domaines assez restreints puisqu'il se trouve essentiellement sur les sites Internet et dans les journaux spécialisés, dans les commentaires de publications littéraires ainsi que dans les documents et sites Internet spécialisés dans la défense de l'environnement. Une recherche effectuée sur Google révèle par exemple que sur les trente premiers résultats, huit se trouvent sur des sites de vente en ligne, douze sur des sites de critiques littéraires, quatre sur des sites militants environnementaux, un sur un site de presse générale et cinq sur des sites divers. Par ailleurs, le terme commence également à se diffuser dans la presse plus générale; c'est le sujet qui est maintenant abordé. L'utilisation du terme par la presse générale n'est pas encore très répandue. Certains journaux ne l'emploient pas. Une recherche sur la version numérique de The Economist et The Daily Post reste par exemple infructueuse. En revanche, il apparaît sur la version numérisée du Times, du New York Times et de Newsweek. Dans la section « Arts and Entertainment » du Times se trouvent sept occurrences. La première occurrence répertoriée a été enregistrée en juin 2003. Le terme semble gagner en popularité à partir de 2006. Dans le New York Times, plusieurs occurrences du terme se rencontrent également dans les sections de critique littéraire et cinématographique. La première occurrence apparaît dès 1985. L'énonciateur le présente alors comme un terme dont il n'est pas sûr que la référence soit stabilisée. C'est ce que l'expression, « billed by its publisher as an ecothriller », indique puisqu'il précise bien qu'il n'est pas lui même à l'origine de son utilisation. En 1995, une nouvelle occurrence du terme est attestée, avec cette fois encore une modalisation indiquant que la précision de celui -ci est remise en doute : « can best be described as an ecothriller ». Il reste ensuite seize occurrences du terme dont treize datent de 2004 ou plus tard et neuf de 2006 ou plus tard. Ces occurrences ne sont pas accompagnées d'une modalisation indiquant que la référence n'est pas stabilisée. Le terme semble désormais avoir acquis une légitimité. Parmi ceux qui utilisent le terme, tous ne semblent pas en avoir la même définition. Sur le site d'Amazon par exemple, ne sont définis comme ecothrillers que des romans ayant pour thème le réchauffement climatique. S. Schollmeyer (2008) présente différentes problématiques environnementales pouvant relever du domaine des ecothrillers. Cette archiviste distingue les ecothrillers portant sur le thème du réchauffement climatique, tels que les romans de la trilogie de Kim Stanley Robinson (2004, 2005, 2007) et Greenhouse Summer de Norman Spinrad, de ceux ayant pour thème la pollution, tels que Zodiac et Bones of Coral, de ceux enfin ayant pour thème la faune et la flore menacées, tels que les romans de la trilogie de Kirk Russel (2004, 2005, 2007). C'est l'acception la plus large du terme dont nous défendons ici la définition. Pour la préciser, on peut se référer à l'encyclopédie en ligne Arts and Popular Culture : an emerging sub-genre of the thriller in which the protagonist must avert or rectify an environmental or biological calamity – often in addition to dealing with the usual type of enemies or obstacles present in other thriller genres. Pour expliquer cette position, une étude lexicographique du terme semble nécessaire. Le fragment de mot « eco » qui vient s'ajouter à un terme désignant un genre plus large, « thriller », peut être qualifié de fractomorphème. Il s'agit là d'un « fragment de lexie qui la représente dans un mot construit » (Tournier 2004 : 62). Dans ce cas, la lexie que « eco » représente dans le terme « ecothriller » est, bien entendu, « ecological ». Or, le réchauffement climatique n'est pas un thème ayant une prééminence absolue dans le domaine de l'écologie même si c'est celui qui occupe le plus l'attention des médias et des politiques depuis environ six ans. Ce n'est pas à ce thème particulier que le fractomorphème permet de référer. On peut plutôt penser qu'il porte « en quelque sorte l'essence sémantique du domaine » (Dury 2007 : 64), que l'on pourrait qualifier de gestion et protection des ressources naturelles. C'est donc tout ce qui a trait à ces questions qui peut être le thème principal des ecothrillers. Une question qui revient régulièrement dans les interrogations au sujet de la FASP est celle de la spécialisation des auteurs. Dans de nombreux domaines de spécialité, il s'agit de déterminer si les auteurs sont des professionnels du domaine ou non (Petit 1999 : 63; 2004 : 67, 175). Pourtant un grand nombre de métiers peuvent avoir une orientation environnementale. De nombreux termes désignant des métiers environnementaux peuvent ainsi être créés avec l'adjectif « environmental » : « environmental scientist », « environmental manager », « environmental lawyer », « environmental economist », etc. De plus, il se pourrait que la professionnalisation ne soit pas la seule manière d'acquérir une spécialisation environnementale. Une personne qui milite pour une cause environnementale de manière très engagée mais non rémunérée doit-elle pour autant être considérée comme profane dans le domaine de spécialisation qu'est l'environnement ? Et qu'en est-il d'une personne qui pratique régulièrement une activité physique de plein air et qui est amenée par ce biais à acquérir une connaissance fine de l'environnement ? Ces quelques questions nous permettent de montrer que la problématique de la spécialisation dans le domaine environnemental est plus complexe qu'elle peut l' être dans les domaines le plus souvent cités comme représentatifs d'un genre de FASP. Si l'on adopte un point de vue inclusif dans notre définition du spécialiste de l'environnement, on peut remarquer que plusieurs de nos auteurs peuvent être considérés comme des spécialistes du domaine. Nina Munteanu par exemple est présentée comme « an environmental scientist ». Kirk Russel reçoit l'étiquette de « an accredited professional in green building » alors qu'Ian Irvine est directeur d'une entreprise qualifiée de « consulting firm, carrying out environmental studies ». Il s'agit donc de professions fort diverses mais qui ont toutes une dimension environnementale qui fait que ces auteurs peuvent être considérés en un certain sens comme des spécialistes du domaine. Pour ce qui est de Neal Stephenson, la situation est un peu différente puisqu'il n'a pas exercé en tant que professionnel de l'environnement, mais a obtenu un diplôme de géographie et de physique, ce qui lui permet probablement de parler de l'environnement de manière assez informée. Remarquons enfin que, comme dans toute catégorie de FASP, certains de nos auteurs d ' ecothrillers n'ont pas de qualification particulière sur le sujet. Ainsi M. Crichton est un célèbre auteur de toutes sortes de fictions, N. Spinrad n'a étudié que l'écriture et a exercé en tant qu'auteur de romans et poésies; enfin Phillip José Farmer est lui aussi uniquement écrivain. Cette présentation des différentes caractéristiques de la FASP nous permet de vérifier que l ' ecothriller respecte un grand nombre d'entre elles. En même temps, il ne s'agit pas d'un exemple prototypique puisque tous les critères permettant de définir la FASP ne sont pas respectés. Il se situerait plutôt dans ce qui est défini par Shaeda Isani comme les marges du genre : as with all genres, differing degrees of “FASPness” exist, varying from the crystal clear at the core of the centripetal movement to the woolier and fuzzier forms located on the fringes of the genre. (2004 : 34) Ce sous-genre est encore très récent, ce qui pourrait expliquer le fait qu'il ne soit pas encore identifié par un large public. Nous postulons pourtant que les différents romans considérés ici ont suffisamment de caractéristiques communes pour qu'il soit possible de donner une définition plus précise du genre. Le premier élément qui permet de caractériser le genre et qui se reflète dans son appellation, ecothriller, est l'aspect thématique. Le fractomorphème « eco » renvoie en effet au terme d'écologie, désignant à l'origine la science du rapport entre le vivant et son milieu mais venu à être utilisé avant tout dans un sens politique, que le Grand Robert définit comme suit : Doctrine visant à une meilleure adaptation de l'homme à son environnement naturel, vivant (animaux, plantes) et non vivant, ainsi qu' à une protection de celui -ci; courant politique défendant cette doctrine. Le but des ecothrillers est donc de représenter l'homme luttant pour la protection de l'environnement. Dans chaque ecothriller une menace écologique est mise en scène, celle -ci pouvant être de nature très variée, comme il est montré dans la section 2.2. Ce critère thématique est le critère le plus évident, cité dans toutes les définitions du terme d ' ecothriller. Il n'est pourtant pas le seul. L'expertise environnementale peut s'acquérir chez des personnes pratiquant des métiers divers. Les héros de nos ecothrillers, qui ont souvent une forme d'expertise environnementale, ne pratiquent pas tous le même métier : avocat (State of Fear), inspecteur de police (Dark Rain),banquier (Ovum Factor), militant écologique (Freezing Point). Pourtant, sans qu'il y ait de règle générale à ce sujet, la majorité des héros d ' ecothriller s exercent un type de profession spécifique. Mis à part les cas cités ci-dessus, tous les personnages principaux sont des chercheurs en sciences. C'est le cas dans Darkness Falls (Mills 2007), dans Whitewash (Kava 2007) et dans Desert Burial (Littlefair 2002). Pour ce qui est de The Swarm et de la trilogie sur le réchauffement climatique de K. S. Robinson, l'intrigue est située dans un laboratoire de recherche scientifique et les différents héros exercent donc tous cette profession. Pour entrer un peu plus dans le détail de la caractérisation des héros, une présentation plus détaillée de ceux de la trilogie de K. S. Robinson peut s'avérer intéressante. Cette trilogie prend place à Washington où des scientifiques concernés par le réchauffement climatique s'efforcent d'y sensibiliser le monde politique et cherchent à développer de nouvelles technologies pour y faire face. Les personnages principaux sont des scientifiques travaillant pour la National Science Foundation ou comme conseillers scientifiques du gouvernement. Ils se heurtent à la frilosité des politiques et au manque de fonds publics comme privés. Tous se sentent personnellement engagés pour l'environnement. Certains de leurs traits d'identité ainsi que de ceux de personnes composant les réseaux sociaux dans lesquels ils évoluent en font des exemples typiques de la communauté des environnementalistes. Ainsi, la plupart des héros exercent un sport de plein air et de nombreux passages de cette trilogie sont consacrés à la description de ces différentes pratiques. Escalade, randonnée, kayak, surf, course à pied, frisbee. .. toutes ces activités sont représentées comme conduisant ceux qui les pratiquent à ressentir une sorte de fusion avec la nature, qui n'est pas sans lien avec leur engagement personnel en faveur de sa protection. Le passage suivant décrit une séance d'escalade de Frank, l'un des personnages principaux, et permet d'illustrer le sentiment de communion avec la nature qu'ils éprouvent : Now as he tumbled down to the small tumble of big boulders at the foot of the cliff, chalked his hands, and began to climb the fine-grained old schist of the route, he cheered up. He focused on his immediate surroundings to a degree unimaginable when he was not climbing. It was like the math work, only then he wasn't anywhere at all. Here, he was right on these very particular rocks. (Robinson 2004 : 86) Dans le passage suivant, le même personnage pratique la course à pied : « Thus the joy of running in the forest, giving him little glimpses of the great unconscious mind » (Robinson 2005 : 143). Sa pratique sportive acquiert une dimension quasi spirituelle. L'auteur parvient à évoquer le lien traditionnel qui existe entre la communauté des sportifs de plein air et celle des environnementalistes.. Une autre communauté présente dans la trilogie peut être considérée comme traditionnellement associée au mouvement des environnementalistes, celle des bouddhistes. Dès le premier livre, Anna, l'une des héroïnes principales, fait la connaissance d'un groupe de bouddhistes qui se réfugient à Washington à la suite de l'ensevelissement de leur île qui est une conséquence du réchauffement climatique. Trois des moines bouddhistes jouent un rôle dans l'intrigue; ils conduisent les scientifiques à progresser dans leur réflexion sur la protection de la nature en les amenant à repenser fondamentalement leur rapport avec elle. Frank sort d'une conférence intitulée « The purpose of science from the Buddhist perspective » avec une nouvelle certitude formulée en ces termes : « an excess of reason is itself a form of madness » (Robinson 2004 : 268). Cet aspect du roman permet de reprendre un autre thème important dans la construction identitaire des environnementalistes. Il s'agit de l'intérêt qui les pousse vers des cultures non occidentales présentées comme ayant gardé une harmonie originelle avec la nature. Cet intérêt a également amené des peuples minoritaires à mettre en avant cette problématique dans leur lutte pour la défense de leurs droits afin d'atteindre un large public peu sensibilisé à leurs causes identitaires (Dawson 2000 : 23). Cette caractérisation des héros de la trilogie de K. S. Robinson montre qu'ils présentent de nombreux traits identitaires typiques des environnementalistes et que ces romans offrent donc une représentation assez réaliste de cette communauté. Puisqu'une catastrophe écologique est toujours au centre de l'intrigue dans les ecothrillers, on peut penser que c'est elle qui joue le rôle de l'ennemi à combattre. Dans l'article du Library Journal, l ' ecothriller est présenté en ces termes : « These novels have replaced the cold war tensions of the classic spy thriller with our struggle to survive ecological threats » (Schollmeyer 2008). Cette menace écologique se décline sous plusieurs formes. Il peut s'agir d'un virus incontrôlable comme dans Terminator Gene (Irvine 2003) et Darwin's Paradox (Munteanu 2007). Ce type d'intrigue semble inspiré d'événements du monde réel, ou du moins d'événements ayant occupé une place importante dans les médias, comme la grippe aviaire ou le phénomène plus récent de grippe H1N1. Il peut s'agir d'un phénomène moins réaliste, donnant un caractère de science-fiction au roman. Ainsi, dans The Swarm, l'ennemi à combattre est une force du mal qui s'incarne dans différents animaux, venus du fond des océans et hostiles aux humains. Mais le conflit qui est au centre de ces thrillers n'oppose pas toujours les hommes à une force naturelle. Les tensions inter-humaines compliquent la situation et rendent la résolution des problèmes encore plus difficile. Dans le monde réel, un conflit opposant écologistes engagés et dirigeants, qu'ils soient politiciens ou hommes d'affaires, est souvent mis en évidence par la presse. Ce conflit traditionnel est le terreau dans lequel les auteurs d ' ecothrillers semblent puiser. Les héros sont souvent des individus qui s'engagent pour une cause environnementale et qui se trouvent impuissants face à des personnages dirigeant le monde sans se soucier des problèmes environnementaux. Dans la grande majorité des cas, ceux qui détiennent le pouvoir politique et financier sont présentés sous un jour défavorable et ce sont eux que les héros sont amenés à combattre. Des passages de la trilogie de K. S. Robinson dans lesquels ceux qui détiennent le pouvoir sont présentés d'un point de vue critique permettent de le montrer. Citons par exemple la remarque suivante concernant ceux qui détiennent l'argent qui pourrait aider à financer la recherche en faveur de l'environnement : « Their game was high-risk, high-return, long-range investment. This was not a kind of investment that banks would make, nor anyone else in the loaning world. The risks were too great, the returns too distant » (Robinson 2004 : 216). Le portrait des politiques fait tout d'abord apparaître leur réticence au changement; on les voit par exemple faire semblant d'accepter le message des scientifiques concernant les efforts nécessaires pour faire face au réchauffement climatique, pour finalement céder aux intérêts du monde financier. Ce passage qui résume la politique de la Maison Blanche permet de le souligner. The administration's first science advisor had been sent packing for saying that global warming might be real and not only that, amenable to human mitigations. That went too far for this administration. Their line was that no one knew for sure and it would be much too expensive to do anything about even if they were certain it was coming. (Robinson 2004 : 155) Un débat sur la manière dont on peut réformer le système politique pour faire face au réchauffement climatique mène à la réflexion suivante de l'un des personnages : « the economists should be trying to invent an honest accounting system that doesn't keep exteriorizing costs. When you exteriorize costs onto future generations you can make any damn thing profitable, but it isn't really true » (Robinson 2005 : 132). Le système économique en place et la rationalité sur laquelle il repose sont présentés dans ce roman comme des obstacles fondamentaux à la résolution des problèmes écologiques. Ces exemples montrent donc ceux qui détiennent le pouvoir, cible traditionnelle des écologistes, sous un jour plutôt négatif. Pourtant, ce n'est pas toujours le point de vue des écologistes qui est adopté. Parfois, ce sont au contraire eux qui sont présentés comme la menace principale. Les catastrophes écologiques apparaissent alors comme des illusions dont ils sont en quelque sorte les instigateurs. Ainsi, dans Darkness Falls, les méchants sont des écologistes extrémistes et dans State of Fear, le réchauffement climatique est présenté comme une invention d'éco-terroristes qui provoquent eux -mêmes les phénomènes semblant prouver son existence. Les ecothrillers ne nous donnent pas une vision totalement manichéenne de la crise puisque les points de vue adoptés à son sujet sont divers. La définition de l ' ecothriller donnée par S. Schollmeyer et citée plus haut peut donc sembler trop réductrice. Les héros ne sont pas toujours des individus qui se battent pour défendre l'environnement et qui parviennent à surmonter une crise écologique majeure. Dans certains cas, les forces du mal à combattre sont les écologistes et la crise qu'ils provoquent volontairement. La seule remarque d'ordre général qui s'applique à tous les romans est qu'ils offrent tous une vision de la crise écologique, des différents acteurs impliqués dans cette crise et des relations que ces acteurs entretiennent entre eux. Cet aspect des ecothrillers correspond à l'un des éléments de définition donnés par M. Petit pour la FASP : « qui ne montre pas seulement l'opposition classique entre les bons et les méchants mais décrit les mécanismes de ces forces de subversion d'un point de vue technique » (1999 : 67). Bien que les points de vue soient différents, c'est bien toujours une description technique du problème qui est présente dans les ecothrillers. Les héros ne sont pas toujours des scientifiques mais l'importance de la science est apparente. Dans de nombreux cas, ce qui est mis en avant comme un point fort par les critiques qui commentent des ecothrillers c'est le caractère précis de la science présentée et l'authenticité des sources sur lesquelles elle se fonde. Sur la quatrième de couverture de Zodiac figure : « in creating this all too conceivable story of science and industry running amok, Stephenson puts his technological knowledge elegantly to use » et sur celle de The Ovum Factor (Zimmerman 2008), « Emotionally satisfying for the reader […] plus the science is very interesting and credible ». Dans Forty Signs of Rain, le premier volume de la trilogie de K. S. Robinson, de nombreux passages décrivent des phénomènes physiques liés au réchauffement climatique : chaleur à New York, ouragans, montée des océans. Non seulement l'auteur utilise des termes précis et techniques pour désigner ces phénomènes, mais certains passages, en italique au début des chapitres, font figure de véritables explications scientifiques. Ces explications ne se trouvent donc pas dans le corps du roman mais leur importance est mise en avant par ce détachement. Il ne s'agit pas de décrire en détail les phénomènes climatiques évoqués. Le public cible de ce type de roman n'est pas forcément en mesure d'aborder une analyse très précise des phénomènes et les explications sont donc plutôt vulgarisées. Ces passages permettent néanmoins de souligner le caractère réaliste du roman qui s'appuie bien sur des études scientifiques pour construire son intrigue. Afin d'illustrer cette idée nous pouvons citer le début de Forty Signs of Rain : The Earth is bathed in a flood of sunlight. A fierce inundation of photons – on average, 342 joules per second per square meter. 4185 joules (one Calorie) will raise the temperature of one kilogram of water by one degree Celsius. If all this energy were captured by the Earth's atmosphere, its temperature would rise by ten degrees Celsius in one day. Luckily much of it radiates back to space. How much depends on albedo and the chemical composition of the atmosphere, both of which vary over time. (Robinson 2004 :3) Des termes comme « photons », « joules », « albedo », « chemical composition », du registre spécialisé, cohabitent avec des expressions plus littéraires comme « bathed in a flood of sunlight ». Le texte est dans l'ensemble compréhensible pour un public non avisé. On peut donc considérer que la vulgarisation scientifique de questions écologiques est un élément essentiel de la composition des ecothrillers. Une interrogation au sujet de l'authenticité des sources et plus généralement des rapports entre le réel fictionnel et le réel scientifique paraît, dans ce contexte, présenter de l'intérêt. Le caractère hautement scientifique de chacun de ces romans pourrait signifier que leurs conclusions vont dans le même sens pour ce qui est de leur vision de la crise écologique. En effet, on a tendance à penser que ce que nous révèle la science est certain et n'est pas sujet à controverse. Pourtant tous les scientifiques n'aboutissent pas aux mêmes conclusions malgré la rigueur de leurs méthodes. Ces dissensions existent dans tous les domaines, mais sont particulièrement flagrantes dans le domaine de l'environnement. Depuis la publication du célèbre ouvrage de Rachel Carson, Silent Spring, qui dénonçait le caractère biaisé des études visant à démontrer que les pesticides n'ont pas d'effets nocifs sur l'environnement, le caractère partial des positions de certains scientifiques a été démontré et des débats font rage entre scientifiques visant à démontrer l'ampleur de la menace écologique et ceux qui restent sceptiques au sujet de l'urgence de la situation. Le thème du réchauffement climatique est très représentatif de ces tiraillements. La mise en place de l'Intergovernmental Panel on Climate Change (IPCC), rassemblant scientifiques et gouvernements du monde entier pour étudier la validité des différentes théories sur le réchauffement climatique, répond à un besoin pressant : il s'agit de tenter de parvenir à un consensus malgré la diversité des positions. Le rapport publié par cet organisme en 2007 a marqué les esprits en démontrant que le réchauffement climatique était bien réel et quasi certainement lié à l'activité de l'homme. De nombreuses incertitudes demeurent néanmoins quant à l'ampleur et à la vitesse de ce réchauffement. Elles amènent souvent les scientifiques à prôner des attitudes tout à fait divergentes au sujet des solutions politiques envisageables. Les divergences scientifiques sur l'environnement replacent les solutions dans le champ politique et font des ecothrillers des outils médiatiques destinés à sensibiliser le grand public à la menace écologique. Dans la plupart des cas, il s'agit d'arriver à ce que les lecteurs prennent conscience de l'ampleur de la menace écologique et de l'horreur de ses conséquences possibles. De nombreuses critiques mettent en évidence le caractère effrayant des ecothriller s lié à leur très grand réalisme, comme si les crises écologiques qui y sont décrites s'apparentaient en tous points à celle que nous pourrions bien vivre d'ici quelques années : « frighteningly realistic » au sujet de Dark Rain, « Stephenson captures the New World so perfectly that one almost thinks that it is already there », sur la quatrième de couverture de Zodiac et « its apocalyptic scenarios and powerful ending seem inevitable in the real world » sur la quatrième de couverture de Greenhouse Summer. Parfois au contraire, comme dans State of Fear notamment, il s'agit de dénoncer la crise écologique comme une construction sociale et non comme un phénomène physique attesté. Dans les deux cas, la fiction peut être perçue comme ayant une fonction persuasive dans un débat écologique à dimension internationale. Les ecothrillers semblent donc avoir une dimension militante. Par définition, un ouvrage de FASP vise à être lu par un large public. L'impact de ces ouvrages en est d'autant plus important. Dans son livre intitulé The Revenge of Gaïa, le scientifique britannique James Lovelock déplore l'influence de certains auteurs de fiction sur l'opinion publique. Faisant référence au roman sur le réchauffement climatique de M. Crichton, State of Fear, il montre qu'un roman de ce type peut avoir des conséquences néfastes. I take Michael Crichton's opinions seriously, not because they are true, but because he is such a good storyteller [. .. ]. The public is much more likely to be influenced by writers like Michael Crichton than they are by scientists. Fiction writers and film producers should ask themselves if they are sure that what they say is true before succumbing to the overriding imperative of the storyline; this is more important than ever before now that we face deadly change. (Lovelock 2006 : 48) J. Lovelock souligne le rôle essentiel que les ecothrillers pourraient avoir dans la prise de conscience du public et donc dans la résolution de la crise écologique. Il considère ici l'impact de ce type de roman sur un public de non-initié, que l'on pourrait décrire comme « naïve FASP reader » pour reprendre les termes de S. Isani (2009 : 50). L'effet est très différent sur le « specialist FASP reader » (Ibid. : 51) dont J. Lovelock lui même est un exemple. Les réactions de spécialistes du domaine ont d'ailleurs été vives et critiques suite à la publication de State of Fear (Genty 2009 : 102). Cette idée de J. Lovelock pourrait nous conduire à une réflexion sur les rapports particuliers qu'entretiennent le réel et la fiction dans les romans de FASP. Le fait que ces romans participent à un débat d'ampleur internationale bien réel signifie qu'ils pourraient avoir une fonction éducative ou persuasive. Or pour persuader le public, il faut à la fois donner des explications convaincantes et parvenir à le toucher de manière émotionnelle. On retrouve ici les traditionnelles catégories argumentatives d'Aristote. Dans La Rhétorique, Livre I, cet auteur distingue dans les discours délibératifs les preuves logiques de celles qui s'appuient sur le pathos et l'ethos. Puisque « la passion c'est ce qui, en nous modifiant, produit des différences dans nos jugements » (Livre 2, chap. 1, 8), il importe, pour obtenir l'adhésion de son auditoire ou de son lectorat, de faire appel aux passions de celui -ci. De ce point de vue, on peut remarquer que de nombreux scientifiques qui ont écrit au sujet de la crise environnementale se sont efforcés de rendre leurs ouvrages compréhensibles pour un public large et d'utiliser des arguments qui s'appuient sur sa capacité à s'émouvoir. Une méthode qui est alors souvent adoptée est celle consistant à introduire des fables ou de petites histoires pour que le lecteur se représente de manière plus intense l'ampleur des conséquences possibles de la crise écologique. R. Carson, qui a écrit un livre considéré comme un jalon dans la prise de conscience environnementale d'un large public, présente une brève fable qui sert à illustrer la tristesse possible d'un monde sans oiseau. Son premier chapitre, intitulé « A Fable for Tomorrow », débute par la phrase : « There was once a town in the heart of America where all life seemed to live in harmony with its surroundings » (Carson 1962 : 1). Les paragraphes suivants sont consacrés à la description de ce lieu idyllique mais, comme dans toute fable, les héros doivent affronter l'adversité : Then a strange blight crept over the area and everything began to change. Some evil spell had settled on the community : mysterious maladies swept the flocks of chicken; the cattle and sheep sickened and died. Everywhere was a shadow of death. (Carson 1962 : 2) J. Lovelock présente également la terre comme un être vivant qui aurait contracté une maladie. Il la surnomme Gaïa, nom de la déesse de la terre dans la cosmogonie grecque, ce qui permet de souligner son caractère vivant. Il explique cette stratégie rhétorique en ces termes : Metaphor is important because to deal with, understand, and even ameliorate the flux we are now in over global change requires us to know the true nature of the Earth and imagine it as the largest living thing in the solar system, not something inanimate. (Lovelock 2006 : 17) Au début de son ouvrage intitulé L'incandescent, Michel Serres (2005) introduit également une fable afin d'illustrer l'importance de certaines propriétés naturelles pour la communauté des humains. Le fait que des scientifiques utilisent ce type de procédé rhétorique pourrait nous conduire à former une hypothèse, qui restera pour l'instant à l'état d'hypothèse étant donné le cadre limité de cette étude, sur les caractéristiques des communications sur la crise écologique visant un large public. Elles semblent composées d'une association d'éléments scientifiques et d'éléments visant à produire des émotions. Ces caractéristiques correspondent en tout cas à celles des communications faîtes dans le cadre de l'éducation environnementale. Selon la définition du Programme des Nations Unies pour l'Environnement, cette dernière est une éducation qui promeut des attitudes et des systèmes de valeurs produisant un comportement éthique vis-à-vis de l'environnement. Ce qui peut poser problème dans ce type de pratique éducative c'est qu'elle se propose de sensibiliser aux questions environnementales et de ce fait s'adresse aux fonctions émotives des individus ainsi qu' à leurs fonctions cognitives. Cette idée permettrait de développer une réflexion éventuelle sur les relations particulières entre la fiction et la réalité dans les ecothrillers, puisque ces derniers pourraient être vus comme entrant dans une catégorie similaire à celle des textes scientifiques à destination d'un large public sur l'environnement. Cette hypothèse nous permet d'envisager les effets des ecothrillers sur le monde réel, puisque loin d' être de simples fictions, ces romans viseraient à persuader le public d'adopter le point de vue de l'auteur sur la crise environnementale. Ils auraient donc un effet potentiel sur le public, et puisque la résolution de la crise environnementale dépend en grande partie de l'adoption d'une certaine attitude vis-à-vis de l'environnement par un large public, ces romans pourraient avoir un effet sur le monde réel. En tant que miroir, jamais totalement fidèle mais toujours représentatif du monde réel, l ' ecothriller pourrait donc conduire à une prise de conscience et par ce biais, l'image réfléchie pourrait provoquer un changement dans l'image initiale. L'étude de Forty Signs of Rain nous permet de donner corps à cette idée en nous appuyant sur un exemple précis. Les héros y sont tous des scientifiques ayant conscience du fait que la crise écologique peut être sérieuse. Pourtant ils sont confrontés à des politiciens qui se méfient du changement et sont hermétiques à toute déclaration catastrophiste. La fin du roman met pourtant en scène la catastrophe annoncée. En utilisant les réflexions de Jean-Pierre Dupuy, philosophe dont les travaux sont centrés autour de la définition de la catastrophe, nous voudrions montrer en quoi cet ecothriller pourrait être vu comme ayant un rôle à jouer dans le monde réel, grâce à son effet de miroir. Une étude de textes écrits juste après qu'une catastrophe a eu lieu conduit J.-P. Dupuy à la décrire comme « le surgissement de l'impossible dans le réel » (2002 : 12). Mais ce n'est pas seulement le présent qui change radicalement lors de ce surgissement de la catastrophe dans le réel. Le passé lui -même se transforme puisqu'il paraît soudain contenir la possibilité de la catastrophe imminente, sans quoi celle -ci n'aurait pu se produire. J.-P. Dupuy défend l'idée que nous devons introduire la possibilité de la catastrophe dans notre présent pour mieux pouvoir la prévenir. Le roman de K. S. Robinson apparaît comme une confirmation de ce que prône J.-P. Dupuy. En effet, les personnages décrits ici sont volontairement des individus qui nous ressemblent. Ils vivent dans un monde semblable en tous points à notre monde contemporain et non à un futur lointain, menaçant mais aisément négligeable. Ils perçoivent la catastrophe comme le surgissement de l'impossible dans le réel : « he had crossed over into a space where the real world had taken on all the qualities of a dream » (Robinson 2004 : 357). Ce passage dans de l'irréel, du rêve, de l'impossible dans le réel est décrit ici de manière réaliste. L'auteur semble viser l'identification du public avec ses personnages soumis à la catastrophe, et il pourrait contribuer à prévenir la catastrophe, s'il était pris au sérieux, si cet ecothriller était considéré comme un reflet du réel. Au terme de cette étude, il peut être intéressant de tenter de déterminer si nous avons bien affaire ici à un nouveau genre textuel. Je m'appuie ici sur l'étude qu'A. Saber consacre à la définition du genre. Il considère que quatre critères aident à établir ce qu'est un genre et il évoque l'existence de différents degrés de cristallisation générique : [L]e genre est un dispositif énonciatif inscrit dans une situation sociale et culturelle; il est produit et géré par des communautés discursives, qui peuvent revêtir une forme professionnelle ou disciplinaire; il est marqué par des régularités langagières diverses; en outre, un « macro-acte de langage » global lui est associé. À partir de ce « cahier des charges » générique, il semble possible de décrire la façon dont un texte se cristallise en un genre donné, en établissant un « prototype » de celui -ci (la satisfaction, même partielle, des critères que nous venons de définir, détermine cette cristallisation générique – qui peut demeurer incomplète ou simplement « tendancielle »). (Saber 2006 : 48) La « situation sociale et culturelle » dans laquelle l ' ecothriller s'inscrit peut être précisée, bien que de manière assez vague, dans le sens où son développement semble intimement lié à notre époque contemporaine où l'on observe une croissance de préoccupations écologiques chez le grand public. Les ecothriller s semblent « marqué(s) par des régularités langagières » puisqu'on y trouve une concentration importante de vocabulaire scientifique au sujet de la crise écologique. La communauté discursive dans laquelle on produirait des exemplaires prototypiques de ces romans serait celle des environnementalistes; de nombreux auteurs de tels romans sont en effet engagés en ce sens. Identifier un « macro-acte de langage » à l' œuvre dans les ecothriller s semble également possible. En effet, il s'agit dans tous les cas de mettre en scène la crise écologique et de se prononcer à son sujet, souvent à la fois d'un point de vue scientifique et politique. Il est donc possible de tenter de préciser ce qu'est le genre de l ' ecothriller grâce à ces quatre critères mais la définition prototypique en reste encore assez imprécise. Toute tentative de caractérisation plus aboutie semble buter sur certaines exceptions tant les scénarios et les points de vue présentés par les auteurs diffèrent d'un roman à l'autre. Peut-être s'agit-il d'un genre en cours de cristallisation générique. Pourtant l'intérêt de l'usage pédagogique de ce type de roman pour des étudiants spécialistes de disciplines environnementales, ou pour des étudiants d'anglais de spécialité tentant de définir le domaine environnement, ne fait pas de doute. Mis à part le fait qu'il permet d'introduire de nombreux termes, il donne des renseignements sur les communautés qui agissent dans le contexte de la crise écologique, sur leur caractérisation identitaire, ainsi que sur divers aspects de la crise elle -même. Il nous invite également à entamer une réflexion au sujet de cette dernière, réflexion qui dans certains cas semble devoir déboucher sur une prise de conscience de son importance comme dans le cas de la trilogie de K. S. Robinson. L'étude des ecothrillers nous paraît finalement intéressante du point de vue de la recherche en FASP. Si les premières catégories d'ouvrages étudiés dans le cadre de la FASP étaient caractéristiques des années 1990, les ecothriller s seraient plutôt une FASP des années 2000. Leur étude pourrait refléter une évolution dans les domaines spécialisés choisis comme objets d'analyse dans le cadre de l'anglais de spécialité. Si M. Petit observe que ce qui permet une « représentation du professionnel [. ..] à la fois plus large et plus approfondie » (2004 : 17) dans les premiers ouvrages identifiés comme FASP est un « acquis culturel » (Ibid.) déjà présent chez le grand public, on peut penser que les ecothrillers n'en sont qu'aux premiers stades de leur développement et qu'il est encore trop tôt pour que le public soit familiarisé à ce point avec les problématiques écologiques et les milieux professionnels qui se développent autour de ces questions. Le degré de spécialisation de ce type de fiction pourrait s'approfondir par la suite. Peut-être serait-il alors possible de voir si les ecothriller s évoluent vers un prototype générique plus aisément identifiable. La présente étude avait pour objectif d'introduire ce type d'objet plutôt que d'offrir des conclusions abouties à son sujet. Il reste néanmoins qu'il nous a paru intéressant d'observer les effets de miroir à l' œuvre dans ce type de fiction. Comme évoqué, la réalité aurait un effet réfléchissant sur la FASP en ce qu'une évolution des domaines spécialisés considérés comme importants influencerait le type de production dans ce domaine. Mais il se peut que l'effet de miroir n'aille pas uniquement dans ce sens. Peut-on aller jusqu' à dire que la fiction tente d'influencer le réel ? En représentant les catastrophes écologiques dans un contexte très réaliste comme « le surgissement de l'impossible dans le réel », certains ouvrages de FASP pourraient contribuer à accélérer la prise de conscience du public au sujet des problématiques environnementales et par ce biais contribuer à une amélioration de la situation de l'environnement. En ce sens, ils pourraient servir d'outils pédagogiques forts utiles pour des formateurs en éducation environnementale . | Une profusion de discours sur la crise écologique actuelle semble se manifester à tous les niveaux de la société (dans l'univers des médias, des entreprises, de l'éducation, dans la sphère politique...) ; il peut donc paraître naturel qu'elle se manifeste également dans le domaine de la fiction. C'est ce dont témoigne le développement récent d'un nouveau genre de fiction spécialisée, l'ecothriller, dont l'auteur souhaite présenter les premiers éléments d'une définition. Tout d'abord l'origine de cette nouvelle étiquette générique est étudiée, puis elle est définie à travers l'analyse des points communs entre les différentes fictions qualifiées comme telles. Cette étude amène aussi à s'interroger sur le lien qui existe entre fiction et réel dans ce type de fiction à substrat professionnel. Ce lien peut être comparé à celui d'un double effet de miroir tant la production d'ecothrillers semble découler de faits réels et tant les auteurs de ces romans semblent viser à jouer un rôle politique ou éducatif dans le monde réel. | linguistique_11-0438768_tei_788.xml |
termith-709-linguistique | Je propose de m'intéresser dans ce texte aux dispositifs informatisés, non dédiés spécifiquement à l'apprentissage, mais dont l'usage qui en est fait rejoint pourtant celui d'une situation d'apprentissage, puisque construit en tant que tel au plan des représentations chez les témoins interrogés. Il s'agit donc de réfléchir à l'appropriation des langues-cultures, via une communication électronique envisagée ici en contexte non pédagogique. On verra au fond que la communication électronique ne détermine pas en elle -même des productions linguistiques généralement jugées « déviantes » par l'opinion commune : autrement dit, c'est refuser ici, avec P.Lévy (1997), la classique métaphore de l'impact, déterministe. En effet les phénomènes linguistiques remarquables, observables dans la communication électronique, sont au cœur d'un jeu de négociations, fait de plusieurs choix à la fois, plus ou moins contraints (et parmi ces phénomènes remarquables, des séquences dites standard sont d'ailleurs observables). à ma connaissance, ce type de réflexions est encore à la fois marginal et exploratoire. Il suffit de considérer les récents colloques, aux thématiques suffisamment ouvertes, qui ne suscitent pourtant guère ce type de réflexions. Elles sont pourtant intéressantes pour plusieurs raisons. D'abord, on prend ainsi en compte les continuités qui existent d'une part entre des données hétérogènes (les échanges exolingues sont à resituer par rapport aux échanges endolingues, par exemple), d'autre part entre des points de vue disciplinaires (en l'occurrence sociolinguistique et didactique), encore souvent distingués. Tout aussi classiquement, ensuite, cela amène à envisager les limites d'une distinction entre contexte pédagogique et ce qui ne l'est pas (ce qui peut légitimement apparaitre comme risqué). Enfin, et de manière plus spécifique, ce type de réflexions conduit à souligner l'intérêt de prendre en compte, en contexte pédagogique, les rapports aux différents dispositifs que les apprenants ont en amont avec ces derniers, en particulier dans leur langue maternelle. Ces rapports sont à envisager en termes de vécu, c'est-à-dire d'usages et de représentations, issus d'un parcours expérientiel à chaque fois unique (ce qui représente légitimement une difficulté, mais n'en constitue pas pour autant une impossibilité). Concrètement, j'examinerai ici, au sein du large éventail de la communication électronique, les échanges IRC ou tchats (surtout) ainsi que les messages écrits des téléphones portables (dits textos, SMS) ou les échanges sur MSN Messenger (plus secondairement). Il s'agit d'échanges à chaque fois francophones, qu'ils soient endolingues ou exolingues, et impliquant aussi bien des alloglottes que des non alloglottes. Le corpus IRC, extrait de différents gros canaux francophones, donnera lieu à une étude centrée plus particulièrement sur les pratiques de reformulations et d'explicitation. D'autres ressources seront également considérées : quelques entretiens en face à face avec des apprenants alloglottes uti-lisant la communication électronique pour construire des compétences en français, en dehors de la classe (dans la sphère privée), et selon une démarche personnelle. Au plan méthodologique, ces deux types de données seront conçus de manière complémentaire (les unes informant les autres), dans un cadre prioritairement qualitatif. Cette approche se heurte à un a priori classique, au sein de la communauté linguistique, et qui n'est pas sans renvoyer à l'histoire même de la didactique, au plan de ses courants méthodologiques. On peut le formuler en ces termes : comment pourrait-on construire des compétences en langue étrangère (particulièrement en français) à l'aide d'une communication électronique, hors contexte pédagogique, s'éloignant – par définition – de la cible standard ? En quoi finalement le « non standard » pourrait-il être utile ici ? Les précédents guillemets signalent un problème de fond qui touche à ce que présuppose la notion même de standard, entendu plus précisément ici sous l'angle de « la variété standard d'une langue donnée ». Qui dit standard dit en effet va-riété régulée, dans le cadre notamment de politiques linguistiques plus ou moins explicites. Cela conduit en toute logique à assimiler le « non standard » à du « non régulé », alors que l'on sait bien – depuis Labov – qu'il n'en est rien. Le non standard, positivement requalifié dans le cadre du variationnisme en « variété + qualificatif », est tout autant régulé, même s'il l'est généralement de manière différente (c'est-à-dire selon des modalités différentes), comparé au standard. Ce qui précède conduit donc à reformuler la question supra de la manière suivante : en quoi les régulations qui travaillent toute variété, au sein d'une langue donnée, peuvent-elles être utiles à la construction de compétences dans cette langue envisagée de manière générale, c'est-à-dire dans la transversalité de ses variétés ? Ainsi explicitée, cette question trouve ses éléments de réponse, dans les problématiques classiques de la didactique touchant notamment d'une part aux motivations et d'autre part au socioculturel, pour ce qui m'intéresse ici. Pour ces deux secteurs en effet, les représentations sont au cœur des réflexions, et la bonne méthodologie d'apprentissage apparait comme étant celle qui est le mieux adaptée au profil de l'apprenant, non déconnecté de ses représentations sur les langues. Les échanges sur internet, via l'IRC en particulier (ou tchat), ne sont pas des lieux de dérégulations linguistiques, malgré la caractéristique non négligeable d'offrir une diversité conséquente de « phénomènes remarquables » au plan linguistique ou sociolinguistique. La notion de « phénomène remarquable » (Pierozak, 2003) est ici utilisée en lieu et place de celle de « variantes » (ou « variations »). D'une part, l'optique variationniste accorde une importance trop grande au repérage (et en particulier au repère que constitue par défaut le standard dans les pratiques scientifiques de description), sans considérer suffisamment l'organisation globale des représentations chez les témoins d'une communauté linguistique, appréhendée dans son fonctionnement social propre. D'autre part, le repère par excellence que constitue le standard peut tout aussi bien relever, sur les canaux de tchats, de ce que j'appelle ici un phénomène remarquable, selon les contextes (par exemple, le standard peut être une ressource lorsqu'il s'agit, pour un opérateur, d'exclure un indésirable d'un canal, ou bien lorsque la thématique est particulière, comme le décès d'un parent, etc.). L'intérêt de l'adjectif remarquable est de souligner l'existence d'un regard, d'une communauté linguistique et d'un contexte précisément incarnés. Les phénomènes remarquables (désormais PR) sont le produit de régulations, de divers types, dont je ne donnerai que deux principaux exemples. Tout deux concernent la forme graphique des segments échangés, dont on conçoit aisément l'importance pour un alloglotte. Le premier exemple concerne une enquête portant sur les catégorisations de ces PR (issus de tchats en français), effectuées par des témoins jeunes (18-23 ans), locuteurs natifs du français, qu'ils se déclarent ou non initiés au tchat (les aspects classiquement méthodologiques sont détaillés dans ma thèse, Pierozak, 2003). Ce faisant je ne m'inscris pas dans la démarche classique des linguistes proposant des typologies de « variations graphiques » selon les mécanismes linguistiques en jeu (cf. notamment les travaux pionniers de J. Anis sur le français), puisque j'essaie plutôt d'identifier les fonctionnements en jeu au plan de la réception. Les catégorisations, effectuées par les soixante-quatre témoins sur quarante PR, sont largement convergentes. Elles permettent également de montrer l'existence d'un repère normatif central, que constitue empiriquement l'orthographe. Quatre principaux pôles catégoriels ont été distingués et désignés de la manière suivante : 1. le non-orthographique (les « fautes d'orthographe »); 2. l'ergographique (les « fautes de frappe », la « suppression des accents »); 3. le para-orthographique (les « onomatopées/bande des-sinée », les « smileys »); 4. le péri-orthographique (l' « écrit phonétique », l' « oral », la « prise de notes », l' « abréviation »). Les préfixes « non », « péri » et « para » signalent que les PR : _ s'écartent « négativement » de la norme orthographique (cf. le préfixe « non »); _ s'en écartent « positivement » en y étant liés (cf. le préfixe « péri », « autour », c'est-à-dire en contact); _ s'en écartent « positivement » sans y être liés (cf. le préfixe « para », « à côté de », c'est-à-dire sans contact). Les précédents adverbes entre guillemets renvoient au fait que les PR sont caractérisés soit par la négative vis-à-vis de la norme considérée, qui demeure présente dans l'étiquette choisie (cf. la « faute d ' ortho graphe »), soit positivement, avec l'absence d'un renvoi à cette norme, qui soit demeure implicite, soit disparait complètement, dans l'étiquette choisie (par exemple l' « abréviation » en appelle à autre chose – de non abrégé – à la différence des « smileys »). à ces quatre pôles, par ailleurs, il faut en ajouter deux autres, liés aux PR « orthographiques » et aux PR issus de « contacts de langues » (cf. l'entretien infra avec L., qui en donnera une illustration). On sait avec Lorenza Mondada que « la “compétence de catégorisation” […] intervient de façon importante dans les processus d'appropriation des ressources linguistiques par les locuteurs dans des situations d'apprentissage, de contact de langues et plus généralement de variation linguistique. (2000 : 81). C'est donc celle -ci, qu'il s'agisse de tchateurs alloglottes ou non, qui est à l'origine des régulations obser-vables (cf. infra) et plus largement de l'existence de communauté(s) linguistique(s) identifiable(s) en fonction de tel ou tel PR observable sur tel ou tel canal. Le second exemple concerne les reformulations de certains segments par les tchateurs eux -mêmes (ou non), lors de leurs échanges en français (alors même que ces tchateurs ne peuvent être considérés comme des alloglottes). Il s'agit d'une reprise corrective sur un élément précis, dans le cadre d'un nouvel envoi de texte sur le canal. Au plan syntaxique, cette reformulation n'est pas généralement pas intégrée à la chaine verbale (cf. le contre exemple du « poison/poisson » infra : sans doute un « maquillage » reformulatif) et ne constitue un énoncé autonome. Il est frappant de constater que ces reformulations semblent spécifiquement liées à deux des précédents pôles, à savoir le pôle non-orthographique (et en particulier les désinences morphologiques) et le pôle ergographique. La reformulation peut être agie ou dite. Par « agie », il faut entendre que le tchateur se corrige simplement dans un nouvel énoncé qui suit celui qui contient une « faute d'orthographe ». Lorsqu'elle est « dite », la reformulation est explicitée dans le cadre de l'échange. L'autocorrection agie est loin d' être rare, ce qui peut paraitre étonnant, étant donné que la compréhension n'est ordinairement pas menacée, ce qui peut être le cas avec certains PR ergographiques (comme « cannees » pour « scannées », par exemple). Généralement observables sur un mot, constituant le nouvel « énoncé », certaines reformulations peuvent être (ponctuellement) plus élaborées, plus subtiles, comme déguisées (par exemple, « j'aime pas le poison :/ » devient « ni le poisson d'ailleurs »). Par ailleurs, les reformulations ne sont pas forcément effectuées sur un seul énoncé (notamment en ce qui concerne les PR ergographiques), et elles semblent ne pas atteindre non plus nécessairement leur objectif normatif du premier coup, dans le cas des PR non-orthographiques. Selon qu'il s'agit d'une reformulation de PR non-orthographique ou d'une reformulation de PR ergographique, nous sommes en fait dans deux cas sociolinguistiquement distincts. Sans pouvoir donner plus d'exemples ici, la seconde est souvent contrainte, au plan communicationnel, à la différence de la première, qui pose le plus souvent beaucoup moins de problème de compréhension. à partir de là, on comprend qu'il soit plus légitime (et accepté) de demander au destinateur la reformulation d'un PR ergographique alors que l'on peut dire, sans vouloir généraliser à l'excès, que cela l'est beaucoup moins en ce qui concerne un PR non-orthographique (surtout si c'est le destinataire qui corrige le destinateur). Mais ce type d' « hétéro-correction » est plutôt rare. Elle peut être lue comme le signe tangible d'une divergence entre coénonciateurs, qui en vient en quelque sorte à se marquer formellement par une reprise orthographique. Il est intéressant de noter également que ce type de comportement normatif peut être associé à l'image d'un pseudo, et donc en devenir un élément potentiellement identifiant (par exemple le pseudo choisi peut renvoyer à un poète, comme Baudelaire, etc.). é videmment, étant donné les représentations, entre autres potentiellement normatives associées à un tel pseudo, les comportements auto - ou hétéro-correctifs à son égard deviennent alors cohérents sociolinguistiquement. Au-delà de cette reformulation « agie », on peut également trouver des cas de reformulation « dite », ou explicitée, parfois en association avec des phénomènes d'hypercorrection, ou des comportements ambivalents. La question orthographique peut ainsi devenir une thématique conversationnelle, compensatrice d'une « chute de niveau », ce qui en montre bien la valeur méliorative, et explique du même coup en quoi les hétéro-corrections peuvent être mal vécues. La vigilance orthographique, diversement illustrable – qu'elle soit agie ou dite – est bien réelle chez les tchateurs. Cela tend à montrer que la pratique du tchat peut permettre de développer une plus grande sensibilité linguistique (dont orthographique). En effet les aptitudes métalinguistiques sont reconnues et valorisées au sein de ces communautés, essentiellement linguistiques, où la sensibilité linguistique participe en fait des moyens permettant la promotion sociale. On vient de voir que les PR dont témoignent les tchats étudiés sont non seulement catégorisables de manière convergente, mais également qu'ils sont régulés du fait même que les communautés de tchateurs ont un fonctionnement propre, pour lequel la dimension méta est particulièrement importante. C'est dire en d'autres termes que les PR, entre autres, font l'objet d'une compétence sociolinguistique ad hoc. Le précédent paragraphe laisse entrevoir un jeu de régulations complexes. La complexité est bien réelle, en ce que l'usage de tel PR peut être lu sur différents axes. En voici trois principaux exemples, formulés sous forme de question. Est-il identificateur (ou non) de tel pseudo, et en quoi ? Est-il la marque d'une proximité coénonciative avec l'autre (ou non) ? Est-il lisible au regard des relations sociales organisant la communauté (ou non) ? En d'autres termes, chaque PR fait potentiellement l'objet de négociations/compromis entre ces différents axes, qui organisent le jeu dynamique de toute communauté. On notera que c'est précisément cette complexité qui fonde la possibilité même de parler ici, sur le plan conceptuel, de compétence (Castellotti et Py, 2002). En tout état de cause, c'est en raison de l'existence de cette compétence sociolinguistique que le non habitué ou l'alloglotte pourra être identifié en tant que tel sur un canal. Il ne s'agit pas ici de mettre ces deux profils de tchateur sur le même plan, en laissant supposer par exemple que les apprentissages seraient comparables. Mais il est bien question d'une double appropriation, en direction des dispositifs et en direction des (variétés de) langues. à cet égard, ne pas tenir compte, dans le cadre des dispositifs informatisés utilisés en contexte pédagogique, du fait que la plupart des jeunes apprenants ont déjà un minimum de pratique, en matière de communication électronique, dans leur langue maternelle est tout aussi problématique que de ne pas tenir compte de leur langue maternelle tout court. La plupart des témoins interrogés (cf. infra) font par exemple clairement le lien entre les PR d'une langue à l'autre. Ce paragraphe est centré sur les usages, stratégies et représentations de quatre alloglottes communiquant en français, en particulier via leur téléphone portable (sms/textos) et msn/yahoo messenger. Ce nombre modeste de témoins suffit néanmoins à illustrer deux éléments, essentiels ici. D'une part, on retrouve chez ces témoins des formes de régulations sociolinguistiques. D'autre part, il est également intéressant d'observer en quoi l'usage d'un dispositif n'a rien de prédéterminé, voire peut être détourné (au regard d'autres usages dominants), ce qui nous ramène à la question de l'appropriation sociolinguistique (c'est-à-dire concomitante d'un dispositif et d'une langue) et à la problématique question (déterministe) de l'impact, en particulier sur la forme linguistique. Par commodité d'exposition, je distingue le premier entretien des trois suivants, considérés globalement étant donné leurs proximités. H. est un adolescent primo-arrivant de 16 ans, d'origine tunisienne. Il bénéficie dans son lycée professionnel d'un « DAQUI » (Dispositif d'accès à la qualification et à l'insertion) et a intégré un petit groupe d'élèves de niveau intermédiaire en français. Son témoignage est intéressant, notamment sur les deux points suivants. En premier lieu, on peut parler d'un usage inattendu du téléphone portable. H. se sert en effet non seulement d'un cahier pour noter les nouveaux mots vus en classe, mais également parfois de son téléphone, pour les stocker en mémoire : « en plus j'écris dans le portable pour pas j'oublie pas » ! Autrement dit, l'objet « portable », que cet adolescent a en permanence sur lui, est vécu comme plus utile qu'un cahier, pour noter des éléments concernant la langue cible, qui doivent potentiellement être mobilisables en permanence. De même, son téléphone lui sert aussi à noter des PR qu'il va pouvoir réutiliser en contexte de communication électronique, tels que par exemple « kiss », « ze t'm ». Ces deux comportements sociolinguistiques, distincts mais qui procèdent fondamentalement du même désir d'apprentissage, se trouvent de fait réunis dans (la mémoire d' )un objet unique : le téléphone portable. Cela appelle quelques questions : – tous les mots nouveaux, vus en classe, connaissent-ils ce double traitement, cahier-portable ? D'après l'entretien, il semblerait que non; – comment sont-ils choisis par l'apprenant ? Sans doute faut-il faire l'hypothèse qu'ils évoquent pour l'apprenant un bon moment passé en classe et doivent simultanément être réexploitables en situation de communication électronique; – comment sont-ils notés ? avec traduction dans la langue d'origine, par exemple, ou non ? Sont-ils notés à côté des PR ? – on voit en quoi le découpage entre contextes pédagogiques ou non est problématique ici (cf. la note 1 supra). Des continuités existent entre les situations vécues (scolaire ou non) et les objets utilisés (cahier ou portable), de même qu'entre les variétés de langue (formelle ou informelle). En second lieu, l'usage des modes « T9 » vs « ABC » a permis de mettre en évidence, chez cet apprenant, ce qui semble relever de véritables stratégies d'apprentissage, autant en direction de la norme qu'en direction des variétés informelles et des compétences sociolinguistiques mobilisées en contexte électronique. Ainsi, dans le passage qui suit, H. explique que lorsqu'il communique par sms/textos, il utilise dans un premier temps le mode T9 et son dictionnaire associé, pour visualiser le mot à écrire, et qu'ensuite il l'efface, et le réécrit selon le mode ABC, pour gagner de l'espace… mais pas seulement : Par exemple, si cette mot là, elle est un peu longue, je peux l'effacer et après… au lieu que je mets « eau », je mets « o » … c'est tout, voilà. D'accord. Par contre tu aurais pas mis tout de suite avec un « o » ? Non. D'accord. Je mets tout le mot pour savoir si elle est juste, et après… je mets « o » … c'est-à-dire je connais le mot (les passages notés en italique corres-pondent à mes réactions). On peut parler ici de deux stratégies. Avec T9, H. a d'abord accès à la norme. Et il y tient particulièrement pour pouvoir réutiliser la forme « juste » en cours. Au passage, il faut noter que comme le mode T9 implique de connaitre la forme juste (ne serait -ce que pour taper le bon nombre de lettres, correspondant au mot à afficher), un apprenant doit sans doute passer du temps à tâtonner… Ensuite avec ABC, certes H. envoie des messages moins longs, mais surtout il manifeste deux autres compétences (au moins) : d'une part, une compétence « sociolinguistique » (qui veut qu'en matière de communication électronique, avec tel destinataire, on utilisera certains PR), d'autre part, une compétence « linguistique » (puisque dans l'exemple précédent, les deux graphies seront mises en correspondance). Evidemment ces deux étapes, qui plus est successives, paraissent excessivement coûteuses en temps, et donc quelque part, faire violence aux représentations d'immédiateté temporelle, par ailleurs attachées à la communication électronique. En même temps, elles permettent assurément de conclure ici à la mise en place de stratégies d'apprentissage dont l'intérêt (à commencer sans doute par une mémorisation favorisée) apparait aux yeux de l'apprenant comme bien supérieur aux inconvénients (de ralentissement) entrainés. L. et C. sont deux femmes roumaines, respectivement âgées de 21 et 30 ans. L., étudiante en psychologie, a appris le français pendant quatre ans en Roumanie en contexte scolaire, et son séjour en France doit durer 4 mois ½. En termes de langues étrangères, elle connait « un petit peu » d'italien, d'espagnol et de grec. Elle connait mieux le français (niveau plutôt intermédiaire à l'oral), et surtout l'anglais. C., quant à elle, est enseignante d'anglais, a fait plusieurs séjours en France, dans le cadre de ses études (sur quatre ans, cela représente une durée totale en France de 9 mois environ). Elle pratique le français et l'anglais couramment, connait un peu d'espagnol et d'allemand, et dit se débrouiller en compréhension en italien. Son profil est atypique pour deux raisons : d'une part, elle n'est pas à strictement parler apprenante de français dans le cadre d'un séjour linguistique (comme L.), d'autre part, ses études la placent en position d'experte puisqu'elle a un doctorat de linguistique. Enfin, R. est un homme de 27 ans, venu en France il y a quatre ans et demi, pour ses études qu'il poursuit actuellement par correspondance. Originaire d'Afrique du Sud, il a comme langue maternelle l'anglais, et connait (par ordre d'importance décroissant) l'afrikans, le zoulou et le français (dans lequel son oral est de niveau plutôt intermédiaire à avancé). Lui aussi est atypique dans la mesure où il a le projet de vivre en France. Avant d'en venir aux principales transversalités des témoignages recueillis, on peut s'arrêter rapidement sur chacune des problématiques personnelles. L. trouve, avec la communication électronique, un moyen « plus facile » d'accéder au « français familier oral », ce qui lui permet de voir autre chose que le « français littéraire » qu'elle a appris en Roumanie. Les amis avec qui elle échange en français utilisent d'après elle soit une variété assez proche du standard (absence d' « abréviations », etc.) soit une variété avec des PR. Dans le premier cas, elle donne l'exemple d'un ami français et dans le second cas, l'exemple d'un ami marocain, qui aurait un meilleur niveau qu'elle en français. Ce qui ressemble à un parallélisme (standard = ami français et PR = ami marocain) est intéressant à creuser au plan des représentations. Elle m'explique que c'est son ami français qui imagine que c'est plus facile comme ça pour elle, alors qu'elle -même semble assez indifférente. Surtout qu'en parallèle, elle fait l'expérience de la manière (« phonétique ») d'écrire de son ami marocain, avec qui la communication fonctionne bien malgré tout. Elle explique même que c'est plus facile pour elle, alors même qu'elle pense qu'il communique peut-être en arabe avec elle. Si l'on schématise, ce serait donc plus facile de communiquer en français… si on le fait en une autre langue, à savoir sa langue maternelle ? Ce non-sens apparent tient au fait que, par exemple, l'abréviation « sal » pour « salut », qu'elle utilise pour communiquer « en français » (alors que cette abréviation est rarement observée d'ordinaire) est aussi la même abréviation qu'elle utilise pour communiquer « en roumain ». Voilà donc sans doute un exemple de PR (en contexte de communication francophone) issu d'un contact de langues (cf. supra). Lui demandant si ses amis ne sont pas surpris de sa manière de communiquer faisant usage des PR, elle explique : « c'est une façon de m'adapter à leur façon de parler en français ». La problématique de C. est en partie la même que celle de L. : la communication électronique est un moyen privilégié d'accéder au « français familier oral », après des années d'études, orientées en Roumanie, sur le « français académique ». Là aussi, avec la communication électronique, « c'est plus facile, plus agréable » comparé à l'apprentissage (livresque) classique : « si c'est dans un bouquin, je reprends pas, avec le texto, je reprends ». Elle explique d'ailleurs à un autre moment : « je suis comme une « sugativa » » (« buvard » en roumain). Du coup, elle préfère quand ses amis ne font pas d'effort particulier vis-à-vis d'elle. Plusieurs éléments sont à souligner dans le témoignage de C. Tout d'abord, il lui arrive de reformuler (autocorrection normative d'un élément) mais uniquement avec ses « amis français » et non ses « amis algériens », qui parlent moins bien français. Classiquement, la légitimité construite des uns (en réception) suscite potentiellement une forme d'insécurité linguistique (en production), et inversement, la non légitimité, toujours représentationnellement construite, va de pair avec une forme de sécurité linguistique. Ensuite, m'expliquant qu'elle a aussi appris, comme ça, les « mots vulgaires » de la langue et que certains de ses amis ont été choqués de ses réutilisations, elle précise : « moi, je prends pas la responsabilité des mots vulgaires, parce que c'est dans une autre langue, donc ça ne me dérange pas ». Sans doute que cette déresponsabilisation face à l'usage de mots vulgaires, au risque de choquer, est un bon indicateur de l'identité revendiquée de locuteur étranger, quand on pense qu'il ne reste plus rien d'autre sur le plan linguistique pour le marquer… Enfin, concernant spécifiquement les PR, C. essaie de les deviner, de les réutiliser, et d'en créer à son tour « mais avec la bonne personne ». Elle a observé que ses amis algériens débutent toujours leur message par le PR « slt », qu'elle décode à chaque fois comme correspondant à « s'il te plait » (et non « salut », alors que « s'il te plait » aurait plutôt été abrégé en « stp », de mon point de vue). Il est très intéressant d'observer ici comment les PR peuvent fonctionner comme cristallisateur immédiat de représentations. D'une part, il faut les décoder dans l'instant pour pouvoir continuer à communiquer : il s'agit là du côté immédiat de la cristallisation, qui pourrait sans doute expliquer ici l'assimilation visuographique entre « slt » et « stp ». D'autre part, leur décodage se réalise en fonction de ce que le destinateur sait du destinataire, et donc des représentations qu'il s'en fait : par exemple ici, ces locuteurs algériens auraient tendance à débuter leurs énoncés par le segment « s'il te plait ». Ceci étant précisé, il y aurait donc cristallisation au sens où ce « codage », une fois opéré, se stabilise par la suite, sans plus être remis en cause. à l'inverse de L. et de C., R., qui a suivi des cours de français seulement à son arrivée, a trouvé dans la communication électronique un moyen d'accéder au français écrit, malgré « une langue très spécifique sur msn messenger ». Il explique ainsi : « à l'écrit… j'ai appris plus avec les ordi. Ah bon ? Ouais, c'est sûr, parce qu'en commençant d'avoir des amis français, j'ai communiqué avec eux par email, par msn messenger, par sms, et j'étais obligé d'écrire en français ». Plusieurs éléments là encore sont intéressants. D'abord, cela concerne ses destinataires français qui vont l'aider à progresser, à sa demande ou non : quand j'ai commencé d'écrire français, c'était très oral, donc j'ai des amis, quand j'écrivais mal quelque chose, ils ont réécrit pour moi. Reformulé ? Oui, voilà, surtout la conjugaison. Et donc tes amis, ils arrêtaient d'écrire comme ça [avec des PR] ? Non en fait j'ai quelques amis j'ai demandé s'ils peuvent écrire normalement, pour moi, en exprès. Ah d'accord. Ça a marché ? Ils ont joué le jeu ? Ah ouais, y en a un, c'est même trop parce que je peux même pas avoir une conversation avec lui, chaque deux, trois phrases, il me dit « non, c'est ça », etc. […] Comment les as -tu choisis ? Je pense que j'ai demandé aux gens qui étaient en ligne plus souvent. Mais y a quelques uns qui le faire sans demander. Ils le fait juste pour m'aider en fait. Les raisons de ce comportement spontané et/ou excessif serait à interroger chez les destinataires. Mais ce qui est intéressant également, c'est que d'une part, R. se comporte à son tour de la même façon avec un ami argentin, de moins bon niveau que lui en français, en raison ici de difficultés de compréhension lorsqu'ils communiquent ensemble sur msn. D'autre part, il lui arrive souvent sur msn de s'autocorriger, « parfois deux, trois, quatre fois ». Ensuite, on retrouve, un peu comme chez C., le même rapport à la langue étrangère comparé à la langue maternelle : « moi, je déteste l'écriture comme ça en anglais. Pourquoi ? Pff… je n'aime pas du tout ça. […] c'est pas de l'anglais ça, c'est une autre langue, c'est devenu une autre langue. Et en français ? Ça m'agace moins, parce que c'est pas ma langue ». Enfin la communication électronique a changé sa manière d'apprendre. Le support visuographique l'aide à mieux mémoriser, plus facilement. Ces trois problématiques spécifiques, envisagées dans leurs grandes lignes, permettent de mettre en lumière quelques points communs. – La communication électronique apparait comme un accès privilégié à l'authenticité d'un discours informel, et en particulier à l'oral familier, que l'apprenant, via l'écran, a le sentiment de pouvoir mieux contrôler temporellement (le recours au dictionnaire est même parfois possible). Mais la même chose est également vécue concernant l'écrit, en dépit des PR. Tout semble donc se passer à ce niveau comme si, en fonction de ses besoins, l'apprenant utilisait, au mieux des possibilités et des contextes, le média comme un outil d'apprentissage. – Cet usage fonctionnalisé est vécu sur le mode de l'adaptation ludique, plus ou moins contrainte temporellement. Cela semble constituer simultanément l'adrénaline d'un apprentissage sociolinguistique, sans doute à rapprocher d'un accroissement de motivation, dans un contexte où « l'apprenant » n'est plus construit par l'autre comme apprenant seulement. – La communication électronique est transformée potentiellement en outil, non seulement chez les alloglottes, mais fonctionne aussi en tant que tel chez les destinataires non alloglottes, les mêmes qui jouent le rôle d'arbitres linguistiques (en acceptant de « corriger » les productions) ou produisent des PR « stimulateurs », et auprès desquels il serait donc intéressant d'enquêter. – Tout semble se passer comme si l'alloglotte pouvait s'approprier le média électronique en tant qu'outil d'apprentissage dans la mesure où la notion de norme n'est pas attachée à ce média, et qu'il était donc possible pour lui de revendiquer légitimement, c'est-à-dire en tant qu'alloglotte, le recours (aussi) à la norme, dans un contexte où ce recours, comparé à des échanges endolingues, est autrement décodé. à partir de données diversifiées, tant au plan des pratiques que des représentations, ce texte propose plusieurs pistes de réflexions concernant la construction de compétences en français, par des alloglottes, dans le cadre de situations de communication électronique exolingues, hors contexte pédagogique, et qui sont elles -mêmes diversifiées (correspondant à divers dispositifs : IRC, MSN messenger, courriel ou texto/sms). Ces pistes, à l'interface de la didactique et de la sociolinguistique, ont une visée essentiellement exploratoire, mais aboutissent déjà à quelques résultats intéressants. Il apparait d'abord que les échanges sur internet, via l'IRC en particulier, ne sont pas des lieux de dérégulations linguistiques, malgré la caractéristique non négligeable d'offrir une diversité conséquente de « phénomènes remarquables ». D'une part, ces derniers sont catégorisables au sein des communautés linguistiques. Et l'on a vu, plus largement avec les entretiens, en quoi les PR peuvent être des cristallisateurs immédiats de représentations. D'autre part, les pratiques de reformulations abondent. Il s'agit là de deux éléments, parmi d'autres, qui laissent entrevoir en quoi la pratique du tchat peut permettre de développer une plus grande sensibilité linguistique. Ensuite les entretiens réalisés tendent à montrer, de la part des témoins alloglottes, une appropriation des divers dispositifs de communication électronique à des fins d'apprentissage, d'où, j'y insiste à nouveau (cf. l'introduction) l'intérêt de prendre en compte, en contexte pédagogique, les rapports que les apprenants ont en amont avec les différents dispositifs, en particulier dans leur langue maternelle. Enfin cette appropriation s'opère tout à la fois malgré et grâce aux phénomènes linguistiques remarquables. On aperçoit ici en quoi il peut y avoir complexité, par-delà les habituelles logiques déterministes. En effet, pour le formuler rapidement, « le “non standard” est aussi au service du standard comme de la langue dans sa diversité » … Sans revenir sur le précédent paragraphe, synthétisant déjà les principales réflexions qui se dégagent de ces témoignages, il apparait en définitive que d'autres questionnements restent à ce stade -ci encore ouverts, et nécessiteraient d'autres enquêtes : en particulier sur les pratiques de reformulations des alloglottes et celles de leurs destinataires (en particulier les non alloglottes avec lesquels ils communiquent), les représentations de ces non alloglottes, etc . | A partir de données diversifiées, tant au plan des pratiques que des représentations, ce texte propose plusieurs pistes de réflexions concernant la construction de compétences en français, par des alloglottes, dans le cadre de situations de communication électronique exolingues, hors contexte pédagogique, et qui sont elles-mêmes diversifiées (correspondant à divers dispositifs). Ces pistes, à l’interface de la didactique et de la sociolinguistique, ont une visée essentiellement exploratoire, mais aboutissent déjà à quelques résultats intéressants. | linguistique_11-0139729_tei_438.xml |
termith-710-linguistique | La modalité dans le discours est sans doute l'un des domaines dont la maîtrise est la plus nécessaire pour des locuteurs-rédacteurs scientifiques, elle est aussi l'un des domaines les plus problématiques et exige qu'une sorte d'état des lieux soit fait avant d'opter pour une stratégie d'analyse définie. C'est cet état des lieux préliminaire que le présent article se propose de faire. Les premiers chercheurs en anglais scientifique comme Barber (1962) se sont essentiellement préoccupés du rôle joué par les verbes modaux dans le contexte de la modalisation. Barber recense 16 % de verbes au mode fini accompagnés de modaux sur un corpus de 23 400 mots, cette prise en compte des seuls verbes modaux se retrouve chez les « rhétoriciens » du discours scientifique comme Trimble (1985) qui décrit la modalité comme étant un « semi-jargon » et qui ne justifie l'étude de should, must, may et can que dans le genre rédactionnel « instructions ». Meyer (1998), éminent représentant de l'école allemande d'anglais de spécialité dont le présent article s'inspire pour de nombreux points, adopte la même attitude vis-à-vis de la modalité dans le discours scientifique et ne considère guère que le rôle joué par les verbes modaux. Les représentants de l'école « générique » en LSP, Swales (1990) et Bhatia (1993), ont ajouté une dimension sémantique à la notion de modalité. Les sociologues de la science (Bazerman 1988; Forstop 1989 Lynch & Woolgar 1990) ont présenté la démarche de modalisation comme étant absolument consubstantielle à la démarche scientifique, au point de transcender non seulement la notion de « genre » (rapport, note de recherche, exposé oral, etc.) mais même celle de « registre » (médecine, littérature, droit, etc.) La perspective d'étude de la modalisation dans le discours scientifique gagnerait sans doute à être élargie et à faire une place, non seulement au rôle joué traditionnellement par les verbes modaux, mais à d'autres éléments qui prendraient en compte, entre autres, les aspects cognitifs, pragmatiques, sémantiques et sociologiques du discours de la science. Il est courant d'opposer « langue générale » et « langue spécialisée », « communication quotidienne » et « communication à visée spéciale », ou « professionnelle », ou encore « scientifique », « technique », etc. Le scientifique, ou tout professionnel dont la communication dans l'exercice de sa profession est suffisamment typée pour se démarquer de la langue de Monsieur Tout le Monde, vivrait donc dans deux mondes dans lesquels communication « générale » et « spécialisée » seraient relativement distinctes (Sionis 2001). Cette notion de « double monde » doit cependant être comprise dans d'autres sens lorsque l'on traite de la modalité dans le discours scientifique. L'auteur scientifique qui a recours à des procédés de modalisation de son discours (essentiellement à l'écrit pour ce qui suit) le fait fondamentalement pour signaler que les chances de réalisation d'un fait ou d'une hypothèse scientifiques ne sont ni assurées dans l'absolu, ni garanties par lui -même au moment où il écrit (Perkins 1983). Les raisons du recours à la modalisation sont certes plus nombreuses et plus subtiles, mais en se situant dans une perspective de réalisation ou de non-réalisation d'un fait, l'auteur scientifique désigne bel et bien deux mondes possibles : celui d'un monde « réel », dans lequel les faits et les hypothèses relèvent d'une réalité avérée et jusque -là immuable, et celui d'un monde « supposé », espace propice à toutes les remises en question, tous les ajustements et toutes les révolutions. Les notions de « réel » et de « supposé » ne relèvent certes pas des mêmes catégories logiques. Selon von Wright (1951), « réel » relèverait du domaine de l'ontologique alors que « supposé » relèverait du domaine de l'épistémique. Néanmoins, le cadre de référence de la science, et en particulier de la représentation écrite de celle -ci, avec le positionnement énonciatif de nature essentiellement rhétorique du scripteur qu'elle suppose, rend commode l'opposition réel/supposé quand elle se limite au strict domaine de l'épistémique. Une autre vision voisine serait celle d'un monde « réel » où les théories et les faits seraient acceptés ou rejetés en fonction de critères, par exemple, fonctionnels, mais ne souffrant aucune réserve en dehors de cette alternative binaire, et un autre « monde irréel » dans lequel vérité et fausseté fluctueraient au gré de conditions subjectives, aléatoires, incontrôlées, etc. Ce « monde irréel » fournirait un espace discursif mouvant dans lequel viendraient s'insérer la discussion, la prise de recul, le doute rhétorique qui permet d'interroger des concepts jusque -là inébranlables, d'établir des rapports dialectiques entre les idées, etc. Au-delà de l'étude des procédés syntaxiques ou discursifs qui caractérisent la modalisation dans une langue naturelle donnée (voir plus bas), il semblerait que le discours scientifique soit caractérisé par certaines nécessités de modalisation qui obéissent à des stratégies sociolinguistiques : être accepté et approuvé par une communauté de recherche, appuyer sa propre recherche, éventuellement sujette à caution, sur la recherche d'autrui, antérieure et non discutée. Les chercheurs du domaine des langues de spécialité ou de la sociologie des sciences qui se sont penchés sur cet aspect de la modalisation sont nombreux (Swales 1971, 1981, 1990; Gilbert & Mulkay 1984; Myers 1985; Mulkay 1991). Pour ces auteurs, il y aurait des justifications internes spécifiques à la démarche de (re)présentation du savoir scientifique pour l'usage de procédés de modalisation linguistiques ou discursifs. La différenciation se justifie si l'on considère, par exemple, le recours à des choix de type lexical (tel verbe modal, ou tel adverbe, plutôt que tel autre) mais aussi à des constructions spécifiques dans lesquelles l'organisation du discours (par ex. the process is not always what people expect) relève d'un type de hedges (voir Marchais 2002, pour le phénomène de « surmodalisation »). Ces procédés refléteraient des attitudes idéologiques ou des intentions de communication qui seraient des caractéristiques inhérentes à la démarche scientifique et à sa représentation écrite. À cet égard, l'usage des temps grammaticaux peut prêter à des interprétations ambiguës : la science qui parle d'elle -même au présent se réfère obligatoirement à un état du monde qui pourrait bien être autre que ce que l'on imagine au moment présent. Si l'on conçoit et présente un état du monde différent au moment où l'on formule des hypothèses, on le conçoit comme pouvant être vrai ou réel dans un monde non conforme au monde actuel. L'autre situation est de concevoir un état des choses différent dans le monde réel, mais à un autre moment de ce monde réel. Une caractéristique possible de la modalité est la relativisation de la valeur de vérité d'une phrase par rapport à un ensemble de mondes possibles. Parler de mondes possibles c'est parler des façons dont les gens peuvent concevoir le monde comme différent. On est au cœur de la démarche scientifique et de la notion de « progrès scientifique ». Dans la démarche scientifique, il y a cependant au moins deux grandes catégories de jugements évaluatifs qui se traduisent par des actes de parole différents. L'évaluation peut être factive : « c'est juste », « c'est correct », « c'est faux », « c'est bon », etc. Ou elle peut être interprétative : « je pense que », « je déduis que », « je conclue que », etc. La modalisation sous sa forme stratégique et sociolinguistique va surtout s'appliquer à la première catégorie, l'évaluation factive, dans la mesure où un jugement personnel du chercheur va aboutir à une prise de position relativement à d'autres prises de position ou théories d'autres chercheurs (notion d'acceptabilité sociale et stratégique). La modalisation sous sa forme introspective et psycholinguistique va surtout s'adresser à la seconde catégorie, l'évaluation interprétative, où la relativisation du sens d'une phrase va se justifier par rapport à des jugements antérieurs du même chercheur ou en fonction d'un raisonnement du type « questions rhétoriques » ou auto-adressées. La frontière entre les deux sortes d'évaluation n'est cependant pas aussi nette que l'on pourrait croire d'emblée : un énoncé du type « c'est correct-faux-bon », etc. est toujours produit par un locuteur-rédacteur dont la position sociale et scientifique, la tâche ou le propos, font l'objet d'une description aussi minutieuse et complète que l'exige les genres communicationnels formellement modalisés et contraints de la recherche. L'article de haut niveau, vecteur par excellence du savoir scientifique, en est l'exemple canonique. Dès lors, une part d'interprétation subjective, et donc interprétative, est toujours présente dans l'énoncé factif de tel ou tel auteur. Les verbes dits « illocutionnaires » qui caractérisent les actes de parole ne référant qu' à un acte et non à la relativisation de la validité d'un état du monde – dans un énoncé du type « J'affirme que tous les hommes sont mortels », dire que quelque chose est compatible avec ce que j'affirme n'a pas de sens. La vérité de l'assertion ne dépend pas de mon opinion et ne se situe pas sur une échelle d'acceptation variable de mon énoncé. L'illocution serait donc étrangère à la notion de modalité (Kiefer 1987 : 87). En ce qui concerne le discours scientifique et l'aide à la rédaction en langue étrangère que l'on pourrait apporter dans le domaine de la modalité à un rédacteur avancé, il peut s'avérer utile d'envisager un autre ensemble de critères. Selon Bally (1942), la modalité est présente dans toute évaluation de la part du locuteur. Pour Bally, chaque énoncé comporte deux composantes : ce qui est écrit ou dit (le « dictum »), et la façon dont cela est écrit ou dit (le « modus »). Dans un énoncé comme « Je pense que c'est faux », « Il est probable que c'est faux », « Cela doit être faux » le dictum est : « c'est faux », tout le reste relève de la modalité (le modus). La modalité serait donc définie comme l'attitude cognitive, émotive, ou volitive du locuteur envers un état du monde. Une mise en garde s'impose à ce niveau : les attitudes doivent être distinguées des états ou d'une certaine description du monde fournie par le locuteur-rédacteur. L'expression linguistique de telles descriptions ne relève pas de la modalité. Dans certains cas, l'attitude et la cause se manifestent par deux constructions syntaxiques différentes : 1. Je m'étonne qu'on ne me réponde pas (je m'étonne est remplaçable par des expressions du type « je juge étonnant », « il est surprenant », etc.) 2. Je m'étonne de ce qu'on ne me répond pas (la construction en « de » = « le fait que », exclut une substitution par des expressions modalisantes comme en (1) et décrit je m'étonne comme un résultat et de ce qu'on ne me répond pas comme une cause. Le prédicat « s'étonner » ne relève de la modalité que dans le premier cas (Kiefer 1998 : 592). Dans une perspective d'aide à la rédaction scientifique, ce sont les différentes façons d'exprimer le modus qui devraient être mises à la disposition de l'apprenant-rédacteur. Pour des raisons de facilité didactique et de programmation informatique, il est probable qu'un regroupement des différentes formulations possibles devrait se faire en fonction des catégories traditionnelles d'expression de la modalité (tableau 1). Il s'agirait donc d'identifier l'attitude cognitive, émotive ou volitive du rédacteur vis-à-vis d'un état des choses, en l'occurrence la proposition qu'il souhaite modaliser. L'on traiterait de l'attitude vis-à-vis de l'état des choses et non de l'état des choses lui -même. La phrase peut donc être scindée en deux parties en fonction du prédicat qui indique le modus et celui qui indique le dictum. On peut argumenter sur le fait que A relève d'une relation attitude-état du monde et B d'une relation cause-effet (la deuxième partie de la phrase B exprimant le modus agirait comme cause et la première serait l'effet). La présence du modal can en B déplace la modalisation vers la deuxième proposition, ce qui pose la question de la hiérarchie des marqueurs de modalisation : peut-on parler d'autre part de « force modalisatrice », comme l'on parle de « force illocutionnaire » ? Une autre interprétation de B serait de considérer les deux parties de la phrase comme deux modalités différentes : la première étant un modus de dicto, la seconde un dictum + un modus de re. Pour faciliter la discrimination entre dictum et modus, il conviendrait peut-être d'utiliser la distinction que fait Frege entre pensée, jugement et assertion. Si l'apprenant devait identifier les différente parties de phrase en fonction de ces appellations, il attribuerait la pensée au dictum (la formulation non modalisée ou le contenu propositionnel) et le jugement au modus (qui reflète l'attitude du rédacteur face aux choses), l'assertion prise dans un sens très large serait alors l'ensemble dictum-modus. Dans le cas qui nous préoccupe, la modalité, il faudrait surtout déterminer où se place le modus et sans doute établir des taxinomies de prédicats. Par exemple, si l'on peut dire qu'un verbe d'attitude, souvent de type épistémique (je crois, j'estime, je m'étonne, j'admets, etc.) non causatif, transitif, et construit de manière personnelle, se trouve dans la proposition, c'est cette proposition qui porte le modus. La proposition enchâssée avec QUE/THAT est généralement le dictum (voir néanmoins plus haut le contre-exemple B). Si l'on a affaire à une seule proposition, il est plus difficile de séparer dictum et modus. Le modus est alors exprimé sous diverses formes : Adverbe : Le phénomène va probablement se produire. Verbe modal : Le phénomène doit se produire. Une marque sur le verbe (temps, aspect) : Le phénomène ne se serait jamais produit (plus complexe). La première est une catégorie sémantique verbalisable sous différentes formes morphosyntaxiques, la seconde est une catégorie morphosyntaxique. La modalité de phrase est la valeur modale de certains types de phrases. Plusieurs types de phrases peuvent exprimer la même modalité de phrase. Le sens d'une modalité de phrase reflète l'attitude communicationnelle du locuteur-rédacteur vis-à-vis de son interlocuteur-lecteur et vis-à-vis de l'objet de la communication. L'intégration d'une telle base de données à un logiciel d'enseignement à distance semble tout à fait réalisable; le problème posé par cette approche est cependant la difficulté de proposer des formulations non ambiguës et clairement liées à tel ou tel type de phrase. Les exclamatives et les déclaratives sont sémantiquement et syntaxiquement très proches, de même que les optatives et les impératives. Par exemple, une formulation très fréquente en science comme : Either X happens or the process is no longer valid Optative ? Impérative ? Ou Interrogative ? L'attitude exclamative contient l'attitude déclarative puisque s'étonner d'une situation implique que cette situation est reconnue et intégrée. Les déclaratives ne devraient-elles pas être considérées comme les seuls types de phrases non modalisables dans la mesure où les autres types de phrases ne sont modalisantes que par rapport aux déclaratives ? Les déclaratives ne relèveraient alors que du dictum. Une autre appréhension de la question serait de considérer que modalités épistémiques et assertives (et interrogatives) sont sur un même plan, de sorte qu'une modalité épistémique peut ne pas pouvoir modaliser une déclarative. Ainsi : He may be tired. Is he tired ? *May he be tired ? Il est impossible de cumuler deux modalités de même niveau. La modalité épistémique concerne le savoir et la croyance, la modalité déontique renvoie à la nécessité ou la possibilité d'accomplir une action et introduit la notion d'autorité, de pouvoir, de licence, etc. La réalisation linguistique de ces types de modalité présente cependant de nombreuses ambiguïtés. Si l'on prend un exemple rendu typiquement ambigu par l'usage de may : He may think that …—>un premier sens est perhaps he thinks that. .. (modalité épistémique) He may think that …—>un deuxième sens est he is permitted to think that. .. (modalité déontique) L'ambiguïté de may sera une difficulté dans la perspective didactique d'un support EAD, mais He may know the answer peut seulement être épistémique. L'interprétation dépend du contexte. En science, on conçoit mal que l'accès à une réponse ou à une vérité puisse être conditionnel ou dépendre d'une autorisation ou d'un droit, mais on peut argumenter sur ce point. L'ambiguïté du sens des modaux est illustrée par les exemples suivants : Following these observations the conclusion must be that… Obligation « contingente » découlant des circonstances du type : si X—> Y Donc épistémique ? OU Obligation absolue, purement déontique ? L'usage non-épistémique de must peut exprimer le fait que l'environnement, les circonstances, sont un empêchement. Researchers cannot recognise the fact as. .. Impossibilité épistémique, par exemple leurs connaissances excluent que… ? OU Impossibilité déontique : ils n'ont pas le droit de …on leur interdit de… (non fondé en science). L'usage épistémique de can en science indique qu'en fonction de ce que l'on sait, il n'est pas exclu que la proposition en question soit vraie. Lyons (1977) établit une différence entre « nécessité épistémique » et « possibilité épistémique »; ces deux types de modalités sont exprimés par des propositions différentes, en tout cas dans la majorité des usages de langue générale. Une proposition est épistémiquement nécessaire si elle est logiquement impliquée (entailed) par ce que l'on sait; une proposition est épistémiquement possible si elle est compatible avec ce que l'on sait. Dans le cas du discours scientifique qui nous intéresse, possibilité ou nécessité ne se distinguent pas toujours aisément : Sulphur and oxygen must be mixed to produce sulphur dioxide (nécessité et possibilité) Cet aspect est cependant important en science, comme Lyons (1977 : 845) le signale en quelque sorte « par défaut » : epistemic possibility […][derives from] the child's acquisition of his native language, from uncertainty and doubt […] the objectification of epistemic necessity and possibility is a rather sophisticated and impersonal process which plays little part in ordinary non-scientific discourse; and languages […] are semiotic systems that are used primarily for non-scientific discourse. Si l'on sépare le pragmatique et le sémantique, on pourrait dire que la « nécessité déontique » et la « possibilité déontique » sont des notions sémantiques, mais l'obligation ou la permission appartiennent à la pragmatique. Imposer une obligation à quelqu'un ou accorder une permission sont des actes de parole. Quand un chercheur écrit : We can quote X in this context, il énonce une possibilité déontique, mais il s'autorise aussi à le faire. Toutefois, ce n'est un acte de parole « heureux » que si le rédacteur a l'autorité ou la légitimité pour s'accorder cette permission. Cette légitimité a, on l'espère, été établie et argumentée par le texte-avant. C'est tout le processus de l'argumentation scientifique qui se justifie s'il aboutit à un acte de parole reconnu comme tel par le lecteur. Dans la langue d'usage général, l'arrière-plan déontique est plus facile à garantir, par exemple dans une conversation entre professeur et élève où les places sociales de l'un et de l'autre sont posées explicitement et souvent renforcées par le cadre physique et psychologique (cf. modèle « d'événement de parole » s-p-e-a-k-i-n-g de Hymes,1972). Peut-être vaudrait-il mieux parler de modalité objective, celle qui se réfère à la réalité, à la description du monde, et, malgré la prétendue objectivité du discours de la science, de modalité subjective, celle qui est l'expression des sentiments et des croyances du locuteur – les deux modalités étant d'ailleurs épistémiques. Comme le remarque Kiefer (1998 : 594), […] les différences sémantiques entre modalité épistémique subjective et objective sont importantes, les phrases modalisées objectivement sont des affirmations de faits et comme telles peuvent être niées ou remises en question, elles peuvent se produire dans des propositions en « Si » et elles peuvent être enchâssées dans des prédicats factifs. À l'opposé, les phrases épistémiques subjectives expriment les croyances du rédacteur et ne sont pas des affirmations de faits. Cette distinction est capitale pour le discours scientifique car, dans ce dernier cas, il est impossible de les nier ou de les remettre en question. C'est bien ce qui se passe dans la réalité du débat scientifique où seules les propositions épistémiquement objectives sont passibles de contestation sur les faits (par ex. en leur opposant d'autres faits avérés par d'autres procédés) car elles seules peuvent être confrontées à la « réalité objective » (littéralement : « à laquelle on peut objecter »), une collocation qui exprime bien sa fonction en science. Cet aspect est souligné par Lyons (1977 : 805) également pour la langue générale : […] few linguists have even considered the possibility that epistemic modality could be anything other that a matter of the speaker's attitude towards the propositional content of his utterance, and most discussions of mood and modality in linguistics seem to take it for granted that epistemic modality is subjective in this sense. Bien qu'applicable originellement à la langue générale, l'analyse de la modalité présentée par Leech et Svartvick (1983 : 128-129) selon une « échelle de probabilité » pourrait être une amorce de réflexion sur les rapports entre possibilité et probabilité des concepts énoncés en science. L'échelle de probabilité entend se substituer à une relation binaire vrai-faux, ou pour reprendre le concept des deux mondes possibles évoqué plus haut, à une relation monde réel-monde supposé. Les deux extrémités de l'échelle sont impossibilité et certitude (ou nécessité logique). Les échelons intermédiaires sont possibilité, probabilité, improbabilité, etc. La démarche consisterait pour le pédagogue à associer des modes de réalisation linguistique à ces catégories sémantiques. Comme la liste des types de modalités linguistiques donnée plus bas le rappelle, les trois types de réalisations linguistiques sont les verbes modaux, les constructions « It + that », et les adverbes : You may be right. It is possible that you are right. Perhaps you are right. Comme il a été signalé plus haut au sujet de la distinction modus-dictum pour l'attitude et la cause, le fait et la théorie se manifestent aussi par des constructions syntaxiques différentes. Au sujet de can, may, could et might, Leech et Svartvick (ibid, 128, cités par Meyer 1998) distinguent la possibilité du fait (modalité « factuelle ') de la possibilité de l'idée (modalité « théorique ') : Possibilité du fait : The railways may be improved = It is possible that the railways will be improved = perhaps/maybe the railways will be improved. Possibilité de l'idée : the railways can be improved = it is possible for the railways to be improved. La possibilité théorique (can) est « plus faible » que la possibilité factuelle (may). « The railways can be improved » dit seulement qu'en théorie, les chemins de fer sont améliorables, c'est-à-dire qu'ils ne sont pas parfaits. D'autre part, l'énoncé « The railways may be improved » pourrait suggérer qu'il existe des plans précis pour l'amélioration. Selon ces auteurs, can aurait finalement le même sens que sometimes dans des énoncés traduisant la possibilité en général : Lightning can be dangerous = lightning is sometimes dangerous. Dans un contexte de discours scientifique, cette distinction est moins évidente. Un énoncé comme : Ethanol can be mixed with the X -Y compound. Insiste essentiellement sur la possibilité physique (par exemple, « sans résultats désastreux ») du mélange éthanol-composé X -Y. Ethanol is sometimes mixed with the X -Y compound. Insiste pour sa part, selon nous, sur l'occurrence éventuelle de ce mélange (signifiant par exemple : « une option possible ouverte au chercheur est de mélanger l'éthanol et le composé X -Y »). Cette distinction faite par Leech et Svartvick entre possibilité du fait et possibilité de l'idée est cependant utile pour les différences de sens et d'emploi des verbes modaux, un aspect de la modalité en science qui devrait être traité prioritairement dans l'optique de faire acquérir au rédacteur-apprenant une aptitude de base dans ce domaine. Elle est aussi utile pour faire prendre conscience à ce même apprenant qu'il existe une gradabilité sémantique et linguistique de la modalité. À cet égard, l'établissement d'une taxinomie des types de modalités réalisées linguistiquement par le discours scientifique nous semble indispensable dans toute démarche d'aide à distance à la rédaction scientifique. Une amorce de recensement de ces types pourrait inclure les formulations évoquées plus haut. Dans ce domaine de la sémantique, les types a et b impliquent des jugements : It might well find its root in…It can also be argued that… Les types c et d impliquent des preuves (Attested, informed, reported evidence, etc.) Les prédicats choisis et les actes de parole appartiennent à des familles différentes. Il faut noter que dans les cas a, b et c, la modalité sera de type épistémique, mais que dans le cas d, elle sera de type déontique . | L'article évoque les différents aspects de la modalité qui peuvent se rencontrer dans le discours scientifique écrit en anglais. Lorsqu'il représente par écrit son activité de recherche, le chercheur ressent le besoin d'employer différents procédés de modalisation pour exprimer des doutes, des précautions, des incertitudes, des possibilités limitées, des impossibilités complètes, etc. Ce besoin, qui obéit à des contraintes psychologiques et sociologiques, se traduit par un choix de formes linguistiques et de stratégies rédactionnelles qui doivent concilier des exigences grammaticales et lexicales formelles et des « intentions de communiquer » conceptuelles. Les types traditionnels de modalisation: épistémique, déontique, objective, subjective, etc. sont étudiés dans le cadre de l'apprentissage de l'écrit scientifique en anglais par des utilisateurs non-natifs de cette langue. | linguistique_524-03-12129_tei_808.xml |
termith-711-linguistique | Mot des sciences sociales contemporaines, de la modernité politique et du langage courant, individualisme concentre, à travers ses divers emplois, nombre de questions sur le rapport qu'entretient l'individu avec lui -même et avec les autres dans le monde moderne. Pour cette raison peut-être, sa signification incertaine a été maintes fois soulignée. Dès la première édition de son Vocabulaire technique et critique de la philosophie, André Lalande notait par exemple : « Mauvais terme, très équivoque, dont l'emploi donne lieu à des sophismes continuels ». Cette critique est restée présente tout au long des rééditions de l'ouvrage qui se sont succédé au cours du 20 e siècle, et chez bien d'autres auteurs. En amont de ces jugements, Tocqueville avait pris soin de le définir très longuement avant de l'employer en 1840 dans le deuxième volume de sa Démocratie en Amérique, après avoir mentionné que « l'individualisme est une expression récente qu'une idée nouvelle a fait naître ». À cette date, si individualisme reste un mot nouveau, ce n'est cependant plus un véritable néologisme : les dictionnaires l'ont enregistré dès 1834, et il possède déjà une histoire dont Tocqueville hérite et qu'il va poursuivre. C'est le trajet qui a conduit le mot individualisme de ses premières attestations connues jusqu' à sa définition par Tocqueville, et plus largement jusqu'au milieu du 19 e siècle environ – le parcours de sa genèse en quelque sorte –, qui fait l'objet de cette étude, au sein d'une interrogation plus générale sur la difficulté de produire un énoncé définitoire à son sujet. Il sera guidé par le questionnement des rapports initiaux d ' individualisme avec socialisme, égoïsme et, dans une moindre mesure, individualité, mots avec lesquels il se trouve très souvent associé à cette époque. Par ce parti pris d'investigation qui leste le mot de ses relations sémantiques passées, il s'agit pour nous d'éprouver la distance avec le contemporain et de travailler à reconstituer autant que faire se peut « l'étrangeté du temps passé » (Clavero, 1996, p. 195), pour mieux appréhender ce qui se joue par l'installation de ce signe lexical dans la langue. Selon le dictionnaire Trésor de la langue française, nous devons la première attestation connue du mot individualisme à un article de Pierre-Isidore Rouen publié dans le journal saint-simonien Le Producteur. Le TLF retient la date de 1825, mais il ne semble pas qu ' individualisme soit attesté avant le numéro 17 du journal paru en janvier 1826. Les dictionnaires ont coutume de dater et de référencer avec précision l'apparition d'un nouvel élément lexical, mais la première occurrence écrite d'un mot nouveau est une donnée des plus fragiles qui témoigne, au mieux, d'une création dont les premières manifestations nous resteront à jamais inconnues. Aussi, la poursuite de l'enquête en amont des références retenues par les ouvrages lexicographiques se révèle souvent fructueuse pour une histoire des usages langagiers. On rencontre en effet dès 1815 le mot individualisme sous la graphie éphémère de individuel(l)isme. Par ailleurs, en 1823, une société regroupant d'anciens membres de la Charbonnerie a eu pour nom « société d'Individualistes », et un extrait du Journal ecclésiastique de Rome publié en 1825 dans le Mémorial catholique a pour titre : « De l'individualisme, considéré par rapport à la religion et à la morale ». Les attestations du Producteur (1825-1826) enregistrées par la lexicographie contemporaine ne constituent donc qu'un relais dans la diffusion du néologisme, mais un relais essentiel. Elles offrent en effet un usage que l'on pourrait dire presque socialisé du mot, car elles sont plurielles (une quinzaine environ) et énoncées par différents rédacteurs. De plus, selon notre enquête, la traduction de certains écrits saint-simoniens a eu une part importante dans la diffusion du mot en anglais et en allemand (Piguet, 2008, p. 40-42). Sans trop nous attarder sur ces occurrences, on peut rappeler que le mot individualisme est employé dans Le Producteur pour désigner de manière négative la pensée de la liberté individuelle et de l'autonomie intellectuelle. Ce sont d'abord les idées de Charles Dunoyer et de Benjamin Constant qui ont été visées par ce mot nouveau, celles qui font référence à la « liberté de conscience » promue par la Réforme, celles de la philosophie des Lumières, puis plus largement au fil des numéros, les idées qui ont engendré la dissolution des liens sociaux consécutive à la Révolution. Dans un contexte discursif qui défend la nécessité d'une réorganisation sociale, le néologisme individualisme exprime, pour en stigmatiser les effets, une conception liée au passé, qui accorde la première place à la liberté individuelle dans un système politique. Les premières attestations du mot dans Le Producteur appartiennent au compte rendu critique d'un ouvrage de Charles Dunoyer, L'Industrie et la Morale considérées dans leur rapport avec la liberté, publié à la fin du mois de janvier 1826 par Pierre-Isidore Rouen. L'article porte « sur les idées générales ou les principes du système de M. Dunoyer [… ]. L'idée la plus générale de ce système est la conception de l'homme individuel, de ses besoins et de ses facultés, comme bases uniques de la politique, et principes générateurs des lois sociales » (p. 158-159) : Beaucoup de partisans de la liberté individuelle, non contens de la poser comme droit, la prescrivent comme devoir; ils vont jusqu' à imposer à chacun de ne penser et de n'agir que d'après lui -même, et protesteraient presque contre la domination bienfaisante qu'exercent infailliblement les hommes éclairés sur toutes les classes de la société. Ce sont ces exagérations de l'idée de liberté individuelle que nous repoussons; […] Cependant l'individualisme comme base positive de la morale privée a, par cela même, une valeur critique par rapport à la politique; c'est-à-dire qu'il est le plus puissant adversaire de tous les systèmes vicieux, bien qu'il n'ait point la vertu d'en engendrer un lui -même. Nous lui devons la destruction de l'ancien ordre social. […] L'individualisme depuis son origine, a cependant été sans cesse offert à la société comme système politique; et dans ces derniers temps, M. Dunoyer vient le reproduire sous de nouvelles formes. Dunoyer n'employant pas le mot individualisme, il s'agit donc d'une reformulation de son « système » par ce mot qui fait alors écho, sous une forme condensée, à l'expression « conception de l'homme individuel »; il en subsume les différents traits qui sont clairement exprimés : « l'homme individuel », « les droits individuels », « la souveraineté individuelle », « la liberté individuelle ». De ces traits, individualisme privilégie celui de « liberté individuelle » et met l'accent sur les « exagérations de l'idée de liberté individuelle » énoncées en amont : ne penser et n'agir que d'après soi -même et protester contre la domination des hommes éclairés. Individualisme désigne, dans cet énoncé, la philosophie critique du 18 e siècle qui a conduit à la Révolution, et la théorie de Dunoyer comme « système politique » issu de cette philosophie. Il exprime en même temps ce que Rouen discrédite dans la théorie de Dunoyer, un système qui ne voit dans la société « autre chose qu'une collection d'hommes » (p. 160) et qui fait de la liberté « le but de la société » (p. 165). Dans les écrits saint-simoniens, individualisme est un mot qui dénonce, un mot connoté de manière négative car il exprime une résistance à « l'organisation sociale » dans un contexte qui la promeut. Les numéros suivants du Producteur attestent également quelques occurrences du mot où s'affirme un infléchissement vers la dénotation d'un comportement social. C'est ainsi que sont fustigées « les excitations d'un individualisme barbare et la puissance illimitée du plus fort, dans l'état de nature ». Ce déplacement métonymique de la désignation d'une doctrine à celle du comportement, de l'attitude qui lui est associée, se maintiendra dans la langue, le TLF, par exemple, organisant son entrée individualisme autour de cette grande distinction. Nous verrons Tocqueville privilégier ce dernier aspect de la désignation du mot. Les attestations du mot individualisme dans Le Producteur sont dues aux rédacteurs les plus influents au sein du journal, Rouen, Laurent et Enfantin, ceux qui feront partie du groupe initial des saint-simoniens réuni durant l'année 1829 pour professer un enseignement régulier des principes de l' École qui sera publié sous le titre Doctrine de Saint-Simon. Dans cet ouvrage collectif qui plaide pour une organisation sociale centrée sur la production industrielle et l'établissement d'un pouvoir spirituel fondé sur une connaissance positive de l'homme, individualisme entre dans le paradigme des termes qui définissent « la série critique » : Oui, mon ami, ces mots, ordre, religion, association, dévoûment [en italique dans le texte ], sont une suite d'hypothèses correspondantes à celles -ci : désordre, athéisme, individualisme, égoïsme. Tu trouveras peut-être que je traite bien mal la série organique, en lui donnant le même fondement qu' à la série critique, en les rattachant l'une et l'autre à deux conjectures. Il participe ainsi à l'énoncé du dogme de la pensée saint-simonienne, dans un antagonisme avec le mot association qui contribue à l'introduire dans le discours des réformateurs sociaux. Aussi, d'emblée, il se trouve opposé à société mais surtout à socialisme. L'invention même du mot socialisme, si l'on en croit Pierre Leroux, a résidé dans la nécessité de créer un antonyme à individualisme, et serait à mettre à son crédit : « C'est moi […] qui, le premier, me suis servi du mot socialisme. Je forgeai ce mot par opposition à individualisme, qui commençait à avoir cours. Il y a de cela environ vingt-cinq ans. » En fait, Pierre Leroux comptera seulement parmi les premiers utilisateurs du mot socialisme, mais on lui doit une des premières manifestations de l'opposition entre les deux nouveaux termes dans un article publié dans la Revue encyclopédique en 1833, « Philosophie sociale » : Les partisans de l'individualisme se réjouissent ou se consolent sur les ruines de la société, réfugiés qu'ils sont dans leur égoïsme, les partisans du socialisme, marchant bravement à ce qu'ils nomment une époque organique, s'évertuent à trouver comment ils enterreront toute liberté, toute spontanéité sous ce qu'ils nomment l'organisation. (p. 376) Individualisme est rapporté à l'économie politique anglaise « qui, au nom de la liberté, fait des hommes entre eux des loups rapaces, et réduit la société en atomes » (ibid., p. 374), à la maxime « chacun chez soi, chacun pour soi », à l'abandon de toute « providence sociale » pour les plus faibles. Socialisme fait référence aux théories saint-simoniennes qui « parlent de nous organiser en régiments de savants et en régiments d'industriels » et « s'avancent jusqu' à déclarer mauvaise la liberté de pensée » (p. 377). L'antonymie discursive entre individualisme et association / socialisme ainsi lancée s'installe durant la première moitié du 19 e siècle et ensuite, principalement dans les écrits des diverses mouvances utopiques et socialistes. Au sein de ces discours politiques, elle est considérée comme allant de soi et participe d'une rhétorique souvent manichéenne à la manière de Cabet, qui soutient que « [les prolétaires] remueront la Société jusqu' à ce que le Socialisme ait remplacé l'odieux individualisme ». Toutefois, au-delà des énoncés militants, elle constitue une matrice capable d'intégrer des paramètres variés, et elle s'énonce alors de manière plus indirecte, plus diffuse mais plus argumentée aussi. C'est le cas des Lettres sur l'Amérique du Nord du saint-simonien Michel Chevalier, dont la traduction en allemand (1837) et en anglais (1839) a contribué à l'établissement des mots individualism et individualismus dans ces langues. Dans ce recueil, le mot individualisme désigne une propriété caractéristique de la vie sociale et politique des États de l'Amérique du Nord, que Chevalier rapporte au protestantisme et à la forme politique qui lui est liée, « le républicanisme ». Chevalier construit une opposition très structurante entre « l'Yankee, seul avec sa femme au milieu des bois », et « le Français […] éminemment social » (p. 72), qui incarnent deux principes différents, voire antagonistes, d'organisation sociale : le « principe d'autorité, c'est-à-dire d'association hiérarchique » pour la France, celui « d'indépendance, d'individualisme, de concurrence » pour l'Amérique du Nord. En France, nous agissons « principalement sous l'invocation des principes d'association et d'unité, qui sont caractéristiques du catholicisme et de la monarchie », et « nous ne nous sentons vivre que lorsque nous faisons partie d'un tout » (ibid., p. 169), mais il en va autrement en Amérique du Nord : Sous l'influence du protestantisme et de la république, le progrès social s'est opéré par le procédé du morcellement poussé à sa limite extrême, l'individualisme : car protestantisme, républicanisme et morcellement, c'est tout un. Les individus se sont déliés les uns des autres; chacun a isolé sa personnalité pour la renforcer; ou si l'on s'est associé, l'on n'a constitué que des associations restreintes, sans aucun lien entre elles. (p. 168) Plus généralement, l'antinomie entre les deux mots cristallise l'opposition de deux systèmes de pensée. Dans un ouvrage qui explore les solutions sociales à apporter pour soulager la misère après la révolution de 1848, Armand de Melun utilise les deux mots pour désigner les doctrines adverses qui ont prévalu au cours des événements. Le chapitre 2 de l'ouvrage a pour titre « Du socialisme », tandis que le chapitre 3 s'intitule « De l'individualisme ». Pour l'auteur, le socialisme nie la liberté, et à « l'opposé du socialisme », il définit l'individualisme, lié ici aussi à l'économie politique, à la maxime « laisser faire, laisser passer », à Malthus tout particulièrement, comme une doctrine […] qui défend la liberté avec le même acharnement que l'attaque le socialisme, attribue autant de bien à la concurrence que celui -ci lui reproche de mal et rend à l'individu tout ce que son antagoniste veut donner à l' État. […] Si le socialisme exagère le pouvoir et le devoir de la société, l'individualisme méconnaît sa mission et son but. (Melun, 1849, p. 15-18) Très important pour sa diffusion, cet antagonisme initial qui entérine la désignation par ce mot d'une doctrine, d'un système de pensée et contribue à lui imprimer une connotation négative, sera enregistré lors de sa première définition lexicographique en 1834 par le Dictionnaire universel de la langue française, avec le latin… de Pierre-Claude-Victoire Boiste (8 e édition) : « Système d'isolement dans les travaux, les efforts; l'opposé de l'esprit d'association », et cette définition irriguera une très large partie des dictionnaires du 19 e siècle. À la différence de cette relation d'opposition mise en œuvre tout particulièrement dans certains types de discours, celle de la proximité du mot individualisme avec celui d ' égoïsme ne caractérise aucun registre particulier de langage. Il s'agit d'un voisinage sémantique régulièrement rappelé pour expliciter le dernier arrivé dans la langue, d'un hyperonyme souvent sollicité comme terme définitoire. On rencontre cette hyperonymie dès la première attestation connue du mot individualisme sous la graphie individuellisme : Un seul principe existait en France, l'individuellisme, l'universel égoïsme, fruit naturel d'un temps qui avait brisé tous les liens. Plus d'amour du prochain là où il n'y avait plus de religion pour en faire un précepte. Plus d'esprit de famille là où la famille se composait à peine du père et des enfants. Plus d'esprit de corps là où tout corps avait cessé d'exister. (Fauveau de Frénilly, 1815, p. 27) D'une façon plus intéressante pour notre propos, car nous pouvons y voir la première définition d'un usage qui lie entre elles différentes dimensions de la vie sociale, l'article publié en 1825 par Le Mémorial catholique déploie les divers aspects référentiels de cette relation sémantique : Je regrette que ce mot individualisme [en italiques dans le texte] sente le néologisme, mais il exprime parfaitement la situation morale de la société. Le mot isolement ne présente plus la même idée. Un homme peut s'isoler sans rapporter tout à lui -même; l'égoïsme, que l'on me pardonne l'expression, centralise les affections; l ' individualisme a un degré de plus, il rapporte au seul moi humain non seulement les affections, mais les pensées, les habitudes et la croyance. (p. 48) Égoïsme est défini par le Dictionnaire de l'Académie française (1835) comme « vice de l'homme qui rapporte tout à soi ». Il désigne en même temps, par glissement métonymique, l'attitude, la conduite de celui que ce vice habite. À la différence de individualité, mot du vocabulaire philosophique à valeur neutre ou positive avec lequel celui d ' individualisme partage une plage sémantique commune au moment de son émergence en raison de leur commune dérivation d'un même adjectif, celui d ' égoïsme appartient au vocabulaire de la morale où il est affecté d'une valeur toujours négative, dont témoigne le choix du terme « vice » par l'Académie pour le définir. Toutefois, depuis la fin du 18 e siècle au moins, le mot a échappé à ce seul registre et étendu son usage à celui du politique. Il s'agit moins d'une modification sémantique que d'un déplacement de la sphère de son emploi, qui a pour effet de mettre l'accent sur les conséquences de ce vice dans la vie politique. L'un des exemples les plus significatifs pour cette étude est celui du maître à penser des saint-simoniens, le comte de Saint-Simon, décédé peu avant la publication du Producteur. Saint-Simon n'emploie pas le mot individualisme, comme l'ont déjà souligné Célestin Bouglé et Élie Halévy, mais il reprend à son compte cette extension de l'usage du mot égoïsme : « La décadence des doctrines générales anciennes a laissé développer l'égoïsme, qui envahit de jour en jour la société » (Saint-Simon, 1977, p. 21). Il voit dans ce vice et ses conséquences sociales le résultat et le caractère d'une époque historique précise et donne en quelque sorte une dimension historique au mot égoïsme, qui désigne alors une « maladie politique », celle qui conduit la société à sa « dissolution » (ibid., p. 104). Durant la première moitié du 19 e siècle, nombre d'emplois du mot égoïsme, dans les discours sur la société, pourraient être reformulés rétrospectivement par celui d ' individualisme. De même que individualité a pu exprimer un temps, dans certains écrits, ce que plus tard on nommera individualisme, il semble que égoïsme ait aussi tenu ce rôle, mais avec des valeurs bien différentes. Ce phénomène est particulièrement sensible dans la presse ouvrière qui rend compte, sous la monarchie de Juillet, des interrogations nées du développement industriel et des premières révoltes ouvrières. On peut prendre pour exemple le journal lyonnais L' Écho de la Fabrique (1831-1834), journal des « chefs d'ateliers et des ouvriers en soie » qui fait connaître les revendications des canuts lors des révoltes de 1831 et de 1834. Le mot individualisme y est attesté deux fois seulement, et par des articles tirés d'autres journaux, alors que celui d ' égoïsme est régulièrement employé par les contributeurs de L' Écho. Ces derniers dénoncent chez les « commerçants » ou « fabriquants », avec lesquels ils sont en conflit pour l'application du « tarif » négocié, un comportement social inspiré par le sentiment de « l'égoïsme ». Ainsi pour l'auteur, resté anonyme, d'un article qui cherche à expliquer les causes profondes de « la décadence de la fabrique d'étoffes de soie », « ce n'est point dans l'augmentation du nombre d'ouvriers, ni dans la concurrence qu'on doit voir la décadence de la soierie. Le mal est dans l'égoïsme de quelques commerçans; eux seuls ont fait tomber cette industrie dans l'état où elle est ». D'une manière plus décisive à nos yeux, car l'application du mot s'étend alors à l'ensemble du « corps social » et peut être rapporté aux « institutions sociales », L' Écho de la Fabrique emprunte à un journal stéphanois, Le Vulcain, un article explicitement consacré à la thématique générale de l'égoïsme, qui affiche pour titre « De l'égoïsme » et débute en ces termes : L'égoïsme est la plaie la plus profonde du corps social, et il ne tend à rien moins qu' à le frapper de mort. […] Il isole l'homme dans lui -même; il tend à étendre la prédominance absolue de moi. […] Oui, c'est à l'égoïsme qu'il faut imputer nos divisions et nos misères, mais c'est peut-être au vice de nos institutions sociales qu'il faut imputer l'égoïsme. La proximité entre individualisme et égoïsme a souvent été rappelée dans les courants utopiques et socialistes du 19 e siècle, avec pour objectif la stigmatisation de celui d ' individualisme. Mais, et c'est probablement moins connu, elle a aussi été discutée très tôt dans ce même registre, au motif qu'elle renvoie à une définition partielle du mot individualisme et donne des arguments faciles aux ennemis de la liberté individuelle. C'est ainsi que le journal de l' École sociétaire, La Phalange, accusé par les saint-simoniens de défendre l'égoïsme, est conduit à préciser que « le mot individualisme [en italiques dans le texte] peut se prendre en effet en bonne ou mauvaise part; dans son sens défavorable, et c'est dans ce sens évidemment que le prennent nos critiques, leur reproche revient à ceci : votre système est la théorie de l'égoïsme ». Mais ce sens « anti-social » ne met en lumière « qu'une des deux faces de la chose » (p. 95), alors qu' « il est dans la langue un autre sens du mot individualisme, auquel les fouriéristes n'ont aucune raison de répugner comme expression, un peu vague […] mais, après tout, fidèle de leur idéal ». L'auteur, Delmas, définit alors comme suit le sens du mot individualisme dont se réclame, selon lui, l' École sociétaire : Pris dans son sens favorable, qu'est -ce donc que l'individualisme ? Pour la sphère de la pensée, il n'est autre que l'aperception réfléchie que chacun a de soi comme personnalité libre; pour la sphère du sentiment, il est la conscience spontanée, instinctive, que nous avons tous de nos besoins, de notre valeur, de nos vocations diverses; pour la sphère des faits, il est la réalisation de lui -même dans toutes les fonctions de la vie. Rien n'est donc plus légitime en soi que l'individualisme. (Ibid., p. 88-89) En tirant la définition du mot individualisme du côté de la dénotation de celui d ' individualité, tout en forçant le trait de la critique qui lui est adressée par l'emploi de celui d ' égoïsme, l' École sociétaire explicite à sa manière les tensions axiologiques qui traversent l'usage d ' individualisme et montre en même temps que ces tensions ont été précocement ressenties, explicitées et… exploitées. Il apparaît que dès ses débuts, individualisme est déchiré entre une valeur philosophique positive qui défend le sentiment intime et l'épanouissement de soi en faisant référence à la notion d ' individualité, et une valeur morale condamnant un amour de soi qui conduit à une indifférence envers autrui. L'ambivalence ainsi mise en lumière ne manque pas d'actualité et l'on peut penser qu'elle n'est pas sans conséquences dans les difficultés toujours rencontrées pour déchiffrer sa signification. Dans une toute autre perspective que celle de l' École sociétaire, mais selon une manière récurrente d'insérer le mot dans le discours, c'est en travaillant sa distance avec celui d ' égoïsme que Tocqueville va marquer la spécificité du dernier attesté, dans son ouvrage De la Démocratie en Amérique. De la Démocratie en Amérique se compose de deux volumes : le premier a été publié en 1835, le second en 1840. Tocqueville n'emploie individualisme qu' à partir du second volume, précisément à partir du second chapitre de sa deuxième partie consacrée à l' « Influence de la démocratie sur les sentiments des Américains ». À cette date, le mot individualisme n'est plus un néologisme. Enregistré par les dictionnaires, il appartient à la longue liste des nouveaux termes qui se sont répandus au sein du langage parlementaire aux alentours de 1830 (Matoré, 1967, p. 28 et 41), et il a débuté sa carrière dans la littérature, chez Balzac en particulier, mais aussi chez Lamartine, notant que « la civilisation, en avançant, réduit la pensée religieuse à l'individualisme » (Lamartine, [1835] 1861, p. 277). Toutefois, il reste encore peu employé, appartient principalement au vocabulaire des publicistes et sa portée se limite souvent au cadre de la polémique. Il n'en va pas tout à fait de même avec Tocqueville, et c'est peut-être la raison pour laquelle on a longtemps pensé que la traduction de Démocratie en Amérique était à l'origine du mot dans la langue anglaise (Claeys, 1986, p. 81-86). Individualisme est introduit par une longue définition de laquelle dépendent tous ses emplois. On en compte treize occurrences, dont six dans ce contexte définitoire et quatre dans le titre des chapitres. Tocqueville affiche donc le mot individualisme plus qu'il ne l'emploie réellement dans le cours de son texte, et il manifeste dans son usage à la fois une grande rigueur et une forte originalité en procédant d'abord par sa définition. Il semble l'employer de manière très prudente. Avec près de la moitié de ses occurrences consacrées à sa propre définition, et même s'il n'y a pas pour Tocqueville « de bonne langue sans termes clairs » (Tocqueville, 1981, p. 86), on peut s'interroger sur un tel souci définitoire en dehors de tout contexte polémique, et cela d'autant plus qu'il s'agit là d'un retour réflexif sur un terme qui appartient à son vocabulaire depuis 1835 au moins, date à laquelle il l'emploie dans ses Carnets de voyages, puis dans d'autres textes restés manuscrits. En qualifiant de « récente » cette « expression », l'auteur donne à penser qu'il a voulu éclaircir une nouveauté langagière encore mal établie. Il s'agit bien sûr d'un mot nouveau, mais de plus, c'est un mot abstrait. Or ces deux qualités sont propres à une évolution du langage que Tocqueville juge sévèrement. Dans un chapitre consacré aux modifications apportées par la démocratie américaine à la langue anglaise et, plus généralement, aux évolutions langagières induites par la démocratie, véritable chapitre de sociologie du langage avant la lettre, il a identifié et analysé les différentes caractéristiques des « langues démocratiques » parmi lesquelles, précisément, la création de mots nouveaux et la fréquence d'emploi des mots abstraits qui « rendent l'expression plus rapide et l'idée moins nette » (ibid., p. 89). Le mot individualisme appartenant à ces deux catégories critiquées, il s'agit pour l'auteur d'expliciter ce nouvel élément de la langue avant d'en faire usage. Il n'est pas certain cependant que cette raison soit suffisante. Tocqueville en effet ne définit pas le mot d'une manière abstraite, comme les dictionnaires par exemple, mais au sein de sa propre pensée, en précisant par touches successives en quoi cette « idée nouvelle » qu'énonce « une expression récente », se rattache à – et se détache de – celle d ' égoïsme. En procédant de la sorte, il l'explicite pour exprimer une notion conçue par lui dans son analyse de la société américaine et plus largement celle des « peuples démocratiques ». La définition ouvre le deuxième chapitre de la deuxième partie du volume et son titre, « De l'individualisme dans les pays démocratiques », offre donc la première occurrence du mot. Au cours du chapitre précédent, Tocqueville a montré pourquoi « les peuples démocratiques » sont moins attachés à la liberté qu' à l'égalité telle que l'on peut l'observer en Amérique et plus largement dans les nations modernes : absence de différence héréditaire de conditions, droit pour tous « de se livrer aux mêmes plaisirs, d'entrer dans les mêmes professions, de se rencontrer dans les mêmes lieux; en un mot de vivre de la même manière et de poursuivre la richesse par les mêmes moyens » (p. 119-120). Il a aussi noté que seuls « les gens attentifs et clairvoyants […] aperçoivent les périls dont l'égalité nous menace » (p. 121), mais sans expliciter alors la nature des périls évoqués, précisant seulement que « les maux que l'extrême égalité peut produire ne se manifestent que peu à peu; [qu' ]ils s'insinuent graduellement dans le corps social » (p. 121). Ce n'est qu'ensuite, dans les chapitres suivants, qu'il montre en quoi l' « individualisme » constitue ce danger, et comment il peut être combattu. Aussi, la définition du mot individualisme en ouverture du deuxième chapitre, associée à sa première occurrence dans le titre même du chapitre, prend -elle un relief très particulier : J'ai fait voir comment, dans les siècles d'égalité, chaque homme cherchait en lui -même ses croyances; je veux montrer comment, dans les mêmes siècles, il tourne tous ses sentiments vers lui seul. L ' individualisme [en italiques dans le texte] est une expression récente qu'une idée nouvelle a fait naître. Nos pères ne connaissaient que l'égoïsme. L'égoïsme est un amour passionné et exagéré de soi -même, qui porte l'homme à ne rien rapporter qu' à lui seul et à se préférer à tout. L'individualisme est un sentiment réfléchi et paisible qui dispose chaque citoyen à s'isoler de la masse de ses semblables et à se retirer à l'écart avec sa famille et ses amis; de telle sorte que, après s' être ainsi créé une petite société à son usage, il abandonne volontiers la grande société à elle -même. L'égoïsme naît d'un instinct aveugle; l'individualisme procède d'un jugement erroné plutôt que d'un sentiment dépravé. Il prend sa source dans les défauts de l'esprit autant que dans les vices du cœur. L'égoïsme dessèche le germe de toutes les vertus, l'individualisme ne tarit d'abord que la source des vertus publiques; mais à la longue, il attaque et détruit toutes les autres et va enfin s'absorber dans l'égoïsme. L'égoïsme est un vice aussi ancien que le monde. Il n'appartient guère plus à une forme de société qu' à une autre. L'individualisme est d'origine démocratique, et il menace de se développer à mesure que les conditions s'égalisent. (p. 125) Dans cette longue définition, entre le mot dont il souligne la nouveauté et le phénomène par lui exprimé, Tocqueville place le signifié de la tradition saussurienne, la conceptualisation du référent. Il est important de noter que l' « idée » est qualifiée de « nouvelle » et qu'en revanche son référent reste dans une indétermination temporelle. Sa description, donnée ensuite, laisse penser que sans se perdre dans la nuit des temps, il ne présente pas le même caractère d'extrême nouveauté, qu'il s'agit d'un processus dont la perception, la conscience que l'on peut en avoir, est récente. C'est d'ailleurs, semble -t-il, le sens de la mise en garde de l'auteur au cours du chapitre précédent. Sa définition référentielle de l ' individualisme est construite ensuite, dans un décalage mesuré avec égoïsme, en trois points principaux : la nature de ces phénomènes qui sont définis comme deux affects ramenant l'individu à lui -même et à ses proches; les effets destructeurs de ces affects dans la vie sociale; l'origine différente de ces affects. Il met en lumière de la sorte ce qui distingue essentiellement pour lui l'individualisme de l'égoïsme, une valeur de jugement et une dimension sociale, politique, historique, rapportant, comme il a été souligné par les commentateurs, « l'égoïsme à l'homme, et l'individualisme au citoyen ». L'explicitation de la distance entre les deux mots, telle qu'il la donne à percevoir, permet de préciser que la nouveauté énoncée par le dernier attesté est corrélée au devenir démocratique des sociétés : « Non seulement la démocratie fait oublier à chaque homme ses aïeux, mais elle lui cache ses descendants et le sépare de ses contemporains; elle le ramène sans cesse vers lui seul et menace de le renfermer enfin tout entier dans la solitude de son propre cœur. » (p. 127) Dans ce qu'il nomme individualisme, il esquisse les traits d'une disposition intrinsèque aux hommes des sociétés démocratiques, dans laquelle il voit la conséquence de l'égalité des conditions. Parce qu'elle efface les rapports hiérarchiques et générationnels inhérents aux sociétés traditionnelles, l'égalité « place les hommes à côté les uns des autres, sans lien commun qui les retienne [et] les dispose à ne point songer à leurs semblables » (p. 131). Ce « sentiment » dont la composante intellectuelle, développée dans la première partie du volume, est rappelée au début de la définition : « [j' ]ai fait voir comment, dans les siècles d'égalité, chaque homme cherchait en lui -même ses croyances », œuvre à une indifférenciation sociale qui enferme les individus en eux -mêmes. À cet égard, Tocqueville reprend, au profit de l'individualisme, la métaphore médicale maintes fois associée à l'égoïsme; il s'agit aussi d'une « maladie », mais d'une maladie « naturelle au corps social dans les temps démocratiques » (p. 132), dont la liberté serait le seul « remède efficace » : « Les Américains ont combattu par la liberté l'individualisme que l'égalité faisait naître, et ils l'ont vaincu. » (p. 132) Concrètement, les Américains ont lutté contre l'individualisme par la pratique des associations en particulier, mais Tocqueville n'établit pas une opposition rhétorique et axiologique entre les mots individualisme et association, comme on a pu l'observer. Il exprime par ces deux mots le problème majeur auquel est confrontée, selon lui, la société démocratique et son possible dépassement. Dans la pensée de Tocqueville, le mot individualisme désigne donc moins une conception ou une théorie qu'une attitude, un état d'esprit, un comportement, selon d'autres usages également attestés, mais beaucoup plus dispersés. Il énonce une manière d' être, propre aux individus qui appartiennent aux sociétés marquées par l'effacement des liens sociaux accordés de l'extérieur de chacun en quelque sorte, et sans le soutien desquels les hommes manifestent spontanément un repli sur eux -mêmes : Les hommes qui habitent les pays démocratiques n'ayant ni supérieurs, ni inférieurs, ni associés habituels et nécessaires, se replient volontiers sur eux -mêmes et se considèrent isolément. J'ai eu l'occasion de le montrer fort au long quand il s'est agi de l'individualisme. (p. 359) En choisissant de le définir par rapport à celui d ' égoïsme, Tocqueville privilégie sa face sombre sans cependant lui donner une valeur négative. Sous sa plume, le mot reste neutre, de l'ordre du constat, mais il désigne une menace, une menace pour la démocratie elle -même. Plus tard, tirant les conséquences majeures de cette proposition initiale et manifestant toujours une forte sensibilité au caractère récent du mot, il en donnera une définition plus dépouillée, en appui sur le mot « individu » : Nos pères n'avaient pas le mot d ' individualisme [en italiques dans le texte ], que nous avons forgé pour notre usage, parce que, de leur temps, il n'y avait pas en effet d'individu qui n'appartînt à un groupe et qui pût se considérer absolument seul. (Tocqueville, 1967, p. 176) Tocqueville inscrit son usage du mot dans le déploiement de traits bien attestés, tant par la prise en charge de l'indépendance intellectuelle de l'individu que par la désignation d'un comportement et le rappel de sa proximité avec l ' égoïsme. D'une certaine façon, il recueille ces traits, mais en les rapportant conjointement à la dynamique égalitaire, dans laquelle il voit le phénomène qui rend compte du bouleversement des sentiments et des conduites humaines, il leur donne une raison commune et les rend solidaires. Il établit ainsi un usage que l'on peut dire sociologique du mot qui désigne alors une notion qui sera au centre de nombreuses interrogations dans les sciences sociales de la seconde moitié du 20 e siècle. Au terme provisoire d'un trajet où il a commencé à se faire jour avec la stigmatisation d'une théorie politique centrée sur l'individu et ses droits dans le prolongement de la philosophie des Lumières, le mot individualisme enregistre et cristallise chez Tocqueville, subsume en quelque sorte, diverses facettes d'un « sentiment », d'une conduite sociale inhérente aux individus appartenant aux sociétés dans lesquelles le rapport d'égalité s'est progressivement substitué aux relations hiérarchiques traditionnelles. Entre la désignation d'une doctrine, d'un système de pensée et celle d'un comportement, d'une manière d' être, tout un continuum d'usages du mot, partagés par des valeurs contradictoires et dispersés dans des contextes divers, ont pu être observés. Ces usages mis en circulation durant la Restauration ont en commun de traiter, sous des angles multiples, de la relation de l'individu à la société dans ses dimensions les plus variées (politique, philosophique, familiale, religieuse, morale…). Difficiles à définir au-delà de la cartographie de leur éparpillement, ils apparaissent rétrospectivement comme l'expression langagière nouvelle d'une conscience partagée de la transformation de ce rapport . | Cet article retrace le trajet du mot individualisme de son émergence durant la Restauration à son usage par Tocqueville et interroge les raisons d'une signification incertaine maintes fois évoquée. Il prend appui sur les relations sémantiques du néologisme, celles entretenues avec les mots socialisme et égoïsme, pour expliciter ces difficultés et inscrit la définition qu'en donne Tocqueville dans l'histoire de la genèse des usages du mot. | linguistique_12-0207991_tei_549.xml |
termith-712-linguistique | Le présent article aborde les métaphores d'un point de vue un peu inhabituel. Tout d'abord, les figures de style y sont étudiées dans un cadre non linguistique, celui des images publicitaires à caractère scientifique ou technique, en partant du principe que les métaphores sont fondamentalement conceptuelles (Lakoff & Johnson 1980, 1999). Si on commence par définir étymologiquement les métaphores comme un « transport », un transfert de sens, on implique nécessairement une trajectoire, une médiation, entre un point de départ et un point d'arrivée. On peut donc poser que le concept de médiation peut aider à cerner le fonctionnement des métaphores. Dans le contexte des publicités à caractère scientifique ou technique, ce fonctionnement est doublement inséparable de la persuasion. D'une part, en effet, historiquement Aristote a choisi de placer son analyse des métaphores partiellement sous l'égide de la rhétorique, considérée par les Grecs comme l'art de la persuasion. D'autre part, pour comprendre les métaphores il faut prendre en compte leur contexte publicitaire : le choix d'un public-cible, les contraintes économiques et financières, et, bien sûr, les stratégies de persuasion de l'annonceur. Dans cette double perspective, à la fois historique et pragmatique, on peut formuler l'hypothèse selon laquelle chaque théorie de la métaphore, même celles dont les limites sont démontrées depuis longtemps peut aider à comprendre la nature de la médiation à l' œuvre dans telle ou telle métaphore publicitaire, dans la mesure où elle rend explicite la stratégie de persuasion affichée. Dans une perspective historique, cette hypothèse va être testée sur deux approches traditionnelles, la théorie comparative d'Aristote et la théorie substitutive de l'époque moderne, et une approche récente, la théorie de l'interaction de Max Black. Aristote, dans sa Poétique (ch. 21 et 22) et dans sa Rhétorique (livre 3), a été à l'origine de la théorie comparative de la métaphore, qui privilégie la similitude comme critère de reconnaissance et d'explication. « Car bien métaphoriser, c'est bien apercevoir les ressemblances » (Poétique 1459 a). Aristote distingue plusieurs sortes de métaphores, dont la métaphore proportionnelle ou rapport d'analogie qui nous intéresse directement, parce qu'elle exhibe clairement une médiation, sous forme de ressemblance. Et cette ressemblance fait l'objet d'une construction méthodique qui peut se schématiser sous la forme d'une égalité entre deux ratios de deux termes : Il faut toujours, dans la métaphore par analogie, observer le rapport réciproque de deux termes appartenant au même genre; par exemple, si la coupe est le bouclier de Dionysos, la concordance exige que le bouclier soit appelé la coupe d'Arès. (Rhétorique, III, 4, 15-18) Dans l'exemple mythologique choisi par Aristote, la coupe symbolise Dionysos, dieu grec de la vigne et du vin, tout comme le bouclier Arès, dieu de la guerre. Sur la base de l'égalité entre les deux ratios, la métaphore consiste alors à substituer le quatrième terme au second (« le bouclier de Dionysos ») ou vice versa (« la coupe d'Arès »). L'analyse aristotélicienne, qui a eu beaucoup de succès jusqu'au dix-neuvième siècle, est-elle toujours pertinente ? Par exemple, prenons une publicité pour Sony publiée dans le magazine américain Discover en décembre 1999 (annexe 1), qui montre en gros plan une tête de jeune homme aux cheveux coupés ras, vue de derrière. Sur le crâne, entre les deux oreilles, a été greffé un lecteur informatique dont on voit sortir une carte « memory stick ». Le caractère hybride de ce personnage, mi-homme, mi-machine, est souligné par un argumentaire publicitaire énigmatiquement court : « think it ». Le neutre « it » semble a priori renvoyer au lecteur informatique, alors que « think » nous rappelle comment, depuis Descartes et son cogito, la pensée est le propre de l' être humain en général, et, plus particulièrement, du concepteur de cette innovation, ou du lecteur de cette publicité. Mais la présence de la greffe peut aussi autoriser la lecture inverse : et si « think » renvoyait à l'intelligence artificielle symbolisée par la carte, la tête (et, par synecdoque, l' être humain tout entier) étant alors transformée en ordinateur vivant ? Seul le contexte permet de dissiper l'ambiguïté. En fait, cette publicité fait partie d'un quadriptyque : « See it, hear it, think it, stick it ». Les trois premiers volets présentent une version anthropomorphe d'un appareil Sony (la première image nous montre une tête de jeune fille dont les yeux ont été remplacés par des objectifs de caméscope ou d'appareil photo, la seconde une jeune femme de profil dont l'oreille est décorée avec les touches de commande d'un appareil hi-fi), et le dernier volet révèle comment tous ces appareils peuvent se connecter au sein du système « memory stick ». La greffe informatique peut alors s'interpréter sous forme d'un ratio aristotélicien : un ordinateur est au système « memory stick » Sony ce que le cerveau est au corps humain : tous deux permettent de « penser ». Le travail de l'analogie proportionnelle consiste à mettre en rapport deux domaines différents (le corps humain et un système multi-média), puis à établir des correspondances terme à terme entre les deux champs sémantiques. Si le fil conducteur choisi est « pensée », par exemple, on pourra mettre en rapport cerveau et ordinateur. Si c'est « vue », on pourra rapprocher œil et caméscope, etc. .. Par l'intermédiaire de la métaphore, nous passons donc d'un organe du corps (le cerveau) à la capacité de penser, du concret à l'abstrait. Cette capacité à représenter visuellement des abstractions est la raison première de l'utilisation des métaphores en publicité : elle permet de persuader le public tout en économisant de l'espace. L'analyse aristotélicienne selon le rapport d'analogie semble tout à fait suffisante pour expliquer comment cette persuasion opère. Le ratio aristotélicien montre bien en effet comment la métaphore crée une médiation entre une image et un concept, comment, grâce à ce que Paul Ricoeur nomme le « travail de la ressemblance » (1976 : 221-271), elle donne un visage à l'abstrait. La rhétorique d'Aristote a servi de cadre de référence tout au long de l'antiquité gréco-romaine et de la période scholastique, mais cette domination incontestée ne s'est maintenue qu'au prix de réévaluations successives, qui ont petit à petit réduit son empire à des questions de pure forme. C'est dans ce contexte que s'est développée la théorie substitutive de la métaphore, qui a vu son jour de gloire au dix-huitième siècle. Aristote, dans la Rhétorique, avait clairement marqué la prééminence de la métaphore sur la comparaison en définissant cette dernière comme une métaphore étendue : Les comparaisons sont des métaphores, des métaphores qui demandent à être développées. (Rhétorique 1406b, 4, 20-25) En revanche, à partir de Quintilien, on a réduit la métaphore à une comparaison abrégée, dans laquelle le motif de la comparaison a été gommé. Par exemple, dans la fameuse maxime de Hobbes : « L'homme est un loup pour l'homme », la cruauté, l'agressivité communes qui sous-tendent la métaphore ont été gommées. Il n'y a plus alors qu'un écart par rapport à l'usage courant, mais un écart réglé, qui peut toujours se réduire, ou s'expliquer exhaustivement. Une métaphore n'apporte rien de plus que la paraphrase qu'on peut en faire. Son rôle est purement ornemental. Dans cette optique, les publicitaires utilisent parfois des métaphores picturales ayant un sens conventionnel, simplement pour attirer l'attention du lecteur. Prenons par exemple la publicité pour les spectromètres de diffraction de la lumière à plusieurs angles publiée par la société Wyatt Technology dans le magazine LC GC Europe en octobre 2000 (annexe 2). L'image montre une alternance de cartes à jouer rouges et bleues formant une maisonnette, qui attire l' œil par le contraste des couleurs choisies, et intrigue le lecteur : que vient faire un château de cartes dans une revue dédiée à la chimie de séparation ? L'effet de surprise semble venir de ce que seul l'élément figuré de la métaphore apparaît sur l'image. Il faut lire l'argumentaire pour apprendre qu'en chimie on est souvent réduit à déterminer empiriquement les masses moléculaires des polymères, alors que les spectromètres de diffraction de la lumière à plusieurs angles permettent au contraire de mesurer ces masses de façon absolue. Le point commun entre un château de cartes et une mesure d'échantillon empirique se trouve donc être leur caractère précaire, leur manque de fiabilité, ce que souligne la conclusion du premier paragraphe : « You'll get measurements that are based on a solid foundation, not precariously dependent on someone else's work ». Les références à l'image sont claires, qu'elles apparaissent en positif ou en négatif (« solid foundations, precariously dependent »), mais ne supposent pas de complémentarité : le texte se suffit à lui -même et peut se comprendre indépendamment de son illustration. Le rôle sémantique explicatif de la métaphore picturale dans la publicité semble ici réduit à sa portion congrue : énigme si on la considère en elle -même simple accroche photographique ou illustration redondante lorsqu'on la relie au texte qui l'accompagne. Dans cet usage ornemental des métaphores, la médiation est réduite à un minimum de caractéristiques communes (ici, la précarité, la non-fiabilité, par exemple), qui sont suggérées dans l'image, mais ne se révèlent vraiment que dans l'argumentaire publicitaire. Lorsque l'essentiel est simplement de donner à voir pour créer le désir de lire ou d'attirer l'attention du lecteur potentiel par une image énigmatique et séduisante, pour pouvoir ensuite le persuader par d'autres moyens dans le texte publicitaire, la théorie substitutive de la métaphore suffit tout à fait à en rendre compte. Par-delà la période de disgrâce du romantisme, la rhétorique connaît un renouveau certain depuis la deuxième moitié du vingtième siècle, entraînant dans son sillage un foisonnement d'approches nouvelles sur les métaphores. Dans l'optique de la médiation, la théorie la plus féconde me paraît être celle de l'interaction (Black 1962 & 1979), parce qu'elle a le mérite de proposer une explication, d'éclairer le fonctionnement des métaphores en tant que produits. Pour Max Black, une métaphore fonctionne comme interaction entre un foyer métaphorique figuré (« focus ») et un cadre littéral (« frame »). Certaines caractéristiques du foyer métaphorique se projettent sur le cadre littéral pour le réorganiser et, à l'inverse, le cadre littéral influe sur le foyer métaphorique. Les exemples analysés par Max Black sont tirés de la poésie ou de la vie quotidienne, mais sa théorie a également des applications dans les domaines scientifique et technologique. Pour expliquer la théorie de Max Black, prenons, par exemple, la publicité pour verres spéciaux de la firme Schott, publiée dans le magazine britannique New Scientist en septembre 1991 (annexe 3). L'image nous montre à la fois une feuille d'ortie exagérément grossie, dont on voit apparaître les poils irritants, et un morceau de conduit de cheminée en brique, dans lequel est fixé une gaine en verre « recusist ». Le contexte publicitaire ne laisse planer aucun doute sur l'identité des pôles de la métaphore. Dans la mesure où Schott est une firme spécialisée dans la fabrication de verres spéciaux (« number one in Europe for special glass », proclame fièrement sa devise), le verre « recusist » se trouve tout naturellement faire partie du cadre littéral. Cette appartenance sémantique est d'ailleurs reflétée par la présentation matérielle de l'image de la gaine, qui figure au-dessous de l'illustration, et en marge de l'argumentaire, comme pour faire corps avec lui. Par conséquent, la feuille d'ortie se trouve automatiquement jouer le rôle de foyer métaphorique. Dans ce contexte, où la distance entre les deux pôles de la métaphore semble grande, puisque nous passons du végétal au minéral et de la nature à la technique, l'interaction fonctionne sous forme d'un « voir comme » wittgensteinien (Wittgenstein 1961 : 325-361). Il s'agit de voir un conduit de cheminée comme un poil d'ortie, c'est-à-dire comme une vésicule contenant de l'acide formique, dont les parois durcies de calcium et de silice protègent le tissu végétal environnant : In the stinging hairs there's a cell that contains a corrosive fluid. This is what stings us. It would harm the nettle too, but for deposits of calcium and silica which harden the cell wall and stop the fluid getting out. Dans cette optique, la fonction d'une gaine de cheminée est vue sous un angle complémentaire : la perspective habituelle (permettre aux gaz de combustion de s'échapper à l'air libre au lieu d'enfumer la maison) est combinée à une préoccupation nouvelle (empêcher ces mêmes gaz de combustion d'attaquer ou d'encrasser le conduit de cheminée). ' Recusist'is impervious to gas and moisture. It stops corrosive condensation from the flue gases getting into the chimney wall and attacking the fabric of the building. On voit clairement ici que la projection des caractéristiques habituellement attribuées aux poils d'orties (ou « lieux communs associés », si l'on reprend le terme utilisé par Max Black), fait l'objet d'une sélection : le petit renflement au sommet du poil d'ortie, par exemple, n'entre pas en ligne de compte. Seuls apparaissent comme pertinents les traits décrivant le fonctionnement des vésicules urticantes : leur contenu corrosif, le durcissement de leurs parois, et l'imperméabilité qui en découle. L'observation du fonctionnement des poils d'orties, et le transfert de caractéristiques pertinentes dans le domaine des conduits de cheminée, permet de rendre compte du verre spécial « recusist ». À l'inverse, la marque de fabrication humaine se projette aussi, anthropomorphiquement, du verre « recusist » sur la feuille d'ortie, puisque nous voyons au premier plan, grossi au moins d'un facteur dix, une vésicule irritante, enserrée dans le tissu des cellules voisines, sous la forme d'une éprouvette tenue par une main verte. Cet aller-retour entre le foyer et le cadre de la métaphore lui confère une fonction heuristique. La confrontation de deux domaines scientifiques aussi différents que la biologie végétale et la science des matériaux permet un éclairage nouveau, qui transforme notre perception des cheminées. Mais de quelle nature est cet éclairage ? S'agit-il d'une simple illustration pédagogique, pour mieux faire comprendre ce qui existe déjà, et peut être formulé en termes non-métaphoriques (ou moins métaphoriques), comme dans le cas du modèle planétaire de Rutherford. qui présente l'atome comme un système solaire en miniature ? S'agit-il plutôt d'un rapprochement intuitif qui génère une avancée technologique en mettant en relief de nouvelles similitudes ? En l'absence d'informations complémentaires, il est impossible de savoir si la métaphore du conduit de cheminée-poil d'ortie a été à l'origine de la création du verre « recusist » ou si elle illustre simplement, de façon adaptée et originale, les propriétés particulières d'un type de verre spécial. Dans ce cas ambigu, le « voir comme » peut se manifester soit dans un commencement, avec la perception intuitive soudaine d'un rapprochement créateur, d'une « médiation non-verbale » (Ricoeur, 1975 : 271), soit au contraire a posteriori, avec la construction d'une interaction calculée entre les deux pôles de la métaphore. Les deux stratégies tendent de toute façon au même but publicitaire : aider à comprendre pour persuader plus noblement. Et la théorie de l'interaction permet de voir comment cette stratégie de la persuasion par la découverte est mise en œuvre, en analysant comment certaines caractéristiques couramment associées aux orties sont projetées sur les verres spéciaux (pour conduits de cheminée). En créant ainsi des liens nouveaux entre deux domaines auparavant fort éloignés, la théorie de l'interaction modifie la compréhension que nous avons de ces deux domaines, étendant ainsi le travail de l'interaction jusqu'aux pôles de la métaphore. Au terme de l'analyse des trois publicités pour Sony, Wyatt Technology et Schott, il apparaît que les trois théories de la métaphore présentées ici sont opérationnelles. L'hypothèse de départ selon laquelle toute théorie de la métaphore peut aider à comprendre la nature de la médiation à l' œuvre dans telle ou telle image publicitaire semble donc au moins partiellement confirmée, à condition de rendre explicite la stratégie de persuasion affichée. En effet, cette conclusion sur l'efficacité possible de théories, dont certaines sont largement jugées dépassées, ne peut prendre sens que dans un cadre pragmatique où les intentions des annonceurs et les effets produits sur les lecteurs sont pris en compte. La priorité peut alors être, selon les contextes, d'attirer l'attention du lecteur, de donner un visage concret à l'abstrait, ou encore d'aider à découvrir et comprendre. Dans ce cadre pragmatique, où les publicités sont considérées comme des produits de marché, la médiation métaphorique s'amplifie dans un « voir comme » qui englobe aussi bien le transport que le ratio aristotélicien, la perception intuitive que l'interaction. Le « voir comme » pointe vers cette perception du semblable dans le dissemblable qu'Aristote avait déjà notée, et qui permet de rendre compte de la métaphore en tant que processus créatif. Il ouvre donc l'espace d'une médiation, tout en proposant les moyens de structurer cet espace, c'est-à-dire d'expliquer et d'analyser cette médiation, en rendant compte cette fois de la métaphore comme produit fini . | Cet article a pour but de tester l'utilité de diverses approches théoriques sur les métaphores, appliquées à l'analyse des images publicitaires. Pour la théorie comparative de la métaphore, qui remonte à Aristote, la médiation réside dans le «travail de la ressemblance» (Ricoeur, 1976), et permet d'exprimer un concept abstrait par un objet concret (cf. le système memory stick de Sony). Pour la théorie de la substitution, qui a eu son jour de gloire à l'époque classique, une métaphore n'a de rôle qu'ornemental, et la médiation consiste alors simplement à la «traduire» en termes littéraux. Dans cette optique, les publicitaires utilisent souvent les métaphores picturales comme accroches, pour attirer l'attention du lecteur (cf le château de cartes de Wyatt Technology). La théorie interactive de la métaphore (Black, 1962) amplifie au contraire la place de la médiation, en postulant que certaines caractéristiques du «foyer» métaphorique se projettent sur le «cadre» littéral qui l'entoure, et vice-versa. L'intérêt devient alors heuristique (cf les verres spéciaux de Schott). Les résultats montrent donc que même des théories de la métaphore souvent considérées comme dépassées peuvent aider à analyser une image publicitaire, pourvu qu'elles soient en accord avec la stratégie de persuasion utilisée dans ce contexte particulier. | linguistique_524-02-12062_tei_727.xml |
termith-713-linguistique | Les essais et les articles de Paul R. Krugman font partie intégrante des programmes d'économie internationale aujourd'hui. Son manuel, International Economics, écrit conjointement avec Maurice Obstfeld reste une des références en la matière; il a d'ailleurs été réédité en 2002 pour la sixième fois. Krugman est relativement renommé en France; certains de ses essais ont connu un succès manifeste en librairie, à l'instar de La mondialisation n'est pas coupable (traduction de Pop Internationalism publiée en 1998). Ancien professeur à Yale, Stanford et au Massachusetts Institute of Technology, Paul R. Krugman enseigne actuellement à Princeton. Chroniqueur régulier du New York Times, il est l'un des économistes américains les plus en vue du moment. Aussi, en tant qu'enseignant, avons -nous à notre disposition un corpus très varié, composé de textes pour spécialistes et de publications non strictement professionnelles. Ses articles font preuve d'une volonté de réelle communication avec le lecteur, par la mise en place d'une stratégie d'écriture caractéristique et l'utilisation d'un réseau de références qui sont présupposées communes à l'auteur et au lecteur. Nous nous proposons d'étudier trois textes intégrés dans nos cours d'anglais pour étudiants LANSAD, plus particulièrement des économistes. Ces textes sont de nature différente et ne relèvent pas tous de la langue de spécialité. Nous commencerons par présenter brièvement ce corpus avant d'y appliquer divers outils de l'analyse pragmatique, lexicographique et stylistique qui se révèlent opératoires. Nous développerons ensuite le résultat de la mise en œuvre, et tenterons de dégager des conclusions quant à la pertinence de l'utilisation de tels documents en cours. Dans un article publié à l'occasion de la promotion de Pop Internationalism, Paul R. Krugman (1996b) était présenté comme le plus controversé des économistes américains, non seulement pour la nature de sa réflexion, en particulier sur les réalités du commerce international, mais aussi pour sa façon de critiquer ses confrères et, plus généralement, tous ceux qui se considèrent comme des experts. Ses cibles le définissent comme « un non-conformiste à la critique acerbe » (Krugman 1996b). Au delà de ses propos, la focalisation sur son style nous paraît motivée par le fait qu'il souhaite que le principal trait distinctif de son écriture soit la simplicité. Cet objectif semble atteint puisque le journaliste de Newsweek note qu' « il écrit de façon éloquente et simple pour le public » (Krugman 1996b). Cet article (dorénavant abrégé WDU) constitue le huitième chapitre de l'ouvrage Pop Internationalism (Krugman 1996a). Dans cet essai, Paul R. Krugman s'attaque à certains clichés qui apparaissent régulièrement à propos de l'économie internationale. Le cœur de cet extrait est constitué de l'analyse de six opinions erronées sur les conséquences de la mondialisation, que Paul R. Krugman s'applique à identifier pour mieux les combattre. Ce document est donc clairement conçu par l'auteur dans un but didactique (politique également, puisqu'il dénigre ses adversaires). Comme l'indique le titre, il s'agit de rappeler les éléments indispensables à la compréhension des grandes questions de l'économie internationale. Le niveau de langue est neutre, l'article ne comporte pas de termes techniques ni de lexies complexes. Plus formellement, l'auteur est totalement dans son rôle d'enseignant, les destinataires étant l'étudiant, l'érudit inscrit dans un processus d'acquisition d'un savoir portant sur un domaine précis (l'économie internationale), et l'enseignant. Il s'agit du « premier » Krugman, l'expert, théoricien reconnu du commerce international qui, en tant que chercheur, œuvre à l'avancée de la recherche scientifique dans son domaine et à la divulgation de cette connaissance (vulgarisation). Cet article a été choisi pour être étudié en cours d'anglais car il s'intègre dans la bibliographie des travaux dirigés d' Économie internationale dans notre université. Ces deux articles sont de longs essais publiés dans le New York Times Magazine (Krugman publie de tels essais deux fois par an, ils sont partiellement traduits pour les lecteurs francophones dans Courrier International). Le thème principal de « For Richer » (FR) est la disparition des classes moyennes américaines, du fait de l'accroissement de l'écart de revenu entre les riches et les pauvres. « The Tax-Cut Con » (TCC) est une critique des politiques de réduction d'impôt mises en place par les gouvernements successifs aux États-Unis depuis plusieurs décennies. Le statut de l'auteur est différent de celui de WDU. Krugman est le chroniqueur subjectif de la politique intérieure américaine. En fait, le spécialiste et le chroniqueur font appel à deux cadres théoriques distincts : le modèle néo-classique, ou standard, de l'économie internationale et une défense du rôle interventionniste de l' État, d'inspiration keynésienne. Nous avons retenu ces articles pour les étudier en cours de master car ils s'inscrivaient dans l'actualité (venant d' être publiés et commentés sur Internet). Il convient maintenant de tenter de caractériser ces textes, à travers trois traits : les aspects didactique, ludique et subjectif. Le but affiché de Paul R. Krugman lorsqu'il écrit ces textes est de communiquer un savoir. Les trois textes du corpus seront traités de façon différenciée : WDU est identifié comme un texte didactique dès les premières lignes : The problem is that most of what a student is likely to read or hear about international economics is nonsense. What I want to argue in this paper is that the most important thing to teach our undergrads about trade is how to detect that nonsense. (WDU : 117-118) Malgré de nombreuses références aux étudiants, le lectorat du texte est plutôt constitué des collègues de Paul R. Krugman : « We should try to instill in undergrads a visceral negative reaction to statements like this » (WDU : 121). On notera ici l'utilisation du « should » opérateur de modalité, porteur d'une valeur déontique : l'auteur s'inscrit alors en plein dans la relation intersubjective en énonçant une obligation d'après ses propres critères (Bouscaren & Chuquet 1987 : 55). Il les applique d'ailleurs à lui -même; il fonde bien sûr le contenu du conseil sur sa propre analyse du commerce international. La stratégie didactique se développe aussi par le recours à des schémas récurrents dans l'argumentation : les six idées erronées (IE) qui sont dénoncées par Krugman dans le texte sont toutes présentées de la même façon : un terme ou une expression entre guillemets, identifiés comme erronés, avec appui sur des éléments factuels et sur : - une parabole empruntée à un autre auteur (Ingram 1983) (IE n°1); - les idées développées par les maîtres (IE n°2); - une expérimentation pédagogique menée par Krugman (IE n°3); - une anecdote sur l'expérience de chroniqueur de Krugman (IE n°3); - une déclaration politique (IE n°5); - des clichés, sous la forme de citations empruntées à d'autres auteurs (IE n°2, 4 et 6). Cette juxtaposition de références réalistes participe d'un « effet de réel » qui rend la démonstration plus parlante pour le lecteur. De plus, la structure de l'article elle -même souligne un souci didactique : la problématique et sa justification sont aisément identifiables. En ce qui concerne les deux articles du New York Times Magazine, le lectorat visé est un public d'adultes, la structure n'est donc pas aussi clairement (scolairement) visible, même si les textes sont divisés en sous-parties qui suivent la logique argumentative du discours et se rattachent au style journalistique américain : anecdote (enfance de l'auteur/description d'un comic strip), données du problème et problématique, perspective historique et comparaisons, conclusion et retour à l'item de départ. La langue employée par Krugman n'est pas jargonnante, même s'il manie souvent un lexique technique. Le style de WDU est non marqué, comme l'est celui des deux articles, avec des passages familiers (dans l'utilisation notamment de formulations orales). Si l'utilisation de la langue technique de spécialistes paraît totalement appropriée dans le cas d'un ouvrage pour spécialistes (WDU), nous pouvons peut-être nous interroger sur sa présence dans des articles extraits d'un magazine à visée généraliste. En fait, ces termes nous semblent ici porteurs d'une sorte de marquage socioculturel : les comprendre nécessite la maîtrise de concepts abstraits, et Krugman flatte d'une certaine façon le lecteur, son « Lecteur Modèle » tel que U. Eco (1985) le définit, suggérant l'idée suivante : « ces termes sont techniques et compliqués, je le sais, mais je vous suppose assez instruits pour que cela ne soit pas un problème ». Pour Krugman, la difficulté réside alors dans une assez subtile catégorisation en « mots techniques pour spécialistes » et « mots techniques pour érudits ». En se posant comme le transmetteur d'un savoir, et par la mise en œuvre de stratégies didactiques variées, Krugman affirme son point de vue comme la vérité. De façon à assouplir justement cet aspect didactique, et de façon à construire une connivence — facilitatrice de transmission de savoir — avec le lecteur, il fait appel au ludique. L'aspect ludique apparaît de différentes façons. En premier lieu, par l'ironie, c'est-à-dire la « raillerie particulière, par laquelle on dit le contraire de ce que l'on veut faire entendre » (Le Petit Littré), utilisée constamment par Krugman. Par exemple, il voit en ses cibles des hommes au sens pratique (WDU : 120), qui, en théorie, ont fait quelques études : Lester Thurow is a trained economist, who understands comparative advantage. Yet his recent book has been a best-seller largely because it vigorously propounds concepts that unintentionally (one hopes) pander to the clichés of pop internationalism. (WDU : 121) ou : And here's a radical thought : if the rich get more, that leaves less for everyone else. (FR : 67) Cette ironie apparaît aussi dans l'utilisation de nombreux néologismes lexicaux dans des cas bien précis : là où le néologisme devrait signaler l'introduction d'un nouveau concept (« unique naming of new concepts » Sager 1990 : 79), il ne fait que souligner la vacuité intellectuelle des pseudo concepts proposés (selon Paul R. Krugman, qui utilise ici l'argument d'autorité et met clairement en doute la compétence des personnes citées). Le plus évident de ces néologismes est sans doute pop internationalism (dans l'ouvrage éponyme), où la suffixation en - ism connote péjorativement le mot qui, de plus, fait référence à un mouvement artistique (si on veut gloser, l'effet est le suivant : les « Pop Internationalistes » sont des artistes branchés à l'idéologie absconse). - ISM : ‘ doctrine of ', ‘ practice of ' as in Calvinism, idealism, impressionism, fanaticism, absenteeism, racism. The items concerning religion, politics, philosophy, and art usually have a corresponding item in – ist to denote adherents and practitioners. (Quirk et al. 1985 : 1549) La valeur dépréciative de la suffixation en - ism dans le cas d'une implication idéologique — c'est le cas ici — est mise en lumière par Catherine Kerbrat-Orecchioni : […] l'instabilité des investissements axiologiques que l'on observe dans les compétences lexicales tient surtout à la diversité des compétences idéologiques qu'elles reflètent : […] « poujadisme », « réformisme », « électoralisme », « racisme », « sexisme », « jeunisme », etc., […] fonctionnent régulièrement comme des termes injurieux et peuvent donc être considérés comme marqués en langue [… ]. (Kerbrat-Orecchioni 1980 : 76) Ce décalage entre signifiant et signifié est également mis en évidence par les différents tropes présents dans le corpus. Tout d'abord, les comparaisons, où le lien comparé / comparant est explicité par la présence de « like », qui souligne une volonté de clarté : […] they illustrated the extent to which corporate leaders now expect to be treated like ancien régime royalty, (FR : 64) In the 1960's, America's great corporations behaved more like socialist republics than like cutthroat capitalist enterprises, and top executives behaved more like public-spirited bureaucrats than like captains of industry, (FR : 66) We should think of it [the explosion of executive pay] not as a market trend like the rising value of waterfront property, but as something more like the sexual revolution of the 1960's — a relaxation of old strictures, a new permissiveness [… ]. (FR : 66) L'étape suivante dans la relation comparé / comparant est la métaphore, où, par l'emploi d'un lien direct, synthétique, le rapport analogique entre signifiant et signifié est une composante de l'aspect subjectif du texte. Ces métaphores sont parfois porteuses d'un double sens et constitutives d'un jeu de mots : « So it's not the invisible hand of the market that leads to those monumental executive incomes; it's the invisible handshake in the boardroom » (FR : 66 — référence à la métaphore d'Adam Smith, qui est rappelée avant d' être détournée), « the rich and tasteless » (FR : 63, référence à un célèbre soap opera), « the man in the gray flannel suit » (FR : 64, pour le dirigeant d'entreprise). Ensuite Paul R. Krugman utilise un procédé peut-être moins subtil : la dérision et la moquerie. Le passage précédemment cité à propos de Lester Thurow relève du sarcasme, en particulier au sujet de son best-seller, Head to Head (1992). Notons, puisqu'il peut s'agir pour nous d'un point d'intérêt significatif, que Krugman ne semble pas porter la FASP dans son cœur : dans WDU, il cite Rising Sun, écrit par Michael Crichton et publié en 1992 (adapté pour le cinéma par Philip Kaufman en 1993), comme une source non-négligeable de clichés. L'auteur utilise des guillemets autour de fragments de discours rapportés lorsqu'il veut évoquer ces « clichés du pop internationalism » (WDU : 121). Il montre ainsi qu'il n'assume pas les termes qu'il cite, il s'en distancie pour pouvoir mieux les critiquer. Notons l'aspect totalement rhétorique du procédé : de vraies — ou de fausses — citations sont données entre guillemets pour être commentées et critiquées par l'auteur. Il s'agit ainsi pour Krugman de parodier, c'est-à-dire d'imiter un style pour rendre les idées ridicules. What makes parody so amusing often is not simply recognizing what features are being parodied and why, but also appreciating the parodist's own creative talents : fusing creativity or wit with critique. (Waugh in Wales 1989 : 338) Le dispositif de prédilection utilisé par Krugman pour dénoncer les opinions d'après lui erronées est la collocation et les expressions convenues : la concurrence entre nations (« compete in an even tougher world marketplace / be competitive / maintain a standard of living / face an onslaught from new competitors »), le lien emploi - mondialisation (« destroy jobs / generate jobs / lose jobs »), le rapport entre le travail effectif des grands présidents directeurs généraux américains et leur paie (« provide huge incentives for performance / deliver results »). Il détourne également ces collocations qui deviennent alors ironiques : « Executives who devote their time to creating innovative ways to divert shareholder money into their own pockets probably aren't running the real business very well […] » (FR : 76). Dans les textes étudiés ici, l'humour naît d'un décalage constant entre ce que le lecteur attend et ce qui est donné comme référence. Par exemple, à égalité avec les données statistiques, nous trouvons de petites anecdotes et des histoires personnelles : son expérience d'enseignant et de chroniqueur (WDU), son enfance (FR), ses liens avec les hommes du Président (TCC). Soulignons qu'il s'agit ici d'un travers de l'auteur, sans doute un peu égocentrique et peut-être soucieux de poser les fondations d'un mythe Paul R. Krugman. Il souhaite, à l'instar de Keynes, faire de la science économique un débat de société pour marquer son époque. Par ailleurs, nous sommes en présence de stars de la télévision (Jay Leno, Robert Novak), de quelques présidents directeurs généraux et hommes d'affaires « starisés » (J.P. Morgan, Bill Gates, Jack Welch, Lee Iacocca, Dennis Koslowski, Gerald Levin dont le statut de star est illustré par le renvoi à des magazines tels que Business Week, Forbes ou Fortune). Enfin, les sources sont des articles, mais également des best-sellers d'économie, des romans (Rising Sun de M. Crichton, The Great Gatsby de S. Fitzgerald, The Bonfire of the Vanities de T. Wolfe), et des films. Wall Street d'Oliver Stone est cité et l'une des célèbres répliques du film est même reprise pour illustrer un argument dans l'article « For Richer » : During the 1980's and 1990's a torrent of academic papers — popularized in business magazines and incorporated into consultants ' recommendations — argued that Gordon Gekko was right : greed is good; greed works. (FR : 66) Remarquons que ces références font partie intégrante du raisonnement, leur rôle est de suggérer une comparaison significative dans l'esprit du lecteur, elles jouent un rôle métaphorique : « The America of « Wall Street » and « The Bonfire of the Vanities » was positively egalitarian compared with the country we live in today » (FR : 65). Bien entendu, seules les indications atypiques sont retenues ici; Krugman utilise également des données quantitatives et cite des études (comme celles de Picketty & Saez et de Goldin & Margo dans FR, un ouvrage de Galbraith …). Nous pouvons identifier la récurrence d'un déplacement des niveaux de langue : le style utilisé est toujours d'un degré moindre que celui attendu (le style neutre de WDU s'oppose au style académique requis pour The American Economic Review; pour ce qui est des articles du New York Times Magazine, notons que les occurrences de style oral sont moins abondantes dans TCC que dans FR). Nous pouvons également remarquer l'usage répété des modalités exclamatives (« unfortunately, actually, depressingly »), ce qui accentue encore l'effet de style oral. La forme ici sert d'appui à la critique, plutôt directe et franche, de l'auteur envers ses confrères principalement. Son rôle est également de bâtir un lien, une connivence avec le lecteur contre un tiers. Krugman fait ainsi un usage régulier de la première personne du pluriel de l'impératif comme stratégie d'intégration auteur / lecteur : Let's leave actual malfeasance on one side for a moment [… ], (FR : 66) But let's focus on a specific case [… ], (FR : 76) But first, let's set the stage by taking a look at the current state of taxation in America, (TCC : 56) Let's be clear : very few economists think that Clinton's policies were primarily responsible for that miracle, (TCC : 59) So let's put a few things back on the table. Let's assume that interest on the public debt will be paid [… ]. (TCC : 62) À travers l'utilisation de diverses techniques rhétoriques, Krugman veut convaincre son lecteur. Il souligne d'ailleurs que l'analyse rhétorique occupe une place non négligeable dans son discours (il étudie « la rhétorique du pop internationalism » WDU : 118). La dimension subjective, c'est-à-dire une prise de position de l'énonciateur vis-à-vis de l'énoncé qui implique un jugement de valeur, est donc constamment présente dans le texte, à travers différents marqueurs récurrents, en particulier ceux de la modalité assertive. Modality covers all those features of discourse which concern a speaker's or writer's attitude to, or commitment to, the value of applicability of the propositional content of an utterance, and concomitantly, his relationship with whoever he directs the speech act to. (Fowler in Carter & Simpson 1989 : 95) Grâce à ce processus, l'énonciateur porte un jugement évaluatif sur son énoncé, il « renforce, nuance ou rectifie la portée de l'assertion qu'il est en train de faire » (Fromilhague & Sancier 1991 : 88); par l'emploi par exemple du pronom personnel de la première personne du singulier, souvent associé à un verbe porteur d'un point de vue (WDU - 17 occurrences : « I could justify; I think; what I want to argue; I have found; I think »; FR - 16 occurrences : « I suspected; I don't mean; I am not exaggerating; I find; I am not suggesting; I could make this argument; I don't think so; I mean; Am I being too pessimistic ? I hope » — qui trouve un écho dans : « my sense; we can be sure ») et de modaux et adverbes assurant des fonctions modales (« certainly; probably; definitely; surely; likely; unlikely; possibly »). […] chaque mot ou lexie peut, auprès de [son] signifié fondamental (dénotation), présenter des valeurs de sens annexes, instables mais souvent prééminentes dans la communication littéraire (connotations). (Perrin-Naffakh 1989 : 24) Cette dimension subjective apparaît également dans l'usage des marques de connotation : connotation valorisante ou dévalorisante. Nous pouvons alors identifier l'engagement axiologique de l'auteur, qui établit des normes personnelles et juge ensuite d'après celles -ci. Ainsi, les idées opposées à sa propre vision des choses sont connotées négativement (définies comme « nonsense, misconceptions, clichés, misrepresentation », elles sont qualifiées de « silly, grossly misleading, phony, distressing, wrong » et « a laughingstock »). En revanche, ses points de vue sont présentés de façon laudative, comme véridiques et définitifs : « the right question, the right answer » (TCC : 62, 59), « realistic quantitative sense » (WDU : 120), « the correct answer » (WDU : 121). Remarquons enfin le travail sur la présence du lecteur dans le texte : A more sophisticated pop internationalist like Robert Reich (1991) realizes that the interests of U.S. firms are not the same as those of U.S. workers (you may find it hard to believe that anyone needed to point this out, but among pop internationalists this was viewed as a deepand controversial insight). (WDU : 123) Ces interpellations, qui participent de l'impression d'oralité, permettent de renforcer le lien auteur / lecteur, d'affirmer et de commenter les propos de l'auteur (elles s'inscrivent dans l'ensemble des dispositifs de l'expression de la subjectivité). Ainsi, elles apparaissent sous forme d'indications de lecture : « Please ignore the numbers for a moment » (WDU : 118), « more on this later » (FR : 64), « But before we get to all that, let's take a look at who gets what » (FR : 64). Pour renforcer cet effet de dialectique auteur / lecteur, Krugman ponctue son discours de « yes », « right » et « of course ». Cet effet apparaît également dans les questions, plus souvent rhétoriques, posées par Krugman : So we're just talking about shifts within the middle class, right ? Wrong : the top 10 percent contains a lot of people whom we would still consider middle class, but they weren't the big winners, (FR : 65) Is it news that C.E.O.'s [sic] of large American corporations make a lot of money ? Actually, it is. (FR : 64) Does this mean that the Reagan tax cuts had no effect ? Of course not. (TCC : 58) Ces trois aspects (didactique, ludique et subjectif) se conjuguent donc pour former un style d'écriture tout à fait caractéristique qui révèle peut-être (et notre intention est d'aller ici dans la direction d'une lecture non structuraliste du texte) quelques traits dominants d'une personnalité, ou du moins, de l'image construite d'une personnalité. Ces textes ont été proposés à des étudiants de niveau hétérogène. Ils sont habitués — surtout ceux de deuxième cycle — à lire des contributions scientifiques ou des articles de vulgarisation en anglais, qui conjuguent niveau de langue relativement soutenu, et recours à un anglais technique. Ils remarquent tout de suite le contraste, et apprécient de travailler sur la forme autant que sur le fond. Nous l'avons déjà dit, Krugman semble s'appliquer à construire une image à travers son écriture : celle d'une personnalité brillante, au style séduisant, possédant un certain sens du sarcasme et de l'humour. Cependant, il situe volontairement une vision orthodoxe sur le terrain de l'hétérodoxie : il y a vulgarisation du langage mais le référent théorique demeure standard. Le but de cette étude était de proposer une lecture des textes de Krugman pour convaincre le lecteur de l'intérêt réel de les utiliser dans l'enseignement, car comme il le souligne lui -même, l'économie n'est pas aussi rébarbative qu'on veut bien le dire : But the honest truth is that what drives me as an economist is that economics is fun. I think I understand why so many people think that economics is a boring subject, but they are wrong. On the contrary, there is hardly anything I know that is as exciting as finding that the great events that move history, the forces that determine the destiny of empires and the fate of kings, can sometimes be explained, predicted, or even controlled by a few symbols on a printed page. We all want power, we all want success, but the ultimate reward is the simple joy of understanding. (Krugman 1995 : site ) | Paul R. Krugman est un des spécialistes éminents de l'économie internationale aujourd'hui. Les textes étudiés ici traitent des points fondamentaux du commerce international ("What Do Undergrads Need to Know about Trade? "), des différences de revenu aux États-Unis (" For Richer "), et des politiques de réduction d'impôt de l'administration américaine ("The Tax-Cut Con "). À travers cette analyse, nous tentons de montrer que Krugman fonde sa stratégie discursive sur trois pôles distincts: le didactique, le ludique et le subjectif. Le but premier de Krugman est d'expliquer; aussi, convient-t-il d'identifier clairement ses méthodes d'argumentation, son lectorat et de catégoriser la langue employée. L'aspect ludique apparaît à travers la présence récurrente dans le corpus de l'ironie, la dérision et la moquerie, et un décalage constant entre ce que le lecteur attend et ce qui lui est proposé. Enfin, la subjectivité s'exprime par le jeu avec la modalité, la connotation et les stratégies de renforcement du lien auteur/lecteur. | linguistique_524-06-11081_tei_793.xml |
termith-714-linguistique | Nous nous proposons dans cet article de restituer, dans une perspective dynamique, la démarche que nous avons engagée afin d'élaborer une grille d'annotations sous Elan ® qui puissent nous permettre de décrire et d'analyser les productions langagières de jeunes enfants sourds âgés de 6 à 12 ans, lors d'une tâche narrative. Le projet « Multimodalité », soutenu par l'Agence nationale de la recherche (2005-2009) et dirigé par Jean-Marc Colletta, incluait, à des fins comparatives, un volet sur les enfants sourds. Il s'agissait de voir comment les enfants sourds, soumis à un protocole de narration identique à celui proposé à des enfants entendants, utilisaient, au travers de la multimodalité, leurs ressources verbales et non verbales, pour restituer une histoire qu'ils venaient de visionner sous la forme d'un dessin animé de Tom et Jerry (le script du dessin animé permettant de mieux contextualiser les exemples donnés dans l'article est fourni en Annexe I). Le volet « surdité » de la recherche s'est réalisé en fin de programme et la grille que nous souhaitons présenter et surtout commenter ici, dans les cheminements qui ont été les nôtres, s'est organisée à partir d'une grille, élaborée par l'équipe constituée, pour rendre compte de la mise en œuvre discursive de la multimodalité chez les enfants entendants (Colletta, Venouil, Kunene, Kaufman et Simon, 2009). Notre grille, en tant que telle, a déjà fait l'objet d'une publication (Millet et Estève, 2009). Cependant, il nous a paru important de compléter cette première présentation statique, par une dimension dynamique susceptible de cerner la façon dont l'utilisation de la multimodalité par les enfants sourds éclaire, d'un point de vue général, la mise en place et le développement des fonctions langagières, entendues dans leur acception large, c'est-à-dire concernant tant le plan linguistique que les aspects non verbaux. S'appuyant sur cette conception, notre approche s'articule en outre sur les notions de répertoire verbal et de plurilinguisme, en lien avec la sociolinguistique du contact des langues. Notre travail s'inscrit dans la perspective de McNeill (1992) qui considère que les modalités vocales et gestuelles participent toutes deux de l'expression langagière. Nous distinguons donc bien les pratiques linguistiques – expression au moyen de la langue – des pratiques langagières – construites sur le verbal et le non-verbal. Nous adoptons ici une définition sociolinguistique et non normative du bilinguisme et de la personne bilingue telle que, entre autres, Grosjean (1982) a pu la proposer, à savoir : une personne utilisant deux langues dans sa vie de tous les jours; définition qui est liée à celle de MacNamara (1967) : « Le bilingue est quelqu'un qui possède une des quatre habiletés linguistiques à savoir comprendre, parler, lire et écrire, dans une langue autre que sa langue maternelle. » Comme le proposent les théories du bilinguisme développées par Ludi et Py ([ 1986] 2002), on considère que le lieu du contact des langues n'est pas le territoire, comme ce peut être le cas par exemple dans les théories diglossiques, mais la personne et que parce que la personne est le lieu du contact linguistique, elle développe des compétences et des activités langagières propres et originales, ce que l'on nomme « parler bilingue ». La multimodalité – et, partant, l'instanciation langagière – des enfants sourds présente plusieurs particularités. Tout d'abord, nous soulignerons que, selon les sources (Gillot, 1998), 90 à 95 % des enfants sourds naissent dans des familles entendantes, qui, donc, ne connaissent à priori pas l'existence des langues gestuelles – soit, pour le contexte français, la LSF. Le choix de ces familles se porte actuellement de façon extrêmement majoritaire sur une éducation « oraliste ». Ainsi, bon nombre d'enfants sourds, bien qu'ils aient indubitablement une barrière sensorielle leur empêchant un accès naturel à la langue vocale ,ne sont pas introduits, de par les choix éducatifs qui sont faits pour eux, dans une gestualité d'essence linguistique. Les progrès de la technique, visant à réparer l'audition via des appareillages de plus en plus sophistiqués, allant des prothèses auditives (ou contours d'oreilles) aux implants cochléaires, accentuent encore ce phénomène. Néanmoins, pour certains d'entre eux, cette gestualité s'investit de composants quasi-linguistiques (voire linguistiques), comme nous le verrons. Pour d'autres enfants, moins nombreux, le choix d'une éducation incluant la LSF est fait : dès lors la gestualité est porteuse d'informations symbolisées au moyen d'un système linguistique. Si ces enfants sont introduits, par le biais d'une rééducation orthophonique, dans la dimension vocale du français, ils auront donc deux modalités pour exprimer des contenus véhiculés linguistiquement. Ainsi, la bimodalité sourde introduit nécessairement dans la bilingualité. Il s'agit, en outre, d'une forme de bilinguisme spécifique puisque chaque modalité est tour à tour susceptible de servir de base linguistique aux énoncés. Ceux -ci ne peuvent dès lors être envisagés comme constitués de deux modalités œuvrant en quelque sorte parallèlement, mais bien comme la mise en œuvre dynamique et conjointe des ressources langagières multimodales. Transcrire les productions narratives des enfants sourds amène à interroger plus précisément le lien vocalité/gestualité, alors que, concernant les entendants, il semble qu'un postulat sous-jacent subordonne le gestuel à la parole, sans doute du fait que les modalités sont spécifiées dans chacun des deux domaines verbal d'une part (voix) et non verbal d'autre part (geste). Dans un premier temps, nous présentons les grandes lignes de la grille d'annotations, telle qu'elle a été élaborée pour la transcription des narrations des enfants entendants, pour ensuite discuter tous les aménagements qui ont dû être faits. La première opération de codage consiste, sur une ligne E nfant, à « transcrire les paroles »; cette transcription permet une notation fidèle des propos de l'enfant, avec les hésitations, les prononciations effectives, les pauses, etc. Mais la centration sur le linguistique exige une remise aux normes lexicales et syntaxiques, proches de celles de l'écrit, s'effectuant sur la ligne proposition syntaxique afin de procéder à l'identification des types de propositions. Cette ré-écriture a par exemple amené à négliger tout ce qui vocalement ne relève pas du linguistique – telles par exemple les onomatopées qui s'inscrivent certes, par rapport au français dans une monomodalité, mais investissent un registre langagier différent. Parallèlement à ces annotations concernant le linguistique, sont annotés les mouvements corporels sous la ligne Gestes. Les deux entrées sont donc distinctes par nécessité puisqu'il s'agit de linéariser des processus globalisés dans l'expression langagière. Mais elles sont surtout indépendantes : l'identification des unités vocales et celle des unités gestuelles n'étant pas subordonnées l'une à l'autre, dans l'appréhension globale des productions de l'enfant. Nous verrons qu'un tel choix d'indépendance des lignes d'annotation n'est pas adéquat pour rendre compte de la réalité langagière des productions des enfants sourds, ce qui interroge nécessairement la pertinence de maintenir deux entrées distinctes, et de fixer le linguistique au centre du découpage des propos de l'enfant. En effet, le recours à la bimodalité dans les pratiques des enfants sourds nous a amenées très rapidement à revoir ces éléments centraux de la transcription. À la différence des discours des enfants entendants, dans les productions des enfants sourds, le linguistique peut être supporté par deux langues distinctes : le français ou la LSF. Les discours des enfants sourds laissent parfois apparaitre, de manière similaire à ceux des enfants entendants, le français comme support de la production linguistique, tandis que la gestualité n'est que co-verbale; c'est le cas, par exemple, dans l'extrait de la narration de Jalil, qui restitue la chute de l' œuf. Exemple 1 : Jalil Français : et après l' œuf il…il…elle bouge il tombe par terre Gestes : MD mvt > B Cependant, certains discours présentent l'organisation inverse, le linguistique étant alors supporté par la modalité gestuelle, tandis que la vocalité n'est que co-verbale, comme dans cet exemple produit par Louise : Si dans ces deux types de discours, un découpage des productions de l'enfant centré sur le linguistique reste opératoire, une langue pouvant être identifiée comme support des productions de l'enfant, d'autres types de discours, beaucoup plus fréquents chez les enfants sourds, témoignent d'une organisation bimodale qui n'a pas d'équivalent chez les enfants entendants, et dont il faut bien rendre compte. Par ailleurs, comme nous l'avons déjà souligné, le linguistique chez les enfants sourds peut être assumé par les deux modalités simultanément. Cette simultanéité interroge tout particulièrement la question du découpage de la production linguistique – et ce, de façon caractéristique dans cet extrait des productions de Mehdi, où le français et la LSF sont utilisés en continu. Selon la langue choisie comme base pour transcrire cet extrait, le découpage amène à identifier une ou deux propositions. En effet, il semble qu'on puisse identifier une proposition infinitive en français [après pour voir petit *nœuf ], tandis que deux propositions distinctes peuvent être repérées en LSF [apres pr.corp-maman-oiseau, se-mettre-debout] et [pr-corp-maman-oiseau, regarder, loc-entre-les-jambes petit œuf ]. Ainsi, les interactions observées entre vocalité et gestualité nous donnent à repenser l'appréhension des deux modalités dans les productions des enfants sourds. Dans cet extrait d'Abdel, par exemple, où le français, les onomatopées et les gestes sont utilisés, il serait bien délicat de proposer un découpage syntaxique cohérent qui corresponde à l'organisation réelle de l'énoncé. Ainsi, confrontées aux réalités multiples que revêt la bimodalité chez les enfants sourds, dont ces quatre exemples ne donnent qu'un aperçu, nous avons dû adapter la grille afin d' être en mesure d'annoter au plus près du sens de l'énoncé les interactions diverses entre moyens linguistiques et non linguistiques. Dès lors, nous avons dû redéfinir une échelle de description qui soit à même de saisir ces dynamiques langagières dans leur ensemble. Appréhender la bimodalité dans le contexte de la surdité nécessite de repenser l'appréhension distincte des valeurs linguistique et non linguistique de l'expression du locuteur, dans la mesure où cette distinction ne s'ancre plus dans un découpage bimodal biunivoque : une modalité pour le verbal et une autre pour le non-verbal. La présence de deux langues de modalités différentes – le français et la LSF – amène la possibilité d'une expression gestuelle et vocale, chacune de ces modalités pouvant véhiculer des valeurs linguistiques ou non linguistiques. Cette spécificité articulatoire du bilinguisme sourd amène à nous situer dans une appréhension particulière de la bimodalité. Dans la grille de départ élaborée pour la description des conduites langagières des enfants entendants, la modalité vocale, et donc linguistique, était identifiée comme référence pour la transcription des propos de l'enfant. La bimodalité était donc fondamentalement appréhendée comme la production de deux productions indépendantes, ce qui s'explique aisément puisque, tant d'un point de vue articulatoire que d'un point de vue perceptif, elles peuvent être envisagées comme distinctes. Cette conception appliquée aux pratiques des locuteurs sourds reviendrait à envisager l'utilisation verbale simultanée des modalités vocale et gestuelle comme deux énoncés linguistiques distincts et indépendants relevant chacun d'une langue particulière. La bimodalité se détaillerait alors comme une production parallèle de deux messages syntaxiquement et sémantiquement indépendants et conformes à chacune des langues utilisées, ce qui parait être le cas dans l'exemple suivant, où ce qui est énoncé en français est strictement équivalent à ce qui est énoncé en LSF, les normes de chacune des deux langues étant respectées. Exemple 5 : Adulte Français : oui oui j'étais là LSF : oui pte - 1 là En réalité, cette mise en œuvre de la bimodalité n'est que rarement rencontrée dans les pratiques des locuteurs sourds bilingues, et ce, même dans des situations où l'utilisation des deux langues est pourtant contrainte par la situation de communication – en présence d'un locuteur sourd et entendant par exemple (Estève, 2006, 2007). Ceci s'explique vraisemblablement par le fait que, dans une perspective expressive, il est peu réaliste de penser que l'expression d'un locuteur bilingue mettrait en œuvre les deux façons de dire qu'il possède en se bornant à véhiculer une information identique dans les deux langues, mettant ainsi en parallèle deux messages identiques. Une telle conception d'une mise en œuvre parallèle de la bimodalité néglige tout à la fois les potentialités langagières combinatoires et l'utilisation relative des modalités. Ainsi, comme nous en a convaincues le corpus recueilli auprès d'enfants sourds, appréhender l'expression du locuteur sourd à l'échelle de sa production globale comme un tout composé d'éléments vocaux et gestuels nous parait donc plus à même de cerner son essence. On parlera alors, par opposition à l'idée de parallélisme que l'on vient d'évoquer, de productions conjointes, dans lesquelles l'expression ne peut être saisie qu' à l'échelle de la bimodalité puisque productions vocales et gestuelles co-construisent les propos du locuteur, comme c'est le cas dans l'exemple suivant. Dans cet exemple, emprunté à un locuteur adulte, en effet, le sens de l'énoncé ne se construit que dans la perception et la compréhension des deux modalités – utilisées ici dans leur dimension linguistique. L'élément sémantiquement central [signer] n'est produit qu'en LSF, tandis que « c'est mieux » n'est exprimé qu'en français. Ceci nous amène à reconnaitre que l'énoncé est composé de deux messages : un message vocal et un message gestuel, qui sont interreliés au service de l'expression du sujet parlant. Au-delà de cet exemple, dans les faits, chacune des modalités peut être utilisée par le locuteur sourd dans ses dimensions verbales et non verbales : français et onomatopées pour la modalité vocale, LSF et gestes pour la modalité gestuelle. La structure théorique de l'énoncé peut ainsi être représentée comme suit : Partant de cette conception discursive, il nous a fallu proposer une catégorisation des pratiques qui rende compte de toutes les conjugaisons possibles des langues et des modalités au sein d'un énoncé. Au sein de l'énoncé, les possibilités de combinaisons sont diverses : elles peuvent être bimodales ou monomodales d'une part, et verbales, non verbales ou mixtes d'autre part. Notre première catégorisation visait donc à distinguer les structures des énoncés sur la base de deux critères : bimodalité et bilingualité (bimodal bilingue, bimodal monolingue, monomodal monolingue, etc.) [Millet, 2007; Millet et Estève, 2008 ]. Il nous est vite apparu que les interactions observées entre ces différents niveaux outrepassaient, par leur diversité, cette première catégorisation qui, si elle permet d'étiqueter la nature des combinaisons, n'autorise pas une description suffisamment fine de la manière dont intervient chaque élément dans la structure des énoncés. En effet, la structure de l'énoncé peut être déterminée par une langue, les deux langues ou des éléments non verbaux. Nous proposons donc de rendre compte de la structure de l'énoncé autour de la notion de « base » – l'entrée par la langue n'étant pas toujours effective – en proposant une catégorisation des types de pratiques à la croisée de ces trois critères : le choix de la base : la langue ou la modalité organisatrice du discours; le choix du mode : monomodal vs bimodal; la nature de la combinaison : monolingue, bilingue, non verbal. À partir de l'observation de pratiques langagières d'adultes sourds (Millet et Estève, 2008), nous avions pu identifier trois types de bases permettant la catégorisation des pratiques suivantes. Les pratiques à base français regroupent les énoncés structurés par la langue française dans sa réalisation sonore. On trouve dans ces pratiques une utilisation variable de la modalité gestuelle : gestes, insertions ponctuelles de LSF, insertion continue de LSF. Les pratiques à base LSF regroupent les énoncés dont la structure relève de la LSF. On trouve dans ces pratiques une utilisation variable de la modalité vocale : onomatopées, insertions ponctuelles de français, insertion continue de français, la modalité gestuelle pouvant être investie également par des labialisations. Les pratiques à base bilingue correspondent aux pratiques dont la structure n'est pas attribuable à une langue en particulier, mais à l'interaction des deux langues. L'observation des pratiques enfantines nous a amenées à enrichir cette première catégorisation (Millet et Estève, 2009). En effet, confrontées à des productions de locuteurs chez qui les systèmes linguistiques sont en cours de construction, il nous a fallu reconnaitre un quatrième type de pratiques liées à une nouvelle base. Les pratiques à base non verbale correspondent aux énoncés dont la structure est déterminée par des éléments non linguistiques. On notera que l'on inclut dans ce type de pratiques des énoncés non verbaux, bien qu'ils soient introduits par des connecteurs du type « après » « ensuite » ou des syntagmes introducteurs du type « comme ça », énoncés en français et/ou en LSF. En effet, à notre sens, ces éléments « linguistiques » jouent un rôle d'impulseur énonciatif, qui atténue leur portée linguistique. Le schéma suivant récapitule l'ensemble des types de pratiques. De même qu'il nous a fallu sortir d'une approche par trop « linguistico-centrée » pour rendre compte des pratiques, de même la question de l'unité de découpage s'est posée, un peu dans les mêmes termes, puisque l'unité déterminant le découpage dans la grille prévue pour les entendants était la proposition. En effet, compte tenu de notre perspective théorique, il nous a fallu définir une unité de découpage qui ne restreigne pas au syntaxique l'appréhension des productions langagières des enfants. Il nous fallait donc proposer un découpage en unités discursives qui prenne en compte dans leur relation de dépendance les éléments vocaux et gestuels qui participent à l'élaboration de l'énoncé – que ces éléments soient verbaux ou non verbaux. Cependant, repérer des unités discursives cohérentes, de fait moins immédiatement objectivables qu'une proposition, exige de définir des critères explicites permettant une délimitation au plus près des productions réelles. Si nous prenons un extrait des productions d'Abdel où celui -ci restitue le déplacement de l' œuf jusqu' à la maison de la souris – restitution qui se construit autour d'éléments linguistiques en français et d'éléments non verbaux gestuels – nous pouvons observer que la centration sur le linguistique (fig. 3) produit un découpage artificiel qui ne dégage sur la ligne « Enfant » qu'une seule unité autour du verbe exprimé en français dans une structure : thématisation – indépendante : En revanche, la prise en compte de l'ensemble des éléments langagiers – ici, spécialement, le non-verbal gestuel – conduit à identifier sur la ligne « Enfant » trois unités de sens décrivant distinctement : l'une, le trajet de l'oiseau dans sa coquille; l'autre, re-pointant ce trajet et la dernière achevant la description du trajet vers son but : la maison de Jerry, comme le montre la transcription réalisée dans la figure 4. Ainsi, la prise en compte des pratiques effectives des enfants sourds et le constat de l'importance de l'expression non linguistique, particulièrement gestuelle, dans leurs expressions, nous ont amenées à proposer de centrer la délimitation des unités autour du vouloir-dire de l'enfant sourd, qu'il s'ancre ou non dans une structure linguistique. Nous proposons donc d'adopter conjointement une perspective linguistique et sémiotique pour délimiter les unités au plus près de l'intention communicative du locuteur envisagé dans son expression multimodale. C'est donc sur la ligne Enfant que s'effectue un premier découpage temporel des productions langagières qui n'a d'autres fonctions que la démarcation de chaque unité. À partir de ce premier repérage, on renseigne les quatre lignes majeures : Français, Onomatopées, LSF, Gestes, dépendantes de ce premier découpage sémantico-syntaxique. La structure de l'énoncé est ainsi repérée dans la dépendance des productions verbales et non verbales, vocales et gestuelles. Dans cette perspective de transcription, l'annotation des dynamiques sémiotiques participant à l'élaboration de l'énoncé a dû être également ré-envisagée afin de mettre en relief les spécificités des rapports intersémiotiques dans ces discours multimodaux et bilingues. Pour l'étude des discours narratifs des enfants entendants, l'annotation sémantique du lien vocalité/gestualité était rattachée à la ligne Gestes et appréciée par rapport au contenu véhiculé par le linguistique. Si, dans un premier temps, à des fins de comparaison, nous avions conservé l'annotation proposée pour les entendants, la complexité des interactions sémiotiques attestées dans les énoncés des enfants sourds – qui s'expriment bien au-delà d'une relation duelle, bimodale, biunivoque – nous a amenées à situer l'annotation au niveau de l'unité sémantico-syntaxique, et donc à revoir la catégorisation des relations intersémiotiques. Dans les productions des enfants sourds, chaque ressource joue un rôle tout à la fois spécifique et complémentaire dans l'organisation de l'énoncé. Par exemple, dans l'extrait suivant, la mobilisation de la vocalité vient étayer l'élaboration linguistique réalisée en LSF, où français et onomatopées participent à l'étayage du schéma spatial construit en LSF pour représenter l'épisode où l' œuf enfonce la porte de la maison de Jerry. Le mot « porte » intervient en complémentarité de la description du référent réalisée en LSF « stf-surface-plate », les onomatopées spécifient par ailleurs l'aspect brusque de l'action. Chaque ressource adopte un rôle spécifique dans la construction de cette symbolisation supportée par la LSF, qui ne serait complète sans la prise en compte de l'information véhiculée par le français, puisque la référence du spécificateur de taille et de forme (STF) n'est pas explicitée en LSF. De la même manière, toutes les ressources disponibles peuvent être mobilisées pour construire une symbolisation complexe, comme dans l'énoncé suivant, produit par Driss, qui restitue ici l'épisode où l'oiseau fait un trou dans le mur. Dans l'unité 1, le français, les gestes ainsi que quelques signes de la LSF sont mobilisés ensemble pour inscrire la référence du mur dans l'espace, et pouvoir, dans l'unité suivante, décrire l'action dans une symbolisation non verbale. Ces deux exemples montrent bien la nécessité de placer l'annotation des relations intersémiotiques à l'échelle de la production globale, émanation du vouloir-dire de l'enfant sourd. Puisque, comme nous l'avons vu, les ressources vocales et gestuelles fondent une seule unité sémantique structurée par deux architectures sémiotiques distinctes, il a été nécessaire d'annoter – à l'échelle de l'unité – la nature des relations qu'entretiennent toutes les ressources mobilisées pour l'élaboration de l'énoncé dans une construction du sens globalisée/intégrée. Par ailleurs, repérer les relations intersémiotiques à l'échelle de l'unité exige de revoir la catégorisation proposée pour les entendants. L'ensemble des catégories a été refondu : certains éléments – « redondant », « complémentaire » et « contradictoire » – ont donc été redéfinis; d'autres – « substitution » et « élaboration » – abandonnés; en nous inspirant des propositions faites par Volterra, Caselli, Capirci et Pirchio (2005), nous avons proposé de caractériser les rapports intersémiotiques de cinq façons différentes. Redondant : la redondance s'applique aux combinaisons où les deux modalités véhiculent une information identique. Pour les combinaisons français/LSF, on notera que la redondance s'accompagne d'une structure unique conforme à l'une des deux langues (par exemple dans le cas du français signé). Équivalent : cette relation d'équivalence ne s'applique qu'aux combinaisons français/LSF, dans lesquelles les deux messages sont sémantiquement identiques, mais restent syntaxiquement conformes respectivement à chacune des deux langues. Une relation qui, si elle est attestée chez les adultes, ne l'est que rarement chez les enfants observés jusqu'ici (voir exemple 5). Complémentaire : la complémentarité s'applique aux combinaisons où les deux modalités sont porteuses d'une information différente. Chaque modalité apporte une information spécifique qui n'est pas présente dans l'autre modalité. Le sens n'est alors accessible qu'au niveau de l'unité sémantico-syntaxique prise dans sa globalité (voir exemples 2, 4, 6, 7, 8). Renforçant : ce concept s'applique aux combinaisons où un seul des deux messages est porteur de l'ensemble de l'information. L'autre message n'étant porteur que d'une information partielle au regard de l'information transmise à l'échelle de l'unité (voir exemples 1, 3). Contradictoire : la contradiction s'applique aux combinaisons où ponctuellement une unité entre en contradiction avec l'information véhiculée par la modalité organisatrice. Par exemple, lorsque le français organise l'énoncé et que les signes de la LSF produits ponctuellement ne sont pas conformes au contenu sémantique de ce qui est prononcé. Il s'agit donc le plus souvent d'erreurs ou de lapsus, liés à la gestion simultanée de deux systèmes linguistiques. Au demeurant, quel que soit le rapport sémiotique entre le gestuel et le vocal, il convient également d'envisager la dynamique intra-modalité et tout particulièrement, au sein de la modalité gestuelle, de pouvoir envisager, au sein du développement du bilinguisme sourd, les tensions entre les gestes et les signes, ce par quoi nous terminerons cette présentation. Dans la grille d'annotation prévue pour les narrations des enfants entendants, chaque geste a été affecté d'une valeur. L'entrée de cette ligne d'annotation était une entrée fonctionnelle qui distinguait sept valeurs pour les gestes, que ces gestes soient manuels, céphaliques ou plus globalement corporels. L'organisation de la catégorisation des gestes en sept classes représente une réduction et une réorganisation des niveaux de hiérarchie par rapport à d'autres grilles d'interprétation des gestes – par exemple celle proposée par Colletta (2004, p. 159-177) –; mais représente une augmentation des catégories par rapport à la classification établie, par exemple par J. Cosnier (1993, p. 111). Étant hautement interprétatives, ces catégorisations fonctionnelles sont sujettes à de nombreuses fluctuations, ainsi qu' à quelques difficultés d'application/interprétation, même si, comme le montre Colletta (2004, p. 178-186), certaines catégories sont bien reconnues. Quoi qu'il en soit de ces difficultés, nous exposerons brièvement les sept catégories proposées au départ pour l'analyse afin d'expliquer ensuite les modifications que nous avons proposées pour rapprocher gestualité verbale et non verbale. Les sept valeurs qui avaient été affectées aux gestes dans la grille élaborée par Colletta et al. (2009) sont les suivantes : valeur représentationnelle : cette valeur est liée au processus narratif et à l'investissement corporel du locuteur dans la narration – représentation des objets de la narration, mimiques et mimes adoptant le point du vue du personnage; valeur performative : les gestes à valeur performative peuvent être autonomes ou co-verbaux et sont liés à l'expression d'un acte de langage ou au renforcement ou la modification de la valeur illocutoire de l'énoncé; valeur de cadrage : il s'agit des gestes « qui expriment un état émotionnel ou un état mental du locuteur » (Colletta et al., 2008, p. 23); valeur discursive : seront affectés de cette valeur tous les gestes qui participent à la structuration de la parole – segmentation, cohésion; valeur déictique : cette valeur concerne exclusivement les pointages exophoriques; valeur interactive : cette valeur est liée à l'interlocution et concerne tous les gestes relevant de la fonction phatique, décrite par Malinowski, et redéfinie par Jakobson (1963); valeur énonciative : cette valeur s'exprime dans tout « geste manuel ou expression faciale qui manifeste que le locuteur cherche un mot ou une expression » (Colletta et al., 2008, p. 23). Si nous avons gardé les trois dernières catégories qui ne posaient pas de problèmes par rapport à notre objectif, il nous a fallu, compte tenu du fait qu'ils étaient sur-représentés massivement, affiner la catégorie des gestes représentationnels. La gestualité des jeunes enfants sourds, même lorsqu'ils ne sont pas exposés formellement à la LSF et reçoivent une éducation oraliste, présente des proximités remarquables avec la LSF, que l'on ne retrouve chez les enfants entendants ni dans les mêmes degrés d'utilisation ni dans la même qualité des gestes (Millet et Batista, 2009), même si l'on sait que la LSF utilise les mêmes procédés de base que la gestualité entendante en les systématisant (Colletta et Millet, 1998). En outre, la visée développementale de la recherche nécessitait de pouvoir repérer très précisément l'évolution de la gestualité chez ces enfants sourds, que cette gestualité soit linguistique ou non. Il fallait donc que l'on puisse repérer les procédés non verbaux se rapprochant des procédés verbaux, c'est pourquoi nous avons subdivisé la catégorie des représentationnels en distinguant tout d'abord les trois catégories suivantes : les pointages endophoriques : ilscomprennent les gestes manuels ou céphaliques de pointage ayant une valeur de référence discursive anaphorique ou cataphorique; ces pointages, qui sont des procédés linguistiques assurant la référence et la cohésion discursive en LSF, sont nécessairement liés à la création d'un locus – défini comme portion d'espace sémantisée de manière à pouvoir servir la référence de l'un ou l'autre des actants du procès mis en discours; les illustratifs : il s'agit des gestes qui représentent les caractéristiques du référent (taille, forme, etc.) soit par configuration manuelle, soit par le dessin des caractéristiques du référent dans l'espace. Là encore il s'agit d'un procédé très productif en LSF, qui utilise la gestualité pour spécifier la taille et la forme des référents par le biais de ce qu'on a justement coutume d'appeler « spécificateur de taille et de forme » (STF) – en anglais Size and Shape Specifier (SAAS) [Schembri, 2003 ]. Ces STF peuvent être intégrés en LSF dans des structures verbales, changeant alors de statut puisqu'ils deviennent des éléments référant à des nominaux précités, que l'on a nommés dans nos descriptions de la LSF « proformes », dans la mesure où la valeur n'est plus descriptive de type adjectival, mais pronominale (Bras, Millet et Risler, 2004; Millet, 2006). Cette reprise, de type pronominal, se retrouve dans la gestualité non linguistique et nous l'avons donc mise en relief en créant la catégorie spécifique suivante; les spatiographiques renvoyant aux gestes qui ont pour fonction de donner une représentation topologique de l'univers référentiel. Par ailleurs, étant donné l'importance de la spatialité et du corps dans l'expression gestuelle, il nous a paru important de créer deux catégories de gestes référentiels supplémentaires : les mimétiques trajectoires qui désignent donc uniquement les gestes manuels caractérisant le trajet du référent; les mimétiques actions, qui comprennent les gestes mimant l'action ou le comportement d'un référent par une mise en jeu globale du corps, un procédé là encore très productif en LSF – et quasiment obligatoire dans les narrations – que l'on a longtemps nommé « prise de rôle » (Moody, 1983) et que nous nommons « proforme corporelle ». Pour le reste des valeurs des gestes, il nous a semblé que, face aux interactifs et aux énonciatifs que nous avons conservés, deux catégories suffisaient, nous avons donc regroupé les valeurs « performative » et « de cadrage » sous la catégorie des gestes « expressifs », quant aux gestes à valeur discursive, il nous est apparu plus clair de les nommer gestes « syntaxiques ». Ces catégorisations nous ont permis de faire un lien entre les procédés non linguistiques et les procédés linguistiques de la gestualité et d'observer finement, spécialement dans les cas où nous avons pu mener une étude longitudinale chez certains sujets, les évolutions des répertoires langagiers, en lien avec le développement des procédés verbaux et non verbaux dans les deux modalités. Il apparait, en fin de parcours, que les spécificités de la bimodalité sourde, dans la diversité des formes qu'elle peut prendre, permettent de ré-interroger les fonctions de la bimodalité entendante, et spécialement lorsque l'on analyse les productions des enfants sourds parce qu'ils sont des êtres en devenir bilingue et que la modalité gestuelle leur est le plus naturellement accessible. Ainsi, dans ce cadre, on a vu qu'une conception d'une bimodalité où chacune des modalités serait envisagée en parallèle avec des fonctions bien réparties autour de chacune des deux modalités, n'était que peu pertinente, car, in fine, beaucoup trop centrée sur le linguistique, qui n'est pas nécessairement, et loin s'en faut parfois, la base organisatrice des discours narratifs recueillis auprès des enfants sourds. Le fait d'envisager la modalité gestuelle comme possiblement organisatrice de l'énoncé amène alors à revenir sur la notion d'unité propositionnelle comme unité de base de la description. La notion d'unité syntaxico-sémantique, prenant en compte toutes les réalités des pratiques langagières parait beaucoup plus adéquate, car plus proche de l'analyse du vouloir-dire de l'enfant que de son dire linguistique effectif. Elle permet de rendre compte d'une unité langagière intégrée. Ces remises en question proviennent bien sûr du fait que, dans le cas de la bimodalité sourde, la modalité gestuelle peut s'investir d'une valeur linguistique. Elles proviennent aussi du fait que, l'accès aux réalités de la modalité vocale étant complexe et souvent différé, les jeunes enfants sourds investissent très largement la modalité gestuelle dans ses dimensions non linguistiques également. De ce fait, il faut reconnaitre la non-subordination du non-verbal au verbal, considérer l'ensemble des ressources mises en œuvre dans un énoncé, admettre la possibilité que le non-verbal puisse structurer le discours et donc redéfinir les unités de transcription. Tous ces éléments amènent alors à réenvisager la valeur des rapports entre modalité vocale et modalité gestuelle et à redéfinir plus précisément les valeurs des gestes au sein de la modalité gestuelle en les rapprochant des valeurs et des procédés linguistiques qu'ils peuvent acquérir dans les langues gestuelles. L'application de cette nouvelle grille à des productions de jeunes enfants entendants amène alors à réenvisager les découpages et les interprétations des productions langagières en les décentrant de l'unité propositionnelle et, partant, des éléments linguistiques eux -mêmes. Ceci permet, en dernière analyse nous semble -t-il, d'envisager les productions comme de réelles productions langagières intégrées – et non comme l'utilisation parallèle de modalités –, ce qui répond bien à la conception large du langage, telle que proposée par McNeill . | La présente contribution vise à rendre compte, de façon dynamique, du cheminement qu'il nous a fallu parcourir pour parvenir à élaborer une grille d'annotations sous Elan®, à même de répondre aux questions que posent les spécificités des productions langagières de jeunes enfants sourds âgés de 6 à 12 ans, lors d'une tâche narrative. Les contextes de surdité amènent les jeunes locuteurs à utiliser toutes les ressources langagières à leur disposition dans des productions qui s'inscrivent d'entrée de jeu dans la multimodalité -et la bilingualité. Afin de rendre compte de ces pratiques spécifiques, il nous a fallu considérer l'ensemble des éléments verbaux et non verbaux, vocaux et gestuels, comme les éléments d'une production intégrée. La description de ces énoncés bimodaux nous a amenées à nous décentrer du linguistique pour prendre en compte le «vouloir-dire» de l'enfant et à reconsidérer tout à la fois la question des unités de transcription et celle de la complexité des rapports intersémiotiques. | linguistique_12-0078136_tei_856.xml |
termith-715-linguistique | Les étudiants français en droit sont toujours surpris d'apprendre que la profession d'avocat en Angleterre et au pays de Galles est traditionnellement divisée en deux grandes branches : les solicitors et les barristers. C'est en ces termes que Gary Slapper et David Kelly décrivent ce système dual : The English legal system is one of only three in the world to have a divided legal profession where a lawyer is either a solicitor or a barrister. Each branch has its own separate traditions, training requirements and customs of practice. (Slapper 2010 : 322) Nos travaux s'inscrivent dans le cadre de recherches menées dans le domaine des études comparatives sur les communautés professionnelles juridiques française et anglo-galloise. Il y a presque dix ans paraissait un numéro spécial du Cahier de méthodologie juridique consacré aux méthodes comparées de l'enseignement du droit en France et à l'étranger, et en particulier dans les pays de common law. À cette occasion, la question des différences de formation suivie par les praticiens du droit (avocats et solicitors) fut soulevée : Faut-il que les étudiants obtiennent une licence en droit (ayant suivi une formation purement juridique) avant de pouvoir mener une carrière juridique ? En revanche, les cabinets d'avocats ont-ils raison de préférer (comme ils le font actuellement en Angleterre) les diplômés en matières non juridiques ? (Millns & Samuel 1998 : 1527) Un tel débat semble se développer dans bon nombre de pays, ceux de tradition juridique de common law ainsi que dans ceux de tradition romano-germanique, comme en témoigne le rapport de la commission Darrois sur les professions du droit remis au président de la République en mars 2009 (Darrois 2008). Pour rendre compte des différences essentielles entre ces deux groupes et les expliquer, il est nécessaire de s'intéresser au cursus universitaire des étudiants anglais ainsi qu' à la formation post-universitaire qu'ils doivent suivre pour devenir solicitors. Pour ce faire, la consultation de documents bien spécifiques s'avère judicieuse : des offres de stage d'observation et de contrat d'apprentissage, connues sous le nom de summer /w inter work placement schemes et training contracts, mises en ligne directement par neuf solicitors ' law firms, c'est-à-dire des cabinets d'avocats anglais : Addleshaw Goddard, Ashurst, Clifford Chance, Denton Wilde Sapte, Edwin Coe LLP, Jones Day, Lovells, Osborne Clarke et Plexus. Les cabinets ont été sélectionnés par l'intermédiaire de plusieurs sites web tels que lawcareers.net, celui du Times (rubrique law, accès payant) et celui de la Law Society Gazette (rubrique jobs). Tous ces cabinets ont un bureau à Londres. Certains opèrent uniquement au Royaume-Uni, d'autres également internationalement. Dans ce deuxième cas de figure, seules les pages web consacrées au domaine anglais ont été consultées. De quel type d'offres s'agit-il ? La première catégorie concerne un stage d'observation assez court, d'une à plusieurs semaines, destiné à des étudiants diplômés ou non encore diplômés, dans les domaines juridique et extrajuridique. Ce public est désireux de mieux connaître le milieu du droit et de vérifier s'il peut y envisager une carrière dans ce domaine. Les cabinets eux -mêmes décrivent cette première étape comme étant composée de discussions, d'ateliers visant à développer certaines compétences et de phases d'observation des stagiaires déjà en place dans les différents services du cabinet : « talks, skills workshops and shadowing trainees in department seats » (Denton Wilde Sapte). La préparation peut également consister à assister à des audiences, à étudier des dossiers en cours et à participer à des ateliers : « court trips, case studies and workshops » (Addleshaw Goddard). Les candidats potentiels de ces offres de stage d'observation (work placement scheme) sont de tous horizons, ce qu'Edwin Coe LLP appelle « candidates who are considering a career in law ». Il s'agit de personnes inscrites, dans une filière non juridique, en deuxième ou dernière année d'études, ceux que les cabinets d'avocats nomment les « penultimate-year students from any discipline » (Clifford Chance), ou les « final year nonlaw undergraduates » (Ashurst), « candidates from their final year of a non-law degree » (Osborne Clarke), « final year students » (Jones Day). Il peut également s'agir de futurs diplômés en droit, « second year law undergraduates » (Ashurst), « candidates in their penultimate year of a qualifying law degree » (Osborne Clarke) ou de jeunes diplômés dans toute discipline « all graduates » (Ashurst), « graduates of a non-law degree » (Jones Day). En raison d'une très forte demande de la part de ceux qui désirent suivre le stage d'observation d'une semaine, les critères de recrutement sont très sélectifs. Ils se fondent sur les résultats obtenus aux A-levels (équivalent du baccalauréat français), puis sur ceux des diplômes universitaires ultérieurs : To be successful you should be able to demonstrate a passion for the law, supported by a strong academic record (2:1 degree or grades to date and BBB A ' level results or equivalent). (Edwin Coe LLP) Ideally, candidates should have grades A — B at A ' Level or equivalent, as well as a minimum 2:1 degree grade in any discipline. (Osborne Clarke) L'offre de stage proposée par Denton Wilde Sapte exprime la même idée, dans des termes encore plus imprécis, mais tout aussi sélectifs : « We accept candidates from any degree discipline, but you must have a strong academic and extra-curricular record of achievement ». La discipline de formation n'a qu'une importance secondaire; ce sont les résultats scolaires et extrascolaires des candidats qui comptent. Le deuxième genre d'offre de recrutement est relatif à la période d'apprentissage de deux ans que doit effectuer tout aspirant solicitor pour valider sa formation et obtenir le droit d'exercer. Les étudiants français se méprennent très souvent sur la signification du terme training contract qu'ils interprètent comme un véritable contrat d'embauche en tant que titulaire du poste. La traduction « contrat d'apprentissage » semble la plus appropriée, car elle permet de lever toute ambiguïté à cet égard : les auteurs d'ouvrages portant sur le droit anglais et les professions juridiques décrivent eux -mêmes le training contract comme une forme d'apprentissage (apprenticeship, Slapper 2010 : 323). Afin de déterminer la place occupée par l'anglais juridique dans les offres sélectionnées, il s'agit dans un premier temps d'étudier les divers termes et acronymes, puis de mettre en lumière dans quelle mesure ces termes et expressions permettent aux étudiants en droit français d'appréhender cette langue de spécialité et d'accéder à une autre culture professionnelle, celle des solicitors en Angleterre et au pays de Galles. Au premier abord, on pourrait penser que les pages consultées sur ces sites sont rédigées dans une langue anglaise très spécialisée, réservée à des initiés qui appartiendraient tous au monde et à la culture des praticiens du droit de common law. Mais est -ce vraiment le cas ? Quelle place tiennent l'anglais juridique et l'anglais « général » dans ces documents ? À la lecture de ce corpus plus ou moins éphémère se dégagent plusieurs remarques préliminaires. Tout d'abord, toutes ces offres sont accessibles en ligne, généralement rangées dans les rubriques Recruitment, Careers, Jobs, mais il ne semble pas exister de macro-structure commune aux documents consultés. Ce type de présentation s'explique principalement par le fait que le site de chaque cabinet d'avocats est conçu d'une manière qui lui est propre. En outre, de tels textes ne présentent pas de problèmes phraséologiques ou syntaxiques qui pourraient faire obstacle à leur compréhension. Les phrases sont simples, relativement courtes et rarement ambiguës. Les offres se présentent davantage comme une lettre ouverte publiée par le recruteur auquel il est fait référence par le pronom we ou le nom du cabinet. Celui -ci s'adresse à un candidat potentiel, you, qui est parfois décrit comme le futur stagiaire (« our future trainee » ,Ashurst) afin de créer un lien entre le recruteur et le recruté, relation qui ne peut naître que si les textes sont abordables et compréhensibles. Par conséquent, la difficulté première de ces documents parajuridiques atypiques réside plus dans les notions juridiques employées pour décrire le parcours et la formation suivis par les futurs solicitors. Une partie du vocabulaire qui figure dans ces documents ne relève point d'une langue de spécialité; il est tout à fait compréhensible pour des personnes étrangères au monde du droit. C'est particulièrement le cas lorsqu'il s'agit de décrire le profil des candidats recherchés. Pour Plexus Law, il faut être : « self-confident, committed to client service, commercially aware, articulate and keen to learn ». Le cabinet Denton Wilde Sapte recherche des personnes possédant tout un éventail de qualités (« wide-ranging skills, aptitudes and personalities ») telles que l'enthousiasme et l'ambition, « drive and ambition ». Osborne Clarke trace le portrait du parfait candidat en ces termes : « If you are a highly driven individual with good analytical, communication and organisational skills, we would like to hear from you. Commercial acumen and the ability to build relationships with clients and colleagues are essential ». To become an Ashurst trainee, you will need to show common sense and good judgement [. ..] We want people who have a range of experiences and interests outside their studies. And we want outgoing people with a sense of humour who know how to laugh at themselves. [. ..] We are looking for people with the communication skills required to advise clients and colleagues on technical, legal and commercial issues in plain and understandable terms. [. ..] so we are looking for high academic achievers who are able to think laterally. (Ashurst) Ce qui importe avant tout pour être recruté comme apprenti dans un cabinet d'avocats anglais, ce n'est pas tant d'attester de compétences approfondies que de faire preuve du sens des affaires, de confiance en soi, de curiosité et de bon sens. L'essentiel est donc de savoir communiquer et échanger avec des clients et des collègues dans un langage simple et accessible, mais aussi d' être capable de se moquer de soi -même. Par conséquent, ces offres sont finalement très accessibles par l'utilisation d'un vocabulaire imagé, transversal et simple. Il faut garder à l'esprit l'objectif principal de ces textes : attirer et recruter les meilleurs éléments issus de toutes les filières pour en faire des collaborateurs. Toutefois, si l'on prend comme hypothèse de départ que la terminologie juridique est l'ensemble des termes spécialisés relevant d'un même milieu professionnel (ici celui du droit) et caractéristique de ses pratiques, il semblerait que la langue employée dans les offres de stage sélectionnées relève en partie du domaine terminologique dans la mesure où certaines expressions s'avèrent révélatrices du parcours suivi et de la formation requise pour devenir solicitor. En effet, l'étude des termes employés souligne la spécificité du parcours universitaire et post-universitaire suivi par les aspirants solicitors en Angleterre et au pays de Galles (voir annexe 1). Ainsi, la durée de ces études de droit est de six ans au minimum et dépend du domaine étudié à l'université après obtention de l'équivalent anglais du baccalauréat français (A-levels). Afin de déterminer les termes marqués par un certain degré de spécialisation, il semble pertinent de souligner la présence d'expressions particulières telles que non-qualifying law degree, qualifying degree in English law et d'acronymes spécifiques (GDL pour Graduate Diploma in Law, LPC pour Legal Practice Course, CPS pour Common Professional Course ,PCSpour Professional Skills Course). Il faut donc désormais expliquer la nature de ces termes et la signification qu'ils revêtent dans la culture professionnelle des solicitors. La première étape, assez théorique, de la formation, que les Anglais appellent academic stage, est d'une durée variable (trois ou quatre ans) en fonction du type de diplôme universitaire obtenu en premier lieu. Quiconque entreprend des études de droit dès le départ peut obtenir après trois ans d'études universitaires ce que les recruteurs nomment un qualifying law degree, expression qui désigne un diplôme attestant d'une compétence dans les matières fondamentales comme un BA in law ou un LLB in law. Selon Danièle Frison, en 2005, 64 % des solicitors étaient détenteurs d'un diplôme de droit alors que 19 % n'en avaient pas (Frison 2005 : 137). Équivalent anglais du barreau pour les solicitors, la Law Society définit ainsi ce qu'est ce diplôme : These are degrees which have covered the General Council of the Bar and the Law Society's seven foundations of legal knowledge which form the academic stage of legal education, and which allow graduates to proceed directly to study the Legal Practice Course. (Cole 2008 : 31) Dans d'autres cas, il est fait référence à une certaine catégorie de candidats potentiels, déjà diplômés en droit ou dans une autre discipline : « students currently studying for their GDL or LPC » (Addleshaw Goddard). De manière à ce que les candidats prouvent leur intérêt pour le monde du droit, les cabinets ajoutent la phrase suivante : « Please make sure you state the year in which you intend to complete the LPC » (Edwin Coe LLP). Ainsi, des étudiants non encore diplômés mais qui envisagent de suivre une formation juridique sont concernés par ces offres. Que recouvrent les acronymes GDL et LPC fréquemment utilisés dans ces documents ? Pour les personnes qui choisissent d'entreprendre des études dans un autre domaine que le droit, la première étape est prolongée d'un an après l'obtention du diplôme universitaire. Cette année est consacrée à une formation juridique intensive, sorte de programme de reconversion en droit, « a law conversion course », qui porte le nom de Common Professional Examination (CPE), sigle encore parfois utilisé, mais très fréquemment remplacé par le Graduate Diploma in Law (GDL). En réalité, un grand nombre d'employeurs recherchent des candidats qui ne sont pas forcément des spécialistes du droit, mais qui ont, avant tout, une formation plus large (on retrouve les expressions broad education, broad experience et life experience). Ne pas être diplômé en droit n'est donc pas rédhibitoire pour se lancer dans une carrière juridique, bien au contraire. Les autres diplômes (en sciences économiques, sciences sociales et humaines ou sciences dures) sont recherchés, plébiscités même, pour leur composante intellectuelle et éducative. Des entretiens ont été menés auprès d'avocats anglais installés à Lyon et de futurs solicitors en cours d'apprentissage. Il s'agissait de recueillir les témoignages de ces personnes à propos de leur parcours universitaire et professionnel. De ces entretiens découle le constat suivant : le recrutement de diplômés dans les matières non juridiques est fréquent. Sur les deux solicitors anglais interrogés, l'un avait un BA en droit et l'autre en sciences économiques. Sur les trois étudiantes rencontrées, la première avait un BA en mathématiques, la deuxième en anthropologie tandis que la dernière avait un diplôme en droit. C'est à la lumière de ces exemples que les étudiants français peuvent mieux comprendre ce que l'on peut lire sur le site Internet du cabinet Osborne Clarke : « Applications are welcomed from candidates seeking a career change ». En effet, il n'est pas rare en Angleterre et au pays de Galles de s'engager dans une filière universitaire pour, son diplôme acquis, se reconvertir au droit. Il est pertinent de citer ici le constat dressé à propos du système anglais par S. Millns et G. Samuel dans le numéro spécial des Cahiers de méthodologie juridique consacré à la comparaison des méthodes d'enseignement du droit en France et à l'étranger, constat encore valable en 2010 : [. ..] il valait mieux avoir des connaissances plus globales (extrajuridiques) du monde afin d' être à même de répondre aux cas concrets soulevés par les problèmes de tous les jours qui fournissent la substance des travaux des avocats. (Millns & Samuel 1998 : 1531) Le Graduate Diploma in Law est un programme intensif d'une durée de douze mois – les diplômés en droit suivent une formation de trois ans – qui est proposé aux diplômés en matières non juridiques qui souhaitent se reconvertir. Ils étudient sept matières fondamentales (appelées core subjects) qui sont le droit des obligations, le droit pénal, l ' equity et le trust, le droit de l'Union européenne, le droit foncier et le droit de la responsabilité semi-délictuelle (« contract, criminal law, equity and trusts, European Union law, land law, public law et tort », GDL Programme Specification 2009-2010 : 4). Cette formation accélérée permet aux étudiants d'acquérir des connaissances et des compétences essentielles (on parlera ici de practical legal skills) dans les principales matières juridiques pour pouvoir prétendre à une carrière dans le droit. C'est en ces termes que le College of Law vante les avantages de son GDL : Enhance your career prospects with our GDL – designed to help you think like a lawyer and develop the practical skills that the modern legal profession demands. Our GDL is much more than an academic conversion course – it's the perfect starting point for non-law graduates or those working in a different profession seeking the job satisfaction and rewards of a career in law. [. ..] The expertise you gain through our GDL will more than match a law degree. You won't just learn the law – but how to apply it in practice to meet the realities of today's legal environment and become a highly marketable lawyer. (Perfect for Practice 2010) Il s'agit donc avant toute chose de transmettre à des « novices » du droit une expérience et des compétences essentielles qu'ils pourront rapidement et efficacement mettre en pratique sur le marché du travail. En revanche, d'autres cabinets se montrent plus sélectifs; ils excluent les diplômés en matières extrajuridiques et ne recrutent que des étudiants diplômés en droit ou en passe de l' être comme De Marco Hunter Solicitors : « Candidates must either be studying for a qualifying law degree, studying an LPC or have recently completed their legal studies ». D'autres encore sont plus exclusifs et imposent que la formation LPC soit effectuée dans un établissement bien précis. C'est le cas du cabinet Hogan Lovells : « We require all prospective trainee solicitors to undertake the accelerated LPC at BBP London ». Il s'agit ici de la deuxième étape du cursus pour devenir solicitor, à laquelle il est fait fréquemment référence par le biais de l'expression anglaise vocational stage. Elle consiste en une formation à la fois théorique et pratique, commune à tous les diplômés en droit ou dans une autre matière, car elle est ouverte aux détenteurs soit du qualifying law degree soit du Graduate Diploma in Law. Son appellation, le Legal Practice Course, est souvent abrégée en LPC. La réussite à ce programme d'un an (ou de deux si l'on est étudiant en régime spécial, part-time student) permet d'opérer une transition entre le droit comme objet d'études universitaires et la pratique professionnelle. Les critères d'intégration du LPC sont universitaires et financiers. C'est ce que nous a expliqué Timothy Hughes, solicitor et avocat communautaire au barreau de Lyon : « The criteria are all very vague, you need a 2nd-class law degree and the money to have this course. The LPC tuition fees are about £10,000, much more than in France ». Lorsque l'étudiant intègre cette formation dispensée dans différents établissements spécialisés dont le bien connu College of Law, il a l'obligation de s'inscrire auprès de la Solicitors Regulation Authority (SRA), organe de contrôle de la profession, créé en 2007 en vertu de la loi sur les services juridiques (Legal Services Act 2007). Pendant dix mois, des cours sont dispensés dans plusieurs domaines parmi lesquels figurent des matières fondamentales telles que le droit des affaires, les contentieux en matière civile et pénale ou encore le droit des biens (business law and practice, civil and criminal litigation et property law and practice )mais également des matières secondaires (pratiques professionnelles et réglementation/ professional conduct and regulation, impôts et succession/ taxation and wills, gestion de patrimoine/a dministration of estates), ainsi que des compétences propres au métier et des options (vocational electives). Ainsi, la formation se veut professionnalisante, axée sur des cours non plus théoriques, mais très pratiques dans la mesure où les futurs solicitors doivent acquérir les compétences juridiques et techniques nécessaires à la profession déjà évoquées, pratical legal skills. Ils apprennent, par exemple, à s'entretenir avec un client, à le conseiller lors d'une consultation, à mener des recherches documentaires pour un dossier, à rédiger des actes juridiques, à négocier ou encore à plaider. Selon les chiffres publiés par la Law Society, 86,5 % des étudiants qui ont passé les examens de fin d'année en 2008 (LPC examination )les ont réussis par rapport à 75,6 % en 2007 (Cole 2008 : 6). En dernier lieu, l'analyse des termes employés dans ces offres de recrutement démontre l'importance du stage d'observation pour le reste de la formation, à savoir la période d'apprentissage dans un cabinet d'avocats plus connue sous le nom de training contract, troisième et dernière étape du cursus, qualifié de practical stage. L'ancien terme, articles of clerkship, a été abandonné au profit de cette expression plus moderne et surtout plus parlante pour les néophytes en droit. Les offres évoquent parfois la possibilité d'obtenir un contrat d'apprentissage avant même d'avoir commencé le LPC : « If you've been offered a training contract at Addleshaw Goddard but have not yet started your LPC [. ..] ». Les données communiquées en ligne par les cabinets d'avocats renseignent les candidats potentiels sur la durée et le déroulement du training contract. La formation se déroule sur deux ans partagés en quatre périodes de six mois passés dans les différents services du cabinet : « The two-year training contract comprises of four-six month seats in the following practice areas » (Edwin Coe LLP). Le temps est donc venu pour le « trainee », nouveau nom pour « articled clerk », de mettre en pratique les compétences (skills) et les connaissances (knowledge) acquises précédemment au cours du LPC. Ces quatre périodes sont désignées par le terme anglais « seats ». Dès lors, pour un contrat d'apprentissage commencé en août 2008, l'apprenti solicitor passe successivement six mois (d'août 2008 à janvier 2009) dans un service, ensuite six mois dans un autre (de février 2009 à juillet 2009), puis encore six mois dans un troisième (d'août 2009 à janvier 2010) pour terminer par six mois dans un dernier (de février 2010 à juillet 2010), date à laquelle il reçoit le diplôme de solicitor. Cette étape de vingt-quatre mois, qui a une orientation pratique et est obligatoire pour pouvoir exercer, constitue une forme d'apprentissage « sur le terrain » (les Anglais parlent de period of on-the-job training) durant laquelle l'aspirant solicitor est immergé dans le milieu professionnel d'un vrai cabinet d'avocats, sous le contrôle et la surveillance d'un praticien expérimenté qui joue le rôle d'un maître de stage (« a practising solicitor », « a training supervisor » Osborne Clarke) que le stagiaire suit comme son ombre, d'où l'expression employée par Ashurst : « shadowing a solicitor ». Les recruteurs assurent également un processus régulier de contrôle du contrat d'apprentissage comme à Edwin Coe LPP : « [. ..] a continuous process of two-way feedback. The firm operates an informal ' mid seat review ' and a formal ' end of seat review ' to help you to track your progress and support your going development ». En analysant ces offres de contrat d'apprentissage, nous avons trouvé un cabinet d'avocats, Jones Day, qui tente de se démarquer en adoptant un système de formation un peu différent décrit en ces termes : At Jones Day, we recruit approximately 20 trainees every year and operate a non-rotational training system that is unique among City firms. Other City law firms operate a rotational or ' seat'system, in which the two years of the training contract are divided into periods of four or six months where you work exclusively for one partner or one practice at a time before moving on to another. Training at Jones Day is completely different. Under our system, you do not ' belong ' to one partner or practice. You can take work from any practice at any time and work with any of our lawyers, which means that you get the flexibility to gain experience in a wide range of practices and from a wide range of colleagues. Une telle organisation, non fondée sur une rotation entre les différents services du cabinet, permet ainsi à l'apprenti d'acquérir une expérience plus diversifiée. Enfin, au cours de ces deux ans, chaque étudiant est également tenu de suivre une formation professionnelle complémentaire, appelée Professional Skills Course, qui doit être obligatoirement validée afin d'obtenir le diplôme de solicitor : The PSC along with the training contract, constitutes the final elements of pre-admission training and must be undertaken during the training contract and completed prior to your admission as a solicitor. (Ashurst) Ces enseignements complètent la formation professionnelle initiale et mettent l'accent sur les techniques juridiques dont les praticiens ont besoin en matière de plaidoirie, de communication, de gestion financière, de relation avec la clientèle et de réglementation professionnelle (advocacy and communication skills, financial and business skills, and client care and professional standards). Après avoir décrypté ces offres de recrutement consultables en ligne, quelles conclusions peut-on tirer sur la présence de l'anglais du droit ? Si l'on considère que la langue de spécialité est celle qui permet la compréhension de la langue, du discours et de la culture propres à un milieu spécialisé, de telles offres rentrent dans cette catégorie. En effet, l'emploi d'acronymes spécifiques à la formation juridique (GDL, LPC, PSC), d'expressions révélatrices du parcours universitaire et post-universitaire des aspirants solicitors (qualifying law degree, work placement, training contract) révèle la présence d'un monde professionnel qui pourrait s'ouvrir aux étudiants français en droit. L'analyse de ces documents contribue à la transmission écrite du savoir relevant de l'environnement professionnel des solicitors anglais. Pour comprendre cette communauté, il est nécessaire d'en décrypter les codes. Les termes relatifs aux rôles et aux compétences des solicitors sont caractéristiques d'un fonctionnement professionnel bien particulier. En premier lieu, il s'agit pour les recruteurs qui rédigent ces offres de donner un avant-goût, le plus motivant possible, de ce que seront les périodes d'observation et d'apprentissage afin de retenir l'attention des meilleurs candidats. D'où un ton et un style promotionnels dignes de ceux adoptés dans une annonce publicitaire conçue pour « attirer le chaland ». La quasi-totalité des sites consultés utilise les expressions suivantes : [. ..] then the best way to find out more is to do just that : find out more [. ..] to gain an insight into commercial law and life as a trainee [. ..] you will gain an invaluable insight into what we do and how we do it. (Plexus)You will be guaranteed to have a genuinely broad experience of our wide ranging practice areas and be immersed in Lovells ' team-based structure. (Hogan Lovells) For a taster of what it is like to train [. ..] Our work placement scheme will show you what it's like to be a trainee with us [. ..] a clear picture of what being a Jones Day lawyer will be like, how our training system works, and whether it is for you. [. ..] A good way to ensure you make the right choice is to experience the work and culture of a City law firm first-hand. (Jones Day) Each placement is for a period of one week, providing students with an insight into [. ..] the day to day job of a solicitor. (Edwin Coe LLP) Our placement schemes give a taster to would-be trainees. They show you what it is like to work at. [. ..] The aim is for you to get as broad and comprehensive a view as possible, over a short period of time, of life as a City solicitor. (Ashurst) [. ..] to give you the chance to experience the Addleshaw Goddard culture first-hand [. ..] to give students a true insight into life in a commercial law practice. (Addleshaw Goddard) Our [. ..] scheme will give you an insider's view of a career in law, providing valuable insight into what working here is really like [. ..] this is your opportunity to learn about what a major law firm does and what the career entails. (Clifford Chance) De ce fait, l'accent est mis sur les avantages que peut apporter un tel stage d'observation pour les futurs stagiaires. Il s'agit pour eux d'ouvrir la porte d'un nouveau monde professionnel. En effet, un grand nombre de cabinets lancent des appels à candidature deux ans avant la date prévue de début du contrat d'apprentissage, ce qui implique comme nous l'avons déjà évoqué, que des étudiants non encore diplômés peuvent déjà faire acte de candidature soit en envoyant un CV (a résumé) et une lettre de candidature (c over letter), soit en remplissant un formulaire type en ligne (to complete an online application form). De plus, ces périodes d'observation et d'apprentissage sont précieuses pour les cabinets d'avocats; elles leur permettent de repérer, de recruter, puis de former leurs futurs collaborateurs : We consider our Trainees to be our future, therefore we believe in recruiting the best people in the market and retaining them for the long term. (Plexus) Our aim is to develop trainees into legal business advisers. (Osborne Clarke) Our recruitment and training philosophy is very simple : our success as a firm depends on our ability to attract and retain the brightest and most able people. (Hogan Lovells) [. ..] to meet talented people who might go on to become our future trainees. (Ashurst) C'est pourquoi, pendant toute la durée du contrat d'apprentissage, l'apprenti (trainee) a directement affaire à des clients et il dispose d'une autonomie croissante pour suivre leur cas. Il apprend graduellement à gérer ses propres dossiers, « manage your own files », tout en recevant un salaire minimum dont le montant dépend de la localisation du cabinet. En réalité, le plus difficile est d'obtenir ce contrat d'apprentissage, sans lequel on ne peut pas achever sa formation et travailler comme solicitor : plus de 7 000 étudiants ont réussi le LPC en juillet 2008, alors que seulement 6 303 ont entrepris un stage en 2007-08 (Cole 2008 : 6). La concurrence entre les candidats est donc intense, en particulier sur un marché en pleine crise et où les cabinets pâtissent du marasme comme l'ensemble de l'économie. C'est la raison pour laquelle les personnes intéressées sont vivement encouragées à s'y prendre très à l'avance (lorsqu'ils sont en deuxième année de droit ou en troisième année s'ils étudient une autre matière mais souhaitent se reconvertir), à mener des recherches approfondies en se renseignant sur les cabinets d'avocats, puis en faisant acte de candidature en fonction de leurs domaines de prédilection et des spécialités desdits cabinets. C'est aussi pour cette raison que certains cabinets financent eux -mêmes la formation juridique suivie par ceux qu'ils souhaitent former et recruter : « We pay full fees for both GDL and LPC courses » (Addleshaw Goddard). Ce même cabinet offre un salaire de 270 livres sterling par semaine, ainsi qu'un accès à toutes sortes d'équipements : « outstanding facilities, including the staff restaurant, swimming pool and state-of-the-art fitness centre ». La présence de ces nombreux avantages peut surprendre au premier abord. Mais ils s'inscrivent dans un mouvement plus général visant à tisser des liens entre les membres présents et futurs d'une même communauté, le monde des solicitors : You also will get plenty of opportunity to know people in the Firm on a social level as we organise lunches, dinner, drinks, and sporting events. If you have a place on our December placement scheme you will get the chance to star in the famous Jones Day pantomine ! (Jones Day) We organise several social events where you can formally meet Ashurst solicitors [. ..] At these events, you can ask them any questions you may have about life as a trainee and beyond. There are other social events too, such as softball matches or touch rugby, as well as nights out with trainees. (Ashurst) There are plenty of social events too including the renowned go-karting evening where you will have the chance to meet current trainees and practising lawyers. (Addleshaw Goddard) [. ..] there will an extensive programme of social events and networking opportunities where you can get to know people more informally. (Clifford Chance) Dès le stage d'observation, puis durant le contrat d'apprentissage, les aspirants solicitors ont donc de multiples occasions (déjeuners, dîners, rassemblements sportifs en tout genre, spectacle de Noël) de rencontrer leurs futurs employeurs, collaborateurs ou collègues. L'intérêt de tels documents numériques est de rendre l'étudiant en droit français capable de comprendre et de maîtriser une terminologie juridique propre à la formation des futurs solicitors, par exemple « to run a placement scheme », « to undertake the GDL », « to apply for a placement ». Mais, la lecture de ces offres de recrutement donne également accès à une langue de spécialité, celle ayant trait à la profession et aux rôles des solicitors anglais. De ce fait, les lecteurs apprennent que l'avocat anglais est celui qui « deliver[s] excellent business-focused legal advice », « delivers to our clients, appropriate and professionnal advice » (Osborne Clarke). Le solicitor, qui est à la fois un conseil juridique et un avocat plaidant généralement dans les juridictions inférieures, acquiert une expérience dans des domaines très variés : « [. ..] experience in both contentious and non-contentious work » (Osborne). Le cabinet Jones Day insiste sur la diversité des tâches accomplies par ce praticien polyvalent et généraliste grâce à l'expression : « wide range of practices ». Ces différents rôles consistent aussi bien en des recherches juridiques, des rédactions d'actes, de la gestion et la préparation de dossiers, des consultations avec des clients et des audiences en juridiction : « In terms of the work you will carry out, you can expect to be involved with research, drafting, preparing documents, client meetings, and visits to court » (Jones Day). À l'évocation d'un si large éventail de tâches s'ajoute la description des différentes aptitudes et compétences qui seront acquises durant la période d'apprentissage et qui sont celles que doit posséder tout apprenti, puis tout solicitor, efficace et bien formé : « some of the skills you will need as a trainee lawyer » (Addleshaw Goddard) « legal, management and business skills » « professional skills » (Osborne Clarke) « drafting skills and commercial awareness » (Addleshaw Goddard). En dernier lieu, c'est bien le monde des cabinets d'avocats anglais qui s'ouvre à tous ceux qui prennent le temps de lire et de déchiffrer ces offres de recrutement. Les praticiens y sont des « practising lawyers » (Addleshaw Goddard) qui travaillent dans les différents services (« different departments, various areas of practice » Ashurst) d'un grand cabinet en droit des affaires par exemple, « a leading commercial law firm » (Addleshaw Goddard). Ces praticiens peuvent posséder une expérience plus ou moins riche : « different levels of seniority » (Ashurt). Les moins expérimentés sont appelés junior solicitors, les plus expérimentés senior solicitors. En consultant de tels documents, on apprend également que l'ensemble des apprentis solicitors (« fellow trainees » Ashurst) travailleront aux heures normales de bureau (« work normal office hours » Ashurst) et prendront part au travail quotidien du cabinet, « participate in the daily life of the office »; ils géreront leurs propres dossiers, « handle responsibility, [be] involved in a case », et traiteront avec de très importants clients « high-profile multinational clients » (Ashurst), au sein d'une équipe soudée d'avocats diplômés et d'apprentis « a closely integrated team of qualified lawyers and trainees » (Clifford Chance). Les pratiques pédagogiques mises en œuvre par l'auteur dans le domaine de la langue de spécialité, et en particulier de l'anglais juridique en faculté de droit, sont fondées sur l'analyse de ces deux types d'offre. Il s'agit dès lors d'amener les étudiants à les déchiffrer en trouvant des équivalences entre les résultats scolaires anglais et les mentions aux diplômes français, en élucidant les acronymes et la terminologie juridique employés, puis de leur faire rédiger des lettres de candidature qui sont en adéquation avec le profil recherché. L'objectif principal de ces activités est d'élargir l'univers parfois très restreint des étudiants français qui seraient tentés de faire un stage, si court soit-il, dans un cabinet anglais. En témoigne le nombre croissant de demandes émanant de candidats désireux de partir étudier à l'étranger dans le cadre de leur M1. C'est une occasion de stimuler la motivation de tels étudiants par le truchement d'un anglais juridique en contexte. Il s'agit également de favoriser une analyse comparative des cultures juridiques française et anglaise de manière à amener le public visé à appréhender les spécificités propres au common law et à en mesurer les différences avec leur propre système. Nous sommes ici confrontés à une situation d'enseignement différente de celle rencontrée lorsque l'on étudie la fiction à substrat professionnelle (FASP). En effet, comme le souligne Shaeda Isani, les étudiants français sont parfois plus familiers avec la culture juridique de common law qu'avec leur propre culture : « Thus, since Nature abhors a vacuum, Anglo-Saxon professional culture is unconsciously adopted as a convenient substitute through an insidious process of erroneous self-enculturation » (Isani 2006 : 34). Ce n'est pas le cas pour la situation pédagogique qui nous intéresse dans la mesure où le public français en troisième année de licence de droit est déjà bien au fait de la formation qui mène à la profession d'avocat. En revanche les différences existant entre les deux systèmes peuvent entraver le processus de compréhension des offres de stage anglais (observation et apprentissage). Il est donc nécessaire de noter les différences essentielles existant entre les deux parcours (anglais et français) pour devenir solicitor et avocat. Des activités peuvent être proposées visant à favoriser le développement d'une prise de conscience des étudiants vis-à-vis des différences dans la formation d'avocat en France et en Angleterre (résumées à l'annexe 3) comme l'analyse d'authentiques CV de solicitors travaillant dans les cabinets consultés. Pour chaque personne, il est possible de reconstituer le cursus universitaire et post-universitaire suivi, pour le comparer avec le système français. En France, cinq années de formation sont nécessaires pour obtenir le diplôme d'avocat et être inscrit au barreau. Contrairement au système de common law où l'obtention d'un diplôme non juridique ne bloque pas l'accès à une carrière juridique, le cursus français est bien plus exclusif. En vertu de l'article 11 de la loi du 31 décembre 1971 portant sur la réforme de certaines professions judiciaires et juridiques, toute personne voulant devenir avocat en France doit tout d'abord être détentrice d'un M1 (ancienne maîtrise) en droit ou équivalent. Parmi les conditions à remplir figure la suivante : « [. ..] être titulaire d'au moins une maîtrise en droit ou de titres ou diplômes reconnus comme équivalents pour l'exercice de la profession ». C'est l'arrêté du 25 novembre 1998 qui fixe la liste des titres ou diplômes reconnus comme équivalents à la maîtrise en droit pour l'exercice de la profession d'avocat. Ce diplôme, quelle que soit sa spécialité, est préparé dans une faculté de droit. De facto, les diplômés de matières extrajuridiques ne peuvent pas en France s'inscrire à l'examen d'entrée à l'école et, de ce fait, devenir avocats. Si le début des formations des deux côtés de la Manche est différent, la suite est un peu plus semblable. Au Legal Practice Course anglais correspond peu ou prou l'intégration sur une période de dix-huit mois dans une école particulière que l'on appelle pour l'instant, Centre régional de formation professionnelle d'avocats (CRFPA), plus connu sous le nom d' « école d'avocats ». Les examens d'entrée à ces écoles sont passés dans le cadre d'un Institut d'études judiciaires (IEJ) où l'étudiant doit être inscrit. Ces dispositions signifient également que l'école elle -même ne maîtrise pas l'accès au centre de formation contrairement aux établissements anglais qui sélectionnent les étudiants qui vont préparer le LPC. En effet, chaque IEJ met en place des sujets autonomes et fait passer les examens d'entrée. Le passage par l'école est obligatoire pour obtenir le certificat d'aptitude à la profession d'avocat (CAPA) qui ne peut se préparer que dans son cadre. Il n'existe aucune formation continue ni aucun système de validation des acquis pour se voir accorder ce certificat. L'obtention d'un doctorat en droit permet d' être dispensé de l'examen d'entrée à l'école d'avocats mais, depuis 2004, les docteurs en droit doivent suivre la scolarité comme les autres et passer l'examen de sortie. Selon le décret du 27 novembre 1991 organisant la profession d'avocat : Les élèves des centres régionaux de formation professionnelle reçoivent, en vue de la pratique du conseil et du contentieux, une formation commune de base, d'une durée de six mois, portant notamment sur le statut et la déontologie professionnels, la rédaction des actes juridiques, la plaidoirie et le débat oral, les procédures, la gestion des cabinets d'avocats ainsi que sur une langue vivante étrangère. Par conséquent, le contenu de la formation découle du programme et des modalités de l'examen d'aptitude à la profession d'avocat fixés dans l'annexe de l'arrêté du 7 décembre 2005 : droit des personnes et de la famille, droit patrimonial, droit des obligations, droit pénal général et spécial, droit administratif, droit commercial et des affaires, droit du travail, droit communautaire et européen, langues vivantes et réglementation professionnelle. De plus, la formation dispensée à l'école dure dix-huit mois et se déroule généralement en trois temps, parfois quatre dans certains centres. La première période, qui n'existe pas toujours, consiste en un stage d'immersion de six semaines en cabinet d'avocats à temps plein « afin de prendre pied dans le monde du barreau et de nouer des liens parfois décisifs. Ce stage permet aussi d'adapter ensuite la formation en la rendant plus rapidement utile ». Les étudiants français qui intègrent l'école sans jamais avoir encore effectué de stage en cabinet ne sont pas rares. Cette période joue en quelque sorte un rôle équivalent au work placement anglais mentionné précédemment. Suivent six mois d'enseignements pratiques portant sur les matières fondamentales qui sont au programme du CAPA : déontologie, gestion de cabinet, réglementation professionnelle, langue vivante, procédure civile, procédure pénale, techniques d'expression orale. La troisième étape s'appelle le projet professionnel individuel (PPI) et dure de six à huit mois. Plusieurs options s'offrent aux étudiants : une poursuite d'études sous forme d'un M2 ou un stage. Il existe dans le système français une toute dernière étape à l'école des avocats qui consiste en un stage en cabinet obligatoire de six mois, rémunéré cette fois dès le premier jour en fonction de la taille du cabinet, de 60 à 85 % du SMIC : plus le cabinet est important, plus la rémunération est élevée. Jusqu' à présent, le taux de placement des élèves-avocats lyonnais est de 100 %, mais l'avenir semble moins favorable pour les promotions à venir en raison de la contraction du marché des stages et de l'augmentation substantielle du nombre d'élèves entre 2008 et 2009 : ils sont passés de 170 à 200 à l'école des avocats de Lyon. Il est possible d'affirmer que si les voies d'accès à la profession d'avocat en France et de solicitor en Angleterre et au pays de Galles semblent se rejoindre par leur approche assez professionnalisante, elles divergent à de nombreux égards. En premier lieu, le système anglais est en principe moins fermé aux non-juristes; ensuite, il sélectionne sur dossier les meilleurs candidats à l'entrée du LPC et pour le choix du training contract. La formation à la française exige un M1 en droit ou équivalent et favorise des spécialistes du droit dès le départ. Par la suite, la sélection se fait par examen d'entrée à l'école (que les candidats appellent d'ailleurs très fréquemment « concours d'entrée »). En second lieu, s'il faut trois ans pour former finalement un solicitor (LPC + training contract), il faut dix-huit mois pour la France. En effet, de nombreux étudiants français préparent l'examen d'accès de l'école en même temps que leur année de M1 ou de M2. En dernier lieu, le temps passé dans un cabinet d'avocats en tant qu'observateur puis apprenti est bien plus important en Angleterre qu'en France (deux ans contre seulement six mois obligatoires). L'intérêt didactique de tels documents numériques est double. Il réside à la fois dans la possibilité de favoriser une découverte de la langue de spécialité qu'est l'anglais juridique dans un contexte caractéristique du milieu professionnel des solicitors anglais et gallois. Mais il s'agit également de permettre une approche comparatiste des systèmes de formation juridique. Il semble bien que la différence entre les droits puisse expliquer les spécificités de chaque formation : dans un droit de type jurisprudentiel, c'est la pratique qui forme le praticien; dans une organisation fondée sur le droit romano-germanique comme en France, les premières années d'étude sont capitales pour acquérir les connaissances et la logique juridiques. Cependant, nombreux sont ceux qui estiment que la formation à la française n'est justement pas assez pratique ou qu'elle devient professionnalisante trop tardivement . | Le présent article analyse des documents mis en ligne par les cabinets d'avocats anglais pour recruter des étudiants ou des diplômés en droit et en matières non juridiques dans le cadre de stages d'observation et d'apprentissage. Il s'agit de déterminer quelle place occupe l'anglais juridique dans ces offres en étudiant les termes emblématiques à la fois de la formation suivie par les aspirants solicitors, de leur milieu professionnel ainsi que de leurs pratiques. De plus, l'étude de cette langue spécialisée peut occuper une place à part entière dans le cursus linguistique suivi par les étudiants français en droit dans la mesure où il peut leur faire prendre conscience des différences essentielles existant entre les cursus pour devenir avocat et solicitor des deux côtés de la Manche, et ainsi élargir leur horizon professionnel. | linguistique_12-0107865_tei_804.xml |
termith-716-linguistique | Dans cet article, nous proposons une analyse syntaxique des constructions infinitives (ou infinitives) en français. Pour nous, suivant en cela Huot (1981) et Baschung (1991), une construction infinitive est le groupe formé par un verbe infinitif et son environnement. Cette définition est plus large que celle de Grevisse (1964) et Lorian (1962), et que celle proposée plus récemment par Legrand (1999) et Leeman (2002). Les premiers considèrent que l'on peut parler de proposition infinitive quand le verbe à l'infinitif est introduit par un outil de subordination, relatif ou interrogatif. Et lorsque son sujet, exprimé ou non, est différent du verbe principal. Quant aux seconds, ils remettent en cause le fait d'appeler « proposition infinitive » Paul partir dans je vois Paul partir, car la séquence ne possède pas les propriétés d'un constituant. Les constructions infinitives, dans une phrase, peuvent apparaître à la suite d'un nom (la faculté de parler est une propriété), d'un verbe (Jean rêve de partir), d'un adjectif (Jean est content de venir). Nous nous limitons au cas où la construction infinitive est sous-catégorisée par un verbe fini. Nous considérons trois sous-cas : lorsque le verbe au mode infinitif suit immédiatement un verbe conjugué, lorsqu'il est introduit par l'item de ou l'item à, etlorsqu'il est introduit par une autre préposition (pour, sans, …). La question se posera pour certaines constructions de savoir s'il faut les considérer comme des groupes prépositionnels ou pas. Les grammaires d'arbres polychromes hiérarchisées (Cori et Marandin, 1998) forment le cadre dans lequel sera analysée la construction infinitive. Ce formalisme syntaxique repose sur trois caractéristiques essentielles. En premier lieu, il fait sienne l'hypothèse positionnelle (Milner 1989) selon laquelle il faut distinguer une position de ce qui occupe cette position. Dans les arbres polychromes, une position est représentée par une « couleur ». En deuxième lieu, une « relation d'interdépendance », associée aux arbres, permet de rendre compte des phénomènes qui ne peuvent pas être traités à l'aide du mécanisme classique de l'unification. En troisième lieu, ces grammaires sont hiérarchisées, c'est-à-dire qu'elles supposent que les structures élémentaires d'une langue forment des classes, et que l'on peut exprimer des règles générales qui opèrent sur ces classes. Les grammaires d'arbres polychromes (GAP, Cori et Marandin, 1993) ont été inspirées par l'hypothèse positionnelle de Milner (1989). La notion de position, dans le cadre des GAP, est très proche de la notion de site proposée par Milner. Les positions sont définies indépendamment de la catégorie des constituants qui les occupent. Il y a une organisation des positions qui rend compte du placement des constituants les uns par rapport aux autres dans les énoncés. Les constituants d'une structure se disposent par rapport à une position privilégiée : la position noyau qui donne au terme qui l'occupe le rôle de pivot. Les GAP utilisent la représentation arborescente pour rendre compte des configurations décrites. Un arbre se définit comme un ensemble de nœuds reliés par des branches. Dans un arbre polychrome, chaque branche possède une couleur. Pour le français, cinq positions ont été définies, autrement dit cinq couleurs, représentées par les nombres de 1 à 5. La couleur 3 représente la position pivot. Les couleurs permettent de distinguer les branches dominées par une même catégorie. GV, V, GN, et GP sont des étiquettes catégorielles. Toute position est définie en fonction de la catégorie qui la domine. L'attribution d'une même couleur à plusieurs branches à un même niveau dans l'arbre permet d'exprimer le fait qu'une position est occupée par plusieurs constituants à la fois (fig. 1d). Autrement dit dans Jean donne un bonbon à Marie, le GN un bonbon et le GP à Marie sont tous deux des compléments et ont la même position, ici la position 5. Pour décrire l'analyse d'une catégorie, on utilise un arbre polychrome de profondeur 1, dans lequel il n'y a pas plus d'une branche d'une couleur donnée : un tel arbre est appelé arbre élémentaire. Les grammaires sont composées d'un ensemble d'arbres élémentaires, tels qu'en figure 1 les arbres a, b et c. Un arbre élémentaire peut également être représenté sous la forme d'une règle : L'arbre 1d n'est pas un arbre élémentaire. Il est le résultat de la composition des arbres 1a, 1b et 1c. La composition, qui s'accompagne dans certains cas d'un « compactage », est une opération qui permet de construire des arbres plus complexes à partir d'arbres. Ainsi, l'arbre 2a (ci-dessous) est obtenu par composition de l'arbre 1b et de l'arbre 1a. Le compactage, dans les GAP, permet la réduction des niveaux d'un arbre. Cette opération s'effectue selon des conditions bien spécifiques. Le compactage s'applique obligatoirement après la composition lorsqu'on obtient un arbre dans lequel deux nœuds de même catégorie sont reliés par une branche de couleur 3 (arbre 2a) Cette même branche est alors supprimée et les deux nœuds fusionnent (arbre 2b). Un arbre obtenu par composition peut à son tour être composé avec un autre. Ainsi, on peut obtenir des représentations de phrase complète comme en figure 7 (voir ci-après, § 2.2). Les GAP possèdent un système de traits qui permet de régler plus précisément la combinatoire des unités. Ces traits sont associés aux nœuds des arbres. Certains traits admettent comme valeur une variable. Une caractéristique originale des GAP est l'introduction de relations d'interdépendance associées aux arbres, qui permettent de généraliser certaines représentations par des règles uniques, tout en ne manquant pas les différenciations de détail. Les relations d'interdépendance des arbres élémentaires se combinent au moment de la composition pour définir une relation générale qui contraint l'ensemble des traits apparaissant dans l'arbre composé. L'utilisation des traits et des variables (de traits) permet de traiter par exemple la sous-catégorisation des verbes. Les différents compléments sous-catégorisés peuvent occuper la même position. A chaque type de complément (GN, GP, GS …) est associé un trait qui porte la spécification oui si un complément est attendu, non si le complément n'est pas attendu ou a déjà été trouvé. Le trait a1 vaut pour le complément direct, a2 pour l'indirect et a0 pour le sujet, qui est considéré comme un type de complément. Les arbres 3a et 3b sont des arbres élémentaires de la grammaire. L'arbre 3a représente une phrase standard, c'est-à-dire constituée d'un GN et d'un GV. L'arbre 3b représente le cas d'un GS complément dans un GV. Par composition, on obtient l'arbre 3c représentant par exemple la phrase Jean promet qu'il viendra. C'est-à-dire qu'en 3c, le nœud GV qui correspond à promet attend un complément direct : a1 est marqué oui. Au niveau supérieur, d'après l'arbre élémentaire 3b, la transmission du trait a1 ne vient pas du GV mais du GS. Dans ce même GV, a0 est marqué oui car le verbe attend son sujet. Au nœud S, d'après 2a, a0 prend la valeur non parce que le sujet est réalisé. Dans certains cas, la combinatoire des traits est définie par une relation d'interdépendance. La relation se présente comme une liste d'assignations possibles de valeurs à l'ensemble des variables de l'arbre. A titre d'illustration, prenons le cas des relatives et des complétives pour lequel l'interdépendance autorise un traitement unifié. La règle utilisée est : (d) gs [a0 : X, a1 : Y, a2 : Z] → 1 COMP [type : T] 3 s [mode : M, a0 : X, a1 : Y, a2 : Z] COMP est l'étiquette générique des complémenteurs (pronoms relatifs, conjonctions de subordination et, comme on le verra, certaines prépositions). X, Y et Z sont des variables qui peuvent prendre les valeurs oui ou non. Quant à la variable T, elle se réalise en que, qui ou dont selon les cas. Mode est un attribut qui indique si le verbe est à l'infinitif, l'indicatif ou encore au subjonctif. Cette règle est accompagnée de la relation d'interdépendance qui met en jeu quatre attributs : le type du COMP (dont la valeur est T), a0, a1 et a2. Lorsque le type est que, a0 correspondant au sujet a obligatoirement la valeur non. Cela permet de refuser *la pomme que mange. Mais a1 et a2 qui correspondent aux compléments sont indéterminés. Pour le GS de type qui, il y a deux possibilités. Pour la première, a0 a la valeur oui, a1 et a2 sont indéterminés. Cela permet de refuser *la pomme qui Jean mange. La seconde correspond aux phrases telles que Je me demande qui tu as vu. En revanche, pour le type dont, a2 a la valeur oui. Il est nécessaire qu'un complément indirect soit possible car on doit refuser *la pomme dont Jean mange. En figure 4, est présenté l'arbre de Jean pense que Marie viendra, dans lequel la relation d'interdépendance intervient. Le nœud GV correspondant à viendra a « a0 : oui » car un sujet est attendu. En revanche, le nœud S, correspondant à Marie viendra, possède un sujet (a0 : non). Ce trait est transmis au niveau supérieur (au GS). La relation d'interdépendance a permis la combinaison du COMP que avec le S Marie viendra, elle aurait interdit * Jean pense que viendra. Depuis les années 1980, les formalismes syntaxiques intègrent une organisation hiérarchique afin de structurer les connaissances linguistiques (lexicales, phonologiques, syntaxiques, sémantiques) (cf. Daelmans et al., 1992) et de dégager des généralisations. La relation d'héritage permet de rendre plus concises les descriptions linguistiques et a été utilisée essentiellement pour l'organisation lexicale. Les GAP ont été, elles aussi, structurées hiérarchiquement, et sont devenues les GAPH (Cori et Marandin, 1998). Les informations sont indiquées au niveau adéquat de la hiérarchie. Le mécanisme d'héritage autorise leur transmission. La relation d'héritage est définie sur les arbres élémentaires sous-spécifiés qui constituent une grammaire. La sous-spécification peut concerner la couleur des branches, la catégorie étiquetant les sommets ou bien un trait. Chaque arbre hérite des propriétés des arbres qui sont au-dessus de lui dans la hiérarchie. En figure 5, la hiérarchie du groupe prépositionnel est représentée de façon schématique. Chaque cellule contient un arbre élémentaire. En A 2, la catégorie qui est en position 3 dans le groupe prépositionnel est laissée indéterminée (variable GX) car elle peut se réaliser de deux façons : soit en GN, soit en GV[inf ]. La hiérarchisation implique une relation d'ordre entre les arbres. C'est une relation de subsomption. On dit que l'arbre A 2 subsume l'arbre A 1 lorsque A 1 est plus spécifié que A 2. Les constructions les moins spécifiées représentent celles qui sont les plus générales. La relation d'ordre permet d'abstraire les propriétés communes à plusieurs constructions et d'isoler les propriétés qui distinguent les constructions. Ceci permet, dans les GAP, de décrire des propriétés positionnelles indépendamment des catégories qui occupent les positions. Dans cette seconde partie, l'analyse des constructions infinitives est représentée dans le cadre des grammaires d'arbres polychromes hiérarchisées. Nous distinguons le cas où les infinitives sont introduites par un verbe conjugué, du cas où elles sont introduites par des prépositions. Dans son étude sur les constructions infinitives, Huot (1981) distingue deux types de prépositions. D'une part, de, qui selon les cas, est une préposition qui introduit un groupe prépositionnel ou bien un COMP qui est un introducteur de phrase. Et, d'autre part, toutes les autres prépositions qui peuvent introduire un infinitif. Nous distinguons également deux cas parmi les prépositions, mais nous regroupons quant à nous à avec de, mettant à part toutes les autres prépositions. Ces exemples possèdent tous un verbe à l'infinitif mais ce qui varie c'est le sujet de cet infinitif. En effet, en (1) le sujet de partir est Jean. Jean est également le sujet du verbe conjugué veut. Le sujet de l'infinitif est syntaxiquement présent. En (2), le sujet de l'infinitif est distinct du sujet du verbe conjugué : chanter a pour sujet les oiseaux et entend a pour sujet Jean. En (3) et (4), le sujet de sonner etde chanter ne se trouve pas, matériellement¸ dans la phrase. C'est la théorie du contrôle (voir Baschung, 1991), qui s'occupe des principes qui permettent de sélectionner un constituant comme étant le sujet de l'infinitive. Le terme contrôle désigne le processus d'attribution de référence à l'argument implicite de l'infinitive et le contrôleur désigne tout GN interprété comme argument implicite de l'infinitive. Dans le cas des GAP, cependant, le placement des constituants s'organise selon des positions qui sont définies indépendamment de ce qui les occupe. La structuration arborescente est par conséquent indifférente à la recherche du sujet des infinitives. C'est ainsi que les exemples (1) à (4) s'analysent de la même manière : les infinitives sont considérées comme des phrases. La règle qui les introduit est : GV →3 GV 5 S[inf ]. Les GV des phrases (1) et (3) ont pour représentation arborescente 6a et le GV de la phrase (2b) 6b. L'infinitive de la phrase (2a) est considérée comme une phrase à sujet inversé, elle a pour représentation 6c. La phrase (4) a la même représentation arborescente que la phrase (2a). Les phrases (2a) et (4) sont différenciées par les traits qui indiquent les fonctions du GN. Les exemples (2a) et (4) illustrent l'utilisation de la syntaxe positionnelle. En effet, en (2a) le GN les oiseaux est le sujet de l'infinitif chanter. Et en (4), le GN le temps des cerises est le complément d'objet de l'infinitif chanter (on ne peut pas avoir * Jean a entendu chanter le temps des cerises Paul). On voit, ici, qu'une même position peut être occupée par un même élément n'ayant pas la même fonction. Les constructions infinitives sont souvent en relation avec un élément qui est soit un verbe, soit un nom, soit un adjectif. Elles sont reliées à cet élément par une préposition (en général de ou à). Huot (1981), dans son étude sur les constructions infinitives du français, distingue de qui se réalise comme un complémenteur quand il précède un verbe à l'infinitif – alors qu'il se réalise comme une préposition quand il précède un nom – de à qui serait toujours une préposition. Nous allons montrer, à l'aide des tests syntaxiques ci-dessous, pourquoi à notre sens, s'il est juste d'analyser de comme un complémenteur, il n'y a pas de raison de traiter à différemment. La substitution Dans les exemples (7a) et (8a) le verbe à l'infinitif commute avec le groupe nominal, alors qu'en (5a) et (6a) c'est impossible. Ce sont les tours de venir et à partir qui doivent être substitués, c'est-à-dire la préposition et le verbe à l'infinitif. Jean promet sa venue Jean demande son départ L'infinitive, qu'elle soit en de ou en à, se substitue par conséquent soit au complément d'objet direct, soit au complément d'objet indirect. La reprise pronominale Dans les exemples (5c) et (6c), le pronom le, qui remplace habituellement les COD, reprend le groupe de +inf. Tandis que dans les exemples (7c) et (8c), à partir et de partir sont repris par les pronoms y et en. Avec y, en est le seul pronom qui correspond à la pronominalisation d'un groupe prépositionnel entier, c'est-à-dire de la préposition et de l'élément que celle -ci introduit. Ce test ne fait que confirmer le test qui précède, en ce qui concerne la fonction de complément direct ou indirect assurée par l'infinitive en de ou en à. Parallélisme entre infinitive et complétive Les exemples (9) et (10), bien que n'ayant pas la même structure de surface, sont équivalents aux exemples (5a) et (7a). Ces derniers acceptent tous deux le parallélisme avec une complétive à verbe non fini. Ce test montre que certaines infinitives en de ou en à peuvent être remplacées par des complétives. Ce n'est pas la fonction de complément direct ou indirect qui détermine si ce remplacement est possible. Plus globalement, l'ensemble des tests montre la grande similitude de comportement des infinitives en de et en à, ainsi que leur parenté avec les complétives. C'est pourquoi à et de peuvent être considérés comme des complémenteurs (introduisant des complétives et des relatives). Les arguments de Huot pour traiter à comme une préposition sont : la très grande majorité des verbes qui sont suivis de à+inf peuvent également être suivis d'un complément nominal et celui -ci est toujours précédé de la préposition à. En cas de détachement à droite, le groupe à+inf est repris tout comme le GN par le pronom y. En dehors de quelques verbes très peu nombreux (apprendre à, …) beaucoup de verbes en à+inf mais non suivis de à+N ne sont pas nécessairement sans complément nominal. Au contraire la plupart en ont un et celui -ci est toujours prépositionnel. Mais, dans les deux cas, la dépendance à distance est impossible : * Le malheur que Jean boit pour oublier * Le nouveau président que Jean a voté pour élire. Ces exemples ne peuvent pas recevoir la même analyse que celle des infinitives en à et de. Sans prévenir, pour oublier ses malheurs et pour élire le nouveau président sont, par conséquent, analysés comme des groupes prépositionnels. Comme on l'a vu (figure 5), un groupe prépositionnel peut être composé d'une préposition et d'un GV. Le GV est obligatoirement au mode infinitif. On donne à titre d'illustration la hiérarchie des réalisations du groupe verbal qui est représentée en figure 8. La cellule 1est « la racine » de toutes les réalisations possibles du GV. La catégorie qui occupe la position 3 n'est pas spécifiée car elle peut se réaliser de deux manières différentes : en GV comme le montre la cellule 2 ou en verbe (cellule 3). Dans la cellule 2, l'arbre possède une branche dont ni la couleur (variable ) ni la catégorie (variable YY) n'est spécifiée. En effet, cet arbre peut se réaliser de plusieurs façons : la couleur de la branche prend la valeur 5 dans la cellule 4 et 1 dans la cellule 5. La variable YY dans la cellule 4 représente les différentes catégories qui peuvent occuper la position 5 du GV : GN, GS, S, GP. Les cellules 7, 8, 9 sont les représentations des infinitives. Le traitement des constructions infinitives dans les grammaires d'arbres polychromes hiérarchisées a permis d'illustrer les potentialités de ce formalisme. Nous avons vu que l'hypothèse positionnelle permet de donner un traitement unifié des complétives tout en incluant les infinitives. En outre, la relation d'interdépendance conserve les spécificités de ces différentes structures dans le traitement unifié. Et les différentes réalisations du groupe verbal ont pu être regroupées grâce à la hiérarchisation. On a ainsi obtenu « une vue d'ensemble » des réalisations possibles du groupe verbal dans les grammaires d'arbres polychromes . | L'A. propose dans cet article une analyse syntaxique des constructions infinitives en français, définies ici comme le groupe formé par un verbe infinitif et son environnement. Le cadre d'analyse de ces constructions est celui des grammaires d'arbres polychromes hiérarchisées, formalisme qui repose sur trois caractéristiques : (1) l'adoption de l'hypothèse positionnelle (Milner 1989), selon laquelle il faut distinguer une position de ce qui occupe cette position ; (2) une relation d'interdépendance, permettant de rendre compte de phénomènes qui ne peuvent être traités à l'aide du mécanisme classique de l'unification ; (3) ce sont des grammaires hiérarchisées, i.e. on ne peut pas exprimer de règles générales qui opèrent sur les classes. Ce cadre théorique permet de donner une vue d'ensemble des réalisations possibles du GV. | linguistique_524-06-10853_tei_715.xml |
termith-717-linguistique | Selon un sondage récent, 30 % des Américains ont oublié l'année des attentats du onze septembre 2001, alors que 95 % d'entre eux se souviennent qu'ils ont eu lieu un onze septembre. Ces deux pourcentages consacrent la domination de l'expression 11 septembre pour nommer les attentats survenus à New York et à Washington. Mais cette domination s'est étendue au point de modifier la nomination d'autres évènements. C'est ce processus d'appropriation sémantique que nous allons explorer à travers deux situations médiatiques : la commémoration, en septembre 2003, du renversement du président Allende au Chili, et les attentats du onze mars 2004 à Madrid. D'après l'usage des occurrences de l'expression 11 septembre dans les articles analysés, nous faisons l'hypothèse que l'appropriation de cette dénomination, par la référence aux attentats du onze septembre 2001, conduit à son changement de statut discursif. Le postulat de notre travail est de considérer que l'unité syntagmatique le 11 septembre est, dans certains contextes, devenue un nom propre. En effet, si elle ne respecte pas l'ensemble des critères de ce dernier, tels que la présence d'une majuscule ou le fait que le nom propre ne puisse être traduit, elle désigne un référent unique répondant à la fonction pragmatique du nom propre. Alors que les noms communs désignent une classe d'objets, une catégorie ou un concept, le nom propre est supposé effectuer une désignation unique, individuelle (Leroy, 2004, p. 21). L'expression 11 septembre précédée de l'article défini désigne bien un référent : les attentats survenus le onze septembre 2001 aux États-Unis. Par son caractère déictique, elle se rapproche de la catégorie, marginale, du chrononyme c'est-à-dire du nom propre de temps (Leroy, 2004, p. 35). La nomination des attentats implique un prédicat de réalité qui affirme l'existence de l'évènement et produit un acte de baptême distinguant cet évènement des autres. Le nom propre est utilisé comme désignateur direct et rigide, fonction qu'il assume d'autant plus aisément que sa fonction cognitive fondamentale est distinctive, associée comme il l'est dans la mémoire stable à un particulier qu'il identifie sans le décrire (Jonasson, 1994, p. 171). L'originalité de la situation étudiée provient du déplacement effectué par l'expression le 11 septembre, qui a servi de matrice directe ou indirecte à la nomination d'autres évènements, tels le coup d' État au Chili ou les attentats madrilènes du 11 mars 2004. En septembre 2003, l'extraordinaire conjonction de dates entre le trentième anniversaire du renversement de Salvador Allende et le second anniversaire des attentats aux États-Unis a fourni un matériau de premier choix aux médias écrits qui se sont emparés de cette coïncidence historique. Sur le plan syntaxique, la comparaison entre les deux évènements s'est effectuée le plus souvent de façon implicite, le renvoi à l'une des deux dates se faisant à l'aide d'un tiers lexical, notamment un adjectif. Cet ordonnancement des occurrences n'est pas neutre; il implique un positionnement de l'énonciateur dans le conflit de remémoration qui se joue entre les deux évènements. Quelques précisions s'imposent d'emblée. La comparaison entre le onze septembre 2001 et le onze septembre 1973 n'est pas marginale puisqu'elle apparait dans une majorité de discours, ainsi qu' à l'étranger – notamment dans les journaux britanniques The Economist et The Guardian. De plus, le rapprochement entre les deux dates a eu lieu dans la presse, dès septembre 2002, lors de la commémoration du premier anniversaire de la chute des tours du World Trade Center, et à l'occasion de la sortie du film collectif 11/09/01. Le réalisateur britannique Ken Loach centrait sa contribution sur la chute du palais de la Moneda, le onze septembre 1973, et associait les deux évènements au-delà d'une simple relation chronologique. Toutefois, c'est la conjonction des deux dates anniversaires, en septembre 2003, qui a permis une large diffusion de la comparaison. L'analyse des articles montre que les discours journalistiques ont souvent désigné le onze septembre 1973 en procédant à un rapprochement elliptique, c'est-à-dire en renvoyant au onze septembre 2001, sans pour autant le nommer. Elles ont été construites sur un même schéma : mention du lieu (Chili), date précise (11 septembre 1973) et adjectif antéposé (essentiellement l'adjectif autre). Le titre à la une du Monde du 12 septembre 2003 constitue l'exemple archétypal : « Chili, 1973 : l'autre 11 septembre ». Si l'énoncé vise implicitement le coup d'état, les données contextuelles (la conjonction des dates) permettent de décoder l'allusion au onze septembre 2001. Mais le rapprochement le plus engagé se trouve moins dans le titre que dans la caricature de Plantu (voir page suivante) qui l'accompagne : le dessin représente Salvador Allende et ses collaborateurs, mitraillette au poing, au pied de deux tours en flammes identiques aux Twin Towers. Dans le ciel, à droite, un avion de ligne frappé du drapeau américain va percuter l'une des deux tours, qui porte l'inscription « Chili 1973 », tandis qu'un impact a déjà touché la seconde tour en arrière-plan. Le dessinateur donne à penser que les Américains, aujourd'hui victimes, ont été agresseurs par le passé. La filiation critique est énoncée avec force dans le dessin, mais le détachement inhérent au genre humoristique en atténue la portée. à l'instar de la mise entre guillemets, l'ironie produit une faille énonciative laissant au lecteur le soin d'interpréter le discours. Ce processus est accentué par la position particulière du dessin dans le journal. D'un côté, il illustre les articles, puisque Le Monde n'a pas utilisé de photographies dans ses pages intérieures (contrairement à la une); de l'autre, il en est exclu. Il sert cependant de connecteur entre plusieurs informations et joue de la coïncidence temporelle des deux évènements pour les introduire dans un même espace sémantique (Lavoinne, 1997, p. 106). Par cette double rupture énonciative, nous pouvons présumer que Plantu exprime une position radicale sur la politique étrangère américaine sans se l'approprier complètement. Cette polyphonie permet ainsi au méta-énonciateur, Le Monde, de conserver la modération et la neutralité affichées dans ses articles et réputées caractéristiques du journal. L'usage de l'implicite se retrouve dans Le Figaro et Politis, mais sous une forme un peu différente. Dans un article concernant l'état d'esprit de la population chilienne en septembre 1973, le journaliste du Figaro écrit que « Santiago est lasse de l'effervescence autour de l' “autre” 11 septembre orchestrée par les médias ». Nous repérons un agencement similaire dans la légende de la photographie : « Depuis quelques semaines, les Chiliens sont abreuvés d'images et de reportages sur l' “autre” 11 septembre ». Cette modalisation autonymique indique une non-coïncidence entre le mot et les choses, un écart entre la nomination particulière du coup d' État et l'adhésion de l'énonciateur à celle -ci. Le locuteur ne se réfère pas directement au onze septembre 1973 mais au nom que d'autres énonciateurs lui donnent. [La modalisation autonymique] se manifeste dans toute manifestation où l'énonciateur commente son propre discours en train de se faire; le « commentaire » témoigne d'un dédoublement au niveau de l'énonciation (Authier-Revuz, 1995, p. 84). Le procédé a ici pour objectif de démarquer l'énonciateur de l'expression qu'il emploie. Le signal énonciatif représenté par les guillemets correspond à une neutralité interprétative, qui se doit d' être comblée dans le commentaire pour qu'il n'y ait pas de confusion sur le déchiffrement de l'élément désigné. Dans l'exemple précédent, les connotations négatives ou dysphoriques des termes lasse, orchestrée, abreuvés d'images, effervescence signalent que le journaliste non seulement ne s'approprie pas la dénomination, mais encore la disqualifie. Le contexte (l'orientation idéologique du journal) aide alors à déchiffrer l'interprétation de la brèche ouverte par la modalisation autonymique : l'inanité de la comparaison est confirmée. Une des propriétés de la modalisation autonymique est qu'elle n'enferme pas un même procédé dans une seule interprétation : En mettant des mots entre guillemets, l'énonciateur se contente en effet d'attirer l'attention du récepteur sur le fait qu'il emploie précisément ces mots qu'il met entre guillemets; il les souligne en laissant au récepteur le soin de comprendre pourquoi il attire ainsi son attention, pourquoi il ouvre ainsi une faille dans son propre discours. En contexte, les guillemets peuvent donc prendre des significations très variées (Charaudeau et Maingueneau, 2002, p. 290). Ainsi, le segment autonymique qui, dans Politis, ouvre l'article sur le rappel du putsch d'Augusto Pinochet ne contient pas de connotation négative : « L' “autre” 11 septembre, celui du coup d'état de 1973, et de ses dix mille victimes, pèse toujours douloureusement sur le Chili ». Le cotexte à droite peut être lu comme une critique en creux de l'importance accordée au onze septembre 2001, qui n'aurait fait que trois mille victimes. Dans le cas d'un hebdomadaire comme Politis, qui se veut critique envers la politique des États-Unis et attentif aux droits de l'homme, la modalisation exprime la volonté de rehausser le souvenir du onze septembre 1973 en le désignant par une expression voisine de celle, instituée et légitime, qui correspond aux attentats perpétrés sur le sol américain. La volonté idéologique de rehausser le souvenir du coup d' État au Chili passe par une configuration syntagmatique qui met en parallèle les deux dates, c'est-à-dire les précise (jour, mois, année) et les inscrit dans la même phrase. Cescomparaisons évoquent l'idée d'une filiation douloureuse des souffrances et des victimes : l'écrivain chilien Luis Sepùlveda parle des « victimes du 11 septembre 1973 et du 11 septembre 2001 », et dans son commentaire du livre d'Hector Pavon sur le coup d' État au Chili, François Maspero établit une relation « entre le 11 septembre 1973, jour de deuil pour le peuple chilien, et le 11 septembre 2001, jour de deuil pour le peuple américain ». Si la victimisation est le lien qui noue les deux évènements, des critiques virulentes affleurent contre la politique étrangère des États-Unis. Ainsi Hector Pavon interprète les attentats de New York comme une réponse aux interventions extérieures américaines dont le coup d' État au Chili constitue un exemple flagrant : Inscrivant le coup d'état chilien dans une longue liste d'interventions américaines dans le monde, Hector Pavon veut établir entre le 11 septembre 1973 […] et le 11 septembre 2001 [… ], une relation en forme de boomerang. Luis Sepùlveda instruit une relation encore plus directe : Les victimes du 11 septembre 1973 et du 11 septembre 2001, les 30 000 disparus d'Argentine, les 5 000 disparus du Chili ont un point commun : ils ont souffert des erreurs de la politique extérieure des États-Unis, de leur vision planétaire. Dans l'énonciation, le parcours biographique des auteurs, chiliens et/ou opposants à la dictature de Pinochet, joue un rôle important. La datation précise et complète met les deux évènements à égalité. Mais si cette configuration discursive entraîne une survalorisation du souvenir du onze septembre 1973, elle ne représente qu'une minorité des occurrences. Jusqu' à aujourd'hui, la pensée commune connait et reconnait le onze septembre 2001 sans que l'on ait besoin d'apporter des précisions. Par contre, évoquer le onze septembre 1973 nécessite des informations supplémentaires. Le caractère spontané de cette relation avec le onze septembre 2001 dans les perceptions mentales est souligné par certains articles : « La date du 11 septembre est désormais associée dans nos esprits aux images télévisées des tours en flammes de New York ». Dans l'introduction de son supplément de 2003 sur l'Amérique latine, Le Monde met en évidence la place écrasante des attentats de 2001 : « Éclipsé dans nos mémoires par l'attentat du World Trade Center qui, depuis deux ans, surdétermine la géopolitique mondiale, ce 11 septembre -là mérite pourtant d' être rappelé ». Le phénomène a pour conséquence la monopolisation de la formule 11 septembre pour désigner les évènements de New York. Un processus de captation apparait progressivement dans le discours médiatique : non seulement le couple jour-mois s'est imposé comme la dénomination la plus fréquente, mais cette formulation exclut tous les autres faits historiques qui pourraient postuler à une désignation similaire, comme le onze septembre 1973. Cette exclusivité est stigmatisée par l'hebdomadaire Marianne, selon lequel la déferlante médiatique autour des attentats semble avoir ouvert aux Américains un droit de propriété. « Désormais, cette date de sinistre mémoire est devenue, pour la Terre entière, le Nine Eleven. […] Comme si les États-Unis en avaient le copyright ». Le 11‑Septembre a investi tout l'espace symbolique disponible pour un autre évènement survenu ce jour -là. En cela, le processus métonymique est absolu : non seulement il présente la date de l'évènement comme l'évènement lui -même, mais il privatise cette dénomination en discréditant sa référence à d'autres évènements survenus à une même date. Cette appropriation linguistique comporte une charge idéologique, elle conduit à une appropriation mémorielle qui s'apparente à un vol pour les victimes de 1973 : les Chiliens, dépossédés de leur bien symbolique, s'exclament » Rendez -nous le 11 septembre ! ». Le processus de nomination constitue donc un enjeu polémique et, plus que l'essence d'un fait, exprime le rapport de l'énonciateur à ce fait : Aussi l'acte de nomination désigne -t-il non seulement l'objet mais également la position du sujet à son égard : dis -moi comment tu nommes et je te dirais qui tu es. […] Toute nomination est ainsi l'expression d'un positionnement au sein de la communauté parlante, dans son espace discursif (Détrie, Siblot et Vérine, 2001, p. 207). Toutefois, le jeu n'est pas unilatéral et les dénonciations de l'appropriation du 11 septembre – appropriation qui perpétue dans la situation énonciative la domination politique des États-Unis – profitent de la visibilité médiatique liée à l'emploi de la formule 11 septembre. Une rapide analyse diachronique montre que la nomination du onze septembre 1973 n'était pas homogène. Les journaux contemporains du renversement de Salvador Allende ou de la commémoration du dixième anniversaire n'ont pas construit de dénomination stabilisée ni, a fortiori, formée sur la date de l'évènement. Nous pouvons donc faire l'hypothèse que l'appellation 11 septembre désignant le coup d' État au Chili est postérieure à la diffusion de cette expression comme dénomination des évènements de 2001. Ainsi, c'est l'existence de ces derniers qui a conduit à la dénomination modifiée du coup d' État chilien. Les discours critiques participent donc d'un processus mémoriel complexe. D'un côté, les énonciateurs dénoncent la dépossession d'une nomination a posteriori, celle du coup d' État au Chili. De l'autre, l'emploi de cette nomination modifiée, construite à partir du onze septembre 2001, permet de bénéficier de l'exposition médiatique de l'évènement en question. Le désignant 11 septembre sert de repère sémantique dans la construction de la mémoire socialiste chilienne. Notre analyse montre enfin que la comparaison des deux évènements n'amène pas de développements plus approfondis sur une filiation possible. Nous pouvons faire l'hypothèse que le rapprochement entre le onze septembre 1973 et le onze septembre 2001 est un simple effet stylistique, propre à donner une plus-value aux différents articles, les journalistes trouvant dans la coïncidence des anniversaires matière à accrocher leur lectorat par un titre ou une phrase choc. Cette distorsion entre le titre et les articlesest classique dans les pratiques journalistiques en matière de titrage. L'objet du titre « n'est pas de donner l'information principale de l'article, mais son sens général, en étant suffisamment accrocheur pour inciter à la lecture » (Agnès, 2002, p. 133). Si, dans les exemples précédents, le nom propre le 11 septembre a subi des modifications substantielles, notamment l'adjonction d'un adjectif, le sens de l'expression change peu. L'usage d'un déterminant défini et les précisions cotextuelles (la date et le lieu de l'évènement nommé) conservent le caractère singulier de ce nom propre. à l'inverse, les emplois de l'expression, dans les articles suivants, vont modifier en profondeur sa nature et donc son sens. La mutation s'opère avec le basculement de l'article défini le à l'article indéfini un. Ce changement de déterminant rogne la capacité de l'expression à la deixis temporelle. Auparavant, quel que soit son emploi, explicite ou implicite, elle renvoyait à un fait singulier, précisément à l'aide de l'article défini : Les plus typiques des déterminants, y compris l'article défini, ont pour fonction première, sémantiquement, de déterminer (c'est-à-dire de restreindre ou de préciser) la référence du syntagme nominal dans lequel ils apparaissent : d'où leur appellation (Lyons, 1980, p. 87). Cette modification est présente dans ce passage tiré d'un article de L'Express : C'était il y a exactement trente ans, en 1973, un autre 11 septembre, qui ferme lui aussi un temps révolu et ouvre un temps nouveau. La présence de l'adjectif et de l'article indéfinis modifie la nature du nom propre 11 septembre. Le nom propre se rapproche alors du nom commun en créant une classe de référents (Détrie, Siblot et Vérine, 2001, p. 208). Modifié, il perd sa singularité tout en conservant sa fonction signifiante. Le onze septembre 2001 est présenté ici comme un idéal-type géopolitique et historique. Son interprétation est figée dans une lecture unique et arbitraire : celle d'un point de basculement entre deux périodes. Si le coup d'état chilien est lui aussi élevé au rang de césure, la construction de la phrase donne la primauté au onze septembre 2001 comme nouvel étalon de mesure historique. L'énonciation accentue l'idée que cet évènement a livré toutes ses clés, qu'il n'est plus un phénomène à analyser mais un outil d'analyse. De fait historique déterminé, la date des attentats aux États-Unis devient un fait paradigmatique, l'archétype d'une catégorie d'évènements, associé à des qualités taxinomiques. D'objet à comparer, il est devenu un comparant, mais sans le recul historique nécessaire à l'analyse. Dans cet emploi du nom propre, ce n'est pas la valeur identifiée dans l'emploi original qui est saillante, l'établissement de l'identité exacte du référent original n'était pas important ici. […] Ces aspects permettent d'établir un modèle mental du référent original qui en est considéré comme l'incarnation ou le parangon. Ce modèle est le membre central idéal d'une catégorie prototypique dont tous les membres ont une ressemblance plus ou moins parfaite avec le membre modèle (Jonasson, 1994, p. 220). L'expression 11 septembre devient ainsi une sorte de point aveugle du discours médiatique, un élément circulant d'article en article sans que son interprétation soit remise en question, comparable à ces phrases décrites par Eliseo Veron « qui reviennent et glissent, identiques, d'un médium à un autre », mais laissent toujours dans l'ombre l'origine de ce dont elles parlent .Dans le cadre d'une mise en discours du monde par les médias écrits, où la notion d'évènement est toujours centrale et où sont à l' œuvre l'élaboration de séries et la recherche de prototypicités, l'usage modifié du nom propre 11 septembre répond à la volonté de construire des classes d'évènements. Par la détermination qu'opère l'article indéfini un associé à l'adjectif autre, ces exemples se rapprochent de l'antonomase. Ce processus sémantique va se confirmer à l'occasion de la nomination des attentats du 11 mars 2004 à Madrid. La couverture médiatique des attentats de mars 2004 a suscité de nombreuses occurrences mobilisant le caractère métaphorique du 11 septembre. Certes, le titre du Figaro du 11 septembre 2003, « Le 11 septembre de Pinochet », en mettant en valeur un aspect particulier du référent, se rapproche d'un fonctionnement antonomasique (Siblot et Leroy, 2000, p. 96). Mais il demeure la seule occurrence trouvée pour la commémoration du coup d'état au Chili. La nomination des attentats madrilènes par relation avec le référent américain modifie plus radicalement le statut sémantique du désignant. Le trope émerge dans l'éditorial de L'Humanité du 12 mars 2004 : « Le rapprochement s'est vite imposé. Face aux terribles images de victimes ensanglantées [… ], ils furent nombreux, au sud des Pyrénées, à penser que ce 11 mars était le “11 septembre” de l'Espagne ». Cet exemple met en évidence la capacité de l'antonomase à désigner un autre référent que celui auquel l'expression linguistique est habituellement associée. Selon le Petit Robert, l'antonomase est « un trope qui consiste à désigner un personnage par un nom commun ou une périphrase qui le caractérise, ou, inversement, à désigner un individu par le personnage dont il rappelle le caractère typique ». Elle comporte une dimension argumentative puisqu'elle constitue un raccourci permettant de prédiquer, à propos d'un sujet, un certain nombre de propriétés qui caractérisent le porteur originel du nom propre. L'antonomase contient d'ailleurs des propriétés catégorisantes : De façon générale, les approches rhétoriques et grammaticales considèrent l'antonomase dans son aboutissement, dans une perspective classificatoire (Siblot et Leroy, 2000, p. 93). Cependant, la métaphore ici est mise à distance par la polyphonie : si l'énonciateur l'utilise, il prend soin de préciser qu'elle relève de la parole d'autrui (« ils furent nombreux […] à penser »). Les journaux français font porter la genèse – et donc la responsabilité – de l'expression aux médias locaux. Ainsi, Le Monde précise que c'est par le biais des journaux espagnols que la comparaison émerge : Plusieurs journaux madrilènes ont titré vendredi sur le « 11 Septembre espagnol ». […] La référence s'est imposée à la une de tous les journaux espagnols. El Pais titre « 11-M ». […] El Mundo parle de « notre 11-S » et le journal catalan La Vanguardia met en une « 11-M à Madrid ». Cette opération de mise à distance de la part du méta-énonciateur suggère une pluralité de significations parmi lesquelles il appartient aux lecteurs de trancher. Si La Tribune titre sur « Le 11 septembre espagnol », l'article qui suit précise que cette nomination est le fait des « éditorialistes qui appellent déjà [l'attentat] “le 11 septembre espagnol” ». Les Echos citent, pour leur part, un responsable socialiste basque qui évoquait « le “11 septembre” de l'Espagne ». Libération reste dans une opacité totale à ce propos, évoquant simplement ce « massacre du “11 M” (déjà consacré comme le “11 septembre espagnol ”) [qui] a bouleversé les élections législatives ». L'imprécision sur les auteurs des citations rapportées est surprenante et participe d'une attitude de prudence, au moins dans un premier temps, quant à l'appropriation de cet emploi métaphorique. Dans ces exemples, l'hétérogénéité discursive et la modalisation autonymique (Authier-Revuz, 2004, p. 82), permettent aux locuteurs de projeter sur le référent madrilène les propriétés du référent originel, les attentats du onze septembre 2001 : Toute nomination […] exprime un point de vue sur l'objet nommé, résulte de la volonté de présenter le référent sous un angle particulier (Siblot et Leroy, 2000, p. 98). La question qui se pose alors est celle de l'extraction métonymique : quelles sont les propriétés à retenir ? Le choix n'est pas libre car le locuteur doit tenir compte de la réception de son point de vue. Aussi l'acceptabilité de l'antonomase est-elle d'autant plus grande que la caractérisation des deux références s'avère plus largement partagée (Siblot et Leroy, 2000, p. 98). Ainsi, une interview de Gérard Chaliand, spécialiste en stratégie militaire, consacre l'expression en titrant sur « le 11 septembre des Espagnols ». Toutefois, le chercheur avoue, dans ses réponses, rapporter la parole d'autres locuteurs, en l'occurrence les médias espagnols (« la presse espagnole parle d'ores et déjà d'un 11 septembre national »), ou préfère se montrer prudent dans son analyse (« rien n'atteste pour le moment que le carnage du 11 mars soit une réplique du 11 septembre »). Le procédé antonomasique fixe le caractère taxinomique de cette notion et indique le rôle attendu par le nom propre modifié. L'expression 11 septembre sert de mesure historique, de jalon que le locuteur utilise pour classer le nouvel évènement dans une représentation du monde : « à l'image du 11 septembre 2001, le carnage d'hier à Madrid représente une escalade sans précédent dans la longue histoire du terrorisme commis par ETA ». La redondance du titre de Marianne, « Le “11 septembre” de Madrid », d'abord en une puis en titre d'article, marque aussi l'importance de l'évènement. « Ce drame absolu prouve que le 11 septembre n'était en rien une exception américaine ». La métaphore du 11 septembre comme réservoir de sens est exprimée, avec plus d'aplomb, par Daniel Vernet dans sa tribune du Monde, « Le 11 Septembre de l'Europe ». Cette occurrence renvoie à l'extension de la menace terroriste au sein même de l'Europe (« les attentats du 11 mars doivent sans doute être considérés comme une manifestation de ce que François Heisbourg […] a appelé, au lendemain du 11 septembre 2001, l' “hyperterrorisme” ») et ses conséquences inéluctables (« Si la piste Al-Qaida se confirme, les Européens devront repenser la lutte contre le terrorisme, comme les États-Unis l'ont fait après les attentats du 11 septembre 2001 »). D'autres comparaisons formulent des motifs d'espoir : « Exactement comme dans le cas du 11 septembre, une volonté d'unité, de force, de sagesse, surgit des décombres ». Ainsi, les significations tirées de cette métaphore demeurent multiples quant à l'élément référé, mais elles renforcent toutes la fermeture du sens de l'élément référent, les attentats du onze septembre 2001. Le désignant 11 septembre est donc utilisé par les journalistes pour signifier des évènements multiples. La dérive métonymique, puis l'antonomase, modifient le statut sémantique du chrononyme. Par différents procédés énonciatifs, celui -ci s'approprie l'espace symbolique du onze septembre. Cette situation renvoie à la dénomination arbitraire et exclusive des attaques contre les tours jumelles. L'énonciation simple du 11 septembre monopolise la désignation du onze septembre 2001 et exclut, ainsi, les autres évènements, les obligeant à trouver une nouvelle qualification pour être intelligibles. Cependant, l'identification de ces évènements par leur seule date renvoie à une dénomination minimale du fait historique et montre par là -même l'incapacité des énonciateurs à trouver une autre dénomination pertinente. Contrairement au processus uniforme de substantialisation qui accompagne l'expression 11 septembre, cette lacune sémantique met en lumière la multiplicité des sens qui lui sont attachés. Cette faiblesse énonciative se retrouve également dans les usages antonomasiques qui en sont faits. La dénomination des attentats du 11 mars 2004 à l'aide de l'expression 11 septembre confirme cette essentialisation. [Elle] consiste à faire qu'une idée soit toute entière contenue, ramassée et condensée en une notion qui existerait en soi, de façon naturelle, comme une essence, indépendamment d'autre chose que d'elle -même; et pour ce faire, on la présente sous forme nominalisée (Charaudeau, 2005, p. 75). La dénomination y gagne, par exemple, des qualités taxinomiques alors même que les significations profondes de l'évènement référent sont loin d' être épuisées; qualités qui démultiplient les usages possibles de la notion comme dans le cas irakien. « Le 22 février entrera dans l'histoire de l'Irak comme notre 11 Septembre à nous » . | La circulation de l'expression 11-Septembre pour dénommer le coup d'État du 11 septembre 1973 au Chili et les attentats du 11 mars 2004 en Espagne ont abouti à un changement de statut sémantique. Par dérive métonymique et par antonomase, l'expression s'approprie l'espace symbolique du «onze septembre». Sa nomination par leur seule date renvoie à l'incapacité des journalistes de trouver une autre dénomination pertinente. | linguistique_10-0210799_tei_801.xml |
termith-718-linguistique | Dans un ouvrage consacré à La médiation, Vincent de Briant et Yves Palau définissent cette dernière comme une théorie de la représentation. « Toute connaissance, » affirment-ils « passe nécessairement par des médiations, dotées d'un plus ou moins grand pouvoir de représentation, c'est-à-dire de restitution ou de reconstruction du réel » (1999 : 41). C'est cette capacité de la fiction à substrat professionnel (FASP) à reconstruire et à restituer tout à la fois le milieu professionnel que nous nous proposons d'interroger ici, au travers de l'exemple de The Hunt for Red October (à savoir à la fois le roman de Tom Clancy et le film de John McTiernan). Visions fictives qui revendiquent l'authenticité du tableau dépeint, nous y reviendrons, le livre et le film se donnent en effet d'emblée comme des représentations du milieu qu'ils convoquent. Dans l'optique de la définition proposée par de Briant et Palau, ils s'apparentent alors aussi à des médiations entre le lecteur/spectateur et le milieu professionnel représenté. En envisageant The Hunt for Red October comme médiation du milieu professionnel, c'est sa position de tiers dans une relation triangulaire unissant le lecteur/spectateur à l'anglistique de spécialité que nous nous proposons d'analyser. Exposer le rôle de vecteur de la FASP, c'est aussi examiner les relations singulières entre, d'une part le roman et le film, et d'autre part, les technologies sous-marines qu'ils utilisent. Après avoir étudié la frontière mouvante qui relie et sépare tout à la fois le roman de Clancy et les ouvrages et revues techniques dont il s'inspire, nous interrogerons le statut du film de McTiernan. Adaptation cinématographique d'un ouvrage de fiction, le film présente en effet une double réécriture du milieu initial, qui s'apparente en quelque sorte à une double médiation. Pris entre l'illusion d'immédiateté que procure l'image cinématographique et la réalité de ces réécritures, le film de McTiernan pose de manière plus aiguë encore que le livre la question de sa pertinence pour l'anglistique de spécialité. Avant de poursuivre, il importe de préciser les raisons pour lesquelles nous avons choisi de centrer notre étude sur The Hunt for Red October. Premier roman de Tom Clancy, cet ouvrage est généralement considéré comme étant à l'origine du genre du thriller technologique (techno-thriller en anglais). Pour Marc Cerasini, dans un article intitulé « The Birth of the Techno-thriller », The Hunt for Red October constitue ainsi l'acte de naissance du techno-thriller, (« The Hunt for Red October marks the birth of a new genre » Greenberg, 1992 : 5), et Larry Bond dans une introduction à The Tom Clancy Companion y voit de même le début d'un nouveau genre romanesque (« the start of a whole new genre in fiction » Greenberg 1992 : 2). C'est cette position constitutive d'un genre qui nous aura, en premier lieu, intéressée. À ce titre, ellepermet en effet d'analyser de manière plus explicite que les romans suivants, les relations de la FASP technologique aux ouvrages spécialisés qu'elle entend traduire sur un mode fictif. À la différence des livres ultérieurs qui obéissent aux exigences d'une formule et de codes préalablement définis par The Hunt for Red October, ce premier roman ne répond à aucune attente préalable du lecteur, mais se construit dans une relation double à la fiction et aux écrits techniques. Le second point qui nous aura intéressée est directement lié à cette dernière relation entre la FASP et les écrits technologiques. Contrairement à des auteurs comme Robin Cook ou John Grisham, la compétence de Tom Clancy concernant le milieu qu'il décrit n'est pas une donnée, liée à une pratique professionnelle, mais une construction basée sur ses recherches. En effet, si la compétence de Cook ou de Grisham pour le domaine médical ou légal respectivement, est attestée par plusieurs années de pratique en tant que médecin ou avocat ,Clancy à l'inverse, est courtier d'assurance avant de se spécialiser dans le thriller technologique. L'authenticité du message se voit donc garantie, non par une expérience professionnelle avérée comme c'est le cas pour Cook ou Grisham (Petit 1999 : 63), mais par des recherches aussi poussées que détaillées, recherches dont le paratexte éditorial se fait l'écho direct : His extensive research into Soviet-American military strategies and advanced technologies gave him the backgrounds for The Hunt for Red October, Red Storm Rising …. Si cet extrait qui figure au dos de la quatrième de couverture de The Hunt for Red October s'apparente sans doute avant tout à un argument de vente, il mérite pourtant qu'on s'y arrête. En reliant la légitimité de l'auteur à la qualité des recherches entreprises, plutôt qu' à une quelconque expérience professionnelle antérieure, le texte éditorial reprend un argument développé à de nombreuses reprises par Clancy lors d'interviews. « The research is the fun part of writing » affirme -t-il ainsi lors d'un entretien avec Martin Greenberg (Greenberg 1992 : 58). Sur un mode plus sérieux, et afin d'asseoir sa légitimité, Clancy cite les revues, périodiques et ouvrages spécialisés qu'il a consultés et analysés avant d'écrire ses romans. Il mentionne ainsi, entre autres, Science News, Aviation Week and Space Technology, et The Submarine Review. Ce faisant, il nous livre aussi, et c'est là le point essentiel, une piste pour analyser ses romans. Il présente, somme toute, un cas particulier au sein des auteurs de la FASPqui permet d'examiner les rapports de cette fiction aux écrits scientifiques sur laquelle elle s'appuie, et de l'envisager comme une forme de réécriture de ces derniers. C'est par l'intermédiaire d'une relation triangulaire, d'une nouvelle médiation donc, qu'apparaît nous semble -t-il de la manière la plus sensible cette réécriture fictive, et c'est en conséquence par ce biais que nous nous proposons de l'analyser. L'élément médiateur est un ouvrage de Tom Clancy consacré aux sous-marins, Submarine : A Guided Tour Inside a Nuclear Warship, et qui fait figure à bien des égards, nous allons le voir, de double technique de The Hunt for Red October. De manière significative, le paratexte de l'ouvrage technique inscrit sur la quatrième de couverture le rattache explicitement à un roman pourtant publié neuf ans plus tôt : Only the author of The Hunt for Red October could capture the reality of life aboard a nuclear submarine. Outre le lien ainsi tissé, cette citation estompe la ligne de démarcation entre fiction et ouvrage technique en faisant appel aux qualités narratives de l'auteur. C'est encore sur le même mode l'ensemble des éléments du paratexte qui contribue à rapprocher les deux ouvrages jusqu' à les confondre. On retrouve en effet dans Submarine les mêmes caractéristiques paratextuelles que dans les romans de la FASP, telles que les a décrites Michel Petit dans son article consacré au « paratexte dans la fiction à substrat professionnel » (2001). La couverture de Submarine fait ainsi figurer de manière proéminente (caractères de grande taille et typographie en relief) à la fois le titre de l'ouvrage et le nom de l'auteur, renforçant encore la visibilité de ce dernier, d'une part en lui accordant une place prépondérante en tête de page, et, d'autre part, par un contraste de couleurs entre le rouge du nom et le blanc du titre. Cette attention concédée au nom de l'auteur mérite qu'on s'y arrête. Il s'agit en premier lieu et à l'évidence d'un argument commercial, étayé par la mention des succès de l'auteur en matière de fiction : NEW YORK TIMES # 1 BESTSELLING AUTHOR Mais au-delà de la logique de vente, c'est la prééminence de l'auteur sur le sujet abordé qui nous importe ici. Nous sommes bien loin d'un écrit scientifique au sens traditionnel du terme, où l'objet étudié prime sur l'auteur. En définitive, tout se passe comme si la présentation postulait l'aspect interchangeable de tous les écrits de Clancy, qu'ils soient fictifs ou non. De fait, l'arrière-plan sur lequel se détache le titre pourrait tout aussi bien être celui de The Hunt for Red October, puisqu'il représente, tout comme ce dernier, un sous-marin. De même, il n'est sans doute pas indifférent que le dos de la quatrième de couverture du roman et le dos de celle de l'ouvrage technique fassent figurer la même photo de Clancy (en ciré jaune avec, en arrière-plan, un navire de guerre). Se pose alors la question du statut d'un ouvrage qui se veut technique tout en se donnant comme une fiction, mais d'une « fiction » pourtant reconnue pour ses qualités scientifiques par le Smithsonian (National Museum of American History) qui le cite dans son exposition virtuelle sur les sous-marins dans la rubrique des Further Readings aux côtés d'ouvrages publiés par des éditeurs spécialisés dans les écrits professionnels (McGraw-Hill Professional Book Group, Naval Institute Press…) ou universitaires (Harcourt Brace & Co., Cambridge University Press, University of Chicago Press…) (). La frontière entre écrit spécialisé et fiction n'aura sans doute jamais été aussi peu explicite. Submarine crée finalement un continuum reliant FASP et écrits spécialisés. Telle est d'ailleurs la teneur de ce qu'affirme par deux fois le paratexte inscrit sur la quatrième de couverture. Défini comme exposant « les faits derrière la fiction », THE FACTS BEHIND THE FICTION […] the startling facts behind the fiction that made Tom Clancy a # 1 bestseller Submarine est en effet envisagé comme une sorte d'annexe ou d'appendice technique à cette fiction. Et c'est bien du reste ainsi que l'on peut comprendre que l'ensemble de la série des ouvrages spécialisés soit défini en dos de couverture par cette même formule récurrente. Garantie supplémentaire de la compétence professionnelle de Clancy, la série de ces « visites guidées » dans le monde professionnel procure également de manière plus significative pour notre propos un ensemble d'indications techniques, tant au niveau du glossaire que de la bibliographie, censé venir compléter les romans. Le glossaire de Submarine permet, entre autres, au lecteur de déchiffrer le sens des multiples acronymes et abréviations qui émaillent les pages de The Hunt for Red October tout en faisant office de lexique de son vocabulaire spécifique. Il n'est sans doute pas indifférent à ce propos que Clancy ait jugé nécessaire dans les romans ultérieurs d'inclure justement un glossaire absent de The Hunt for Red October et qui apparaît comme par un « après coup » avec la publication de Submarine. Que les deux ouvrages se complètent, il suffira pour s'en convaincre d'examiner la circulation des thèmes abordés et le recoupement étroit de leur contenu.Il en va ainsi notamment du chapitre de Submarine consacré à l'USS Miami. Clancy y détaille les procédures à respecter lors de toute plongée, que nous rappelons ici pour clarifier notre propos : le capitaine fait dégager la passerelle, et ordonne la fermeture des sas; puis l'officier de plongée vérifie le panneau de contrôle (indicateurs de fermeture et de pression) et remplit les ballasts. De manière caractéristique en effet, la première plongée du « Red October » dans le roman suit précisément la procédure décrite dans Submarine, comme le montre le tableau 1. En définitive tout se passe comme si Clancy mettait sa description technique en fiction, mêlant dialogue spécifique et description pour proposer une vision fictive d'une procédure et des échanges qui lui sont associés. Le résultat ne se résume pourtant pas à une simple mise en contexte du vocabulaire technique mais nous donne à voir la réalité des échanges spécifiques. Il convoque pour le lecteur une scène du domaine professionnel dans toute sa spécificité. Outre l'aspect terminologique pur, il transcrit la spécificité des constructions de phrases et « des tours des parole » (Petit 1999 : 72), telle qu'on les retrouve dans les interviews d'officiers publiées dans les revues techniques, comme par exemple « A Dive's Eye View », interview d'un officier de plongée publiée dans la revue Undersea Warfare (Barnes 1999). Et c'est là que la bibliographie détaillée qui conclut Submarine prend toute son importance pour une étude des relations entre la FASP et les écrits spécialisés qu'elle transpose sur un mode fictif. En nous donnant la liste des ouvrages consultés, Clancy nous indique aussi directement ses sources. Si l'étude comparative exhaustive des relations entre The Hunt for Red October et les ouvrages listés dans la bibliographie dépasse largement le cadre de notre propos aujourd'hui, il nous suffira pour l'instant de souligner le statut singulier de Submarine, comme voie d'accès aux écrits spécifiques. Par le biais de la bibliographie de Submarine ainsi qu'au travers du contenu propre du livre, on peut retracer l'évolution du discours spécifique (en matière de phraséologie notamment) de The Hunt for Red October à des revues comme The Submarine Review pour ce qui est par exemple des tactiques de combat. Dans le même ordre d'idées, les passages liés aux modes de détection par sonar sont à rapprocher d'ouvrages techniques comme Underwater Acoustic System Analysis. Si nous nous contentons ici de ces quelques pistes, c'est que notre propos n'est pas d'en fournir une analyse détaillée mais plutôt de souligner les relations étroites que la fiction de Clancy entretient avec les écrits spécialisés, d'établir en définitive son statut de tiers entre le lecteur et le milieu professionnel. Si le roman de Clancy constitue une première forme de médiation du milieu professionnel, c'est maintenant à la seconde médiation, celle offerte par le film de McTiernan, que nous voudrions nous attacher. Si l'on entend médiation au sens de r eprésentation, comme nous l'avons envisagé dans l'introduction, l'écran filmique semble être le média idéal d'une entreprise de r econstruction et de restitution du milieu professionnel. Et si l'on ajoute à cela la tendance actuelle du cinéma américain à faire la part belle à la technologie, tant au niveau des effets spéciaux que du scénario lui -même, le film semble être un vecteur indiqué pour donner à voir le milieu professionnel que Clancy nous donne à lire. Comme le rappelle en effet Pierre Berthomieu dans un article intitulé « Le cinéma américain et le parc jurassique : technologie mystique », la technologie est devenue depuis une vingtaine d'années à la fois « un des grands sujets du cinéma américain » et un élément incontournable des films d'actions dont le succès est garanti à grand renfort d'effets spéciaux (1998 : 84-85). « Le cinéma américain est-il malade de sa technologie surdéveloppée ? », s'interroge -t-il (84). Mais la crainte qu'il exprime ainsi devient au contraire un atout dès lors qu'il s'agit d'adapter un techno-thriller. Et c'est bien du reste sur ce mode que la jaquette de la vidéo entend vendre le film de McTiernan : Based on Tom Clancy's bestseller, directed by John McTiernan (Die Hard) and starring Sean Connery and Alec Baldwin, The Hunt for Red October seethes with high-tech excitement and sweats with the tension of men who hold Doomsday in their hands. Arrêtons -nous sur ce passage. Il résume en quelques lignes toutes les caractéristiques externes du film. Davantage encore que pour les romans, la technologie y est dramatisée (« men who hold Doomsday in their hands »), mais la technique est identique. Il s'agit avant tout d'attirer le spectateur en évoquant tous les éléments qui en font un succès, de la référence à Tom Clancy, au nom du réalisateur et des acteurs. Si le paratexte des romans de la FASP souligne leur statut de bestseller (Petit, 1999 : 3), les jaquettes des vidéos signalent de même leur statut de blockbuster. Tel cet extrait de presse reproduit au dos de la jaquette de The Hunt for Red October : “The first you-gotta-see-it blockbuster of the ‘ 90s” Joel Siegel, Good Morning America La logique du « paratexte » des vidéos semble en définitive calquée sur celle des romans. Ouvrons ici une parenthèse pour examiner quelques éléments externes au film qui contribuent, à bien des égards, à le caractériser, (au même titre que le paratexte contribue à définir les romans de la FASP). Outre la jaquette des vidéos, ce sont les bandes annonces et le générique qui nous importent ici. Les bandes annonces s'appuient sur un système de références croisées où le succès d'un film adapté des romans de Tom Clancy sert de garantie au succès de l'adaptation suivante. La cassette vidéo de Patriot Games fait ainsi la publicité de The Hunt for Red October et Clear and Present Danger, les deux seuls autres films adaptés à ce jour des romans de Clancy. Dans le même ordre d'idées, une voix-off dans la bande annonce de Clear and Present Danger, souligne la continuité avec les deux autres films From the makers of The Hunt for Red Octobe r and Patriot Games, Paramount presents this year's most electrifying motion picture… avant de conclure par une référence au roman de Clancy (« based on the number one best-selling novel Clear and Present Danger »). Mélange de références cinématographiques et de référence au roman, la voix-off reproduit pourtant la logique du paratexte des romans en inscrivant le film dans une série. Si le réalisateur et les acteurs changent, la voix-off s'emploie à souligner les deux constantes, à savoir, d'une part, l'auteur des romans à partir desquels les films ont été réalisés, et, d'autre part, le studio, Paramount. Il faut encore mentionner un dernier élément de cette bande annonce, le fond visuel sur lequel se place cette voix-off. De manière significative, défilent des images de bateaux, d'hélicoptères, puis de sonars, dans des couleurs évoquant The Hunt for Red October. Chacune de ces images fait figure de synecdoque, désignant l'univers de la FASP qu'elle convoque par un des ces éléments. On rejoint là encore une fois le rôle de l'arrière-plan de la couverture des romans. Sur le même mode, le générique de fin remplit un rôle en tous points similaire aux remerciements des romans, en venant attester de l'authenticité par une longue liste d'experts. À titre d'exemple celui de The Hunt for Red October commence par remercier les commandants et équipages de deux navires, ainsi que six unités de gardes-côtes. Vient ensuite une liste de compagnies dont les activités sont liées à la marine et à l'aviation (chantiers de construction navale, US Naval Institute, Naval Undersea Warfare Engineering Station); défile enfin une longue liste de lieutenants, capitaines, commandants qui se conclut par des remerciements adressés au Secrétaire à la marine, et au responsable de la flotte du Pacifique. Ce qui précède suggère une parfaite adéquation entre le paratexte des romans et les éléments externes des vidéos. Ce parallélisme subit pourtant une légère inflexion qui se révèle riche en enseignements quant au statut des films. Si le paratexte des romans de la FASP met en relief le nom de l'auteur, c'est à l'inverse l'acteur vedette (Sean Connery pour the Hunt for Red October et Harrison Ford pour Patriot Games et Clear and Present Danger) qui prime dans les films. De plus, à une couverture de roman offrant en arrière-plan un élément significatif de la FASP, la vidéo substitue un portrait de l'acteur en arrière-plan. Doit-on alors y voir le signe de la substitution de la FASP à une logique de thriller d'action ? C'est effectivement la conclusion qui semble s'imposer au visionnage de Patriot Games et de Clear and Present Danger. Le choix de Harrison Ford pour interpréter le personnage de Jack Ryan dans ces deux films n'est pas indifférent à ce propos. La simple évocation du nom de l'acteur suffit en effet à convoquer pour le spectateur la série des Indiana Jones, celle des Star Wars, ou encore Frantic ou Air Force One. Or, comme le rappelle Guy Scarpetta, si un roman peut brosser un portrait en plusieurs touches consécutives, au cinéma, à l'inverse un personnage est « concrétisé en totalité et en une seule fois » dès qu'apparaît l'acteur (1999 : 67). Le casting crée ainsi, de fait, une attente qui nous entraîne du côté du film d'action, comme le reflète le titre d'un article de L'Express consacré à Patriot Games : « Indiana Jones contre l'IRA » (L'Express 22/10/92). Et c'est du reste bien en termes de thriller d'action (« explosive action thriller ») que la jaquette de la vidéo de Patriot Games caractérise le film. C'est encore vers cette même définition que tendent les bandes annonces qui précèdent le film. Avant même de mentionner les autres romans de Clancy portés à l'écran, la vidéo annonce Mission Impossible rangeant ainsi implicitement les deux films dans la même catégorie. Si Patriot Games est sans doute le moins spécialisé des romans de Clancy, Clear and Present Danger revendique pourtant cette même appartenance au genre du film d'action. Défini sur la jaquette de la vidéo comme un « Thriller » plutôt que comme un techno-thriller, le film fait la part belle à l'action et minimise l'aspect technologique propre au roman. Dans ces deux cas, le film ne serait plus une médiation pour accéder à un milieu professionnel spécifique, mais un obstacle. En réduisant les romans à leur intrigue, ces deux films gomment en effet la langue spécialisée et simplifient également à l'extrême les éléments civilisationnels. Il en va ainsi notamment du traitement de la question irlandaise dans Patriot Games. Là où le roman distingue les différents groupes en présence (Sinn Fein, IRA, Provisional IRA, Ulster Volunteer Force, Ulster Liberation Army, Royal Ulster Constabulary…) et détaille leur rôle, le film se contente d'un amalgame rapide où l'IRA s'oppose au gouvernement britannique. Il apparaît de ce qui précède que la mise à l'écran de Patriot Games et de Clear and Present Danger entraîne la disparition des éléments caractéristiques de la FASP, et en fait davantage des films d'action que des voies d'accès au milieu professionnel. Se pose alors la question de la pertinence du concept de FASP pour ce qui est des adaptations cinématographiques. The Hunt for Red October présente pourtant un cas à part, nous allons le voir, qui offre une nouvelle représentation venant compléter celle du roman et non l'infirmer. De manière caractéristique, le film de McTiernan est principalement critiqué pour avoir accordé une trop grande attention à l'aspect technique. Une revue de presse parue dans L'Express reproche ainsi à Sean Connery de parler « sous-marinier » (24/08/1990), et déplore la longueur du prologue où sont notamment détaillées les caractéristiques techniques d'un sous-marin de classe « typhon ». Cette prégnance de la technique et de la langue de spécialité, que le critique déplore mais qui nous intéresse tout particulièrement, s'explique au moins en partie par le choix d'un roman dont l'intrigue, à la différence de celle de Patriot Games, repose sur des ressorts technologiques : la détection (ou non-détection) par sonar d'un sous-marin. Elle s'explique également par les options du scénariste et du réalisateur et c'est ce dernier point qui nous semble essentiel. Aux dires mêmes du réalisateur et du scénariste, la difficulté principale de l'adaptation résidait dans le fait de condenser un roman de « 400 pages en un script de 120 pages » (propos de McTiernan rapportés par L'Express 24/08/1990). Comme le souligne le scénariste, Larry Ferguson, la difficulté était avant tout de filmer un roman composé de nombreuses intrigues et sous-intrigues : « The big problem with The Hunt for Red October is the size and scope of the book. […] there are subplots within subplots, within subplots » (American Film, Sept 1990 : 18). Son premier choix fut donc d'éliminer les multiples sous-intrigues du roman pour se centrer sur l'intrigue principale, à savoir retrouver le sous-marin disparu, mais sans pour autant tomber dans le travers d'un film d'action qui éliminerait le substrat professionnel. Le second écueil que le film a su éviter est celui des sigles et acronymes égrenés au fil du roman. Sauf à submerger littéralement le film de sous-titres, il s'agit d'un aspect terminologique que McTiernan a dû minimiser. Mais comme le souligne Guy Scarpetta, « on risque fort […] de ne pas comprendre grand-chose à la délicate question des rapports entre littérature et cinéma (et donc à celle de « l'adaptation ») si l'on ne pose pas d'emblée leur irréductibilité » (1999 : 66). Il s'agit en effet de deux modes de représentation distincts, l'un purement verbal et l'autre audio-visuel pour lesquels il serait illusoire de tenter de proposer une correspondance stricte. De fait le substrat professionnel ne saurait être réduit à son seul aspect terminologique. La force du film de McTiernan est ailleurs, dans des choix qui s'appuient sur la capacité de restitution de l'écran filmique. Comme le souligne Alec Baldwin (l'acteur qui interprète le rôle de Jack Ryan), techniquement, rien n'a été laissé au hasard tant sur le plan visuel que sonore. Dans une démarche qui tiendrait presque du documentaire, l'équipe technique s'est rendue à plusieurs reprises sur des sous-marins pour enregistrer les sons et photographier les sections de divers submersibles. Les monteurs son ont ainsi effectué un séjour de plusieurs jours à bord du USS Shark, enregistrant quarante-cinq bobines qui devaient servir de base à la bande son. Dans leur quête du son juste, et afin de compléter les enregistrements effectués à bord du sous-marin nucléaire, les responsables son ont également fait appel à de nombreux spécialistes (Serafine 1990 : 67, 72). Et c'est finalement un véritable effort de reconstruction qui est entrepris, tant du point de vue de la bande son que de celui des décors. En résumé, l'illusion d'authenticité est presque parfaite, « il ne manque aucun bouton aux appareils, aucune oscillation aux écrans radar » (Les Échos 31/08/90), et il n'est aucun son du film qui n'évoque les sons réels. Au-delà d'une démarche qui vise à asseoir la crédibilité, cette attention accordée aux aspects visuels et sonores nous semble essentielle. Elle octroie en effet au film un statut de médiateur du milieu professionnel, qu'il capture à la fois sur le mode visuel et verbal. Il en va ainsi notamment d'une scène qui illustre la remontée d'urgence d'un sous-marin, scène dont le roman ne fait pas état, mais que Clancy détaille dans Submarine en l'illustrant d'une photo. Or, c'est sans doute par un biais visuel (photographique ou cinématographique) que s'appréhende le plus clairement une procédure qui consiste à expulser l'eau des ballasts, et qui a pour effet de faire sortir brutalement le sous-marin de l'eau. Il n'est pas indifférent à ce propos que le site à visée didactique de l'Oregon Museum of Science and Industry fasse référence à cette scène du film pour compléter sa description de cette remontée d'urgence : When a submarine needs to surface in an emergency it uses a special bank of high pressure air that can push all of the hundreds of tons of water in the ballast tanks out in a matter of seconds. This is just what the Blueback did when it was standing in for the U.S.S. Dallas in the movie The Hunt for Red October. L'intérêt du film ne se situe donc pas tant au niveau du discours que dans la combinaison des images et du discours spécifique qui donne vie au milieu professionnel. Médiation de ce milieu, il permet au spectateur de l'appréhender dans toute sa complexité visuelle et sonore. Le discours spécifique n'est plus isolé sur la page mais pris dans le flot des bruits spécifiques à l'environnement : ceux de l'océan, ceux du sonar, et les bruits métalliques dus à la compression de la coque lors de la plongée. Le film déroule finalement le milieu que le livre dissèque . | Cet article envisage la fiction à substrat professionnel (FASP) comme une forme de médiation entre le lecteur/spectateur et l'anglistique de spécialité. Au travers de l'exemple de «The Hunt for Red October», nous démontrerons dans un premier temps l'existence de liens étroits entre la FASP et les écrits scientifiques sur laquelle elle s'appuie. C'est ensuite sur la FASP dans sa forme cinématographique que ce concentre cette étude. Nous suggérerons qu'elle est un complément de la forme romanesque. | linguistique_524-02-12105_tei_623.xml |
termith-719-linguistique | Les conjonctions de subordination constituent une catégorie remarquable pour son caractère hétérogène aussi bien que pour sa labilité. La diversité des termes qui sont ordinairement regroupés sous ce chef rend délicate non seulement une définition précise de la catégorie, mais plus encore la délimitation d'un ensemble suffisamment cohérent pour donner prise à une étude de nature systématique. Un groupe peut cependant être isolé : le groupe des locutions conjonctives fondées sur une base verbale au mode participe. On peut en dresser, à partir des différents ouvrages de référence, la liste suivante : En admettant que, (en) attendant que, en supposant que, moyennant que, nonobstant (ce) que, soidisant que, suivant que, pendant (ce) que, durant (ce) que, considérant que, obstant que, non contrestant que. Étant donné que, étant admis que. Maintenant que, cependant que /en cependant que. Attendu que, excepté que, hormis que, joint que, supposé que, posé que, pourvu que, vu que, considéré que, entendu que Compte tenu que. Une telle liste appellerait naturellement bon nombre de remarques, concernant notamment l'apparente disparité des unités ainsi réunies, tant sur le plan morphologique de leur structure interne que sur celui des degrés de figement atteint par telles ou telles d'entre elles. Plusieurs arguments pourraient ainsi s'opposer à l'inclusion de l'une ou l'autre de ces locutions. Il n'est néanmoins pas possible d'entreprendre ici l'ensemble de ces discussions, et notre propos se concentrera en conséquence sur la seule question de la genèse de ces locutions, principalement envisagée d'un point de vue morphosyntaxique. Nous nous attacherons plus spécialement ici à quelques-unes de ces locutions, généralement tenues pour exemplaires, en ce sens qu'elles condensent l'ensemble des problèmes posés par cette catégorie (en particulier : durant que, attendu que et moyennant que). Nous verrons alors que les explications généralement invoquées présupposent, en définitive, une conception particulière des locutions conjonctives, qui ne les tient que pour des réalités discursives en posant l'existence d'un régime prépositionnel construit à partir d'un marqueur que et d'un verbe à temps fini. C'est pourquoi, dans le dernier point de cet article, nous proposerons les premiers éléments d'une modélisation alternative, fondée sur un processus analogique en partie inspiré de la théorie cosérienne. La plupart des modifications morphosyntaxiques intervenues dans l'évolution de ces constructions ont été bien répertoriées, mais toujours avec, en ligne de mire, l'acquisition d'un statut prépositionnel par les formes verbales. Trois phénomènes ont été plus particulièrement remarqués : la mobilité du verbe au sein de la construction, la question de l'accord de la forme participiale et, enfin, la réinterprétation des rôles relatifs des constituants. Le premier phénomène permettant d'établir un lien entre les constructions participiales absolues et les prépositions déverbales tient à l'ordre relatif des constituants au sein du syntagme participial. Or, semble -t-il, dès l'ancien français, dans les constructions mettant en jeu voiant et oiant, se manifeste une tendance à l'antéposition de la forme verbale, au moins lorsque l'agent est de nature nominale. C'est du moins ce que l'on peut constater à la vue des exemples proposés par T. Arnavielle dans le chapitre consacré aux « constructions avec autonomie de l'agent et forme en –ant prédicative (dites « absolues ») » (1997 : 237 sq.), où il affirme en outre, dans le cas du verbe ouir, que, lorsque « l'agent est un nom », il est « le plus souvent postposé » (ibid. : 238). Ainsi, la modification du placement de la forme verbale est-elle présentée, par B. Kortmann (1992) ainsi que E. König et B. Kortmann (1991, 1992), comme l'un des facteurs les plus importants dans le cadre de la réanalyse, en anglais, des participes verbaux en prépositions : One of the most important changes involved in the categorical reanalysis of verbs is a change in word order. Prepositions precede their complements whereas converbs in absolute constructions, that is, one of the relevant syntactic sources, follow their subjects, with exception for the earliest periods of English. [Kortmann & König 1992 : 674] La mobilité des constituants au sein de ces syntagmes a pu s'accompagner de modifications qui ont provoqué une réinterprétation des rôles des constituants. Cela concerne en premier lieu la question de l'accord. Celui -ci se fait en effet en fonction de deux critères. D'abord, en fonction du rôle joué par l'élément nominal : En français, les principaux cas à examiner sont excepté, réservé, vu, entendu, ouï, attendu, compris, passé, supposé, approuvé, qui sont invariables devant le substantif et variables après, ensuite hormis, forme moderne de hors mis et qui maintenant a pris absolument la valeur d'une préposition, et également ci-joint, ci-inclus. [Meyer-Lübke 1974 : 176] Ensuite, l'accord se fait en fonction de la position du verbe au sein du syntagme participial : alors que la postposition du verbe à son agent provoque généralement l'accord, son antéposition, en revanche, et notamment lorsque l'agent est nominal, a tendance à le neutraliser. As a result of their prenominal position in absolute constructions, participles lost their inflectional endings through which they manifest agreement with their subject, and this loss created a further favorable condition for reanalysis. [Kortmann & König 1992 : 675] Il faut toutefois ajouter que, bien que l'accord semble effectué de façon plus régulière dans le cas des formes de participes passés, la flexion de la forme en ant relève du système des adjectifs dont le thème est commun au masculin et au féminin; l'adjonction d'un - e au féminin est rare et tardive. [Andrieux & Baumgartner 1983 : 230] Les corpus que nous avons constitués confirment très largement cette réserve concernant l'accord puisque l'on obtient les résultats suivants : Durant : 121 occurrences, 70 accordées, dont 66 au masculin singulier. Moyennant : 28 occurrences, 10 accordées, dont 6 au masculin singulier. Attendu : 4 occurrences, 2 accordées au masculin singulier. De fait, ce dernier phénomène a également pu jouer en faveur de la réinterprétation du participe comme préposition en lui conférant, au moins en apparence, un caractère invariable lorsque l'accord devait se faire au féminin. C'est à partir de ces deux phénomènes qu'une réinterprétation des constituants a été rendue possible. En effet, les constructions participiales supposent la présence d'un agent, et celui -ci aurait ainsi précisément été réinterprété en tant que régime de la préposition : In the reanalysis of absolute constructions (…) as prepositional phrases, the subjects (external arguments) of the relevant verbs are reanalyzed as complements (internal arguments) of prepositions. This process may be supported, on the one hand, by an (oblique) case marking of the argument. (…) On the other hand, reanalysis of a preposed participle as a preposition gains support if the former no longer exhibits agreement with a following argument. In Modern French this is often even obligatorily so, e.g. for attendu ou vu (…). [Kortmann & König 1991 : 115] Les prépositions ainsi formées auraient alors pu servir de base au développement des locutions participiales, dont le développement est présenté, par B. Kortmann, comme relevant d'un processus similaire. Justifiant ainsi une étude conjointe des prépositions et des conjonctions, il affirme alors : There is a considerable proportion of departicipial prepositions (about a quarter of the English and a third of all French instances) which may also take sentential complements (optionnaly introduced by a complementizer), i.e. developed a use as conjunctions (E. considering, barring, notwithstanding, granted, or Fr. durant que, pendant que, hormis que, etc.). In fact, these cases represent about 50 % of all departicipial conjunctions in these two languages. […] The various factors that are involved in the type of reanalysis considered here are valid independently of the complexity of the argument of the underlying non-finite verb form. [Kortmann1992 : 432-433] Comme on a pu le voir, les différents phénomènes invoqués conduisent à une grammaticalisation des formes participiales en prépositions. La modélisation suivante, en partie inspirée de Cl. Buridant (2000 : § 256), peut résumer l'entier de ce processus, que nous illustrons ici avec le cas de durant : Dans cette perspective, en effet, le premier exemple ressortit encore à l'emploi verbal, mais n'en est pas moins déjà potentiellement engagé dans le processus de grammaticalisation en ce sens qu'il présente réunies les conditions préalables à la mise en œuvre du processus. Un stade supplémentaire est franchi dans l'exemple suivant (2), qui tient à l'absence d'accord de durant avec les trieuwes, absence d'accord compensée en un sens par la postposition attendue du participe à son sujet. On peut dès lors tenir que le processus de formation est ici supérieurement engagé que dans le cas précédent. En (3), en revanche, c'est l'antéposition du participe qui est compensée par l'accord effectué avec le sujet (les sains misteres). Ces deux seuils constituent ainsi des seuils intermédiaires, qu'il ne nous semble pas véritablement possible, sauf à privilégier l'un des deux critères au détriment de l'autre, d'ordonner l'un par rapport à l'autre sur le vecteur. Enfin, dans le dernier cas, l'ensemble des critères (antéposition et absence d'accord) définissant le seuil maximal de grammaticalisation est présent. Cet exemple est d'autant plus intéressant qu'il semble déjà, si on le place en contraste avec l'exemple (1), issu de la même œuvre, témoigner d'une distribution complémentaire entre l'emploi verbal et l'emploi prépositionnel de la forme participiale. Le principe d'un continuum tel que le suggère Cl. Buridant permet donc bien d'unifier l'interprétation de ces différentes constructions dans le cadre d'un changement en cours comme autant de seuils (initiaux, intermédiaires et finaux) menant à l'aboutissement de celui -ci. Il ne resterait plus alors qu' à postuler une diversification progressive des régimes prépositionnels, et, notamment, la possibilité d'un régime construit autour d'un verbe conjugué. L'existence d'un stade proprement prépositionnel ne va pourtant pas sans poser quelques difficultés, tenant aussi bien à l'empirie linguistique qu' à la théorie qui en sous-tend le postulat. Suivant la première, en effet, le premier problème qui se pose tient aux datations relatives des prépositions et des locutions. D'une façon générale, ces dernières apparaissent entre la fin de l'ancien français et le début du moyen français : Une chose est certaine : si les locutions modernes pendant que et durant que s'ébauchent vers la fin du XIII e siècle et au début du XIV e siècle, elles n'entreront définitivement dans l'usage qu'au XV e siècle et plus sûrement encore au XVI e siècle. [Imbs 1956 : 304] À tout le moins P. Imbs suppose -t-il une mise en place plus progressive de l'usage de durant que, et, plus généralement, des conjonctions à base participiale, en affirmant, dans la « conclusion générale » de son étude, que « l'heure de pendant que et de durant que approche (les tournures participes et prépositives sont en place), mais elle n'a guère encore sonné » (Ibid. : 556). Or, pour certaines de ces formations, l'apparition de la locution est, sinon tout à fait antérieure à celle de la préposition, du moins relativement contemporaine. Ainsi, dans le cas de durant, dont la première attestation est, pour l'emploi prépositionnel, attribuée aux Coutumes de Philippe de Beaumanoir (cf. Littré, et, à sa suite, P. Imbs (1956 : 303)). L'exemple donné est généralement le suivant : Par la suite, C. Marchello-Nizia affirme que « durant que devient conjonction au XIV e siècle » (1997 : 370). Or, T. Arnavielle relève l'exemple suivant, assez nettement antérieur, puisque ce texte est généralement daté de 1258, soit un quart de siècle avant la rédaction du Coutumier de Clermont : Encore convient-il de noter que l'édition consultée (celle de Kohler, réalisée sans consultation du manuscrit), autant que l'histoire complexe du manuscrit, ne permettent pas de tenir cet exemple pour absolument assuré. Et il semble, à consulter les variantes, que le manuscrit portait à l'origine devant que, ce qui serait sans doute plus en adéquation avec le fort usage des diverses valeurs de ce terme que l'on peut par ailleurs constater. On peut encore ajouter à cela le fait que la BFM ne donne pour première attestation de cette locution conjonctive que la forme durant ce que : Plus probant peut-être est le cas de moyennant que. Les datations proposées par le TLFi (et non infirmées par nos corpus) sont en effet de 1219 pour la locution conjonctive, à partir de l'exemple suivant : mais seulement 1377 pour la préposition, dont nous avons trouvé dans le DMF une occurrence à peu près contemporaine : De fait, les datations relatives n'autorisent pas à affirmer que la prépositionnalisation soit une phase nécessaire au sein de la genèse des locutions participiales. En outre, le recours à un stade prépositionnel engage une conception spécifique des locutions conjonctives, selon laquelle elles ne possèdent de réalité que sur le plan discursif. En d'autres termes, les locutions conjonctives ne seraient que la coalescence discursive d'une préposition et de l'un des régimes possibles, un régime en Que - P, substituant au parenthétisage de (10) le parenthétisage de (11) : Il n'est pas possible de discuter ici des détails d'une telle conception. On se bornera toutefois à remarquer qu'elle ne vaut d'abord que pour les cas où le premier élément est de nature prépositionnelle et exclut ainsi les formations plus complexes comme cependant que ou nonobstant que. Une alternative a cependant été proposée par P. Imbs, selon qui la modification profonde instaurée par l'apparition de ces locutions tient au fait que la subordonnée assume désormais le rôle de sujet : [L ]'emploi de ces locutions constitue un renversement total du système traditionnel de présentation de l'idée subordonnée. Les subordonnées temporelles étaient jusque -là considérées comme de simples extensions de l'adverbe ou du complément circonstanciel de temps qui les introduisait : ce morphème introducteur servait comme de charnière entre la principale et la subordonnée. Viennent les morphèmes participes et tout change : de simple extension, la subordonnée devient sujet du verbe introducteur. Mais la fonction sujet est la position qu'une proposition subordonnée à le plus de peine à prendre. (…) [C ]oncevoir un agent ou un point de départ sous la forme d'un événement, c'est se livrer à une transposition audacieuse dont les noms d'action fournissaient un modèle insuffisant. [I mbs 1956 : 305] Suivant cette analyse, les locutions participiales émergeraient en quelque sorte directement des constructions participiales. La modification en cause ne tiendrait plus alors à la prépositionnalisation de la forme verbale elle -même, mais à la modification de la nature de ses arguments. Et si une telle analyse n'est validée par aucune occurrence dans laquelle la proposition sujet serait antéposée à la forme verbale, elle semble correspondre à des configurations dans lesquelles un participe accordé construit un régime propositionnel. Ainsi de l'exemple suivant : Quoiqu'un tel exemple ne permette pas véritablement de trancher entre une interprétation verbale ou une interprétation déjà conjonctive, il n'en témoigne pas moins d'une structure favorable à un changement de type réanalyse, ne présupposant alors pas de passage par une phase de prépositionnalisation. C'est pourquoi l'examen d'une hypothèse alternative apparaît nécessaire. Nous avons pu apercevoir, au cours des considérations précédentes, quelques difficultés tenant tant aux critères retenus – et notamment le cas de l'accord – qu' à la modélisation elle -même du processus. En particulier, la phase de prépositionnalisation, si elle peut sembler légitime dans le cas de bon nombre des locutions ainsi formées, ne saurait rendre compte de l'entier de la catégorie et les problèmes de datation relative rencontrés en chemin invitent à davantage de prudence. En définitive, les phénomènes invoqués pour expliquer l'apparition de ces locutions conjonctives ne valent véritablement que comme des conditions préalables, mais laissent dans l'ombre l'ultime étape de cette formation : le passage de la préposition à la locution. Enfin, comme nous allons le voir, ils ne parviennent pas à rendre compte de l'ensemble de ces formations, et il reste alors à identifier la nature du ou des changement(s) en cause dans la genèse de ces locutions. Or, la productivité de ce type de réalisations, constituant, selon les termes d'A. Bertin, « un paradigme ouvert » (2003 : 268), laisse penser que c'est à un moyen systématique – voire typologique, étant donné le caractère ‘ européen ' du phénomène – que l'on a affaire, moyen systématique qu'il est alors possible d'appréhender en s'inspirant de la théorie cosérienne. Il est possible de recourir à l'analogie telle qu'elle est conçue dans cette théorie. Selon celle -ci, en effet, et eu égard à la tripartition norme – système – type (Coseriu 1952) sur laquelle elle se fonde, le mécanisme analogique doit être tenu pour une règle créatrice de formations nouvelles : L'analogie est, en effet, un changement dans la « norme », mais non dans le « système », puisqu'elle est, au contraire, une « création systématique », une réalisation d'une possibilité du système. [Coseriu 1973 (2007) : VII, § 1.1.2] Dès lors, le mécanisme de l'analogie peut être conçu comme la mise en œuvre d'un moyen systématique par lequel se trouve actualisée une possibilité du système jusqu'alors demeurée à l'état de simple virtualité. On peut alors avancer l'existence d'un patron morphosyntaxique propre aux locutions conjonctives et formalisables comme suit : X + (ce/…) + k w Un tel patron, qui vise à représenter la forme abstraite des locutions conjonctives, doit être tenu pour une règle systématique dont l'application permet la création des locutions conjonctives, au moins en français, mais bien plus vraisemblablement, et moyennant quelques spécifications supplémentaires, dans l'ensemble des langues romanes. Nous préciserons simplement que l'élément X représente l'ensemble des éléments (de nature morphémiques ou syntagmatiques) susceptibles d'intervenir dans la composition d'une locution conjonctive. Ainsi, le statut prépositionnel acquis par les formes participiales en a fait des candidats privilégiés à la saturation de cette position et, partant, à la constitution d'une nouvelle série de locutions conjonctives. Mais le recours à un tel modèle présente surtout l'avantage d'unifier les explications apportées à des formations comme cependant que, nonobstant que, non contrestant que mais également pourvu que. Ces dernières relèvent, en effet, d'une composition morphologique différente, sinon plus complexe, que les autres et présentent en outre des particularités d'emplois qui ne s'accordent pas avec le principe d'une phase de prépositionnalisation. Ainsi, des locutions telles que cependant que ou pourvu que sont fondées à partir d'une base sans aucune attestation prépositionnelle. Dans le cas de nonobstant que – ainsi que, dans une moindre mesure, non contrestant que – qui connaît des emplois prépositionnels, le phénomène est quelque peu différent. Comme l'a souligné O. Soutet : Le caractère tardif et rare des emplois qui témoignent d'un accord grammatical avec l'élément qui suit – lequel, sauf erreur, ne s'observe qu'avec non obstant – interdit de supposer qu'il y ait eut un stade du type « ablatif absolu ». [Soutet 1990 : 161-162] On soulignera d'abord le fait que le « caractère tardif et rare des emplois qui témoignent d'un accord avec l'élément qui suit » n'a guère de quoi surprendre, puisque les constructions participiales absolues se développent, elles aussi, assez tardivement, c'est-à-dire, comme nous l'avons vu, au cours du moyen français et, plus encore, de l'époque de la Renaissance. Et si l'on tient compte du fait que les agents nominaux, ainsi que le remarquait T. Arnavielle, sont majoritairement antéposés, la rareté de l'accord se trouve, sur ce point aussi, en quelque sorte justifiée par ce que l'on pourrait appeler une forme d'iconicité syntagmatique, i.e. une correspondance sémiologique avec l'ordre des constituants. Il faut y ajouter la prédominance, au moins pour l'ancien français et les premiers temps du moyen français, de la progression à thème constant, qui contribue à faire du syntagme participial le marqueur d'une continuité référentielle. Il demeure donc tout à fait clair que l'absence d'accord, toutes proportions gardées, a favorisé la réinterprétation prépositionnelle de certains participes en constructions absolues. Celle -ci ne suffit cependant pas à rendre compte de la formation de nonobstant que, qui provient, selon toute vraisemblance, d'une innovation introduite dans la langue des juristes à partir des modèles latins, et s'approche en cela d'un processus tel que l'emprunt. Autrement dit, il ne paraît pas que nous ayons affaire, à chaque fois, à une formation strictement graduelle, ou, à tout le moins, qui soit observable dans son déroulement. Dès lors, le recours à une analogie de type systématique comme ultime phénomène de changement permet aussi bien de résoudre le problème posé par la dernière étape que d'unifier les différents processus à l' œuvre dans la genèse de ces locutions. Il demeure néanmoins clair qu'une étape analogique n'exclut pas l'ensemble des changements évoqués précédemment, mais, au contraire, les conserve au titre de conditions préalables, c'est-à-dire ayant favorisé l'aptitude de tel ou tel élément à saturer la position X du patron morphosyntaxique. L'analogie permet alors de rendre compte du passage de la forme participiale, qu'elle soit ou non déjà prépositionnelle, à la locution conjonctive. Cette étude, encore préliminaire à de nombreux égards, avait pour enjeu d'interroger la relation entre les prépositions et les locutions conjonctives issues des formes participiales. Ces formations, principalement apparues au cours du moyen français, s'inscrivent dans le cadre d'un renouvellement plus général des processus de liaison de la phrase. Il s'agissait alors de proposer une hypothèse susceptible d'expliquer l'étape ultime de la formation des locutions participiales, ordinairement appréhendées comme une diversification des régimes prépositionnels. C'est là que le recours à l'analogie cosérienne offre une solution en permettant, à partir d'un patron morphosyntaxique, de justifier l'actualisation de la locution participiale. Plusieurs points restent cependant à approfondir ou, plus simplement, à développer pour achever de valider cette hypothèse. En particulier, il conviendrait de prendre plus spécifiquement en compte le niveau sémantique mis en jeu dans ces évolutions et d'étendre l'analyse à chacune des locutions relevant de ce modèle. D'autre part, cette hypothèse devra être évaluée dans une perspective typologique dans la mesure où nombre de langues, romanes ou non, connaissent des formations de ce type. On peut citer, à titre d'exemple : Espagnol : conforme que, dado que, en vista que, puesto que, salvo que, según que. Catalan : donat que, llevat que, posat que, salvant que, tret que, vist que. Portuguais : dado que, não obstante, posto que, suposto que, visto que. Italien : ammesso che, considerato che, dato che, posto che, supposto che, visto che. durante che, nonostante che. Anglais : considering that, outaken that, provided that, notwithstanding, providing that, conditioned that, during that, except(ing) that, assuming that, given that. C'est en examinant l'ensemble de ces locutions qu'il sera possible de préciser la nature analogique du changement en jeu dans la genèse de ces formations . | Dans cet article, nous nous intéressons à la genèse d'un ensemble de locutions conjonctives encore peu étudié, celui des locutions mettant en jeu une base participiale. Nous montrons d'abord que cette genèse est ordinairement appréhendée par le recours à une phase prépositionnelle, mais qu'une telle appréhension présente quelques limites, en ce sens qu'elle ne peut parvenir à rendre compte de l'ensemble des formations reposant sur ce modèle. Dès lors, c'est par un recours au mécanisme analogique, tel qu'il est défini dans le cadre de la théorie cosérienne, qu'une explication alternative peut être proposée. | linguistique_12-0043025_tei_847.xml |
termith-720-linguistique | Nous nous proposons dans ce travail d'étudier l'évolution de l'adverbe plutôt qui est passé d'une forme libre à une forme agglutinée. Nous réfléchirons sur le passage du sens temporel, au sens préférentiel puis rectificatif. Nous évoquerons ensuite d'autres changements liés à cette grammaticalisation. Nous nous inspirerons, dans cette étude, des travaux théoriques sur la grammaticalisation, en particulier ceux de Marchello-Nizia (2006) et de Traugott et Heine (1991). Notre recherche s'appuie sur un corpus allant de l'ancien français jusqu'au français moderne. Ce corpus est puisé dans trois bases de données différentes : la BFM pour la période de l'ancien français, le DMF pour le moyen français et Frantext à partir du XVI e siècle. En plus de ce corpus numérisé, nous empruntons parfois des exemples donnés par d'autres linguistes. Plutôt est en français moderne un adverbe comparatif de degré qui peut exprimer, entre autres, la préférence et la rectification énonciative. Historiquement, il est issu de la soudure de l'ancienne formation plus tost. Plus est un comparatif superlatif d'origine latine. Quant à tôt, il provient du latin populaire tostum, participe passé du verbe torrere qui signifie « griller ». En AF, tost qui est employé en parallèle avec le verbe toster, marque la rapidité, idée provenant d'une métaphore de chaleur, comparable à celle qu'on utilise en FM avec les verbes griller ou brûler : « griller ou brûler une étape ». Dès 1050, l'adverbe tost commence à être modifié par le superlatif plus pour signifier « plus vite » ou pour se mettre au superlatif absolu, au sens de « le/au plus vite » comme le montrent les exemples suivants : L'examen de notre corpus montre bien que cette structure est rare avant le XII e siècle. A partir du XII e siècle, selon notre corpus aussi, cette formation devient de plus en plus fréquente. Elle s'apparente plus à une locution subordonnante de comparaison. Dans ce genre de structure, le verbe est généralement employé dans la subordonnée, mais il arrive rarement qu'il soit elliptique : Cette formation signifie « plus vite que ». Elle apparaît souvent dans un contexte que nous pouvons qualifier de figé. En effet, elle est très fréquemment associée à des verbes de mouvement dans le contexte gauche, quand l'ordre n'est pas différent de l'ordre moderne, tels que : aller, venir, retourner, chevaucher, courir, approcher, fuir, etc. Dans le contexte droit, on trouve très souvent le verbe pouvoir : Cette configuration, dans laquelle plus tost que fonctionne comme comparatif temporel, est très fréquente jusqu'au XV e siècle. Par ailleurs, plus tost se rencontre moins fréquemment, en ancien français, selon notre corpus, que la structure plus tost que. Dans ce cas, la structure paraît fonctionner en tant que composé adverbial. Ce composé apparaît dans un contexte linguistique différent et avec un sens différent même s'il a toujours une valeur temporelle. Il n'est plus question de comparaison temporelle mais d'un rapport d'antériorité entre deux faits, il a donc une valeur de datation d'un procès par rapport à un autre : Ces deux valeurs temporelles à savoir la comparaison temporelle et l'antériorité sont assurées en français moderne par la locution adverbiale de forme disjointe plus tôt. La traduction se fait par « le plus tôt possible » pour l'exemple (6) et par « elle ne pouvait m'avoir plus tôt/avant » pour l'exemple (7). A partir de la fin du XII e siècle, plus tost commence à apparaître dans une structure syntaxique différente de celles que nous avons évoquées. Les deux éléments à savoir plus tost et que ne fonctionnent plus comme locution subordonnante mais plutôt comme système corrélatif. Plus tost porte sur un premier élément et que porte sur un deuxième élément, comme le montrent les exemples 8, 9 et 10. C'est probablement la liberté de position en AF, qui a permis de considérer que, dans certains emplois, comme élément corrélatif de plus tost et non comme élément faisant partie d'une composition. Cette formation aurait donc été réanalysée comme structure corrélative comportant deux éléments à savoir plus tost et que et non trois éléments plus, tost et que. Par conséquent, la nouvelle syntaxe de plus tost va lui permettre de figurer dans des contextes jusque -là impossibles. La locution n'introduit pas une proposition avec un verbe conjugué mais elle est employée devant un participe passé, un nom ou un infinitif. Dans ce cas, le verbe est généralement omis, comme l'illustrent les exemples 8, 9 et 10. Ce changement syntaxique et contextuel s'est accompagné d'un changement sémantique. Plus tost n'a pas un sens temporel, dans ce genre de configuration, mais il exprime un choix préférentiel, ou tout simplement une comparaison de degré. Dans certains énoncés, le verbe conjugué est repris dans le contexte droit. Il s'agirait donc d'une réanalyse syntaxique qui aurait autorisé une réinterprétation sémantique, et le sens passe d'une comparaison temporelle à une comparaison de degré ou de préférence, selon la position de l'énonciateur par rapport à son énoncé. Plus tost porte toujours sur le terme évalué positivement par rapport à l'autre, que ce dernier ait un sens comparatif temporel ou préférentiel. Le sens préférentiel proviendrait de la valeur temporelle d'antériorité que plus tost pouvait avoir en ancien français, la combinaison avec un verbe au futur ou un conditionnel pouvait donner une nuance préférentielle au nouveau composé. Cependant, nous pouvons ajouter que l'inférence « le plus rapide est le meilleur » est tout à fait envisageable aussi et permet donc le passage du temporel au préférentiel. Au XIII e siècle, ce sens va rester minoritaire par rapport au sens temporel, assuré surtout par la structure subordonnante plus tost que. C'est au XIV e siècle que l'emploi de la structure corrélative plus tost…que va se propager. Ainsi, dans l' œuvre de Daudin (1360) De La Erudition, avons -nous dénombré 16 occurrences de cette structure corrélative sur un total de 19 occurrences (graphie conjointe). Jusque là, nous n'avons pas encore parlé de l'adverbe de sens préférentiel. Employé dans une structure corrélative et portant sur un terme de la comparaison, plutôt va être considéré ou réinterprété comme adverbe exprimant la préférence. Il commence, petit à petit, dès la deuxième moitié du XIII e siècle, à être employé en tant que tel, en particulier après mais : Dans ce type d'emploi, plus tost peut bénéficier d'une double interprétation. Il peut être traduit par « mais très vite » ou par « mais plutôt » au sens rectificatif moderne. Cette ambiguïté ou cette superposition de valeurs favorise le changement. Avec cette nouvelle acception qui devient univoque au XIV e siècle, comme le montre l'exemple (14), plustost n'est plus uniquement un adverbe de constituant exprimant l'antériorité ou un outil grammatical permettant l'enchâssement d'une proposition, mais il devient un mot du discours, étant donné qu'il met en relation d'opposition deux énoncés. Sémantiquement, il passe de la temporalité à la réfutation. Cette dernière relève obligatoirement du domaine de l'interactivité. Sur le plan fonctionnel, il articule deux énoncés et devient par conséquent un adverbe relationnel ou connecteur, il sert à rectifier un premier argument positif inhérent à la proposition négative qui précède. A partir du XV e siècle, outre sa combinaison avec mais, plustost commence à suivre ains, l'ancien coordonnant, pour exprimer la même valeur réfutative. La réfutation porte toujours sur la proposition positive inhérente à la proposition négative qui précède obligatoirement ains et mais réfutatif. Par ailleurs, l'adverbe va même pouvoir être associé au coordonnant ou pour exprimer une rectification énonciative. La rectification porte sur l'énonciation d'un mot ou d'une expression dont la pertinence est mise en cause. C'est dans ce type de contexte, c'est-à-dire lorsqu'il est employé avec l'un des trois coordonnants évoqués que l'adverbe plutôt, sans qu'il soit en corrélation avec que, commence à exprimer la réfutation après une proposition négative et la rectification énonciative ou ce qu'on peut appeler la correction métalinguistique. Au XVI e siècle, en particulier à partir de la deuxième moitié, l'adverbe apparaît pour la première fois, dans notre corpus, sans être accompagné de l'un des trois coordonnants afin de véhiculer la même rectification énonciative évoquée plus haut. La continuité entre le sens comparatif-préférentiel et le sens rectificatif est évidente. Ce sont même deux facettes d'un même phénomène. Le passage du premier sens au second se fait selon la place des deux éléments de la comparaison. Voyons cela à partir de l'exemple (19) Dans cet énoncé, plutôt peut être interprété comme adverbe comparatif de degré. En effet, plutôt peut être glosé par plus : « ceci me paraît tenir plus de la tératologie que de la danse ». Mais, à notre avis, plutôt marque l'énoncé de plus de subjectivité que l'adverbe plus qui demeure plutôt neutre. Pour ce qui est du passage du sens comparatif ou préférentiel au sens rectificatif, il est avant tout affaire de position des éléments comparés. Si nous plaçons le deuxième élément évalué négativement, c'est-à-dire la danse avant celui sur lequel plutôt porte, la téralogie, le sens comparatif ou préférentiel disparaît au profit du sens rectificatif et ce en particulier dans le dialogue ou bien avec une négation polémique dans le monologue. Ceci montre qu'avec la rectification, on est dans le domaine de l'énonciation et de l'interactivité. Avec la rectification, le choix préférentiel est toujours présent, mais il s'agit d'un choix préférentiel d'un terme ou d'une affirmation plutôt que d'une autre : « Je préfère dire que cela tient de la tératologie que de dire que cela tient de la danse. » La formation plus tost était uniquement temporelle au début de son emploi, avant de subir une bifurcation sémantique. Cette dernière va donner lieu à deux formes différentes : l'une est disjointe pour le sens temporel, et l'autre est conjointe pour le sens préférentiel et rectificatif. Cette dernière forme apparaît dès le XIV e siècle, dans le corpus du DMF. A partir de la fin du XV e siècle, dans le corpus du DMF, plustost perd le ‘ s ' de plus. Quant à l'accent circonflexe, il commence à remplacer le ‘ s ' implosif de tost à partir de la première moitié du XVI e siècle, selon le corpus de Frantext. Cependant, il faudrait attendre le XVIII e siècle pour que la distinction sémantique soit presque systématiquement corrélée à la distinction morphologique. Ainsi, avons nous essayé de retracer l'évolution de plutôt, afin de voir comment l'adverbe moderne est parvenu à acquérir une valeur préférentielle d'abord puis rectificative à partir d'un contexte bien particulier dans lequel il a commencé à apparaître. Le parcours de plutôt montre une évolution vers plus de subjectivité. En effet, la comparaison temporelle suppose une évaluation objective des deux éléments de la comparaison. Quant au choix préférentiel, il est en rapport avec une évaluation faite par le locuteur. La rectification, par contre, permet au locuteur de rejeter une assertion précédente ou d'exprimer sa préférence pour une certaine formulation qui s'oppose à une autre qui vient d' être proférée. Dans ces deux derniers emplois, l'énoncé devient empreint de subjectivité, étant donné que l'énonciateur exprime une préférence dans une comparaison ou dans une énonciation. Dans cette partie, nous allons mettre l'accent sur la valeur rectificative de plutôt. Nous nous sommes demandé pourquoi le système grammatical développe un nouvel élément pour exprimer la rectification, alors que cette valeur était essentiellement assumée en ancien français par la conjonction de coordination mais et secondairement par ains. Nous tenterons dans ce qui suit de répondre à cette interrogation. En ancien français et jusqu'au XVI e siècle, les coordonnants mais réfutatif ou ce qu'on appelle mais2 et ains, ainsi que sa variante ainçois, avaient, entre autres, un emploi rectificatif aussi bien dialogal que monologal. Dans le dialogue, la rectification introduite par mais / ains se greffe rarement sur une assertion. La rectification porte ici sur un terme employé par le locuteur 1, à savoir acoardiz, corrigé par hardiz, de la part du locuteur 2. De plus, les deux coordonnants sont souvent employés dans des « réponses rectificatives » après une interrogation : Ce sens rectificatif de mais et de ains dérive de leur sens réfutatif. La proposition à rectifier est présente sous forme d'une interrogation totale qui appelle une réponse positive ou négative. Le locuteur 2 réfute donc la réponse positive ou l'assertion sous-jacente à l'interrogation. C'est certainement cet emploi rectificatif dialogal qui a donné lieu à l'emploi rectificatif monologal. Le terme introduit par mais / ains appartient, dans ce cas, au même champ notionnel que le premier, mais il est situé à un niveau plus élevé sur une échelle graduelle, d'où l'effet de renchérissement. Par ailleurs, la rectification énonciative qui a parfois un effet de renchérissement devient très courante au XVI e siècle. Au XVI e siècle, mais / ains sont souvent appuyés par plutôt dans cet emploi rectificatif monologal ou dialogal. • Dans le dialogue - après assertion - après une interrogation Plus rarement avec mais • Dans le monologue, la rectification porte souvent sur la proposition qui précède ou sur un terme qui paraît après coup peu pertinent Au XVII e siècle, au moment où ains provoque de vifs débats entre proscripteurs et prescripteurs, plutôt commence à figurer seul pour assurer, dans le dialogue, cet emploi rectificatif, comme le montrent les exemples de 33 à 35. Quant à mais2, il a perdu son emploi rectificatif dialogal. En effet, en français moderne ce type de mais ne peut figurer que dans le cadre d'une énonciation unique, comme le soulignent Anscombre et Ducrot (1977 : 25). Après une assertion : L'expression veut essuyer vos larmes est corrigée par sacrifiez ma vie, qui est plus pertinente selon Isabelle. Dans le monologue, après une interrogation parfois rhétorique : Dans ce cas, la rectification porte souvent sur un terme précédent : Notons, par ailleurs, que mais2 seul n'a plus l'aptitude à rendre cette valeur de rectification métalinguistique. C'est uniquement lorsqu'il est combiné à plutôt qu'il peut prendre cette valeur. Dans ce cas, plutôt est obligatoire alors que mais peut être effacé sans pour autant altérer le sens de la phrase. Cette rectification est souvent assurée, depuis le XVI e siècle, par la séquence ou plutôt, devenue très fréquente, et qui permet le renchérissement, puisque le terme qu'elle introduit est souvent plus fort ou tout simplement plus adéquat : En plus de ces emplois de l'adverbe qui a remplacé les deux conjonctions dans leur emploi rectificatif, la locution conjonctive plutôt que a supplanté l'ancienne locution conjonctive ains que, qui en avait la même signification. Plutôt est passé du sens temporel au sens préférentiel puis rectificatif. Une évolution sémantique qui semble répondre aux schémas récurrents de la grammaticalisation : temps → choix préférentiel → opposition. Il n'est plus un adverbe de constituant ni de phrase, il est devenu un adverbe relationnel en termes traditionnels ou connecteur en termes plus modernes, il a donc un statut plus grammatical puisqu'il est plus proche dans son emploi rectificatif des coordonnants que des adverbes de phrases. Par ailleurs, passant d'une forme disjointe à une forme conjointe, le sens de ses éléments n'est plus compositionnel comme c'est le cas pour la locution adverbiale plus tôt, mais il est question d'un sens synthétique non-compositionnel et plus abstrait. En outre, cette grammaticalisation est à voir comme un changement lié à d'autres phénomènes considérés généralement comme isolés. Il s'agit de la disparition de l'ancienne conjonction de coordination ains et la spécialisation du coordonnant mais2 dans son emploi réfutatif monologal. Ces changements vont permettre une plus grande hiérarchisation des parties du discours en offrant l'opposition conjonction/adverbe, lorsque l'adverbe forme une séquence avec l'une des deux conjonctions mais et ou. Cette combinaison était impossible entre les deux conjonctions. Enfin, ces changements étudiés prouvent encore une fois que le système grammatical tend naturellement à la simplification en mettant en œuvre le principe d'iconicité avec l'élection de termes spécialisés comme plutôt au dépens des termes polyvalents comme ains . | Cet article présente une étude de l'évolution de l'adverbe plutôt. Il propose une réflexion sur le passage du sens temporel, attesté dès le XIIe siècle et même avant, au sens préférentiel puis rectificatif employés bien plus tard. Ces nouveaux signifiés apparaissent dans des contextes linguistiques qui permettent une nouvelle interprétation de la structure plus tost. Par ailleurs, ce cas de grammaticalisation est présenté comme étant en rapport avec d'autres changements qui se produisent en parallèle dans le micro-système des expressions adversatives. Ces changements ont aussi un impact sur le système grammatical. | linguistique_12-0043027_tei_627.xml |
termith-721-linguistique | Né de la rencontre de deux études consacrées à par contre, cet article vise à apporter une contribution aux recherches sur le fonctionnement discursif de cette locution. Après une présentation succincte de son traitement traditionnel, on examinera un certain nombre d'exemples considérés comme représentatifs des différents emplois de par contre, et on en proposera une description unifiée dans le cadre de la « théorie de l'argumentation dans la langue » développée par Ducrot et Anscombre. On tentera enfin d'expliquer la relation que par contre entretient, en français contemporain, avec en revanche. On sait que la locution par contre a longtemps été condamnée, et qu'elle l'a été en tant que combinaison de la préposition « par » avec la préposition « contre ». Voici, par exemple, la description qu'en donne Littré dans son édition de 1873 : (1) Par contre est une locution dont plusieurs se servent, pour dire en compensation, en revanche : Si les artisans sont ordinairement pauvres, par contre ils se portent bien; Si le vin est cher cette année, par contre il est bon. Cette locution, qui a été tout particulièrement critiquée par Voltaire et qui paraît provenir du langage commercial, peut se justifier grammaticalement, puisque la langue française admet, en certains cas, de doubles prépositions [… ], mais elle ne se justifie guère logiquement, par contre signifiant bien plutôt contrairement, en compensation et devant provenir de quelque ellipse commerciale (par contre ayant été dit pour par contre-envoi); en tout cas, il convient de suivre l'avis de Voltaire et de ne transporter cette locution hors du langage commercial dans aucun style. A la même époque, Larousse (1876) en propose une description différente – en se plaçant du coup dans une tout autre perspective. S'y conjuguent deux considérations qui témoignent d'une attitude résolument « moderne », à savoir : – l'attention accordée à l ' usage répandu de par contre, à l'opposé d'une approche normative, – l'analyse linguistique de par contre comme combinaison non pas de deux prépositions, mais de la préposition « par » avec un nom. C'est d'ailleurs dans la partie « substantif » – et non dans la partie « préposition » – de l'entrée « contre » que l'on trouve l'extrait reproduit ci-dessous : (2) par contre, loc. adv. : en revanche, par compensation. Si plusieurs essais de Buffon sont heureux, quelques autres, par contre, ne le sont pas. // Cette locution, généralement condamnée par les grammairiens, est universellement usitée. Il n'est d'ailleurs pas impossible de la justifier, en admettant que contre y est pris substantivement, ce que prouve surabondamment la présence de la préposition par. Ces deux traitements radicalement opposés nous semblent représentatifs des deux attitudes à l'égard de par contre; si dans des ouvrages plus récents la prise en compte de l'usage prévaut – globalement – sur sa condamnation, il subsiste encore des traces du traitement que lui ont si longtemps réservé les puristes. C'est ce que permet de constater, par exemple, l'examen de l'entrée correspondante du dictionnaire de l'Académie (édition de 1988); bannie des éditions précédentes, la locution y est accompagnée du commentaire reproduit ci-dessous : (3) par contre : en revanche, d'un autre côté, en contrepartie, en compensation, à l'inverse. Condamnée par Littré, d'après une remarque de Voltaire, la locution adverbiale par contre a été utilisée par d'excellents auteurs français, de Stendhal à Montherlant, en passant par Anatole France, Henri de Régnier, André Gide, Marcel Proust, […] Paul Morand, Antoine de Saint-Exupéry, etc. Elle ne peut donc être considérée comme fautive, mais l'usage s'est établi de la déconseiller chaque fois que l'emploi d'un autre adverbe est possible. Les deux traitements présentent par ailleurs un point commun : sur le plan des synonymes indiqués, en compensation, par compensation et en revanche sont systématiquement suggérés tant dans les ouvrages déjà cités – cf. exemples (1) à (3) – que dans le Dictionnaire du Français Contemporain (1980), Le Robert Méthodique (1989), Le Petit Robert (1996), etc. Avant de revenir, dans la section 3 de cette étude, sur la relation entre par contre et en revanche, arrêtons -nous un instant sur l'idée même de « compensation »; si elle est à coup sûr présente dans « par contre-envoi » signalé par Littré, ou encore dans : (4) Le magasin est assez exigu, par contre il est bien situé. (Le Robert Méthodique, 1989) elle ne l'est certainement pas, par exemple, dans : (5) C'est un garçon charmant; par contre, son frère a un caractère détestable. (Dictionnaire du Français Contemporain, 1980) C'est, précisément, la fréquence de ces deux types d'emplois de par contre – illustrés par (4) et (5) ci-dessus – qui nous conduit à en proposer une approche différente, visant à circonscrire l'invariant commun à l'ensemble de ses occurrences. Notre démarche s'inscrit dans le cadre de la « théorie de l'argumentation dans la langue ». On le voit, si l'élément qu'introduit par contre apparaît comme « compensant » ce qui précède dans certains exemples, il en est d'autres qui n'admettent pas cette interprétation – d'où l'impossibilité de fonder la description de par contre sur l'idée de « compensation ». Sur le plan du principe, il s'agit d'un phénomène comparable à celui que met en évidence Ducrot (1972, p. 129) à propos de la conjonction mais : en effet, à côté de « Il est républicain, mais honnête », on a « Il faisait beau, mais j'étais fatigué », et s'il est possible d'avancer que le locuteur du premier exemple exprime « l'incompatibilité » entre « être républicain » et « être honnête », il n'en va certainement pas de même pour la relation entre « il faisait beau » et « j'étais fatigué ». Ce qui conduit à caractériser mais « non pas par le contenu de ce qui l'entoure [… ], mais par la nature des rapports ou des enchaînements qu'il introduit » (Ducrot et al., 1976/1980, p. 96). L'exemple de la conjonction mais nous servira ici à illustrer l'application des principes de la « théorie de l'argumentation dans la langue ». Mais fait partie des connecteurs, « mots dont le rôle habituel est d'établir un lien entre deux entités sémantiques. […] [L] es connecteurs de la langue concernent non point des segments matériels du texte, mais des entités sémantiques qui peuvent n'avoir qu'un rapport très indirect avec de tels segments. » (Ducrot, 1980, p. 15). Pour illustrer la distinction ainsi opérée entre « segments matériels du texte » et « entités sémantiques », considérons l'exemple suivant : (6) Ce vin est cher, mais il est bon. Dans le cadre de la « théorie de l'argumentation dans la langue », les segments de discours reliés par mais sont considérés comme deux arguments favorisant chacun un type de conclusions (explicites ou implicites). Ces deux classes de conclusions constituent les entités sémantiques que le locuteur de « A, mais B » représente comme contraires. Ainsi, le fonctionnement discursif de mais dans (6) sera schématisé comme suit : « A » – soit « Ce vin est cher » – est représenté comme un argument pour une conclusion du type « C » – par exemple : « Je n'en bois pas souvent », « Je ne vais pas en racheter », etc., et « B » – soit « il est bon » – constitue alors un argument en faveur de la conclusion opposée « non C », du type : « J'en bois souvent », « Je vais en racheter », etc. En outre, l'examen des enchaînements discursifs admis et exclus montre que « A mais B » est globalement orienté vers les conclusions favorisées par « B », c'est-à-dire le second argument : (7) Ce vin est cher, mais il est bon. Je vais donc en racheter. Ce vin est cher, mais il est bon. *Je ne vais donc pas en racheter. (8) Ce vin est bon, mais il est cher. Je ne vais donc pas en racheter. Ce vin est bon, mais il est cher. *Je vais donc en racheter. En d'autres termes, l'emploi de mais a pour conséquence l'incongruité de certains enchaînements, en même temps qu'il en privilégie d'autres – ce qui revient à dire qu'il oriente le discours; nous dirons qu'il reflète la dynamique discursive adoptée par le locuteur. Prenons maintenant un autre exemple d'analyse fondée sur ce principe. On constate, à propos de la conjonction or, qu'elle peut relier tant des segments entre lesquels on perçoit intuitivement une relation d'opposition, comme dans : (9) Tu m'as dit que tu serais à la bibliothèque, or tu n'y étais pas. (Dictionnaire Hachette-Oxford, 1994) (10) Vous croyez avoir raison, or vous n'avez rien prouvé. (Le Petit Robert, 1996) que des segments entre lesquels une telle relation semble impossible à envisager : (11) Tous les hommes sont mortels, or je suis un homme, donc je suis mortel. (Dictionnaire Hachette-Oxford, 1994) (12) Commentaire d'un ministre de la gauche plurielle à propos des affaires de la Mairie de Paris : « On n'a pas intérêt à ce que Chirac soit mis en cause. Si c'était le cas, nous serions dans une situation à l'américaine. Or, pour réussir notre politique, nous avons besoin de stabilité. » (13) Les musées sont fermés le mardi, or c'était justement un mardi. (Dictionnaire Hachette-Oxford, 1994) phénomène qui a pour corollaire la possibilité de remplacer or par mais dans (9) et (10), mais non dans (11), (12) et (13). Parallèlement à l'impossibilité de faire intervenir la notion d'opposition dans la description de l'invariant de or, on constate – sur le plan de la dynamique discursive – que dans les deux types d'emplois, ce connecteur met un élément en rapport avec ce qui précède à des fins argumentatives, que ce soit pour appuyer une conclusion déjà énoncée ou pour en annoncer une (explicite ou implicite). Là où il commute avec mais, son emploi détermine l'orientation argumentative globale du discours vers la conclusion favorisée par l'élément qu'il introduit; là où son remplacement par mais n'est pas possible, il introduit un complément indispensable du raisonnement, la conclusion visée étant appuyée par la mise en relation du segment qui suit or avec celui qui le précède. Que ce second segment soit ou non perçu par ailleurs comme opposé au premier, l'emploi de or a invariablement pour effet de représenter l'argument introduit comme décisif pour la dynamique discursive adoptée par le locuteur. C'est dans cette perspective que nous nous proposons d'examiner le fonctionnement discursif de par contre; il s'agira de déterminer – indépendamment de la nature des segments de discours que relie ce connecteur – quel type de dynamique met invariablement en place son emploi. Nous adoptons ici la notation schématique « A, par contre B », étant bien entendu qu'en discours, la configuration étudiée peut se manifester matériellement de diverses façons : (14) Le vin blanc est bon; par contre, le vin rouge pique un peu. (15) J'ai acheté le bouquin; il n'y a rien sur l'exclamation, par contre. (16) Il n'a pas eu son permis; il a, par contre, rencontré l'amour de sa vie. (17) Par contre, la Volvic, il va falloir la sortir ! Nous considérons que l'emploi de par contre a pour effet de mettre en relation un segment de discours « B » (respectivement, « le vin rouge pique un peu », « il n'y a rien sur l'exclamation », « il a rencontré l'amour de sa vie ») avec un segment de discours « A » (« Le vin blanc est bon », « J'ai acheté le bouquin », « Il n'a pas eu son permis »). L'exemple (17) illustre le cas où le segment « B » – « la Volvic, il va falloir la sortir ! » – est mis en relation avec une entité sémantique qui ne correspond pas à un segment « A » explicite; cet énoncé, produit par une caissière de supermarché qui s'adresse à un client ayant mis sur le tapis roulant tous ses achats à l'exception d'un pack de six bouteilles de Volvic, resté dans le caddie, s'oppose en fait à une entité sémantique paraphrasable par « il n'est pas nécessaire de sortir du caddie les packs de Cristaline », autre marque d'eau minérale qui jouit dans cette chaîne de magasins d'un statut particulier. Pour tenter de circonscrire la nature exacte de la relation qu'instaure entre « A » et « B » l'emploi de par contre, nous avons écarté les exemples – assez fréquents – où il se combine avec mais, par souci de ne pas confondre les effets de sens produits respectivement par l'un et par l'autre; pour les mêmes raisons, nous n'avons pas non plus retenu les combinaisons de par contre avec si dit « adversatif », « concessif » ou encore « contrastif » – comme celles illustrées par (1), extrait de Littré (1873) et par (2), tiré de Larousse (1876). L'examen d'un corpus d'énoncés attestés – écrits et oraux – nous conduit à avancer que l'emploi de « A, par contre B » a invariablement pour effet d ' opposer, avec plus ou moins de force, « B » à « A », de telle sorte que les conclusions favorisées par « A » se trouvent, à un extrême, équilibrées par celles que privilégie « B », et à l'autre, restreintes du fait de « B ». Ainsi, le premier cas est illustré par (4) : (4) Le magasin est assez exigu, par contre il est bien situé. Ce que le locuteur de (4) dit sur l'endroit où se situe le magasin est de nature à favoriser un type déterminé de conclusions, telles que : « le prix est justifié », « je vous en recommande l'acquisition », etc., et rétablit ainsi l'équilibre par rapport à celles que l'on pourrait tirer de l'assertion relative à l'exiguïté des lieux. Rien de tel dans (18), extrait d'un article consacré à la création d'emplois observée dans le Val d'Oise en 1999 : (18) En 1999, les emplois salariés privés ont progressé de 6,4 % (+ 14578 emplois) : la meilleure performance des départements français, devant les Yvelines, la Vendée et l'Ille-et-Vilaine. […] Cergy-Pontoise et l'Est valdoisien sont en tête. Plus de la moitié des nouveaux emplois a été créée à Cergy-Pontoise (7 421), et plus du tiers dans l'Est du département, (4 955). La Plaine de France (519) et les Rives de Seine (1 227) ont aussi obtenu de bons résultats. Par contre, la Vallée de Montmorency, la Vallée de l'Oise et le Vexin n'ont pas enregistré de variation significative du nombre d'emplois salariés en 1999. « Par contre B » a ici pour effet de marquer une restriction quant à la portée de certaines conclusions que l'on pourrait tirer de « A », du type : « des emplois ont été créés partout dans le Val d'Oise » – sans que le discours soit pour autant réorienté globalement vers les conclusions favorisées par « B ». C'est un fonctionnement similaire qui se manifeste dans : (19) Je m'en suis sortie, je vis seule depuis mon divorce. Une « relation suivie » ? non, je ne veux pas revivre un deuxième échec; ça, par contre, je ne pourrais pas supporter. où « par contre B » restreint la portée des conclusions du type « je suis forte », favorisées par « je m'en suis sortie, je vis seule depuis mon divorce »; l'effet de sens produit est paraphrasable par « je ne suis pas si forte que cela, pas au point de… ». De même, dans : (20) Un avocat vous sera commis d'office. Par contre, vous ne pourrez vous entretenir avec lui qu' à partir de la vingtième heure. une nuance est apportée à la bonne nouvelle communiquée à la personne placée en garde à vue; là encore, l'orientation argumentative globale n'est pas inversée pour autant. Nous avons vu, dans la section 1, que l'emploi de « par contre B » n'induit pas nécessairement une idée de « compensation » de « A » par « B »; les exemples (18) à (20) confirment cette constatation. Pour caractériser la relation qui s'établit invariablement entre « B » et « A » dans « A, par contre B », il est, nous semble -t-il, préférable de parler de « contrepartie » – au sens où ce terme est défini dans Le Petit Robert (1996) : « chose qui s'oppose à une autre en la complétant ou en l'équilibrant ». Ce terme nous semble particulièrement adéquat pour décrire le rôle que le segment « B » joue par rapport au segment « A » dans la dynamique discursive mise en place du fait de l'emploi de « par contre B ». Considérer que « B » constitue une contrepartie – discursive – de « A » permet de rendre compte tant des cas où « par contre B » ne fait que restreindre la portée de « A », que de ceux où « par contre B » établit l'équilibre entre les deux termes de la relation ainsi instaurée, en les mettant à égalité. Dans ce dernier type de configurations, on a souvent une conclusion explicite qui s'appuie exclusivement sur l'existence d'une telle contrepartie, sans que « A » ou « B » apparaissent comme « privilégiés » : (21) Cet inventaire des diverses possibilités explique que l'on trouve tant de différences entre les peuples : ainsi, en Polynésie, il n'existe pas en général de rites de puberté, l'enfant devient progressivement adolescent, ce n'est que par le mariage qu'il passe à l'état adulte et ce sont ici les cérémonies du mariage qui sont prépondérantes; par contre, en Mélanésie, c'est le passage de l'enfance à l'adolescence qui est abrupt, et les rites de mariage n'ont plus la même importance. (ex. emprunté à Wiederspiel et Masseron, 2001) Ce qui étaye, ici, l'assertion relative aux « différences entre les peuples », c'est précisément la mise en relation de l'exemple de la Polynésie avec sa contrepartie, celui de la Mélanésie. La représentation de « B » comme une contrepartie discursive de « A » constitue, dans notre approche, l'invariant commun à l'ensemble des emplois de « A, par contre B ». A cet invariant, défini comme un type particulier de dynamique discursive adoptée par le locuteur, peuvent s'ajouter d'éventuels effets de sens secondaires, en fonction de la nature des segments « A » et « B ». Nous nous proposons d'examiner, dans cette section, le fonctionnement discursif de en revanche et de le comparer à celui de par contre. Nous adoptons, là encore, la notation schématique « A, en revanche B » qui inclut par convention les différents cas qui se présentent en discours sur le plan de la distribution : (22) La moisson a été médiocre, en revanche la récolte des fruits a été excellente. (Dictionnaire du Français Contemporain, 1980) (23) C'est le plus jeune joueur de l'équipe… et très doué, en revanche ! (24) Le manque de « lisibilité » des tarifs, dont la diversité, conséquence de la concurrence, entretient une opacité parfois calculée, est un vrai « sujet de préoccupation ». La bataille de la transparence ne fait que commencer. La surfacturation des appels entrants, les plus juteux puisqu'ils représentent le tiers des recettes des opérateurs et déterminent la rentabilité de leur investissement, est en revanche en voie d' être résorbée. L'observation d'un corpus nous conduit à constater des similitudes entre par contre et en revanche non seulement pour ce qui est de leur distribution, mais également en ce qui concerne le type de dynamique discursive mise en place du fait de leur emploi. Ainsi, dans (22), les résultats de la récolte des fruits sont représentés comme une contrepartie de la médiocrité de la moisson; le locuteur de (23) exprime une relation discursive du même type entre les talents du joueur et son jeune âge; enfin, l'exemple (24) – extrait d'un article sur la téléphonie mobile – illustre une dynamique discursive comparable, l'assertion relative à la baisse du coût des appels entrants étant mise en rapport avec ce qui est dit sur l'opacité des tarifs. Doit-on en conclure que en revanche fonctionne comme une « variante soutenue » de par contre, susceptible de lui être substituée dans n'importe quel emploi ? Pour tenter de répondre à cette question, rappelons tout d'abord quelques critiques formulées à l'égard de l'approche de type normatif – évoquée dans la section 1 – qui consiste à préconiser l'usage systématique de en revanche au lieu de par contre. Grevisse (1964, p. 994) dit notamment : Il ne faudrait pas croire que en compensation ou en revanche puissent, dans tous les cas, suffire pour exprimer l'idée qu'on rendrait au moyen de par contre : en compensation et en revanche ajoutent à l'idée d'opposition une idée particulière d'équilibre heureusement rétabli; par contre exprime, d'une façon toute générale, la simple opposition et a le sens nu de « mais d'autre part », « mais d'un autre côté ». — Gide le fait très justement remarquer : « Trouveriez -vous décent qu'une femme vous dise : « Oui, mon frère et mon mari sont revenus saufs de la guerre; en revanche j'y ai perdu mes deux fils » ? ou : « La moisson n'a pas été mauvaise, mais en compensation toutes les pommes de terre ont pourri » ? Une position similaire est exprimée dans Le Robert analogique et alphabétique (1981) : par contre est condamné par certains puristes; cependant il n'est pas toujours remplaçable. Il introduit un avantage ou un inconvénient. en compensation et en revanche n'introduisent qu'un avantage. Si on peut les employer dans la phrase « S'il n'a pas de cœur, par contre il est intelligent », il est impossible de les substituer à par contre dans celle -ci : « S'il est intelligent, par contre il n'a pas de cœur ». Les notions d ' avantage et d ' inconvénient – tout comme l'idée d'équilibre « heureusement rétabli » – étant de nature subjective, l'intégration de ce principe dans une description de en revanche issue de la « théorie de l'argumentation dans la langue » consisterait à dire que l'emploi de « A, en revanche B » revient, entre autres, à représenter « B » comme un avantage pour le locuteur; c'est cette contrainte qui expliquerait alors l'impossibilité de substituer en revanche à par contre dans des énoncés du type « Mon frère et mon mari sont revenus saufs de la guerre; par contre, j'y ai perdu mes deux fils ». Or, si (22), (23) et (24) illustrent bien ce principe, on constate cependant que de nombreux exemples mettent en difficulté une telle conception de en revanche. Ainsi, l'emploi de « en revanche B » n'a pas pour effet de représenter « B » comme quelque chose de positif pour le locuteur dans : (25) Les enquêtes d'opinion effectuées ces dernières années sur le thème de la construction européenne font régulièrement apparaître un partage « deux tiers / un tiers » entre partisans et adversaires de l'Europe. On observe, dans cette enquête, une permanence de ce rapport de force. Ainsi, 68 % des Français considèrent que l'Union Européenne est plutôt une bonne chose pour leur pays, contre 23 % qui expriment un avis contraire. En revanche, ils sont un peu moins nombreux à penser que l'Europe est une bonne chose pour les gens comme eux (64 % contre 23 %). (26) Au-delà de cette volonté de progression générale du rythme de la construction européenne, les Français souhaitent la mise en place de structures communes à l'ensemble des Européens dans de nombreux domaines à l'exception du domaine politique. Ils plébiscitent avant tout la mise en œuvre d'une Europe de « la sécurité » (défense, justice, police) et de l'Europe monétaire. 74 % souhaitent l'existence d'un seul système de défense européen. Même les « anti-européens » s'y montrent favorables. Il convient de noter qu ' en revanche seulement 58 % des interviewés se prononcent pour une politique étrangère commune. « B » est représenté comme une contrepartie discursive de « A »; on a ici le même type de dynamique que dans (18) ou (19) avec par contre. C'est ce que l'on voit également dans : (27) On vient d'apprendre que le procureur général a requis 5 ans de prison et 2 MF d'amende contre Sirven et Le Floch-Prigent. On ne connaît pas encore, en revanche, le réquisitoire à l'encontre de Roland Dumas et de Christine Deviers-Joncour. Ce commentaire donné à la fin du Journal télévisé de France 2 illustre, nous semble -t-il, lui aussi un fonctionnement discursif similaire à celui de par contre : sans que les segments « A » et « B » soient ici représentés comme positifs – ou négatifs – pour le locuteur, l'emploi de « en revanche B » a pour effet de restreindre la portée des conclusions que l'on pourrait tirer de l'annonce des peines requises contre Sirven et Le Floch Prigent. Enfin, le même type de phénomène se manifeste dans : (28) Aujourd'hui, l'Afghanistan ne cultive plus le pavot; la pression internationale s'est révélée efficace. En revanche, elle n'a pu empêcher la destruction des statues de Bouddha par les talibans. où il serait pour le moins incongru de considérer que « B » représente un avantage pour le locuteur – en l'occurrence, un journaliste français qui termine ainsi son reportage sur l'Afghanistan. Là encore, l'emploi de « en revanche B » reflète une dynamique discursive consistant à représenter « B » comme une contrepartie de « A ». Pour tenter d'expliquer cette similitude de fonctionnement discursif que l'on observe entre en revanche et par contre, nous voudrions avancer une hypothèse d'ordre sociolinguistique. Partons du constat qu'il y a variation : les sujets parlants adoptent, grosso modo, deux types d'attitudes qui nous semblent correspondre aux deux approches de par contre évoquées dans la section 1. A côté de locuteurs pour qui rien ne s'oppose à l'usage de cette locution, et qui n'éprouveraient donc aucune gêne à l'employer, par exemple, dans (22) à (28), on a ceux qui – marqués plus ou moins consciemment par sa condamnation – lui préfèrent en revanche qu'ils considèrent comme sa « variante soutenue ». L'hypothèse que nous faisons est que ce second groupe a globalement tendance à utiliser en revanche plutôt que par contre non seulement à l'écrit, mais également à l'oral – surtout lorsqu'ils se trouvent sur un plateau de télévision… Un dernier exemple illustrera notre propos. L'animateur d'une émission hebdomadaire interroge des touristes français ayant expérimenté une formule de séjour dans un club de vacances à l'étranger; après avoir recueilli une série de témoignages positifs, il s'adresse à la dernière personne du groupe : (29) – Et vous ? – Moi, je regrette de ne pas m' être plus amusée, en revanche. La généralisation de l'usage de « A, en revanche B » est à ce prix : les locuteurs concernés l'emploient même là où il est clair que « B » ne représente pas pour eux un « avantage ». En outre, il nous semble raisonnable d'avancer que l'attitude des puristes à l'égard de par contre, évoquée au début de cette étude, continue de marquer des générations entières de locuteurs, notamment par le biais de la scolarisation; les professeurs de français qui vont jusqu' à interdire à leurs élèves l'emploi de cette expression sont, aujourd'hui encore, sans doute plus nombreux qu'on ne pense – ce qui expliquerait la fréquence, chez beaucoup de sujets parlants, d'une sorte de réflexe d'hypercorrection les conduisant à considérer en revanche comme une variante « soignée » de par contre, qui relèverait, lui, d'un registre « familier » voire « relâché » et serait donc « à éviter ». Le fonctionnement discursif de en revanche décrit ici apparaît, dans cette perspective, comme le résultat naturel de l'attitude – consciente ou non – d'un grand nombre de sujets parlants à l'égard de par contre. S'appuyant sur l'observation d'un corpus d'énoncés attestés, notre démarche consiste à proposer la caractérisation la plus « globale » possible des termes étudiés et à circonscrire, pour chacun d'eux, l'invariant commun à l'ensemble de ses emplois. On connaît les nombreuses contributions de la « théorie de l'argumentation dans la langue » à la description des connecteurs; c'est dans cette perspective que nous avons voulu situer notre étude de par contre et de la relation qu'il entretient avec en revanche. Le principe sous-jacent à cette démarche est que leur emploi reflète fondamentalement une dynamique particulière, en mettant des segments de discours dans un type déterminé de relation, et que cette relation n'est autre chose qu'une construction discursive, qu'elle n'existe qu'en discours et par le discours. Dans cette optique, c'est la représentation d'un élément donné comme la contrepartie d'un autre qui constitue – dans notre approche – le point commun à l'ensemble des emplois de par contre. Abordée sous cet angle, la relation entre par contre et en revanche apparaît comme un lieu de variation linguistique; faute d'avoir pu mener une enquête sociolinguistique qui aurait permis de vérifier les hypothèses avancées, nous aurons tenté d'en déterminer les paramètres – en nous fondant, là encore, sur la représentation d'un élément donné non seulement comme contrepartie discursive d'un autre élément, mais aussi comme un « avantage pour le locuteur ». La démarche présentée ici s'inscrit, en effet, dans une conception du discours en tant que représentation, conception qui revient à considérer que l'emploi d'un connecteur a invariablement pour effet de représenter d'une manière spécifique les éléments qu'il relie, et à chercher à rendre compte de l'interprétation des énoncés en accordant une attention particulière à la dynamique discursive qui se met ainsi en place . | L'A. analyse le problème des adverbes d'énonciation (O.Ducrot), c'est-à-dire des expressions qui explicitent une certaine description de celui qui parle. Plus particulièrement, il vise à apporter une contribution aux recherches sur le fonctionnement discursif de la locution par contre. Cette étude s'inscrit dans le cadre de la théorie de l'argumentation de la langue (Anscombre, Ducrot) et consiste en une analyse des différents emplois de par contre, puis de la relation que cette locution entretient en français contemporain avec en revanche. Le point commun aux emplois de par contre est la représentation d'un élément donné comme la contrepartie de l'autre. La relation entre par contre et en revanche apparaît comme un lieu de variaton linguistique. | linguistique_524-03-12689_tei_33.xml |
termith-722-linguistique | Le thème de la médiation proposé pour le 22 e colloque du GERAS est au cœur d'une recherche que nous menons depuis bientôt six ans dans le cadre d'un enseignement de type LANSAD à l'université de Rennes 2. Cette recherche s'est concrétisée dans une thèse soutenue à Bordeaux en décembre 2001 et intitulée : « Médiatisation et médiation dans l'enseignement des langues en environnement multimédia. Le cas de l'apprentissage de l'anglais en DEUG d'Histoire de l'art à l'université ». Nous résumerons ici l'essentiel de la démarche théorique qui nous a amené à définir et à situer les concepts de médiation et de médiatisation dans le cadre de la situation pédagogique. Il s'agira tout d'abord de revisiter le modèle classique du triangle pédagogique pour y redéfinir la place du processus Enseigner. Dans un deuxième point, nous essaierons de définir et de situer la médiation pédagogique. La recherche entreprise faisant appel aux nouvelles technologies du multimédia, il s'agira ensuite d'explorer les relations entre médiatisation et médiation. Enfin, nous proposerons de réconcilier médiation et médiatisation dans la « nouvelle médiation pédagogique ». Le triangle pédagogique est discuté par Jean Houssaye (1988) dans son ouvrage désormais classique. La thèse de cet auteur est la suivante : La situation pédagogique peut être définie comme un triangle composé de trois éléments, le savoir, le professeur et les élèves, dont deux se constituent comme sujets tandis que le troisième doit accepter la place du mort ou, à défaut, se mettre à faire le fou. Les processus sont au nombre de trois : « enseigner » qui privilégie l'axe professeur-savoir « former » qui privilégie l'axe professeur-élèves « apprendre » qui privilégie l'axe élèves-savoir. Pour Houssaye, seul le processus Enseigner (qu'il associe aux pédagogies traditionnelles centrées sur le contenu) exclut toute médiation. Les pédagogies libertaires et non-directives, qui relèvent du processus « former », instituent l'enseignant comme médiateur. Ces pédagogies ont leurs racines dans les mouvements de l' École active et de l' Éducation nouvelle, chez des pédagogues comme Dewey et Freinet, dans la pédagogie non-directive de Carl Rogers, etc. Quant aux pédagogies qui mettent l'accent sur le processus « apprendre », « l'individu ou le groupe y deviennent leurs propres médiateurs dans l'accès au savoir » (1988 : 178). On peut cependant s'interroger sur la possibilité d'existence d'une auto-médiation… Germain (1989) a adapté à la didactique des langues étrangères le modèle de la situation pédagogique de Legendre (1988). On trouve dans ce modèle quatre composantes : l'Objet (le savoir, c'est-à-dire langue et culture), le Sujet (l'apprenant de L2), l'Agent (moyens humains et non-humains) et le Milieu, et trois relations : d'enseignement (A-S), d'apprentissage (S-O) et didactique (A-O) (voir figure 2). On pourrait multiplier les exemples de modèles de la situation d'enseignement-apprentissage, mais le simple examen des deux modèles présentés ici suffit à démontrer qu'il n'a pas de consensus sur la place à attribuer au processus Enseigner : il est tantôt placé sur l'axe enseignant-savoir (chez Houssaye) tantôt sur l'axe Élève-Enseignant (chez Legendre et Germain). Nous avons élaboré un premier modèle, basé sur le triangle pédagogique de Houssaye, de qui nous avons conservé la terminologie des trois « processus » : Apprendre, Enseigner et Former. Nous y intégrons le champ de la didactique, que nous associons à la gestion de l'information et celui de la pédagogie, qui relève de « l'économie de la médiation ou de la communication » (d'après Lerbert 1984 : 33). Pour faire pendant aux deux champs de la didactique et de la pédagogie, nous proposons, à défaut d'oser le néologisme d' « apprentique », mais pour tout du moins mettre en évidence le point de vue émique de notre approche, « l'art de l'apprentissage ». Ce premier modèle permet d'étudier séparément (en les opposant) deux rôles de l'enseignant : le didacticien d'une part et le pédagogue de l'autre. Ou encore, pour reprendre les termes de Danièle Bailly, la réflexion et la recherche d'une part et la mise en œuvre pratique de l'autre. Mais il n'est pas satisfaisant en ce qu'il ne permet pas de définir le processus Enseigner, qui semble avoir été évacué du triangle pédagogique. C'est pourquoi nous proposons – dans un deuxième temps – d'attribuer au processus Enseigner une place à part entière dans le triangle pédagogique, en le considérant comme la résultante des processus « former » et « didactiser ». Il apparaît en effet que, s'il y a bien un processus « former » qui trouve naturellement sa place sur l'axe enseignant-apprenant du triangle (on forme quelqu'un), c'est restreindre la portée du processus Enseigner que de le placer sur l'axe enseignant-savoir (comme le fait Houssaye). On enseigne bien quelque chose (un savoir), mais on enseigne toujours ce savoir à quelqu'un. Cette nouvelle configuration offre en outre l'avantage de faire coïncider la topologie de la représentation du concept Enseigner avec ce que nous considérons comme sa fonction essentielle, celle de la médiation : sur le triangle pédagogique, le processus Enseigner est en position de médiane et de médiatrice. Maintenant que le processus Enseigner se trouve clairement placé en position médiatrice entre l'apprenant et le savoir, nous nous proposons d'explorer le concept de médiation en général et de médiation pédagogique en particulier. Le dictionnaire Grand Robert électronique (GRE) définit ainsi le mot médiation : 1. (1561). Entremise destinée à mettre d'accord, à concilier ou à réconcilier des personnes, des partis. .. – Arbitrage, conciliation, entremise, intermédiaire, intervention. 2. [. ..] - Philos. Processus créateur par lequel on passe d'un terme initial à un terme final (dans la dialectique de Hegel, de Marx. ..). Aumont et Mesnier (1992) définissent le « sens commun » de médiateur : [. ..] le médiateur est celui qui favorise la « négociation » dans un conflit tel que peut le vivre tout apprenant dans une relation parfois difficile à un objet de savoir qui lui résiste et le malmène. Cette définition reprend du premier sens mentionné par le GRE la notion d'intervention d'un tiers pour faciliter la résolution d'un conflit entre deux parties. Ce point de vue est en résonance avec les pédagogies de l'apprentissage (Altet 1997) qui mettent en avant la notion de « conflit cognitif » et, par ricochet, insistent sur le rôle médiateur de l'enseignant dans la résolution de conflits de ce type. Le sens 2 de médiation donné par le GRE, « processus créateur par lequel on passe d'un terme initial à un terme final » ouvre des perspectives intéressantes. En effet, ces termes pourraient tout aussi bien convenir à la définition de l'activité d'enseignement-apprentissage qu' à celle de la médiation pédagogique. Raynal et Rieunier donnent une définition de la médiation qui s'éloigne sensiblement du sens étymologique mentionné plus haut : Ensemble des aides ou des supports qu'une personne peut offrir à une autre personne en vue de lui rendre plus accessible un savoir quelconque. [. ..] Le langage, l'affectivité, les produits culturels, les relations ou les normes sociales sont des médiations. [. ..] L'enseignant est un médiateur. (1997 : 220) Ce point de vue est très proche de celui des « pédagogies de la médiation », exprimé par exemple dans la suite de la définition que donne Avanzini : Dans le registre de l'éducation, ce concept désigne l'entreprise de celui qui aménage et facilite la mise en rapport de la culture avec un sujet qui a, jusqu'alors, échoué à l'assimiler et à la situation duquel on cherche à remédier (re-médier). [La médiation] … est indispensable à l'activité d'apprentissage. (op. cit. : 14) Raynal et Rieunier signalent que – outre le Programme d'Enrichissement Instrumental (PEI) de Feuerstein – ce sont les travaux de Vygotski et de Bruner qui ont principalement contribué à établir la médiation comme facteur décisif du développement cognitif de l'enfant. De Vygotski on cite souvent le concept de « Zone prochaine de Développement (ZPD) » : La disparité entre l' âge mental, ou niveau présent de développement, qui est déterminé à l'aide des problèmes résolus de manière autonome, et le niveau qu'atteint l'enfant lorsqu'il résout des problèmes non plus tout seul, mais en collaboration détermine précisément la zone prochaine de développement. ([ 1934] 1997 : 35) Cette notion de ZPD met en évidence l'importance de la médiation du maître, de la collaboration de l'adulte. Vygotski indique également que la médiation et la collaboration de l'adulte ont des limites. Il ne sert à rien d'apprendre à l'enfant ce que son stade actuel de développement ne lui permet pas d'apprendre. Pour être efficace, l'intervention de l'adulte, du maître, doit se situer à l'intérieur de la ZPD. Mais la ZPD n'est pas le seul domaine où cet auteur fait appel au paradigme de l'opposition seul/en collaboration, direct/indirect ou encore médiat/immédiat. Dans son étude du développement de la conceptualisation chez l'enfant qui est au coeur de son ouvrage de 1934, Vygotski établit une opposition parallèle entre les notions de concept spontané et de concept scientifique d'une part et celles de rapport immédiat et de rapport médiatisé d'autre part : La première apparition d'un concept spontané est ordinairement liée à un heurt direct de l'enfant avec telles ou telles choses … des choses réelles, des choses de la vie. Le concept scientifique, par contre, a pour point de départ non pas un heurt direct avec les choses, mais un rapport médiatisé avec l'objet. Après Vygotski, Jerome Bruner, théoricien de l'apprentissage par la découverte, a développé le concept de médiation sous diverses appellations, dont le tutorat et l'étayage (scaffolding), qu'il définit ainsi : [Scaffolding] refers to the steps taken to reduce the degrees of freedom in carrying out some task so that the child can concentrate on the difficult skill she is in the process of acquiring. (Bruner 1978, cité par Mercer 1995 : 73) La définition de Bruner comporte un élément qui peut sembler négatif, voire paradoxal, l'idée de « réduire les degrés de liberté » de l'apprenant dans l'accomplissement de sa tâche. Bien évidemment, il ne s'agit pas ici de réduire la liberté de l'apprenant, et nous suggérons de passer de la métaphore de l'étayage à celle, voisine, de l'attelle, moyen provisoire de réduire la liberté de mouvement du membre fracturé afin de v ladite fracture (au sens médical de ce terme), dans la perspective finale de la guérison. Vygotski et Bruner s'accordent à reconnaître l'existence nécessaire d'une zone « de décalage » entre la résolution d'un problème ou l'acquisition d'un savoir-faire par l'enfant seul d'une part et le succès du même type d'opération, mais à un niveau plus avancé, en collaboration avec quelqu'un d'autre part. Vygotski semble ainsi indiquer que la ZPD est une caractéristique plus ou moins figée de l'enfant (en tout cas à un moment donné de son développement) et que le seul « jeu » possible pour le médiateur se situe nécessairement à l'intérieur de la ZPD ainsi définie. En revanche, le point de vue de Bruner met davantage l'accent sur le rôle actif du médiateur à qui il incombe en quelque sorte de « jauger » les dimensions critiques de la zone de décalage mentionnée plus haut, afin d'ajuster au mieux l'étayage. Cette notion d'ajustage est considérée par Mercer comme l'une des caractéristiques essentielles de l'étayage : [A] crucial, essential quality of ‘ scaffolding ' [. ..] must be that it is the provision of guidance and support which is increased or withdrawn in response to the developing competence of the learner. (Mercer 1995 : 75) Dans une étude sur l'interaction verbale et les séquences potentiellement acquisitionnelles (SPA), Matthey met bien l'accent sur la nécessaire modularité de l'étayage, qu'elle exprime en termes de « places énonciatives » : Pour que des SPA puissent apparaître, le format interactionnel doit être modulable, c'est-à-dire qu'il doit tendre vers la convergence des places énonciatives lorsque la difficulté de la tâche augmente, pour s'élargir et redonner des places distinctes aux interactants quand la difficulté est surmontable par l'enfant seul. Cette indépendance énonciative est nécessaire au mouvement d'autostructuration qui déclenche les SPA. Si l'étayage est trop fort, l'enfant ne peut occuper sa place d'une manière suffisamment autonome pour être à même de produire ses propres énoncés. (1996 : 72) Si toute action de médiation n'est pas une action didactique et tout médiateur n'est pas un enseignant, il semble bien que toute relation pédagogique doive inclure des actions de médiation, et qu'un enseignant ait nécessairement à jouer un rôle de médiateur. Faut-il pour autant aller jusqu' à établir une équivalence absolue entre enseignement et médiation ? Aumont et Mesnier pensent qu'une telle équation serait réductrice : La fonction d'aide à l'apprentissage ne peut se résumer à une activité de médiation. [. ..] Le libre accès à des ressources – qu'il s'agisse de pairs engagés dans le même apprentissage (et pouvant aussi jouer un rôle de médiateur), d'experts dans un savoir, de documents ou guides interactifs – constitue un aspect essentiel de toute démarche d'appropriation d'un nouveau savoir. (1992 : 207) Dans la perspective d'un auto-apprentissage en centre de ressources, Sabiron insiste également sur l'aspect inévitable et nécessaire d'un accès « direct » de l'apprenant aux ressources : La notion de « ressources » s'élargit aux ressources humaines. L'intervenant institutionnel peut ne pas être enseignant, ou linguiste, mais méthodologue-conseil, ou expert en audit linguistique. L'apprenant peut – et doit, progressivement – avoir accès à la formation et l'information, sans la médiation de l'intervenant. (532 : 1995) Qu'on l'envisage sous son aspect d'intermédiaire entre l'apprenant et le savoir pour l'aider à résoudre ses conflits cognitifs, ou sous son aspect d'étayage aux côtés de l'apprenant pour le soutenir en attendant qu'il puisse voler de ses propres ailes, la médiation pose toujours problème. Situé dans cette position d'intermédiaire entre l'apprenant et le savoir, au lieu de servir de voie de communication, le maître peut – dans le cadre des pédagogies centrées sur le contenu – faire barrage. Bien que, dans la métaphore de l'étayage, le maître ne prenne plus position entre le savoir et l'élève, mais aux côtés de ce dernier pour le soutenir, le confort de ce soutien provisoire peut inciter celui -ci à ne plus vouloir ou pouvoir s'en passer. Cette contradiction de la fonction de médiation, nécessaire dans la relation pédagogique, mais condamnée à disparaître, est exprimée dans la définition qu'en donne Meirieu : [la] médiation désigne à la fois ce qui, dans le rapport pédagogique, relie le sujet au savoir et sépare le sujet de la situation d'acquisition. Elle assure ainsi, contradictoirement, mais indissolublement, la transmission du savoir et l'émancipation du sujet. (1987 : 187) Nous allons tenter de trouver une place pour la médiation pédagogique qui puisse s'insérer dans notre deuxième modèle de la situation pédagogique. Si, dans cette situation, le médiateur était toujours et seulement l'enseignant, alors la médiation se confondrait totalement avec notre axe du processus Enseigner. Puisque tel n'est pas le cas, nous proposerons une représentation « dynamique » de la médiation pédagogique. Ce modèle utilise la métaphore du levier (les points d'appui sont a1 et a2). Nous considérons que la médiation pédagogique est toujours la combinaison (en proportions variables), la résultante de l'application de deux forces que nous appellerons (d'après Develay 1992 : 13) « l'obstination didactique » et « la tolérance pédagogique ». La première de ces deux forces cherche à rapprocher le savoir de l'apprenant, tandis que la seconde cherche à rapprocher l'apprenant du savoir. La flèche à simple orientation de la « force » didactique symbolise cette obstination qui ne se relâche jamais, tandis que la flèche à double orientation indique que la « force » pédagogique ne peut s'exercer en sens unique, elle doit être souple, élastique, permettre le « jeu », sans quoi le levier pédagogique se rompra et le contact avec l'apprenant sera perdu. Une telle représentation permet de suivre au plus près l'évolution de la « quantité » de médiation qui alternativement « relie l'apprenant au savoir et le sépare de la situation d'acquisition » (pour reprendre les termes de Meirieu). Elle met l'accent sur une métaphore de l'apprentissage vu comme un « rapprochement » qui s'opère entre l'apprenant et le savoir, rapprochement médiatisé par l'enseignant, à l'intérieur de la ZPD définie par Vygotski. Notre modèle permet en outre de visualiser certaines « dérives » de la relation pédagogique. Si le pôle de l'enseignant « glisse » le long de l'axe que nous avons appelé « la visée d'enseignement », jusqu' à venir occuper la place située entre l'apprenant et le savoir, au lieu de faire office de médiation, l'enseignant devient un obstacle, il fait barrage à l'apprentissage. De même, s'il se produit un déséquilibre entre les forces qui s'appliquent sur les deux « leviers » de la médiation pédagogique, on obtient soit une situation où le savoir a certes été didactisé mais se trouve présenté à un apprenant qui n'a pas été mis en mesure de se l'approprier, soit la situation inverse, dans laquelle un apprenant a bien été mis en situation d'apprentissage, mais se trouve confronté à un savoir non assimilable par lui parce que non-didactisé. Étant donné que notre projet de recherche-action implique l'utilisation des nouvelles technologies, nous nous sommes intéressé au processus de didactisation avec instruments – que nous appellerons médiatisation. Examinons pour commencer le modèle des Situations d'Activités Instrumentées de Rabardel (1985 et 1995). La comparaison entre la situation d'activité avec instruments et la situation didactique permet de mettre en évidence le rôle médiateur joué par l'instrument dans la première et par l'enseignant dans la seconde. Dans le cadre d'une situation d'apprentissage avec instruments on pourrait certes envisager de redéfinir le triangle didactique en triangle SAI. C'est ce que propose Raby pour qui, « dans le cadre de l'auto-formation, le triptyque savoir-sujet-enseignant doit se redéfinir en sujet-instrument-savoir (1996 : 367) ». C'est également la solution adoptée dans le modèle de Legendre revisité par Germain. Cependant, ces modèles présentent l'inconvénient soit de faire disparaître l'enseignant soit de lui attribuer une nature « instrumentale », ce qui nous paraît également inacceptable. Nous préférerons donc dire que, dans la situation d'apprentissage avec instruments, des relations s'établissent entre un objet (le savoir) et non pas un, mais deux sujets (l'enseignant et l'apprenant). Nous serons ainsi amené à modifier à nouveau notre modèle de la situation pédagogique. La théorie de Rabardel va d'ailleurs nous y aider. Rappelons que, pour cet auteur, l'instrument est une entité bifaciale composée d'une part de l'artefact et d'autre part des schèmes d'utilisation (du concepteur et de l'utilisateur). La « genèse instrumentale ». comporte deux types de processus associés : les processus d'instrumentalisation et les processus d'instrumentation (Rabardel 1995 : 137 sqq.). Nous proposons d'assimiler le travail de didactisation effectué par l'enseignant aux processus d'instrumentalisation qui concernent l'émergence des composantes artefact de l'instrument : « sélection, regroupement, production et institution de fonctions, détournements et catachrèses, attribution de propriétés, transformation de l'artefact ». Ce travail de didactisation prend place au sein d'une relation dans laquelle l'enseignant joue un double rôle de médiateur du savoir et de concepteur de l'instrument. Quant aux processus d'instrumentation, ils constituent d'après Rabardel l'autre face de la genèse instrumentale, celle de l'utilisation : les processus d'instrumentation sont relatifs à l'émergence et à l'évolution des schèmes d'utilisation et d'action instrumentée : constitution, fonctionnement, évolution par accommodation, coordination, combinaison, inclusion et assimilation réciproque, assimilation d'artefacts nouveaux à des schèmes déjà constitués [. .. ]. (op. cit. : 137) On reconnaît là les caractéristiques des processus de l'apprentissage tels que définis, par exemple, par Piaget (accommodation et assimilation)… Tandis que les processus d'instrumentalisation sont orientés du sujet (S1, Enseignant) vers l'artefact, ceux d'instrumentation sont orientés de l'artefact vers le sujet (S2, Apprenant). Nous sommes ici dans une relation dans laquelle l'apprenant accède au savoir via la médiation de l'instrument. Au moment de combiner en un seul système les deux sous-systèmes que constituent les relations d'une part et de l'autre, plusieurs options se présentent à nous. Une version ancienne de notre modèle se présentait sous la forme d'un tétraèdre, ce qui permettait de visualiser et d'étudier les quatre relations triangulaires figurées par les quatre faces de cette fi gure (Rézeau, 1998). Le modèle proposé par Bertin (2001) est également quadripolaire : il s'agit d'un modèle ergonomique global de la situation d'AMO regroupant deux sous-systèmes. Pour cet auteur, le sous-système apprenant-ordinateur est celui de l'ergonomie cognitive, tandis que le sous-système enseignant-ordinateur relève de l'ergonomie pédagogique. Nous partageons avec Bertin l'insistance sur « la présence de deux pôles humains [qui] sous-entend aussi celle de deux sujets au sein du même processus » (op. cit. : 252), ainsi que les références aux travaux de Rabardel. Au lieu de centrer notre approche sur la notion d'ergonomie, nous préférons toutefois parler de médiation et de médiatisation. C'est d'ailleurs afin d'attribuer à ces deux notions une place centrale dans la situation pédagogique que nous avons abandonné le modèle du tétraèdre pour celui du carré pédagogique. Ce carré est obtenu en réunissant les deux relations triangulaires par leur axe commun, celui qui relie les instruments au savoir. Le positionnement de la médiation et de la médiatisation sur la figure représentant notre modèle du carré pédagogique permet une première approche de la fonction relationnelle de ces concepts par rapport aux quatre pôles de la situation d'enseignement-apprentissage. Il nous faut maintenant compléter cette représentation par des définitions opératoires. Il n'est pas aisé de distinguer entre les deux substantifs médiation et médiatisation, qui sont d'ailleurs parfois employés l'un pour l'autre. Dans le Nouveau Petit Robert, le verbe médiatiser apparaît sous deux entrées. Dans la première entrée, MÉDIATISER (1) a un premier emploi technique et historique qui ne nous intéresse pas ici, et un deuxième emploi : DIDACT. Rendre médiat. Action de médiatiser - 1. Ce qui sert pour arriver à une fin. Une première constatation s'impose : tous ces termes (y compris médiation) dérivent d'un même champ sémantique, celui de « milieu » en latin. Quelles conséquences peut entraîner la position d'un élément B placé au milieu entre deux autres éléments A et C ? L'élément B peut jouer un rôle d'intermédiaire (médiation); ce rôle d'intermédiaire peut être positif (conciliation); il peut être négatif (faire barrage), ou simplement neutre (remplacer une relation directe entre A et C par une relation indirecte); l'élément B peut être un moyen pour A d'atteindre C (ou vice-versa). Dans le cadre de la situation pédagogique, A étant l'apprenant et C le savoir, nous proposons d'attribuer à l'élément B les rôles et les définitions qui suivent. Dans le domaine de la Didactique des Langues Étrangères (DLE) nous proposons la définition suivante. MEDIATION : - ensemble des aides –personnes(1) et instruments(2)– mises à la disposition de l'apprenant pour faciliter provisoirement(3) son appropriation de la L2 et l'utilisation autonome ultérieure de celle -ci; - action de la personne qui facilite l'apprentissage de la L2 par une relation d'aide, de guidage, avec ou sans instruments. NOTES : Ces personnes, enseignant, formateur, tuteur, camarade, l'apprenant lui -même, etc. sont des médiateurs. Il s'agit des instruments tels que définis par Rabardel (1995). En référence à cette théorie, la médiation correspond aux processus d'instrumentation, qui sont relatifs à l'émergence et à l'évolution des schèmes d'utilisation et d'action instrumentée. En référence aux théories sociocognitives de la médiation sociale (Vygotski, Bruner), l'étayage facilitateur de la médiation est une étape nécessairement provisoire. De même, en référence à l'emploi général de médiation, « entremise destinée à mettre d'accord, à concilier ou à réconcilier des personnes, des partis », lorsque les parties sont réconciliées, l'entremise n'a plus d'objet. La double définition met en évidence le fait que la médiation peut être le processus résultant soit de l'action directe d'une personne soit de l'action indirecte exercée à travers des instruments. En ce qui concerne la médiatisation, nous avons souhaité utiliser ce terme pour remplacer celui de didactisation, pour plusieurs raisons. Il s'agit tout d'abord d'un terme relativement peu utilisé dans le domaine de la didactique en général comme dans celui de la DLE; on lui préfère la notion de transposition didactique. Mais, dans le cadre de la DLE, cette notion de « transposition du savoir savant en savoir à enseigner » semble moins pertinente que dans le cadre d'autres disciplines scolaires qui ont effectivement à transmettre un savoir plutôt qu'un savoir-faire. Pour composer le sens attribué ici à médiatisation, nous avons emprunté d'une part à la première entrée du mot dans le Nouveau Petit Robert, emploi 2 : « rendre médiat » (c'est-à-dire introduire un élément intermédiaire, une distanciation, une didactisation) et d'autre part à la seconde entrée ce qui, dans la filiation étymologique remonte à l'idée de média, de moyens, c'est-à-dire « ce qui sert pour arriver à une fin ». Nous avons également incorporé à cette définition des éléments de la théorie de la genèse instrumentale de Rabardel, ce qui donne : MEDIATISATION : opération consistant à sélectionner, transformer, transposer les matériaux linguistiques et culturels de la L2 pour en faire des instruments(1) (contenus, méthodes, matériels, tâches) répondant à des besoins pédagogiques déterminés(2). La médiatisation correspond ici aux processus d'instrumentalisation, qui concernent l'émergence des composantes artefact de l'instrument : « sélection, regroupement, production et institution de fonctions, détournements et catachrèses, attribution de propriétés, transformation de l'artefact » (Rabardel 1995). L'opération de médiatisation supposant des compétences et des moyens matériels qui ne sont pas habituellement accessibles à l'apprenant ou à ses pairs, la personne qui réalisera ce type d'opération sera un enseignant, un formateur. Dans le cas où cette opération a pour but la création de matériels d'enseignement, elle pourra être conduite par un concepteur qui ne sera pas nécessairement un enseignant. Nous appellerons cette personne un médiatisateur. Il subsiste un problème terminologique : en effet, aux substantifs médiation et médiatisation ne correspond qu'un seul et même verbe, médiatiser. Pour désigner le processus de médiation, il nous semblerait préférable d'utiliser le néologisme médier, qui commence à faire son apparition dans la littérature du domaine. Après avoir redéfini la place de l'enseignement dans le triangle pédagogique, nous avons proposé de transformer celui -ci en carré pédagogique. Ce nouveau modèle nous a permis d'attribuer aux instruments une place à part entière en tant qu'agents médiateurs du savoir. Il nous a également permis de définir et de placer, chacune à la place qui lui revient, la médiation-instrumentation et la médiatisation-instrumentalisation. Dans ce quatrième et dernier point, il nous faut évoquer le nouveau rôle dévolu à l'enseignant dans une situation d'apprentissage avec instruments. Les notions de transparence et d'opacité associées aux instruments nous permettront d'évoquer des problèmes classiques en DLE. Nous verrons enfin comment il est possible de concilier le rôle médiatisateur de l'enseignant avec le rôle médiateur de l'instrument. Que l'on se place dans la perspective du tutoriel traditionnel – héritier direct de l'enseignement programmé – ou dans celle du « tutoriel sophistiqué » tel que conçu et mis en œuvre par Demaizière (1986), la question se pose du rôle dévolu à l'enseignant dans une situation d'apprentissage avec ordinateur. Cette question n'est pas nouvelle ni propre à l'EAO : elle surgit inévitablement dès que l'on passe du paradigme des pédagogies magistrales à celui des pédagogies centrées sur l'apprenant ou sur l'apprentissage. Dans les pédagogies de l'apprentissage, certains auteurs considèrent l'enseignant comme « un adjuvant humain, parmi d'autres adjuvants, [. ..] matériels et technologiques » (Springer 1996 : 166). Mais il semble bien qu'avec l'ordinateur tuteur la présence d'un professeur « virtuel » dans la machine évince pour de bon le professeur réel, l'adjuvant technologique étant devenu un substitut de l'enseignant. Un argument constamment mis en avant par les promoteurs de l'ordinateur tuteur est celui de la libération de l'enseignant pour d'autres tâches, plus gratifiantes, et non mécanisables. La vision de l'ordinateur tuteur comme incarnation du « caractère mécanique de la fonction du maître telle que la conçoit l'enseignement traditionnel » (Piaget 1969 [1965] : 107) nous semble condamnable et condamnée précisément parce qu'elle renvoie à une conception dépassée de l'enseignement. Si l'on s'oppose à cette vision, deux options, semble -t-il, restent à l'enseignant qui veut continuer à jouer un rôle de médiateur dans la situation pédagogique : une option maximaliste dans laquelle le professeur, créant ses propres tutoriels, se met lui -même en machine; une option minimaliste qui conduit à utiliser l'ordinateur comme un outil. S'agissant de la première option, celle de la médiatisation du savoir, deux points de vue s'opposent : les « professionnels » de l'ingénierie didactique rejettent le « bidouillage » ou bricolage et prônent la séparation des tâches (cf. Demaizière 1986 : 74). Nous ne partageons pas ce point de vue, mais plutôt celui de Linard qui écrit : Si la qualité de la médiatisation technique de l'apprentissage ne vaut que ce que vaut la médiation des hommes qui l'interprètent et la font vivre sur le terrain, alors il faut sortir de la division du travail entre les concepteurs et les exécutants de l'innovation qui prévaut encore dans la plupart des systèmes éducatifs. (1996 : 116) Un paradigme classique dans le domaine de l'EAO est celui qui oppose pour l'ordinateur un rôle de tuteur à celui d'outil. Le premier rôle renvoie aux machines à apprendre de Skinner, le second rôle, plus spécialement en langues, renvoie à l'approche communicative. Entre outil, instrument et machine, quelle analogie serait la mieux susceptible de rendre compte de la nature protéiforme de l'ordinateur ? Considéré en tant que machine à apprendre, l'ordinateur présente à la fois les caractéristiques d'un outil et celles d'un instrument. Ces deux aspects sont toujours présents, mais plus ou moins visibles selon l'usage qui est fait de la machine ordinateur. Le paradigme de l'ordinateur outil met l'accent sur un rôle prosthétique permettant de pallier des déficiences humaines, sur la médiation pragmatique qui vise à renforcer l'action humaine. Les représentations correspondant à ce paradigme sont celles qui considèrent l'ordinateur comme « un simple outil », incapable d'initiative propre, mais utile pour améliorer l'efficacité de l'homme. En outre, l'idée que l'ordinateur peut améliorer quantitativement l'enseignement et l'apprentissage rejoint les thèses déjà anciennes de la mécanisation de l'enseignement (cf. Skinner) ou celles, actuelles, de l'industrialisation de la formation (cf. Alberganti 2000). Le paradigme de l'ordinateur instrument n'est pas mentionné directement dans la littérature des NTIC, mais on peut considérer que les paradigmes de l'outil cognitif ou des environnements informatiques d'apprentissage humain peuvent lui être assimilés. Dans ces paradigmes, l'accent est mis sur la médiation épistémique de l'instrument qui permet une meilleure perception et une meilleure connaissance de l'objet d'étude. Dans leur étude de l'évolution des conceptions du rôle de l'ordinateur en EAO, la plupart des auteurs du domaine font mention d'un abandon du paradigme de l'ordinateur-tuteur au profit du paradigme de l'ordinateur-outil. Selon Wolff, par exemple, …in learner autonomy, the key concept in modern language learning and in all humanistically oriented pedagogy, the computer as tutor cannot have a place. Making use of its tool functions, on the other hand, can support learning in a variety of ways. (1999 : 128) Étant donné la multitude de fonctions et d'usages de l'ordinateur, ne devrait-on pas plutôt le considérer sinon comme un outil à tout faire (a general-purpose tool) du moins comme un outil à usages multiples (a multi-purpose tool) ? C'est le point de vue adopté par Martin qui considère que, avec l'arrivée des NTIC, on assiste à une mutation radicale de l'OT [objet technique] qui passe du statut de simple objet façonné pour l'usage à celui d'outil de prospection. Désormais, l'OT n'est plus (seulement) le moyen de mettre en relation un projet avec une finalité dans la mesure où il n'y a plus de finalité définissable, mais une multifonctionnalité [. .. ]. (2001 : 34) En mettant ainsi l'accent sur la valeur de médiation épistémique du « nouvel OT », et en l'opposant corrélativement à la valeur de médiation pragmatique du « simple outil » ancien, cet auteur semble rejoindre notre proposition selon laquelle l'ordinateur est davantage un instrument qu'un outil. Une notion intéressante lorsqu'on étudie la fonction médiatrice des outils (cognitifs) est celle de transparence (et de son corollaire l'opacité). Considérons les citations suivantes : L'artefact est un médiateur dont la présence ne doit faire en aucune manière obstacle à la relation du sujet à l'objet de son activité. (Rabardel 1995 : 184). .. une bonne interface est celle qui disparaît cognitivement lors de l'usage de l'outil et avec laquelle nous n'avons affaire que lors de situations inattendues. .. la nécessité de « visibilité » est variable. (Polanyi, cité par Rabardel op. cit. : 185) For most routine purposes, awareness of a medium may hamper its effectiveness as a means to an end. Indeed, it is typically when the medium acquires transparency that its potential to fulfi l its primary function is greatest. (Chandler 1995 : 10) Tous ces auteurs affirment que l'efficacité des artefacts, instruments ou média est directement proportionnelle à leur transparence. Le détour par les instruments nous ramène ainsi à un thème central en DLE, celui qui regroupe les divers concepts de conceptualisation (« language awareness »), de métacognition, de l'explicite par rapport à l'implicite. Pour reprendre sous un autre éclairage le débat classique entre les approches communicative et conceptualisatrice en enseignement des langues, on pourrait dire que la première recherche une transparence maximale tandis que la deuxième admet la nécessité d'une certaine « opacité » ou plus précisément d'une certaine visibilité. Mais, peut-on se demander, qu'est -ce exactement qui peut être visible ou transparent dans l'apprentissage et l'utilisation d'une langue ? On sait que l'option constructiviste de la psychologie cognitive postule que la réalité est toujours une construction par l' être humain. Chandler (déjà cité) évoque deux types de comportement face à ce postulat : Romantics construct the ‘ natural ' in attempting to stay close to experience through ‘ immediacy ' and ‘ authenticity '. Objectivists construct ‘ facts ', attempting to view the world without ‘ distortion ' as if through a transparent ‘ window '. Both seek to escape mediation. (op. cit. : 32) Si nous appliquons la grille de lecture proposée par Chandler aux conceptions en DLE, les « romantiques » seraient les tenants de la méthode directe, de l'approche communicative, du « bain linguistique » et d'un certain nombre de méthodes humanistes. De même que les romantiques prônaient un retour vers l'état de nature et l'état d'enfance, ces différentes conceptions de l'apprentissage des langues mettent en avant ce qui rapproche l'apprentissage de la L2 de celui de la L1; le concept d'authenticité fait également partie de leur credo. À l'opposé, les « objectivistes » en DLE seraient les tenants des pédagogies du contenu ainsi que les behavioristes. On peut considérer que ces différentes approches cherchent, chacune à leur manière et à des degrés divers, à établir entre l'apprenant et la L2 un rapport direct, immédiat. Elles rejettent par conséquent l'apport de toute médiation au processus de construction de la réalité de cette L2. En revanche, les didacticiens des langues qui s'appuient sur l'apport du constructivisme savent bien qu'il n'y a ni perception immaculée ni apprentissage sans risques. Pour eux, « comprendre le système aide l'élève à comprendre la langue » (Bailly 1997 : 103). La médiation envisagée ici est multiple : médiation par les outils cognitifs (conceptualisation et métacognition), médiation de l'enseignant, médiation par les pairs. Dans tous les cas de figure il s'agit bien de rendre visible l'invisible (Richterich 1996) et donc de procurer à l'apprenant tous les instruments et médias nécessaires pour mieux percevoir et construire la réalité de la L2. Dans les années 1990, renouant avec les thèses « socioculturelles » des psychologues soviétiques du développement, plusieurs auteurs ont proposé de redéfinir la cognition comme « un processus distribué à travers les objets, les outils et les artefacts propres à une culture » (Depover I. 1998 : 163). La grande nouveauté de la cognition distribuée c'est d'introduire, avec la dimension écologique, non seulement les autres humains, mais aussi les outils. Or, avec l'émergence des nouvelles technologies, les outils sont encore plus proches de l'homme, plus proches de la cognition et de l'intelligence humaine. Parce qu'il est davantage comparable à un clavecin qu' à un marteau, parce que – en tant qu'instrument – il est le vecteur d'une médiation épistémique tout autant que pragmatique, l'ordinateur peut sans aucun doute jouer un rôle d'acteur dans l'intelligence collective. Comme l'écrit Lévy dans son ouvrage consacré aux technologies de l'intelligence : Les dispositifs techniques sont donc bien des acteurs à part entière dans un collectif qu'on ne peut plus dire purement humain, mais dont la frontière est en redéfinition permanente. (1990 : 157) Faisant écho à la distinction établie par Vygotski entre concept quotidien et concept scientifique, Laurillard distingue les connaissances de premier ordre qui concernent notre expérience « immédiate » du monde (principalement fondée sur la perception) de celles de second ordre qui supposent une prise de recul, une médiation, une « méta-expérience » : Everyday knowledge is located in our experience of the world. Academic knowledge is located in our experience of our experience of the world. [. ..] Thus teaching is [. ..] mediated learning, allowing students to acquire knowledge of someone else's way of experiencing the world. (1993 : 26) Cette auteure indique donc clairement que le rôle de l'enseignant est celui d'un médiateur de l'apprentissage. Elle en arrive à la conclusion que le processus d'enseignement-apprentissage idéal est un dialogue de type socratique entre le professeur et l'étudiant. Étant donné qu'il n'est matériellement pas possible d'avoir un professeur pour chaque étudiant, pourquoi ne pas recourir aux Nouvelles Technologies ? Le tutoriel intelligent serait la solution idéale, mais elle affirme qu'il n'existe pas : « Tutoring systems would be the acme of all the educational media, if they existed. » (1993 : 29) La réponse est sans doute de ne pas croire que l'ordinateur suffise, seul et par lui -même, à provoquer acquisition ou apprentissage, et donc à remplacer l'enseignant. Pour décrire ce rôle de médiateur auxiliaire, Salomon [1995] utilise la métaphore du levain dans la pâte. Monique Linard (1996) associe d'une part le cognitivisme computationnel avec une conception technocentrique et prosthétique des instruments (la médiatisation), et de l'autre la cognition vue comme « activité de connaissance » avec une conception anthropocentrique des outils cognitifs (la médiation). Nous ne partageons pas ce point de vue qui établit une équation entre la médiatisation et la seule perspective technocentrique du paradigme du « cognitivisme informationnel » et qui restreint corrélativement l'emploi du terme de médiation au domaine du constructivisme « existentiel ». Pour nous, dans la situation pédagogique, médiatisation et médiation sont dans le même rapport bifacial que les processus d'instrumentalisation et d'instrumentation dans la genèse instrumentale. Linard reconnaît d'ailleurs que L'outil n'est pas un simple objet. À la fois intermédiaire de connaissance et moyen de capitalisation sociale de l'expérience, il devient ‘ médiateur ' au sens de tiers actif dans les relations entre sujets et objets. (op. cit. : 262) Or, si l'on veut reconnaître à l'instrument un rôle essentiel de médiateur dans l'action et l'apprentissage, il faut bien dans le même temps reconnaître l'importance corrélative de l'activité de médiatisation – sans laquelle l'instrument n'existerait pas. Nous avons postulé dans la première partie de cet article que l'apprentissage n'est pas une mise en relation simple et directe entre l'apprenant et le savoir, mais qu'il résulte nécessairement d'une visée d'enseignement. De la même manière, nous proposons que – dans le cadre d'un apprentissage avec instruments – il ne saurait y avoir médiation sans médiatisation . | Cet article résume une démarche de réflexion théorique sur la place de la médiation pédagogique et de la médiatisation didactique dans le cadre d'un enseignement des langues avec instruments. ll s'agit de réhabiliter le processus Enseigner dans le triangle pédagogique, de placer la médiation au coeur de la relation pédagogique et enfin de re-définir - pour les réconcilier - les rôles médiateur et médiatisateur de l'enseignant. | linguistique_524-03-12136_tei_754.xml |
termith-723-linguistique | Il y a très peu de mots empruntés au français en finnois. Cependant, le mot laïcité fait son apparition de plus en plus souvent dans les médias et les conversations courantes en Finlande. La loi du 15 mars 2004 sur la laïcité à l'école en France a éveillé la curiosité des Finlandais, qui vivent dans un pays où la pleine liberté du culte date de 1923, et où l' Église évangélique luthérienne et la confession orthodoxe grecque ont le statut d' Églises d' État. 85 % de la population appartiennent à l' Église évangélique luthérienne et seulement 1 % à la confession orthodoxe grecque. 10 % des Finlandais sont sans affiliation religieuse. Les autres confessions ne représentent donc qu'un pourcentage très faible. Les enfants et les adolescents suivent un enseignement religieux à l'école. Les élèves qui font partie d'une confession particulière peuvent demander que cette confession leur soit enseignée, et ceux qui n'appartiennent à aucune confession étudient différentes philosophies si leurs parents ou leurs tuteurs en manifestent le désir. Le mot laïcité est un xénisme : il est identifié comme mot étranger référant à une réalité étrangère. Le lexique finnois ne possède pas de terme pour désigner cette réalité notionnelle avec suffisamment de justesse et de précision. Ce manque pousse le locuteur à employer le mot français. Or, ce mot emprunté fait surgir une nouvelle unité sans recourir à des éléments lexicaux préexistants en finnois. Il s'agit d'un élément isolé qui est à la fois sémantiquement vide et morphologiquement immotivé. Quand le locuteur-encodeur utilise ce mot, il sait que l'allocutaire-décodeur ne le connait peut-être pas et qu'il doit l'expliciter dans son message. C'est souvent à l'aide d'une glose que le locuteur assure le contrôle des mots qu'il emploie. Le corpus sur lequel est basé ce travail est formé de cinquante énoncés finnois contenant le xénisme français laïcité. Ces énoncés, repérés grâce au moteur de recherche « Google », ont été extraits des journaux, magazines et forums de discussions finlandais entre 2003 et 2005. Helsingin sanomat est le principal journal quotidien en Finlande. Il n'affiche pas de tendance politique particulière. Kristillinen kasvatus est un magazine en ligne publié par l' Église évangélique luthérienne et ayant pour but de contribuer à l'éducation de la jeunesse chrétienne. Kristillisdemokraattinen viikkolehti est le magazine hebdomadaire des chrétiens-démocrates. Ranskan uutiset. com, quant à lui, est un magazine en ligne qui s'adresse aux Finlandais vivant en France ou ayant un intérêt particulier pour la France. Ses articles traitent de sujets concernant les actualités politiques, économiques, culturelles et scientifiques. VapariForum, Näkökulma et Suomi 24 keskustelu sont des forums sans orientation religieuse ni politique, contrairement à Hourglass 2 Outpost, forum animé par les témoins de Jehovah. Les énoncés analysés sont donc extraits de sources très variées. Les auteurs des énoncés sont soit des journalistes, soit des internautes dont l'identité est difficile à cerner. Toutes les occurrences de laïcité dans les énoncés étudiés sont glosées. On examinera les équivalences sémantiques employées par les locuteurs pour rendre ce xénisme compréhensible aux Finlandais. Les différentes tentatives d'explication montrent les difficultés éprouvées par les locuteurs pour saisir les contours de la notion. Les gloses nous permettront aussi d'observer les réactions des locuteurs à la fois envers le mot français laïcité et envers le concept qu'il représente. Ce xénisme notionnel semble être difficilement transposable en finnois, pour des raisons historiques et idéologiques. On s'interrogera également sur l'avenir de ce mot en finnois. Demeurera -t-il toujours un élément étranger référant à une réalité étrangère ? Deviendra -t-il un pérégrinisme ou cessera -t-il un jour d' être perçu comme un élément étranger pour devenir un emprunt codifié ? (1) maallisuus « le fait d' être séculier » Ilman juhlavuottakin tämä “laïcité ”, maallisuus, nousee tavan takaa keskusteluun. (VapariForum, 24 janvier 2005) Indépendamment de cet anniversaire, cette « laïcité », le fait d' être séculier, anime les discussions. (2) tunnuksettomuus « le fait d' être non confessionnel » Valtion virkailijoita ja työntekijöitä tämä laïcité eli tunnustuksettomuus koskee siitä päivästä alkaen, kun he astuvat toimeen. (Näkökulma, 17 décembre 2003) Les fonctionnaires sont concernés par cette laïcité ou le fait d' être non confessionnel à partir du moment où ils entrent en fonction. (3) maallisuusperiaate « le principe de sécularisation » Laïcité eli maallisuusperiaattella tarkoitetaan uskonnon ja valtiovallan eroa toisistaan. (Helsingin Sanomat, 11 janvier 2005) La laïcité ou principe de sécularisation désigne la séparation entre la religion et les pouvoirs publics. (4) maallisuuden periaate « le principe de la sécularisation » Maallisuuden periaatteeseen (laïcité) nojaava laki kun kieltää huivit ja muut “huomiota herättävät uskonnolliset tunnukset” valtion kouluissa. (Helsingin Sanomat, 28 novembre 2004) La loi basée sur le principe de laïcité interdit le port de foulards et autres « signes religieux voyants » dans les écoles publiques. (5) ei-uskonnollisuus « non religiosité » Ranskan valtio ja kirkko erotettiin toisistaan vuonna 1905 ja siitä lähtien ei-uskonnollisuus (laïcité) on valvonut perustuslain noudattamista. (Ranskan uutiset.com, 5 avril 2005) L' État et l' Église ont été séparés en 1905 et depuis, la non religiosité (laïcité) veille à ce que la Constitution soit respectée. Certains locuteurs proposent le mot maallisuus pour traduire laïcité. Ce substantif, qui se laisse traduire littéralement par « le fait d' être terrestre », a été formé à partir de l'adjectif maallinen (« terrestre ») qui, de son côté, vient du substantif maa (« terre »). Maallinen est le contraire de hengellinen « spirituel ». Parfois, maallisuus est accompagné de periaate (« principe »). Tunnuksettomuus est un autre substantif utilisé pour traduire le xénisme. Il vient de l'adjectif tunnukseton (« non confessionnel »), qui est l'antonyme de tunnustuksellinen (« confessionnel »). Ces équivalences par un lexème finnois unique proposent des approximations larges de laïcité; elles n'en cernent pas avec précision les contours sémantiques. Les locuteurs recourent parfois à la périphrase pour tenter de mieux saisir le sens de laïcité. Certaines traductions insistent sur le principe de séparation ou sur la neutralité des relations entre le domaine religieux et l' État : (6) kirkon ja valtion ero « la séparation entre l' Église et l' État » Kirkon ja valtion ero toteutettiin lailla vuonna 1905 eli tänä vuonna tulee vuosisata tästä “ranskalaisesta keksinnöstä ”. (VapariForum, 24 janvier 2005) La séparation entre l' Église et l' État a été édictée par une loi en 1905; autrement dit, cette « invention française » a cent ans cette année (7) kirkon ja vation tiukka erottaminen « la stricte séparation entre l' Église et l' État » Ranskassa kirkon ja valtion tiukan erottamisen eli laïcité-periaatteen varjolla kielletään uskonnon symbolien käyttäminen koulussa. (Kristillinen kasvatus, janvier 2004) En France, par la séparation stricte entre l' Église et l' État ou principe de laïcité, on interdit le port de symboles religieux à l'école. (8) valtion ja kirkon erillisyys « la séparation entre l' État et l' Église » Ranskassa laïcité (eli valtion ja kirkon erillisyys) on niin voimakas periaate, että tuo laki tuntuu useimmista luonnolliselta. (Suomi 24 keskustelu, 22 décembre 2003) En France, la laïcité (ou séparation entre l' État et l' Église) est un principe tellement fort que les gens considèrent cette loi comme naturelle. (9) valtion ja uskontojen neutraalit välit « la neutralité des relations entre l' État et les religions » Tutkimus tarkastelee uskonnon paikkaa ranskalaisessa yhteiskunnassa määrittelevää laïcité-periaatetta, jolla tarkoitetaan valtion ja uskontojen neutraaleja välejä. (Helsingin Sanomat, 12 mai 2003)L'étude examine le principe de laïcité, qui détermine la place de la religion dans la société française et qui signifie la neutralité des relations entre l' État et les religions. D'autres mettent l'accent sur la séparation entre religion et système scolaire ou encore entre, d'une part, l' Église et, d'autre part, l'administration, le système scolaire et la politique : (10) uskonto ja koululaitos on erotettu toisistaan « la religion et le système scolaire ont été séparés l'une de l'autre » Ranskassa uskonto ja koululaitos on erotettu toisistaan (principe de laïcité). (Ranskan uutiset. com, 2 septembre 2004) En France, la religion et le système scolaire ont été séparés l'un de l'autre. (11) uskonnon täydellinen erottaminen hallinnosta, koulujärjestelmästä ja politiikasta « la séparation complète entre la religion et l'administration, le système éducatif et la politique » Senegalin koulujärjestelmä luotiin siirtomaa-aikan ranskalaisen mallin mukaan. Sen kulmakiviä olivat ja ovat edelleen ranskan kieli ja ranskalaisille niin tärkeä laïcité eli uskonnon täydellinen erottaminen hallinnosta, koulujärjestelmästä ja politiikasta. (VapariForum, 24 janvier 2005) Le système scolaire sénégalais a été créé durant la colonisation selon le modèle français. Les points importants de ce système étaient et demeurent la langue française et la laïcité si chère aux Français, c'est-à-dire la séparation totale entre la religion et l'administration, le système scolaire et la politique. Certains locuteurs disent qu'il s'agit d'une loi, d'autres éprouvent le besoin de gloser une traduction par une autre traduction : (12) maallisuuden periaatteeseen nojautuva laki « une loi basée sur le principe de sécularisation » (voir supra ex. 4) maallisuus eli siis ei-uskonnollisuus (Ranskan uutiset. com, 12 avril 2004) Le fait d' être séculier ou, autrement dit, la non religiosité. Depuis 2004, beaucoup de Finlandais associent le concept de laïcité à l'interdiction de porter le foulard. Ainsi le mot composé huivilaki « la loi du foulard » est fréquemment proposé pour traduire laïcité : (13) Sieppaajat vaativat Ranskan kumoamaan vasta voimaan tulleen “huivilain” (la loi sur la laïcité), joka kieltää näkyvien uskonnollisten tunnusmerkkien käytön koulussa. (Ranskan uutiset. com, 2 septembre 2004) Les ravisseurs exigent que la France supprime la loi du foulard (la loi sur la laïcité) qui interdit le port de signes religieux voyants à l'école. Comparons ces gloses à la définition donnée par le Trésor de la langue française : A. – Principe de séparation dans l' État de la société civile et de la société religieuse. B. – Caractère des institutions, publiques ou privées, qui, selon ce principe, sont in-dépendantes du clergé et des Églises; impartialité, neutralité de l' État à l'égard des Églises et de toute confession religieuse. Principe de séparation de la société civile et de la société religieuse, l' État n'exerçant aucun pouvoir religieux et les Églises aucun pouvoir politique. On peut constater que, dans la langue d'origine, le concept de laïcité correspond à un principe de séparation plus général que les applications particulières auxquelles pensent certains locuteurs finlandais. Ces différentes traductions semblent démontrer que les locuteurs ont du mal à trouver, même en passant par des périphrases, l'équivalent exact du mot laïcité en finnois. Ces difficultés sont rencontrées aussi bien par les auteurs des énoncés extraits des journaux et magazines que par les internautes des forums. S'agit-il d'un ancrage résolu dans la vie temporelle ? Ou s'agit-il plutôt d'une séparation entre le domaine religieux et l' État ou entre l' Église et l'école ? Les expressions proposées ne possèdent pas tous les sèmes nécessaires pour saisir le sens juste de la réalité désignée. Le cadre historique, idéologique et politique de la Finlande est très différent de celui de la France. En effet, la Finlande est un petit pays très homogène, aussi bien au niveau culturel que religieux. La proportion d'étrangers dans la population finlandaise est parmi les moins élevées d'Europe (2 %). Les groupes les plus importants sont constitués par les Russes, les Estoniens, les Suédois, les Somaliens et les Irakiens. La Finlande a accueilli des étrangers pour des raisons diverses : actions humanitaires, regroupement familial, besoin de main-d'œuvre, accueil d'étudiants. Ce pays, qui faisait partie de la Suède jusqu'au 19 e siècle et qui fut constitué, en 1809, en un grand-duché dépendant de la Russie, a obtenu son indépendance en 1917 seulement. L'Eglise a souvent été une alliée politique des Finlandais dans sa difficile conquête de l'indépendance. Par exemple, la Guerre d'Hiver contre l'URSS (1939-1940) a été marquée par une lutte pour la défense du triple principe « famille, foi, patrie ». La volonté de défendre son pays avait ainsi des tonalités fortement religieuses. L'indépendance administrative et financière de l' Église est aujourd'hui considérable : les paroisses tiennent les registres d'état civil de la population et le conseil familial, ainsi que l'action en faveur de la jeunesse, font partie des tâches de l' Église. C'est par le culte, les divers offices et rites religieux que l' Église touche le mieux ses membres; 89 % des enfants sont baptisés, 90 % des adolescents prennent part à la préparation en vue de la confirmation et sont confirmés, 80 % des couples se marient à l'église. Le concept de laïcité semble très loin des préoccupations des Finlandais. Parfois le locuteur ne se satisfait pas de la simple traduction : il se lance dans des explications plus étendues sur le référent. L'extrait qui suit, par exemple, met en relief des évènements historiques qui aident à saisir le sens de laïcité : (14) Ranskassa on suuresta vallankumouksesta saakka (pieniä taukoja lukuunottamatta) ollut vallalla n.k. laïcité-periaate, jonka mukaan maallisen valtion on oltava uskonnollisesti täysin neutraali, eikä mitään uskontoa saa julkisuudessa suosia. Viimeaikainen kohuttu koulujen huivikielto (joka tosiasiassa koskee kaikkia uskonnollisia tunnuksia, kuten ristejä ja Daavidin tähtiä) on hyvä esimerkki laïcité-periaatteesta. Käytännössä laïcité-periaate on saanut usein voimakkaan uskonnon - ja eritoten kristinuskon vastaisia piirteitä. Jopa Ranskassa vallitsevan katolisen kirkon toimintaa on periaatteen nojalla rajoitettu voimakkaasti. Vielä paljon raskaammin on laïcité-periaate koskenut pieniin protestanttisiin yhteisöihin sekä Jehovan todistajien tapaisiin reunaprotestanttisiin yhteisöihin. (Hourglass2 Outpost, 9 mai 2004) En France, depuis la grande Révolution (malgré quelques intermèdes), règne un principe de laïcité selon lequel l' État doit être totalement neutre par rapport à la religion, et aucune religion ne doit être favorisée ouvertement. L'interdiction de porter le foulard à l'école, qui a récemment défrayé la chronique (interdiction qui concerne en fait tous les signes religieux, comme les croix et les étoiles de David), est un bon exemple du principe de laïcité. En réalité, ce principe semble parfois agir contre la religion, surtout la religion chrétienne. Ce principe a même restreint les activités de l' Église en France. Le principe de laïcité a touché encore davantage les petites communautés protestantes ainsi que celles qui se trouvent aux frontières du protestantisme, telles les témoins de Jehovah. Cette explication, extraite du forum animé par les témoins de Jehovah, est relativement traditionnelle, mais on peut aussi rencontrer des interprétations plus originales qui se placent plutôt du point de vue sociologique. La citation suivante, trouvée dans le magazine hebdomadaire des chrétiens-démocrates, par exemple, se focalise sur la structure générale de la société : (15) Valtionkirkko on ajat sitten lähtenyt palvelemaan korruptoituneiden ja poliittisesta vallasta pitävien patriarkkojen etua, ja iloinen, moniarvoinen uskonnollisuus on unohtunut ajat sitten – toisena esimerkkinä on Ranskan tiukka laïcité, kirkon ja valtion ero, jossa yhden laimean kaikille sopivan yhteisön sijaan on monenmonia heterogeenisiä pieniä uskontokuntia : osa iloisia ja värikkäitä railakkaine gospel-jumalanpalveluksineen, osa hiljaisia ja synkkiä. (Kristillisdemokraattinen viikkolehti, 28 mai 2005) L' Église officielle a commencé il y a déjà longtemps à servir les intérêts des patriarches corrompus avides de pouvoir et la pratique religieuse joyeuse et pluraliste a été oubliée – un autre exemple est la laïcité stricte de la France, la séparation entre l' Église et l' État, où, à la place d'une communauté terne et fade qui convient à tout le monde, il existe de petites religions hétérogènes. Les unes sont gaies et bigarrées avec leurs gospels, les autres silencieuses et austères. Les explications suivantes, tirées d'un forum sans orientation politique ni religieuse, se concentrent sur les comportements sociaux de l'individu : (16) Ranskan kielen sana laïcité, jota koko ajan käytetään, on hieman vaikea kääntää, koska käsitteen sisältö on Ranskassa valtion ja uskontojen erottamisen pitkällisen historian seurauksena enemmän kuin « tunnustuksettomuus », jota se pohjimmiltaan tarkoittaa, mutta lisäksi siinä on ajatus yksityisen ja julkisen puolen erottamisesta toisistaan, toisin sanoen yksityisesti voi tunnustaa ja harjoittaa uskontoa, mutta valtion virassa tai koulussa on pitäydyttävä tunnustuksettomuudessa. (Näkökulma, 17 décembre 2003) Le mot du lexique du français laïcité, qui est employé constamment, est assez difficile à traduire parce que le contenu du concept dépasse le sens strict du terme, et exprime une idée de séparation entre vie privée et vie publique; autrement dit, on peut pratiquer une religion d'une façon individuelle, mais lorsqu'on travaille pour l' État ou pour l'école, on est contraint d' être laïc. Plusieurs précisions sont données pour clarifier la notion de laïcité dans les énoncés étudiés. Certains locuteurs expliquent que la laïcité interdit le port de foulards et autres signes voyants dans les écoles publiques. Pour d'autres, ce concept signifie que la France se transforme en une société multiculturelle et tolérante ou que l' État ne reconnait pas les minorités religieuses et ethniques et ne recense pas leurs membres. Certains énoncés précisent que la religion ne devrait pas s'occuper des affaires de la société laïque et vice versa. Comme on peut le constater dans d'autres cas d'emprunt, le mot venu d'ailleurs combine souvent explications et commentaires axiologiques. La glose peut se caractériser par une orientation évaluative envers le référent présenté en portant sur celui -ci un jugement positif ou négatif. Elle peut avoir comme but, par exemple, de faire assimiler ou, au contraire, de rejeter le référent. Il arrive que les explications contiennent des commentaires axiologiques, comme dans les gloses suivantes : ranskan tiukka laïcité « la laïcité stricte de la France » (ex. 15 supra) ranskalaisille niin tärkeä laïcité « la laïcité si chère aux Français » (ex. 11 supra) tämä ranskalainen keksintö « cette invention française » (ex. 6 supra) Agacement, moquerie ou scepticisme, le locuteur marque alors une certaine distance par rapport au mot laïcité. Mais la plupart du temps, ceux qui emploient ce xénisme dans leurs énoncés semblent être animés par la curiosité envers ce phénomène français. On a l'impression qu'ils essaient de comprendre le sens du mot emprunté et de l'expliquer aux autres. Ils ne développent pas d'arguments pour le faire accepter en finnois. Ils n'en développent pas non plus pour le rejeter. Les réactions des locuteurs envers laïcité ne seraient sans doute pas aussi neutres si la réalité désignée par ce mot était en voie d'intégration en Finlande. Or, les Finlandais, très attachés à leur système qui unit le domaine religieux et l' État, ne semblent pas avoir l'intention d'adopter le concept de laïcité dans leur pays. Les réactions des locuteurs envers le mot laïcité ne seraient sans doute pas non plus aussi neutres si les mots français étaient considérés comme une menace pour le finnois. Les mots empruntés au français en finnois se trouvent surtout dans des domaines qui touchent la mode, la coiffure, la cuisine ou la culture. Parfois, la réalité désignée ne possède pas de nom en finnois et cette lacune conduit à employer le nom en français. Parfois encore, la réalité désignée possède un nom en finnois, mais l'emploi du mot français semble aider à saisir l'authenticité de ce référent en lui donnant plus de précision et de force que son équivalent en finnois. Il arrive aussi que le référent possède un nom en finnois, mais l'emploi du mot français semble être plus élégant, plus sérieux ou, au contraire, plus amusant que son équivalent en finnois. Comme les emprunts au français sont peu nombreux en finnois, ceux -ci, au lieu d' être rejetés, sont plutôt bien accueillis par les locuteurs finlandais. Il en va différemment avec les emprunts à l'anglais. L'anglicisme est quantitativement dominant parmi les mots étrangers récemment implantés en finnois. Un grand nombre d'anglicismes peuvent sembler contestables dans la mesure où ils ne sont pas nécessaires. Le prestige des États‑Unis, leur puissance économique et leur avance technoscientifique suscitent un flot d'emprunts même lorsque le finnois possède déjà le mot qui convient. Ainsi l'anglicisme, qui relevait autrefois d'un snobisme des classes aisées, exerce aujourd'hui une pression qui touche toutes les classes de la société, et largement les adolescents. Le suédois est la deuxième langue officielle en Finlande. Il est intéressant de réfléchir rapidement sur les gloses du mot laïcité dans les énoncés produits par les suédophones vivant en Finlande. On y trouve les mêmes types de gloses que dans les énoncés des finnophones : (17) « Laïcité » : detta begrepp innebär ett starkt åtskiljande mellan en religiös och en sekulär sfär. (Diakonivetenskapliga institutet, 4 juin 2004) « Laïcité » : cette notion signifie qu'il y a une forte séparation entre la sphère religieuse et la sphère séculière. (18) Frankrike har ju haft en lång tradition av att betona statens konfessionslöshet – den så kallade laïcité-doktrinen. (Näkökulma, 11 mars 2004) La France souligne traditionnellement la non-confessionnalité de l' État – ce qu'on appelle la doctrine de laïcité. (19) Denna debatt ställer viktiga frågor om värderingar djupt rotade i den franska folksjälen : respect för medborgerliga rättigheter, religionsfrihet och framför allt « laïcité », ett uttryck son bäst översätts till « åtskillnad mellan kyrka och stat ». (Offensiv, 19 février2004) Ce débat soulève des questions importantes sur l'évaluation de la mentalité nationale française enracinée en profondeur : le respect des droits civiques, la liberté du culte et avant tout la « laïcité », une expression qu'on traduit le mieux par « distinction entre l' Église et l' État ». Les différentes traductions proposées pour le mot laïcité (« forte séparation entre la sphère religieuse et la sphère séculière », « non-confessionnalité »), ainsi que les commentaires sur les traductions (ex. expression qu'on traduit le mieux par « distinction entre l' Église et l' État », dans l'extrait précédent) soulignent bien les difficultés éprouvées par les locuteurs suédophones pour saisir les contours de la notion. Il n'en est peut-être pas tout à fait de même dans les énoncés des sué-dophones vivant en Suède. Ce pays est resté longtemps ethniquement homogène. Sa démographie a connu une mutation radicale au cours des cinquante dernières années avec l'afflux de centaines de milliers d'immigrants venus de toutes les régions du monde. Actuellement, environ 20 % de sa population est d'origine étrangère. En peu de temps, l'immigration a apporté des changements spectaculaires et fait de la Suède un pays multiculturel et cosmopolite. En janvier 2000, l' Église de Suède, luthérienne et évangélique, a coupé ses liens de dépendance avec l' État et elle se trouve aujourd'hui sur un pied d'égalité avec les autres Églises. Chez les immigrés, l' Église catholique romaine et les Églises orthodoxe et orientale sont les plus importantes. Le nombre de musulmans a fortement augmenté, des mosquées sont construites en divers points du pays. Sans avoir mené sur les gloses de laïcité en suédois une enquête aussi approfondie que sur ses gloses en finnois, j'ai pu cependant rencontrer dans la presse suédoise l'expression d'un point de vue nettement critique sur ce concept, comme en témoigne le passage suivant : (20) Frankrike står inför en konfrontation mellan historiska ideal från franska revolutionen om statens separation från kyrkans makt (även kallad laïcité eller det konfessionslösa samhället) och ett mångkulturellt samhälle där intergrationen i verkligheten inte alltid följt vackra ideal. Instället känner sig alltfler andra och tredje generationens invandrare exkluderade från det moderna franska samhället. Därför söker de sin identitet på annat håll, i sin kulturella och religiösa tillhörighet, vilka ibland tar sig extrema uttryck i fundamentalism och extremism. (Stockholms Fria Tidning, 12 février 2004) La France se trouve devant une confrontation entre un idéal historique issu de la Révolution française – la libération de l' État vis-à-vis du pouvoir de l' Église (que l'on appelle laïcité ou société non-confessionnelle) et une société multiculturelle où l'intégration, en réalité, ne correspond pas toujours aux beaux idéaux. De plus en plus d'immigrés de la deuxième ou de la troisième génération se sentent exclus de la société française moderne. C'est pour cela qu'ils cherchent leur identité ailleurs, dans leur appartenance culturelle et religieuse, ce qui parfois se manifeste d'une façon excessive par le fondamentalisme ou l'extrémisme. La laïcité est ici regardée comme un de ces « beaux idéaux » sans référence dans la réalité sociale. Les particularités liées aux contextes socioculturels, politiques, historiques ou idéologiques des pays des langues emprunteuses peuvent changer considérablement le discours des locuteurs, aussi bien sur le mot laïcité que sur le concept de laïcité. La Finlande, pays ethniquement très homogène, n'a peut-être pas la même vision des choses que son voisin cosmopolite et multiculturel. Le mot emprunté a toutes les chances de s'introduire dans l'usage de l'ensemble des locuteurs s'il est considéré comme utile, si son intégration dans le système de la langue ne pose pas trop de problèmes, si le statut socioculturel de la langue-source par rapport à la langue-cible est réputé prestigieux, etc. Progressivement, il prend sa place dans la structure de la langue et établit des relations avec les unités préalablement existantes. Le succès des emprunts dépend donc considérablement du jugement collectif des sujets parlants sur les civilisations dont ils témoignent. Selon Josette Rey-Debove (1997, p. 283), le mot étranger est employé d'abord « timidement », avec des caractères italiques, des guillemets ou des commentaires, par quelques personnes, puis sans précautions et plus ou moins massivement. Le mouvement de codification va de l'appartenance au lexique total vers l'appartenance au lexique commun. Les mots étrangers qui font partie du lexique commun sont codifiés. En revanche, les mots étrangers connus d'une partie seulement des usagers sont plus ou moins codifiés selon leur fréquence. Le mot étranger se trouve d'abord hors code; il est signalé comme nom étranger d'une réalité étrangère. C'est la relation métalinguistique entre deux signes qui assure la compréhension de l'énoncé : le mot emprunté est d'abord accompagné du mot (ou de la périphrase synonymique) de la langue emprunteuse qui le glose. Quand le mot étranger n'est plus mis en relation avec le mot de la langue emprunteuse, l'énoncé est jugé compréhensible par l'encodeur : à ce stade, on estime que l'emprunt est codifié. On peut se demander quel sera l'avenir du mot français laïcité en finnois. On note qu'il n'apparaissait que très rarement dans les médias et les conversations courantes en Finlande avant 2004. Il est devenu à la mode avec la loi sur la laïcité récemment votée en France. Il est toujours glosé dans les énoncés étudiés et la variété des gloses qui l'accompagnent montre la difficulté de saisir le concept. Sera -t-il adopté par le finnois ou sera -t-il délaissé avec l'oubli des discussions nourries par cette fameuse loi ? Plusieurs arguments semblent plaider en faveur de l'éventuelle adoption du mot laïcité en finnois. En effet, on a pu constater que les locuteurs finlandais éprouvent le besoin d'introduire ce mot dans leurs discours pour combler une lacune lexicale et désigner d'une façon efficace le référent typiquement français. On peut noter également que ce mot est facile à prononcer pour les Finlandais; cet aspect pourrait faciliter son intégration dans le système formel de la langue. En outre, les emprunts au français ne semblent pas être considérés comme une menace pour le finnois. Bien au contraire, les mots français semblent jouir d'un certain prestige chez les Finlandais. La loi sur la laïcité a été votée en France, mais les réflexions sur le concept de laïcité ne seront certainement pas oubliées par les locuteurs dans un monde moderne où coexistent et s'affrontent parfois différentes religions. Tous ces critères semblent soutenir la lexicalisation de l'emprunt laïcité en finnois. Cependant les Finlandais, vivant en harmonie avec leur système confessionnel, ne semblent pas actuellement avoir l'intention d'adopter le concept de laïcité dans leur pays. Eprouveront-ils le besoin d'intégrer le mot si le référent qu'il désigne n'est pas lui -même intégré ? Il nous manque le recul du temps pour savoir si le mot laïcité n'aura fait qu'une apparition sans lendemain dans la langue finnoise, s'il se lexicalisera tout en demeurant un xénisme, ou s'il deviendra un jour un emprunt codifié . | Le mot français laïcité apparaît de plus en plus souvent dans les médias et les conversations courantes en Finlande. Les différentes équivalences sémantiques employées par les locuteurs pour rendre ce xénisme compréhensible aux Finlandais montrent la difficulté de saisir le concept de laïcité. L'observation des réactions des locuteurs, aussi bien envers ce concept qu'envers le mot français, nous incite à nous interroger sur l'avenir de ce mot en finnois. | linguistique_10-0051839_tei_707.xml |
termith-724-linguistique | Les mises en récit savantes ou indigènes du politique s'attardent rarement sur les modalités pratiques de l'écriture parlementaire et sur la qualité des individus dont le travail principal est de « tenir la plume » (Abélès, 2000, p. 110-113). Il est vrai que le principe de l'individuation de la création laisse peu de place à l'analyse des conditions matérielles et humaines qui ont permis la constitution d'écrits aussi ordinaires que des lettres adressées à des électeurs ou des courriers envoyés à des administrations. Et puis, si pour un livre de mémoire politique, le nom du signataire s'offre comme un simulacre des conditions de sa production, il n'en est pas de même avec des textes qui se font généralement sous un nom collectif. Pour mieux comprendre la spécificité des écrits que commande la routine démocratique, il apparait donc nécessaire de ne pas confondre l'auteur et leur fauteur véritable : des collaborateurs recrutés pour écrire par délégation. Un paradoxe apparent guidera alors l'examen du travail de ces assistants écrivants de parlementaires socialistes : recrutés pour à la fois valoriser l'action individuelle de leur député et produire de la singularité à partir d'éléments fabriqués par un collectif, ces collaborateurs savent puiser leur autonomie dans la soumission acceptée à ce mode d'écriture standardisé. C'est finalement en troquant le difficile travail d'exégèse de positions politiques trop souvent absentes contre des formes d'écriture d'expérimentation et en inventant, voire en subvertissant la parole commune offerte par leur groupe et leur Parti que les assistants parlementaires socialistes peuvent le mieux fonder une certaine forme de liberté statutaire. Ce détour par les coulisses de l'Assemblée nationale aura également pour but de comprendre comment l'analyse de cette écriture par délégation peut être susceptible de faciliter la compréhension de la manière dont le travail parlementaire se fait au quotidien. En somme, de voir en quoi l'ethnologie de micro-opérations d'écriture et des modalités interactionnelles des assistants socialistes peut aider à mieux appréhender la spécificité d'un groupe professionnel. Écriture de commande, l'écriture des collaborateurs de députés socialistes est avant tout une opération pragmatique inséparable des réseaux de contraintes pratiques au sein desquels ils s'insèrent, qu'ils soient liés aux conditions de travail de l'Assemblée nationale, à la nature de leur relation avec leur employeur ou aux conventions des codes narratifs de leur groupe parlementaire et du Parti socialiste. L'expression, par le député, de ses orientations politiques devrait être la première ressource qui borne et à la fois rend possible le travail d'écriture de l'assistant parlementaire. Paradoxalement, c'est celle qui commande le moins de constructions de sens. écrire, pour l'assistant, est davantage une activité pratique de reconfiguration de discours absents que le strict reflet d'une pensée dictée. Nombreux sont les assistants à se plaindre d'un mode de présentation elliptique de ces directives. Un député, ancien ministre de François Mitterrand, a ainsi pour habitude d'annoter ses courriers des indications suivantes : « Que répondre ? », « Que faire ? », « Je ne comprends pas », « Qui peut répondre à ce genre de lettre ? », « Je ne peux répondre à tout, qui au PS peut y répondre ? », « Me préparer lettre », « Voyez de près », « Je compte sur vous pour me préparer une lettre » … Son assistant, Jacques, à la lecture de ces formules lapidaires, est alors conduit à faire de la surinterprétation et à trouver des outils de substitution. Ces manières de répondre n'en sont donc pas véritablement. Les recommandations rédigées par les députés comme « AR », « excuses », « remerciements », « aider », indiquent surtout des modalités pratiques de tri à défaut de révéler des positions politiques. À travers ces commentaires implicites, le député délègue en fait à son assistant la formulation de ses prises de position politique. Comme le souligne Élisabeth, assistante d'un député président d'un conseil général du sud de la France, « l'élu est une sorte de chef de cuisine. Il donne l'arôme final. L'assistant, c'est le mec de l'ombre qui apporte la matière, les bons légumes. On ne le voit pas. Mais sans lui, le plat n'aurait pas la même saveur ! ». Les assistants sont ainsi conduits à supputer ce que pourrait penser leur député, à déchiffrer soit des traces laissées avec parcimonie, soit le plus souvent une page blanche, véritable « machine célibataire » selon la formule de Michel de Certeau (1980, p. 220). Ils doivent concevoir des manières de faire « sans » comme il y a des manières de faire « avec ». Bref : il leur faut chercher une manière de répondre plausible, vraisemblable et acceptable afin d'éviter d'intensifier une réalité par trop parcellaire. élisabeth résume ainsi son rôle d'assistante : « Ramener du fond à mon député, puisque le défaut principal des députés est d' être des zappeurs intellectuels ! ». Faute d'intention affirmée par leur député, les assistants sont donc contraints d'arrimer leur écriture à d'autres dispositifs politiques. Selon Pierre, collaborateur d'un député-maire du Nord de la France élu depuis 1988, « si mon député me met dans la marge, “voir groupe ”, cela veut dire, je me dém… ! ». Jean, assistant de deux nouveaux députés élus en 2002, reçoit la même consigne : « Quand mes députés n'ont pas d'avis, ils me disent : va voir au groupe. Ils ne demandent qu' à s'aligner. » Le groupe socialiste, en proposant l'accès à ses productions soit par l'intermédiaire de supports papier, soit par intranet, soit directement par l'entremise de ses collaborateurs, est de fait la ressource de substitution privilégiée par les assistants. L'auteur n'est alors plus le député mais le groupe politique dans lequel il s'insère. Le discours produit n'est plus celui d'un seul député mais résulte d'une mise en récit d'un groupe parlementaire dont il n'est qu'un des cosignataires. Le rôle du groupe socialiste est de favoriser le partage des informations par l'absence de copyright tout en encadrant les conditions d'usage et en restreignant l'accessibilité des contenus produits par ses assistants à un nombre limité d'utilisateurs. Deux brochures, les Cahiers du groupe socialiste et Tribune socialiste, accompagnées de revues de presse, sont ainsi distribuées tous les mardis matin lors de la réunion du groupe socialiste à laquelle peuvent assister les assistants. Ces deux journaux internes ont pour fonction de favoriser l'apprentissage parallèle de deux langages : le langage parlementaire ainsi que le langage socialiste. à travers cette production, le groupe souligne qu'écrire à l'Assemblée nationale, pour des députés socialistes, relève d'un type de récit spécifique ayant ses propres règles de style. Pour les assistants les moins expérimentés ou venant tout juste d' être recrutés, cette offre d'un mode d'emploi du Parlement et du Parti socialiste permet alors de mieux appréhender des « bonnes façons » d'écrire, comme le respect du mode de présentation d'une question écrite au gouvernement, la maitrise des techniques d'adresse à un tiers ou la réutilisation des conventions de style mi-administratives, mi-partisanes de l'échange épistolaire parlementaire. Ce rôle de passeur d'informations du groupe socialiste butte cependant sur les conditions de travail des assistants. Les exigences de rapidité imposées par les députés concourent ainsi à créer un écart entre les normes produites par le groupe et leur vécu. Même si, grâce au développement d'Internet, le support a pu changer et est censé favoriser plus facilement le « copier-coller », il reste que sa mise en circulation n'obéit pas à la même temporalité pratique que celle des collaborateurs parlementaires. La nécessité de composer dans l'urgence requiert des aides à l'écriture immédiatement utilisable alors que selon Pierre, « le groupe socialiste a un temps de réaction lent ». Comme le remarque également Catherine, assistante d'un député maire-adjoint d'une grande ville de l'Est de la France, « ça sort tellement tard ! Si j'attends deux ou trois mois, mon député ne sera jamais réélu ! Le courrier est parfois meilleur que ce que j'ai moi -même écrit, avec plus d'arguments, mais il arrive trop tard ». L'usage futur de la production écrite et orale du groupe socialiste n'est pas donc obligatoirement anticipé par ses auteurs. Des contraintes comme celle du rythme de la commande peuvent ainsi malmener le recours à ces aides à la fois techniques et politiques. Le groupe socialiste n'est cependant pas la seule instance qu'implique la spécialisation politique d'appareil. En effet, si le groupe fonctionne comme la principale institution discursive qui organise la reprise de sa production, d'autres ressources d'informations concurrentes ou complémentaires sont néanmoins accessibles. Le Parti socialiste est ainsi la deuxième institution interrogée. Avec la même infortune, semble -t-il, que pour le groupe. Aux critiques visant le retard dans l'obtention de réponses en est ajoutée cependant une plus importante : le filtrage, par les collaborateurs des secrétaires nationaux du PS, des ressources données selon le statut de l'assistant. Claire, assistante d'un nouveau député du Sud-Ouest de la France, rappelle ainsi que lorsqu'elle téléphone au siège du PS, l'impression qui la marque en premier est celle d'un isolement profond et d'un quasi-anonymat. « Quand j'appelle, on me répond au prénom de mon député : “Michel qui ?” On me répond de la même manière lorsque je donne son nom propre. On les “fait ch… ! ”. On se fait renvoyer de bureau en bureau. On les énerve. Je n'ai pas de référent au parti. C'est la débrouille totale ! ». On le voit : le travail d'écrivant de l'assistant est fortement encadré par son propre statut et par les ressources sociales de leur député. Plus le député a une position élevée au sein des instances nationales du PS, plus son assistant trouve d'appuis. À moins qu'il ne crée lui -même ses propres réseaux, avec notamment des répondants privilégiés au sein du groupe et du PS. Certains assistants (surtout ceux des anciens ministres, responsables du PS, élus de collectivités locales importantes) peuvent ainsi jouer simultanément sur plusieurs espaces sociaux. L'information émanant en direct du PS est, de fait, une ressource rare sur laquelle il est difficile de s'appuyer. Les assistants parlementaires souffrent ainsi moins de devoir choisir entre plusieurs paroles socialistes dont ils devraient faire la synthèse que de l'absence ou de la rareté de position clairement affichée par leur groupe politique ou leur parti. Comme si un « sens flottant » de l'action parlementaire socialiste répondait en écho au « sens flottant du militantisme ». Claire résume assez bien la difficile inscription idéologique du PS : « L'EPR (nouvelle génération de centrale nucléaire) : va savoir la position du PS. Il était à la fois pour et contre. Et les OGM : va trouver un argumentaire sur les OGM ! On n'a pas de position. Pour, contre, on flotte. » Catherine confirme : « Sur l'EPR, on est contre pour l'instant. » Le travail d'écriture des collaborateurs de députés socialistes s'apparente ainsi pour l'essentiel à la mise en récit d'une parole absente ou fragmentaire. Cependant, si le député n'a pas d'avis sur le courrier qu'il vient de recevoir, si le groupe socialiste procure une documentation fournie mais peu adaptée aux rythmes de la commande parlementaire et si les collaborateurs du siège national du Parti socialiste ne fournissent pas toujours de positions politiques tranchées nécessaires à l'écriture des réponses, il n'en demeure pas moins que ces prescriptions politiques, même très parcellaires, participent quand même à l'écriture parlementaire des assistants : moins comme des matrices d'homogénéisation politique que comme prétextes à de nouvelles inventions pratiques. Loin de freiner le travail des assistants, la mise en forme de positions politiques floues ou inexistantes peut paradoxalement favoriser leurs stratégies d'écriture parlementaire. Faute de positions politiques clairement définies, ils sont ainsi conduits à adopter deux stratégies différentes : soit se plier à la « disciplinarisation » du groupe socialiste en adoptant scrupuleusement ses règles et ses codes de mise en forme, à défaut de respecter ses consignes politiques, soit au contraire bricoler des positions de remplacement et inventer leurs propres manières d'écrire. L'essentiel, pour les assistants, se jouant alors moins dans la soumission à des formes existantes que dans leur variation, voire dans leur mise en concurrence. L'assistant-écrivant peut d'abord délibérément choisir de brider ses capacités d'initiative. Le travail d'inculcation de normes de pensée et de conventions stylistiques du groupe et du PS est alors pleinement assumé, même si l'unité d'écriture est surtout dans la cohérence du vocabulaire utilisé, des références maniées. « Tu choisis le mot emploi à la place du mot travail », souligne Philippe, assistant d'un député élu pour la première fois en 2002. L'adoption du « sens commun socialiste » fourni par le groupe parlementaire permet surtout de faciliter l'exercice de l'écriture parlementaire, notamment quand le nombre de lettres auxquelles il faut répondre est important. L'écriture des réponses aux lettres adressées par les lobbies est ainsi l'exercice qui commande le mieux le recours à la production du groupe socialiste où, à un envoi formaté, doit pouvoir correspondre symétriquement une réponse stéréotypée. D'autant que ces lettres ou ces cartes émanent le plus souvent d'organisations opposées au PS, comme l'Association des contribuables associés. L'usage d'une écriture moyenne ne correspond cependant pas seulement à des préoccupations pratiques : c'est également une manière de se protéger quand, par exemple, l'assistant possède une délégation de signature. Ainsi Jean, assistant de deux députés du Nord de la France, « signe sans qu'ils [les députés] voient », ce qui explique sa prudence. « Matériellement, c'est plus simple, mais ça m'oblige à faire plus attention. Je n'ai pas de filet de sécurité. » Ou quand l'assistant, comme Pierre, refuse de trancher entre plusieurs positions ou en l'absence de position : « Quand je ne sais pas, je fais une réponse bateau, je ne me mouille pas. Je préfère noyer le poisson. » La reprise in extenso de la production du groupe ou la constitution d'une sorte de moyenne arithmétique de positions contradictoires permet de mettre à distance son travail. En « reproduisant plutôt qu'en produisant », selon l'expression de Philippe, l'assistant a la possibilité de suspendre son propre jugement politique. Ainsi pour Philippe, « on pratique la langue de bois. On ne se lâche pas beaucoup. La tendance est au consensus mou ». De fait, les assistants peuvent puiser une certaine forme d'autonomie dans la soumission acceptée à un mode d'écriture standardisé et à l'usage d'un registre d'expression que l'on peut qualifier de « prudentiel ». La collectivisation des ressources politiques aboutissant alors à un apparent paradoxe : dépolitiser l'écriture parlementaire par l'usage docile de formules préétablies dans le lieu par excellence de l'expression politique. C'est d'une certaine manière le choix d'un régime particulier de valeur (Heinich, 1995) : la « communauté » ou la remise de soi au groupe parlementaire contre la singularité de l'identité professionnelle de l'assistant. Comme le souligne Laure, « on ne demande pas à l'assistant d'avoir une position, on lui demande de recueillir des informations ». Pour des sujets plus techniques, les assistants choisissent très souvent de contourner l'absence de position politique de leur député ou du PS en s'adressant directement aux collaborateurs de députés responsables de secteurs ou de textes discutés. Comme le remarque Laure, « si pour connaître la position officielle, je vais voir le groupe, lorsque je veux connaître la position technique, je vais voir l'assistant du député responsable technique. Si ce n'est pas un “cave ”, il aura des infos ! » Selon Pierre, « un petit groupe de députés dicte en fait la position officielle du parti. Sur la santé, c'est untel, sur la justice, c'est un autre. Il faut donc aller voir directement ce député ou son assistant ». Claire confirme qu'au PS, « quelques personnes déterminent la ligne du parti. Pour la défense, quand je reprends Jean-Michel Boucheron, c'est sa parole à lui. De lui -même, il pond ça tout seul ». Ces stratégies pragmatiques d'écriture mettent au jour une sorte de groupe socialiste officieux, parallèle au groupe socialiste officiel, producteur d'un autre « sens commun socialiste », fonctionnant essentiellement par capillarité et de reprise en reprise. De fait, l'étude du travail d'homogénéisation de la parole socialiste à l'Assemblée nationale ne peut se concevoir sans prendre en compte la « constellation des appartenances » (Collovald, 2002, p. 218) de tous ceux qui y participent, qu'elles relèvent de réseaux plus classiques ou qu'elles résultent de formes d'échanges collaboratifs alternatifs. Le travail des collaborateurs de députés socialistes est, de fait, inséparable de la configuration sociale, professionnelle, politique et également amicale dans lequel il s'inscrit. Ainsi Claire explique que « quand on se croise sur les canapés du 5 e [étage du bâtiment Jacques Chaban-Delmas qui regroupe le plus d'assistants socialistes ], on se dit “qui a écrit ça ”. On fabrique une sorte de bourse d'échanges […] On s'aide entre nous ». Un autre assistant confirme : « On fonctionne au bouche-à-oreille. Quand tu sais que telle personne a fait une réponse et que le groupe n'a rien fait, tu vas le voir. » Jean rappelle ainsi : « à travers l'exemple de la pétition Stop the Wall, des potes assistants m'ont donné la réponse. On a une espèce d'échange. » La capitalisation des expériences vient ainsi suppléer l'absence de mise en cohérence officielle. Par effet de circularité, la production d'un assistant peut même devenir à son tour la position du groupe socialiste et, par là même, une source d'aide pour les autres assistants à travers la presse interne du groupe. En fonction des spécialités des uns et des autres, une forme de sous-traitance est organisée entre assistants afin de créer une mutualisation des productions individuelles. On sait que l'un est spécialisé en droit de l'environnement, un autre en questions d'éducation. Sociabilité, effet d'étage, proximité géographique… concourent à une forme d'unité politique « pratique », par opposition à une unité politique « stratégique » que développerait le groupe socialiste ou les collaborateurs du siège national du PS. Au lieu de présupposer un « texte unique » qui connaitrait différentes variations en fonction du travail d'appropriation des assistants parlementaires, il serait donc préférable, en suivant ici les analyses de l'historien des pratiques de l'écrit, Christian Jouhaud, de parler de « grégarités textuelles » (Jouhaud, 2003, p. 34), c'est-à-dire de textes parlementaires fonctionnant sous la forme de réseaux d'écrits et d'hommes. En fonction des contextes d'implantation de leur député, les assistants peuvent également personnaliser la production du groupe, apporter des aménagements, retirer des passages, en ajouter d'autres. Comme le remarque Nelly, assistante d'un jeune député membre du NPS, « pour mes courriers, je repique des éléments de réponses techniques du groupe que j'aménage pour tenir compte des problématiques locales ». Claire, à partir de l'exemple des courriers des bouilleurs de crus, souligne qu'elle doit « jongler entre la position du parti, notamment sur la loi évin et la situation locale, la tradition, la culture. On ménage la chèvre et le chou ! Même si en général, que ce soit sur la proposition de loi sur le vin ou sur la chasse, on tranche entre le local et le national en faveur des intérêts locaux ». Si, comme Rémi Lefebvre et Frédéric Sawicki, on peut souligner que « les socialistes tendent à penser de moins en moins l'ordre social comme un tout et de plus en plus la société comme une agrégation d'individus » (2006, p. 222), on peut également être tenté d'ajouter que le Parti socialiste tend à reproduire dans le fonctionnement de son groupe parlementaire ce même rapport particulier au collectif en activant une représentation très autonome du lien partisan. Comme le résume Pierre : « la règle est diluée dans l'exception ». Le recours à d'autres formes d'unités politiques parallèles au groupe n'est cependant pas toujours possible. Comme le souligne Catherine, « en parlant avec d'autres assistants du dossier énergie, je me suis aperçue que l'on diffusait tous des positions carrément différentes ». Le « je me débrouille toute seule » qu'exprime par exemple Claire correspond ainsi moins à un aveu de faiblesse (je ne trouve pas de sources d'information, mes recherches ont échoué…) qu' à une revendication de créer ses propres instruments d'écriture. Pour Pierre, « quand on n'a pas de réponse, je fais à mon idée, j'extrapole ». Philippe dit quant à lui qu'il s'autogère : « Je crée mon propre travail. » Ou, toujours selon Claire : « Sur les OGM, je suis contre, donc je le mets, avec mon vécu personnel, comme mon député n'a pas de position… » Cette revendication d'écrire seul peut enfin rejoindre des intérêts plus catégoriels liés à des affirmations statutaires. Pour certains assistants, en facilitant la circulation des informations politiques, le groupe socialiste tend à réduire la pratique professionnelle des collaborateurs à de simples routines d'exécution. La contestation de la pertinence des supports d'information préformatés fournis par le groupe ou par les collaborateurs du siège national du PS ne traduit alors pas une résistance à un engagement politique : en aménageant ou en refusant cette économie dans l'écriture parlementaire, certains assistants, notamment les plus diplômés et ceux dont les ressources propres (sociales et partisanes) sont les plus développées, trouvent surtout là un moyen d'enrayer l'invisibilité de leur groupe professionnel. Ce travail individuel de mise en forme que l'on peut qualifier de resingularisation (j'écris moi -même, je ne me contente pas de reproduire des textes déjà écrits) revient finalement à rejeter tous les éléments déjà « prêts à l'emploi » qui, à trop faciliter la tâche de l'assistant, disqualifient le métier d'assistant et portent atteinte à son intégrité professionnelle. L'attention portée au travail d'écrivant des assistants de députés socialistes rencontre deux types de remarques. Le premier met en évidence que les collaborateurs parlementaires ne se contentent pas de reprendre, de manière disciplinée, la production discursive du groupe socialiste. L'Assemblée nationale est un lieu social où les pratiques d'écriture des assistants portent des appropriations qui réinterprètent le travail d'homogénéisation politique de leur groupe parlementaire. Faute d'horizon d'attente clairement défini par leur député, les assistants sont conduits à bricoler des positions politiques de substitution. écrire par délégation n'est donc pas un simple acte mécanique. Les contraintes pratiques qui pèsent sur l'écriture parlementaire obligent les assistants de députés socialistes à inventer leurs propres manières d'écrire à partir d'un espace des possibles restreint. L'étude des catégories langagières maniées par les acteurs et les réseaux collaboratifs dans lesquels ils s'insèrent permet ainsi de mieux rendre visible le travail sur les écarts et les stratégies de contournement des assistants. Le deuxième type de remarques met en évidence la fragilité statutaire d'un groupe professionnel. Si le groupe socialiste fonctionne comme une entreprise politique, il continue à nier les conséquences pratiques de la division du travail parlementaire. Participants de l'autonomisation de l'activité politique, les collaborateurs de députés restent les rouages invisibles du travail parlementaire. Le détour par l'observation ethnographique des pratiques professionnelles est donc important. à défaut d' être un auteur, l'assistant accepte déjà la position de l'écrivant. à défaut d'une représentation collective de la profession d'assistant parlementaire à l'Assemblée nationale, il reste des pratiques et des objets – des lettres, des courriers, des questions écrites… – qui permettent d'attester un travail de collaboration avec un député . | Faute d'horizon d'attente clairement défini par leur employeur, les assistants parlementaires de députés socialistes sont contraints de bricoler des positions politiques de substitution et d'inventer leurs propres manières d'écrire. L'essentiel pour ces assistants se jouant alors moins dans la soumission aux codes narratifs de leur groupe parlementaire et du Parti socialiste que dans leur variation, voire dans leur mise en concurrence. | linguistique_10-0210282_tei_502.xml |
termith-725-linguistique | Ces trois termes, qu'ils soient ou non clairement spécifiés dans leur différence, renvoient à l'étude de la signification. Leur émergence relève d'une histoire qui a partie liée avec celle de la philosophie et celle de la linguistique; je ne l'aborderai ici qu'en essayant de situer leur emploi chez Benveniste qui les distingue et théorise cette distinction, en particulier dans le programme général qu'il assigne à la linguistique dans la fin des années 60. Dans ses analyses empiriques comme dans ce programme global, Benveniste se donne comme le continuateur de Saussure, fidèle au maître mais se proposant d'aller plus loin sur la question de la signification et dans le développement du projet de sémiologie générale : Il nous incombe d'aller au-delà du point où Saussure s'est arrêté dans l'analyse de la langue comme système signifiant (1966 : I-219). Dans un premier temps j'examinerai la place de la signification dans les descriptions empiriques de Benveniste; on verra qu'elle est d'abord non problématique. Elle ne présente un problème théorique que dans un deuxième temps, problème qui se formule et se précise alors à partir des trois expressions : le sémiotique, le sémantique, la sémiologie. J'analyserai enfin les relations entre ces trois termes dans le corpus benvenistien et je laisserai de côté, comme relevant d'une étude historique spécifique, le destin de ces termes et de ce programme chez les sémioticiens et sémanticiens après Benveniste. Benveniste, élève de Meillet, a été formé à l'analyse des formes linguistiques dans la Grammaire comparée et la Linguistique historique; ses premiers travaux, portant sur des langues indo-européennes, associent descriptions grammaticales et hypothèses théoriques sur des traits de structure, ainsi dans Origine de la formation des noms en Indo-Européen (1935) et surtout Noms d'agent et noms d'action en Indo-Européen (1948). Dans les articles qui ont été rassemblés ensuite dans les deux volumes des Problèmes de Linguistique Générale, et plus spécialement, dans chaque volume, les 3 e et 4 e parties (« Structures et analyses » et « Fonctions syntaxiques »), on se rappelle qu'il part très souvent de données indo-européennes. Il n'a jamais vu de rupture, en effet, entre le comparatisme et la linguistique structurale; c'est, entre autres raisons, ce qui lui donne une place particulière dans le structuralisme. Dans ce qu'il englobe sous le terme Linguistique générale il continue à décrire le fonctionnement de formes linguistiques, cherche à dégager des structures communes à des langues différentes et surtout – en cela il est précisément saussurien – cette étude des formes a pour rôle d'éclairer leur sens; sur ce point ses recommandations sont constantes : Encore faut-il commencer par voir au-delà de la forme matérielle et ne pas faire tenir toute la linguistique dans la description des formes linguistiques (1952 : I-118). Insistant toujours sur la place de la signification il affirme qu'une description qui ne s'en occuperait pas passerait à côté de ce qui fait la spécificité de la langue comme système (d'où ses critiques à l'égard du comparatisme comme du structuralisme américain); car c'est la signification, dit-il, qui structure la langue et la signification n'existe que dans et par les formes : Le vrai problème […] consiste à retrouver la structure intime du phénomène dont on ne perçoit que l'apparence extérieure et à décrire sa relation avec l'ensemble des manifestations dont il dépend (1939 : I-51). [Il faut rappeler aux linguistes que] leur objet, la langue, est informé de signification, que c'est par là qu‘il est structuré et que cette condition est indispensable au fonctionnement de la langue parmi les autres systèmes de signes (1954 : I-227-228). Il applique ces principes dans les nombreux articles où il décrit un phénomène linguistique : la phrase nominale, le moyen et le passif, la relation de être et avoir …, on pourrait multiplier les exemples. Je rappellerai seulement ici l'étude de 1948 sur l'alternance des suffixes - ter / - tor dans les noms d'agent en indo-européen : lorsque, bizarrement, ce qui semble un même sens (ici l'agentivité) se répartit entre deux formes différentes, on doit chercher une différence de sens plus fine dans les emplois en contexte : « Il s'agit de retrouver dans le sens de ces deux formations la raison de leur différence ». Une comparaison systématique, dans les textes, de « tous les mots qui portent la double formation » l'amène à la conclusion que l'on voit partout « s'opposer l'auteur de l'acte et l'agent d'une fonction » (1948 : 45); il caractérise ainsi la différence entre les deux formations grecques iàtor (celui qui a accompli occasionnellement une guérison) et iatèr (le médecin). On voit que, pour Benveniste, non seulement le sens est lié à la forme, porté par elle, mais que les particularités formelles doivent pouvoir s'expliquer par le sens (il donne leur « raison »). Je résumerai ce premier point, la place de la signification dans les analyses empiriques, en trois remarques : Il va de soi pour Benveniste qu'une particularité formelle n'a de valeur linguistique que si elle est liée à une particularité de sens; en quoi il est saussurien et va même plus loin puisqu'il semble établir une relation de nécessité entre sens et forme; ainsi, dans cette remarque de conclusion sur l'analyse des voix active et moyenne : Pour que cette distinction des personnes ait en indo-européen une importance égale à celle de la personne du verbe, il faut qu'elle ait permis de réaliser des oppositions sémantiques qui n'avaient pas d'autre expression possible (1950 : I-174). Les interprétations par lesquelles il conclut la plupart de ses analyses font intervenir la notion de sujet (sans que soit vraiment précisé le statut de cette notion). C'est par rapport à la présence / absence du sujet, ou à son rôle dans le procès que prédique la phrase, que la différence formelle relevée prend du sens; ainsi, dans le cas des noms d'agent, c'est « le sujet », dit Benveniste, qui est caractérisé dans un cas comme « l'auteur d'un acte », dans l'autre comme « l'agent d'une fonction » (13). De même à propos de l'actif et du moyen il conclut : Dans l'actif les verbes dénotent un procès qui s'accomplit à partir du sujet et hors de lui. Dans le moyen […] le verbe indique un procès dont le sujet est le siège; le sujet est intérieur au procès (1950 : I-172). Les textes où il analyse les formes propres à « l'énonciation » n'ont donc pas pour particularité d'introduire la subjectivité dans l'analyse linguistique; bien avant que les linguistes ne s'emparent de ce terme et parlent de façon courante de « sujet d'énonciation », Benveniste s'appuyait, pour l'interprétation sémantique des structures, sur la situation du sujet (celui qui parle dans telle phrase) par rapport au monde dont il parle, comme on l'a vu dans l'exemple précédent. C'est par des remarques du même ordre qu'il caractérise la différence entre les prépositions prae et pro en latin ou la distinction entre les deux formations de noms d'agent. Les articles portant sur les marques de la personne dans la langue ont été écrits très tôt (1946,1956) et ne se distinguent pas des autres analyses morpho-syntaxiques. En 1959 les descriptions les plus importantes concernant les marqueurs de la deixis étaient faites mais les linguistes ne prêtaient pas spécialement attention à cet aspect du travail de Benveniste et c'est seulement à partir de 1970, date d'une publication synthétique sur « l'appareil formel de l'énonciation » que la notion d ' énonciation s'est imposée comme une découverte et avec elle l'importance de la subjectivité dans le langage. On peut s'étonner de cette découverte tardive; c'est que Benveniste lui -même n'a généralisé la portée de ses analyses empiriques que tardivement, de 1964, date du premier article important de ce point de vue (« Les niveaux de l'analyses linguistique ») à 1970. Dans cette dernière série d'articles, il s'interroge de façon nouvelle sur le « problème » de la signification et élabore systématiquement la place qui lui revient dans l'étude du langage et en quoi elle est inséparable de la subjectivité. C'est alors que se précisent et se distinguent les trois termes sémiologie, sémiotique et sémantique. En présentant mes premières remarques j'ai dit que la signification, d'abord, dans les analyses empiriques, n'était pas « problématique », à la différence de ce qui a suivi où, dans ses articles théoriques, Benveniste évoque « le problème de la signification ». Quelques précisions sur ce point : Benveniste, on l'a vu, décrit les formes et les interprète sans se poser la question de savoir s'il est légitime de procéder ainsi. Comme tous les comparatistes il part de l'évidence que les formes linguistiques signifient; simplement il ne se contente pas de les décrire en tant que formes mais il affirme qu'il faut s'intéresser à leur fonction signifiante et mettre en relation particularités formelles et particularités sémantiques, dégageant ainsi ce qu'il appelle les structures d'une langue. Ce sont les structuralistes américains qui, au nom de l'anti-mentalisme behavioriste, ont fait de la signification un problème, en refusant de prendre en compte, pour analyser les formes, leur sens jugé non observable. Dans cette perspective c'est la sémantique logique, et non la linguistique, qui est chargée de la question du sens, assimilée à celle de la référence. On sait que, dans la sémiotique positiviste, la syntaxe, réglant les relations des formes de tout langage, est distinguée de la désignation des référents, à quoi se ramène la sémantique. Ce n'est pas du tout la position de Benveniste qui se situe à la fois dans la tradition grammaticale des fonctions (rôle significatif des formes lié à la construction) et dans le credo saussurien : c'est parce que, et seulement parce que, elles signifient que des formes peuvent être dites linguistiques. Pourquoi donc la signification est-elle, à partir d'un certain moment, présentée et traitée par lui comme un problème ? En fait ce problème est déjà évoqué, très rapidement, dans un article de 1954, sorte de panorama sur les « tendances récentes en linguistique générale » : Le langage a pour fonction de « dire quelque chose »; qu'est exactement ce quelque chose en vue de quoi le langage est articulé ? Le problème de la signification est posé (1954 : I-7). Il ne le développe pas davantage et aucune indication n'est donnée pour le traiter; c'est que les analyses structurales, essentiellement taxinomiques, faites alors par les linguistes portent sur les unités de la langue, sur le système en tant que combinatoire et ne concernent pas encore la phrase. Or ce qu'annonce cette affirmation, alors non développée, c'est la perspective d'une analyse de la phrase, de la prédication, et les problèmes qu'elle entraîne : quel est le rôle du linguiste dans l'analyse du rapport du dire et du monde (« ce quelque chose »); et, plus largement, quelle position philosophique sur le langage ces analyses présupposent-elles ? Elle semble ici d'inspiration phénoménologique (le langage est « articulé […] en vue de » dire quelque chose), à l'opposé du behaviorisme dominant. Benveniste alors en reste là, du moins dans la théorisation; mais, on l'a vu, dans ses analyses concrètes, en interprétant les formes, en montrant ce qu'elles permettent de signifier (leur fonction), il s'occupe bien de ce que le sujet « dit » du monde. Or, de ce point de vue, les formes des indicateurs de la personne et du temps présentent des conditions particulières d'interprétation, elles ne sont interprétables que dans un échange intersubjectif : L'importance de leur fonction se mesurera à la nature du problème qu'elles servent à résoudre et qui n'est autre que celui de la communication intersubjective : le langage a résolu ce problème en créant un ensemble de signes « vides » (1956 : I-254). La description des déictiques (ces « formes vides ») amène Benveniste à approfondir les conditions de la communication intersubjective, et donc à s'intéresser au cadre de la phrase et à ses conditions contextuelles d'interprétation. Avec la phrase, affirme -t-il, il ne s'agit plus seulement de grammaire mais de discours. En fait, dès 1956, il programmait deux sortes de linguistique : l'une pour s'occuper de la langue « comme répertoire de signes », l'autre devant se charger de la langue comme « activité manifestée dans des instances de discours qui sont caractérisées comme telles par des indices propres » (ibid.). Cette distinction entre deux points de vue sur le langage : l'analyse du système / la description de ce qui se passe dans ses réalisations en phrases réellement énoncées, distinction formulée à l'occasion de la description des pronoms, est reprise et, dès lors, développée dans le texte de 1964 (« Les niveaux de l'analyse »). C'est à partir de là que le sens est désormais posé explicitement comme un problème, faisant intervenir deux composantes et appelant deux démarches d'analyse distinctes : dans le sens global de toute phrase on distinguera d'une part le sens « inhérent au système », c'est-à-dire aux relations des unités, ce que Saussure appelle des valeurs, d'autre part ce dont parle la phrase qui fait « référence au monde des objets »; cette description du référent, « tâche distincte », ne concerne donc pas seulement le logicien mais aussi le linguiste, dans la mesure où, dépassant la question des unités, il s'intéresse aux phrases, réalisations chaque fois particulières de la langue. Benveniste formule ainsi le problème dont il nous dit qu' « il hante toute la linguistique moderne » : […] il y a un sens implicite, inhérent au système linguistique et à ses parties [… ]. Mais en même temps, le langage porte référence au monde des objets [… ]. Or, dire quel est le référent, le décrire, le caractériser spécifiquement est une tâche distincte. Ainsi est clairement délimitée la « notion de sens » en tant qu'elle diffère désormais de la « désignation » (1964 : I-126-128). Dans ses derniers articles (cf. 1966, 1968, 1969, 1970) il tente de résoudre le problème : combiner (ou répartir ?) les tâches distinctes qu'implique pour le linguiste cette division entre sens et désignation. C'est à cet effet qu'il introduit la distinction sémiotique / sémantique que je vais examiner dans un troisième point en délimitant ces deux termes par rapport à ce qu'il appelle sémiologie. Benveniste se réfère explicitement à Saussure pour reprendre sémiologie dans le sens de science générale des systèmes de signes; il est cependant difficile, on l'a vu, de fixer ce qu'il entend par sémiologie, terme qui semble désigner deux démarches et deux objectifs assez distincts : dans un premier emploi la sémiologie reprend le programme saussurien de « science générale des systèmes de signes »; dans un deuxième emploi, une sémiologie semble désigner l'ensemble constitué par les deux analyses, sémiotique et sémantique, appliquées à un domaine donné (par exemple la sémiologie de la langue). Dès 1954 Benveniste rappelle ce qu'annonçait le CLG « projetant les langues sur le plan d'une sémiologie universelle, ouvrant des vues auxquelles la pensée philosophique d'aujourd'hui s'éveille à peine » (1954 : I-35); en 1968 ce programme lui paraît déjà bien avancé : Maintenant nous voyons l'ensemble des sciences humaines se développer, toute une grande anthropologie (au sens de « science générale de l'homme ») se former (1968 : II-38). Cette généralité, cette unité des différents savoirs concernant l'homme, se fonde sur le principe sémiologique saussurien qu'on peut résumer ainsi : il n'y a pas pour la connaissance d'accès immédiat au monde, il y faut la médiation des signes : Une des données essentielles, la plus profonde peut-être de la condition humaine, c'est qu'il n'y a pas de relation naturelle, immédiate et directe entre l'homme et le monde, ni entre l'homme et l'homme (1963 : I-29). Ces affirmations de 1963 qui s'adressent à des philosophes, en particulier anglais, reprennent clairement la tradition philosophique anglo-saxonne qu'on peut rattacher à Ockham et qui a pris avec Locke, puis Peirce, le nom de sémiotique. Ce point de vue très général a pour conséquence qu'on ne voit pas les limites de ce domaine (ce que Saussure prévoyait). Qu'on l'appelle sémiotique, dans la tradition anglo-saxonne, ou sémiologie, dans la tradition saussurienne, l'ambition de cette entreprise, appelée à s'élargir indéfiniment à tout le champ du savoir, est de fait philosophique. On sait que Charles Morris, reprenant le projet positiviste du Cercle de Vienne et le greffant sur la philosophie pragmatiste américaine, voyait sa sémiotique à la fois comme une science (science empirique des systèmes de signes) et comme une théorie des sciences, une science des sciences, devant occuper désormais la place traditionnelle de la philosophie. Comme je l'ai signalé sémiologie prend ces deux sens chez Benveniste mais, n'ayant pas les mêmes présupposés philosophiques sur le langage, ce dernier ne se réfère pas à cette tradition. Il la rencontre cependant dans son souci épistémologique et dans sa vision de l'unité des sciences, du moins des sciences humaines. Dans ses remarques sur la théorie et la méthode de ces dernières il va même plus loin que l'affirmation alors courante du rôle pilote de la linguistique; il formule une sorte de théorie qu'on peut dire « panlinguistique » des sciences humaines et donc de la sémiologie qui les englobe : la langue, affirme -t-il, est le passage obligé pour comprendre les autres systèmes de signes; elle seule peut les « transformer en matière intelligible » : Rien ne peut être compris, il faut s'en convaincre, qui n'ait été réduit à la langue (1968 : II-96-97). Dans cette communication de 1968, adressée à des sociologues, il va jusqu' à dire que, pour cette raison, la langue est « l'interprétant » de la société : La société devient signifiante dans et par la langue, la société est l'interprété par excellence de la langue […] Seule la langue permet la société […] C'est la langue qui contient la société (ibid.). Dans un développement hypertrophique, la sémiologie est dite en 1963 « sémiologie générale », « véritable science de la culture », en 1969 « sémiologie de deuxième génération » et enfin, on l'a vu, la « science générale de l'homme ». Ce qui soutient ce projet totalisant c'est que la langue « est investie de propriétés sémantiques et qu'elle fonctionne comme une machine à produire du sens » (1968 : II-97). Ainsi le terme sémiologie constitue le pivot de ces derniers articles théoriques, représentant le point de fuite du programme proprement linguistique qui s'y formule et qu'on a appelé « théorie de l'énonciation ». Ce programme lui -même se fonde sur la distinction du sémiotique et du sémantique et c'est là, en même temps le deuxième emploi de sémiologie, une étude qui distingue et intègre ces deux composantes. Benveniste ne fait pas d'équivalence entre la sémiotique et la sémiologie; je n'ai trouvé sémiotique dans cet emploi que dans un texte de 1954 faisant le point sur le structuralisme : On voit encore comme possible une étude du langage en tant que branche d'une sémiotique générale, qui couvrirait à la fois la vie mentale et la vie sociale (1954 : I-17). À partir du moment où il s'attaque au « problème du sens » il spécifie l'emploi de sémiotique; le terme est employé comme adjectif, le plus souvent sous la forme substantivée le sémiotique; il ne désigne pas une discipline (la sémiologie, la linguistique. ..) mais une composante de ce savoir se définissant dans sa différence avec le sémantique. Distinguant, depuis 1964, la question des unités de la langue (du système) et celle des unités du discours, les phrases, il pose la nécessité de deux études linguistiques distinctes : la première décrit le sémiotique, c'est-à-dire les propriétés générales des unités du système, communes à tous les locuteurs qui l'ont intériorisé; la deuxième s'occupe de la « mise en emploi » du système dans des phrases et du sens qui s'y produit, c'est le sémantique. Le sémiotique se caractérise comme une propriété de la langue, le sémantique relève d'une activité du locuteur qui met en action la langue [… ]. Ces deux systèmes se superposent ainsi dans la langue telle que nous l'utilisons. À la base il y a le système sémiotique, organisation de signes selon le critère de la signification [… ]. Sur ce fondement sémiotique, la langue-discours construit une sémantique propre, une signification de l'intenté produit par syntagmation où chaque mot ne retient qu'une petite partie de la valeur qu'il a en tant que signe. Une description distincte est donc nécessaire pour chaque élément selon qu'il est pris comme signe ou qu'il est pris comme mot (1966 : II-225-229). Je terminerai par quelques questions sur cet élargissement de la description linguistique, souvent considéré comme la sortie de l'immanentisme qui a permis, grâce au dépassement de l'opposition langue / parole, d'entreprendre une linguistique du discours. C'est bien ce qu'annonce Benveniste mais on voit mal comment les deux analyses s'inscrivent également dans une approche de linguiste; c'est en tout cas la difficulté impliquée et esquivée dans la juxtaposition « langue-discours ». Seule la description du système sémiotique conserve une portée générale qui l'inscrit dans les principes d'une analyse linguistique : description de tel ou tel phénomène de langue, de ses unités et de leurs relations (les signes en tant que valeurs); dans ce genre d'analyse on opère à partir d'énoncés particuliers, seules données observables, mais c'est pour dégager les propriétés de la langue en tant que système (ce que Benveniste a toujours fait dans ses analyses empiriques). Dans le deuxième cas (le sémantique) on peut se demander en quoi la description peut être généralisable. Il s'agit des unités en tant que mots (et non plus signes ou valeurs), présents dans telle phrase ou suite de phrases particulière, échangées par des locuteurs dans telle ou telle circonstance, renvoyant à tel ou tel objet. Le sens – ce que Benveniste appelle « une sémantique propre » – dépend de tous ces paramètres qui actualisent en discours les valeurs linguistiques et leur « sens inhérent ». Mais si la phrase, comme il le dit dans ce texte de 1966, « n'existe que dans l'instant où elle est proférée et s'efface aussitôt »; si « c'est un événement évanouissant » (id. : 227), donc par définition, particulier et unique, il semble que l'étude des phrases relève moins d'une analyse linguistique (en principe généralisable) que d'un commentaire de texte chaque fois particulier. La nouveauté est que ce commentaire s'appuie sur la description sémiotique, en particulier celle des marqueurs de l'énonciation qui, à la fois, appartiennent au système de la langue et ont la propriété spécifique (en quelque sorte ontologique) de signaler la présence du sujet, de la « personne », et de centrer sur elle le temps et l'espace de l'échange. Autrement dit l'analyse du sémantique (analyse de telle ou telle unité de discours) associe une analyse sémiotique de l'énoncé à un commentaire sur la situation chaque fois particulière de l'énonciation (tel sujet, tel temps, tel référent, telle interaction, dont les marques font partie de la description sémiotique); comme tout commentaire de texte cette analyse interprète les énoncés mais ne prétend pas tout dire de leur sens. La distinction sémiotique / sémantique n'aboutirait donc qu' à rappeler la nécessité de tenir compte de celui qui parle (le sujet) et, par suite de ne pas prétendre dire le tout du sens de ce qu'il énonce, qu'aucune analyse ne peut clore. En conséquence Benveniste écarte implicitement tout projet de sémantique isolable comme telle de l'analyse des formes (du sémiotique) mais il semble écarter aussi toute généralisation à quelque degré modélisable. Son programme d'analyse du sémantique (le discours), une fois admis les principes généraux qui donnent le cadre de l'énonciation, conduit à la description du particulier, de la diversité de ce que permet la langue au service de sujets vivant et parlant dans l'interaction subjective, en quelque sorte une herméneutique nouvelle. Quant au cadre général de l'énonciation il renvoie implicitement à une position philosophique sur le langage et la subjectivité qui retrouve, comme le souligne J-Cl.Coquet (1992), celle de la phénoménologie; ce que lui -même développe sous le nom de sémiotique du discours ou encore « sémiotique subjectale ». Je m'autoriserai à conclure que ces propositions de Benveniste, combinaison d'une théorie inachevée et d'analyses lumineuses, paraissent, plutôt qu'un modèle directement applicable, une incitation à reprendre, chaque fois à nouveaux frais, le problème du sens, charge restant à chacun de choisir une position philosophique sur la façon dont l' être humain se saisit du monde et de lui -même . | On tentera ici de synthétiser les résultats d'analyses précédentes sur la question de la signification chez Benveniste. On sait que cette préoccupation était constante chez lui alors même que la linguistique contemporaine tendait à en laisser l'étude de côté. On s'attachera à distinguer le statut des trois termes annoncés qui, dans les textes, semblent recouvrir ce champ. On verra comment, dans les descriptions comme dans les propositions programmatiques, ce qui d'abord se donnait comme évidence (le linguiste analyse des formes qui ont du sens) se transforme progressivement en un problème à résoudre. Une répartition précise des tâches entre les trois approches définies comme sémiologie, sémiotiques et sémantique, devrait permettre de le traiter. Ces propositions et analyses qui ont contribué à rendre au linguiste le domaine du sens aboutit, selon nous, chez le dernier Benveniste à une combinaison de l'analyse des formes et d'une herméneutique ; ce qui laisse ouvert le problème d'une véritable sémantique linguistique. | linguistique_524-04-10156_tei_831.xml |
termith-726-linguistique | La notion de mobilité désigne ici une volonté de changement de la société-monde où nous sommes tous des acteurs. Dans la société-monde les hommes sont unis par un destin partagé et par des valeurs communes. D'une part, la société-monde invoque la nécessaire autonomie de la société civile à l'égard de toute forme d'autorité publique. D'autre part, elle condamne la violence inhérente à la scène interétatique. (Roche, 2001) Si le monde est construit par les hommes, il doit être intelligible et vivable. Cette construction résulte de l'ensemble des mouvements qui le traverse : le tourisme, les marchandises, les capitaux, les informations mais aussi les migrations et les savoirs. Le point de départ de notre action s'inscrit ainsi dans la dynamique actuelle de la mondialisation. L'équipe de travail s'accorde à dire que le monde ne peut plus être pensé comme une affaire de la société internationale, représentée par des États qui restent souvent à l'écart des réalités les plus communes. Pour participer aux enjeux actuels de développement local et global, il faut se préparer et préparer sa société. Nous avons organisé ainsi des échanges entre une multiplicité d'acteurs et avons adhéré aux projets régionaux de gouvernance locale, d'autonomie alimentaire par la diversification des produits transformés, de valorisation des métiers d'art et de sauvegarde des savoir-faire. Avant de commencer la description proprement dite, un éclairage du paradigme théorique guidant notre démarche s'impose. Dans un premier temps, au sein de cette démarche, l ' action est conçue comme « un processus de choix rationnels, avantageux, opérés sur la base de “croyances” et sanctionnés par des actes déterminant clairement un nouvel “état du monde” », telle est la reformulation que Schwartz (2001) propose pour expliquer le terme aristotélicien de « phronésis » ou « raison pratique ». Bronckart (2001) aborde la question de l'action en articulant, entre autres, les orientations que les hommes donnent à leur « devenir » et le rôle des sciences de l'éducation. Il pointe deux parcours possibles. Suivant le premier, les sociétés se laissent guider par les décisions de « l'économie capitaliste mondialisée », sans réfléchir ni s'orienter vers des conditions de vie plus souhaitables. Le deuxième parcours, celui dans lequel nous inscrivons notre initiative, consiste à « repenser ce devenir à la lumière d'autres critères et d'autres valeurs, dans l'interaction démocratique de personnes responsables, de manière à ce que se réactive le processus de transformation conjointe du social et du psychologique » (Bronckart, 2001, p. 152). Il ne s'agit point d'opposer l'agir collectif à la subjectivité individuelle, et nous citerons ici ce que Filliettaz (2002, p. 23) reconnait comme un des apports du courant socioculturel aux théories de l'action, qui est « la spécification historique des effets du social sur les conduites des individus ». En d'autres termes, l'action appartient à une dimension psychosociale qui nous pousse à lui conférer un caractère intentionnel. Cependant, pour étudier de telles intentions il ne faudrait pas faire appel à des processus d'introspection puisque l'intention se baserait sur les capacités évaluatives des participants à l'interaction. Plus loin, l'auteur écrit que « l'interprétation des intentions repose sur un processus social de co-construction impliquant l'agent et son partenaire ». Nous adhérons de ce fait à l'idée que l'action existe dans l'interaction parce qu'elle est objet d'intentions, de motivations, d'interprétations, d'évaluations et par là -même, de nouvelles configurations. Le concept d'action nous semble donc être suffisamment englobant et apte à faire advenir d'autres réalités dans notre monde, par notre participation à ses transformations. Quinze jeunes adultes en formation au sein de l'antenne rurale Oriente de l'Université d'Antioquia, futurs enseignants d'anglais et de français langues étrangères, ont créé l'équipe GELVO (Groupe d' Étude Langue Vivante Oriente) pour approfondir l'étude des processus d'enseignement/apprentissage des langues étrangères et souder les liens entre l'Université publique et la population de la région. En plus d' être paysans, artisans, enseignants, techniciens ou chercheurs, les participants à ce projet d'interaction et d'échange de savoir-faire sont des acteurs qui « évaluent, transforment et réorientent les préconstruits collectifs » pour devenir des « constructeurs de faits sociaux » (nous empruntons ces termes à Bronckart, lui -même citant les travaux sur l'action collective de Schwartz, 2000, inspiré par Joas, 1999). Il s'agit enfin d'une recherche où s'articulent les notions d ' action, discours et développement, centrales dans la compréhension et la construction d'une culture de paix dans le pays. Au sein de cette action, nous distinguerons plusieurs niveaux d'intervention et évoquerons des questions qui s'en dégagent : Le travail de recherche. Quelles sont les représentations sociales des participants par rapport à l'enseignement/apprentissage d'autres langues-cultures et techniques ? Comment articuler les démarches de recherche et d'intervention pratique ? Quelles interactions se créent entre les acteurs et comment les interprètent-ils ? Les savoirs et les méthodologies d'enseignement. Comment enseigner une langue étrangère à partir des savoir-faire des apprenants ? Comment enseigner des savoir-faire que les formateurs ne possèdent pas ? Le travail de terrain ou les processus réels d'enseignement/apprentissage. Que signifie apprendre et enseigner d'autres langues en milieu rural ? Quels sont les problèmes rencontrés par les formateurs dans la gestion de leur activité ? Comment rendre plus efficaces les processus d'enseignement/apprentissage ? Quelles modalités de gestion et de mise en place des activités rendent les formateurs autonomes et capables de justifier leurs choix ? Les transformations sociales réelles. Dans quelle mesure les langues étrangères contribuent-elles au développement local souhaité ? Quels changements sont opérés dans la vie et les activités socio-économiques des participants ? Un tel ensemble de paramètres ne va pas sans une remise en question de la part des institutions locales comme l'Université, la Mairie, et même les formateurs des formateurs, attachés eux -mêmes à des pratiques de validité générale, encadrées par des directives éducatives à caractère politique. Un certain regard sceptique par rapport à notre projet nous semble dès lors aller dans l'ordre des choses puisque le programme que nous nous proposons de mener à bien implique d'une part, des couts économiques (pour l'instant satisfaits par les apports personnels des participants) et suppose d'autre part, une pédagogie expérimentale qui ne s'inscrit pas dans une méthode déterminée. L'espace de manœuvre des formateurs est ouvert à leur intuition, leur expérience et accueille leurs envies de tenter d'autres activités. Ceci est évidemment novateur dans leur parcours de formation et doit avoir un impact, à moyen ou à long terme, sur les options choisies dans la formation des maitres dispensée par les universités locales. Pour rendre compte de ces processus, cette recherche prend appui sur les observations des réalités empiriques. La perspective ethnographique propose l'analyse d'entretiens individuels et collectifs, d'interactions et observations directes. Le projet se donne pour but la description des ressources mobilisées par les participants au cours de processus actionnels et les modalités d'acquisition de telles ressources. Nous rejoignons le paradigme ethnométhodologique sur l'idée que « les processus d'interaction sont le cadre de référence d'une description et théorisation de l'action » (Filliettaz, 2002, p. 40), sans pour autant doter l'agir d'un pur caractère émergentiste. En effet, aussi flexibles que soient les démarches de notre action, didactique et sociale, certaines routines s'avèrent préétablies. Ainsi le paradigme interactionniste vient compléter notre posture méthodologique, grâce au « rapport dialectique qu'il instaure entre les ressources schématiques de l'agir et ses régulations émergentes » (Filliettaz, 2002, p. 51). Nous explorerons maintenant la notion de mobilité des acteurs et des savoirs, la mise du projet au service de la formation des enseignants et finirons par une description des comportements des apprenants, paysans et artisans, au sein du cours de français. L'analyse de la diversité et la complexité des processus en jeu est un vaste programme qui ne peut qu' être survolé dans cette présentation. Interpelés par la relation qui doit se créer entre la vie académique et le développement social et économique de la région, nous avons décidé d'interagir avec la population locale par le biais de notre savoir spécifique, l'enseignement de langues étrangères. En février 2007, l'équipe GELVO a pris contact avec deux groupes fortement motivés pour apprendre le français. ASOCAMPO, une association de 28 familles de petits producteurs de légumes et de fruits biologiques de la commune de Marinilla (41 175 habitants) et un groupe de 12 artisans céramistes de la commune de El Carmen de Viboral (40 968 habitants) ont en effet très vite répondu à l'idée de suivre un cours de français pendant cinq mois (de février à juin 2008). Pour les petits producteurs, l'apprentissage du français représentait surtout la possibilité de connaitre les processus de transformation du lait de chèvre en France, pour pouvoir ensuite, eux -mêmes, envisager la fabrication de fromage de chèvre biologique. Pour les artisans céramistes, la nouvelle langue se présentait comme une future ouverture de nouveaux marchés, par le biais du commerce équitable, et un pas en avant vers le développement du tourisme local. La prise en compte des motivations des deux groupes d'apprenants a donc poussé l'équipe enseignante à réunir des documents autour de ces nouveaux terrains de spécialité : le monde caprin, l'univers agricole, le commerce équitable, les stratégies de développement touristique et les techniques artisanales. En France, deux classes de collégiens sollicitées ont bien voulu participer au projet, motivées en partie par leurs professeurs d'espagnol et d'histoire géographie. Les élèves sont allés visiter une fromagerie située au coeur du parc naturel de la Chartreuse, afin de réaliser une vidéo documentant la fabrication du fromage à l'usage des paysans colombiens. Pour certains collégiens, c'était la première fois qu'ils visitaient une fromagerie, d'autres ont même découvert qu'une telle production existait pas très loin de chez eux. Dans une des premières rencontres avec les petits producteurs de la commune de Marinilla, ces derniers ont manifesté leur envie d'apprendre le français, mais à condition que le cours soit pratique et leur apporte des bénéfices réels. Ils ont donc formulé l'idée d'impliquer, dans le projet, un expert de la fabrication fromagère à partir du lait de chèvre. Cette idée s'est concrétisée et depuis le début des ateliers jusqu'au mois de juin 2008, un technicien fromager et vétérinaire français a accompagné les ateliers de français et les a complétés avec des séances pratiques de fabrication de fromage. Parallèlement à ce travail d'animation pratique, il a visité la ferme de chaque famille membre de l'association de paysans ASOCAMPO. Il a complété sa participation sur place par l'étude des possibilités de commercialisation, qui pourrait faire passer le projet de son statut de découverte à celui de production et vente. Voici un extrait du premier rapport (février, 2008) du technicien fromager. Au niveau des outils de production, les surfaces des fermes visitées excèdent rarement 1 ha (généralement entre 5 000 m 2 et 1 ha). La présence de chèvres sur les petites exploitations maraichères a souvent comme premier objectif de fournir de l'engrais. Elles sont donc maintenues dans des petits abris surélevés permettant de récupérer facilement les déjections. La production de lait est cependant très appréciée, cet élément étant fondamental dans l'alimentation de la région (et du pays). Le lait (habituellement de vache) est consommé ainsi ou sous forme de fromages frais (caillé présure) appelés quesitos ou cuajadas. La plupart des membres d'Asocampo fabrique ou sait fabriquer ces fromages, et quelques-uns élaborent aussi du yaourt et du kéfir. Par leur expérience, par les formations suivies dans le passé et par leur volonté d'apprendre, les membres d'Asocampo ont de grandes connaissances et maitrisent très bien la production écologique, ainsi que les bonnes pratiques d'hygiène. Cependant, certains mènent de front une production « propre » et une « conventionnelle » avec usage de produits chimiques (de faible toxicité). La raison est économique ou socio-culturelle, et ce point reste à éclaircir. Pour d'autres, toute la production ne peut être écoulée par le biais d'Asocampo, donc ils vendent leurs produits sur le marché « conventionnel » qui ne valorise pas la qualité à son juste niveau. Un travail sur la commercialisation, et éventuellement sur la diffusion d'informations au sujet de l'agriculture biologique en général, serait donc potentiellement à effectuer. Philippe Guichard Grâce à son expérience préalable et à la connaissance détaillée qu'il s'est construit de la commune de Marinilla, le technicien fromager est devenu une source d'information et d'initiatives pour les membres de l'association paysanne. Il a travaillé dans la perspective d'améliorer les conditions naturelles et économiques de la population locale. Lui, de son côté, a appris d'autres pratiques et usages des ressources naturelles locales. Il s'est souvent montré surpris de l'état avancé des techniques dans ce contexte rural. Une enseignante de français, coordinatrice de l'équipe GELVO, a recueilli, en France (février-juillet 2007), des documents écrits et audiovisuels sur l'agriculture et l'artisanat. Des visites de fermes fromagères ont été réalisées et enregistrées dans les départements de l'Isère et de la Drôme. Pour la partie artisanale, les documents ont été recueillis à Montélimar, à Dieulefit et à Crest, dans la Drôme également. Ce fut une mission difficile et notamment pour des métiers de l'artisanat. En effet, les artisans semblaient vouloir « protéger » leurs produits, ainsi que les techniques de fabrication. Ceci pour préserver peut-être l'originalité de leur savoir-faire. Seuls deux artisans ont accepté de montrer leur technique et d' être filmés dans leur atelier. Même dans les boutiques, les vendeurs se sont montrés réticents à la prise de photos. On peut comprendre ces réticences à la lumière de ce que Chevallier et Chiva (1991), qui ont travaillé sur la transmission des savoirs et savoir-faire dans les milieux artisanaux, mettent en évidence. Ils relèvent que chaque métier « développe ses propres rituels et souvent ses formes particulières de rétention des savoirs ». Ces auteurs répertorient trois cas de figure dans les processus de l'acquisition du métier : le « nourrissage » qui correspond à une inculcation progressive; le « coup de pied au cul » où on ne montre pas les gestes qui correspondent à la qualification visée, mais où on rend sensible l'apprenti à un rythme et à des hiérarchies; et finalement, l' « usinage » qui comprend des pratiques ritualisées ou très codifiées. Ils affirment que l'acquisition du métier va de pair avec une implication totale dans le groupe social concerné, ce qui explique en partie l'attitude de fermeture des potiers face à des enquêteurs « hors-groupe ». En ce qui concerne la production fromagère, l'attitude a cependant été très différente. Les fromagers ont accepté la présence d'un enquêteur, depuis la traite jusqu' à l'emballage des fromages, en dépit des conditions sanitaires règlementaires de la fromagerie. Dans les deux cas, le fait que la quête des informations ait pour destination un public d'une région rurale colombienne a facilité la tâche. Les fromagers et les potiers (ceux qui ont finalement accepté de participer au projet) se sont montrés ouverts et se sont mis à notre disposition pour répondre via Internet à d'éventuelles questions. Grâce à deux séances d'ateliers en français réalisées en salle informatique, les paysans et les artisans colombiens se sont présentés et ont posé des questions à leurs homologues français participant à cet échange. Une deuxième sorte de mobilité des savoir-faire a lieu en Colombie, entre les groupes d'apprenants et l'équipe d'enseignants. Ces derniers commencent à s'intéresser aux processus productifs des paysans et des artisans, pour pouvoir répondre à leurs demandes lors des ateliers de français. Une jeune agronome a rejoint l'équipe GELVO et a mis à disposition des documents en espagnol, sur la chèvre, le lait, ses propriétés, etc. Cette ouverture met en évidence la relation de respect qui s'instaure entre les personnes, grâce à une valorisation des activités professionnelles et techniques de chacun. Cet aspect fait partie du troisième niveau où se déclinent les tâches des sciences de l'éducation, celui de la formation des formateurs de terrain (Bronckart 2001, p. 139) : « Quels sont les types de savoirs qui doivent leur être proposés, et comment les introduire pour les rendre aptes à gérer leur activité de manière éclairée et autonome ? » Il est évident que cette action constitue aussi et surtout un retour sur le curriculum qui structure le cursus universitaire « Licenciatura » en Langues étrangères, au sein duquel les futurs enseignants se forment, pour travailler surtout au niveau de l'éducation secondaire. Dans ce sens, ce type de projet permet aux futurs enseignants de se forger une expérience auprès d'un public complètement nouveau. Ce public inhabituel découvrant une nouvelle langue à travers un processus de diffusion culturelle de connaissances techniques, envisagera peut-être de poursuivre dans cette voie. Autrement dit, en diversifiant les contextes d'enseignement et notamment en milieu rural, ce projet est une façon d'élargir le marché du travail de l'enseignant de langue. Au départ, les deux groupes d'apprenants (les paysans à Marinilla et les céramistes à El Carmen de Viboral) étaient différents en fonction de la nature de leur activité productive. Une fois les ateliers mis en route, certains aspects caractéristiques de chaque groupe ont émergé pour déterminer les choix didactiques à faire lors des ateliers. L'équipe GELVO a organisé la partie formative directe de façon à ce qu'ils puissent tous se relayer, se remplacer, ou avoir la possibilité de travailler avec les deux groupes d'apprenants. Un animateur est systématiquement accompagné par un observateur qui participe aussi au cours. L'observateur devient animateur le cours suivant, et ainsi de suite. D'une part, ce système permet à tous les membres de l'équipe GELVO d' être observateur et animateur. D'autre part, il fait appel à une flexibilité peut-être nouvelle chez les apprenants qui voient chaque semaine un enseignant différent, mais qu'ils ont déjà rencontré lors du cours précédent en tant qu'observateur et assistant. La présence des deux personnes (l'enseignant et l'observateur) responsables de la séance, fournit un double regard sur les activités réalisées et leur évaluation. L'observateur, installé plus près du groupe peut noter certains échanges qui échappent au regard de l'enseignant. Voici un extrait du rapport de l'enseignant et de celui de l'observateur, suite à la première séance des ateliers de français auprès du groupe de paysans. L'enseignant décrit rapidement l'attitude des apprenants lors de la première séance de cours, mais on s'aperçoit que ce sont les questions des apprenants qui sont mises au centre de son rapport. Différents types de questions peuvent être répertoriés : un aspect culturel (le système des noms de famille) découlant d'un trait morphologique (–s, marque du pluriel); un phénomène sémantique intéressant au niveau de la différence entre deux noms qui semblent avoir le même signifié (nombre et numéro), un élément orthographique (l'accent circonflexe) et la prononciation des digrammes OU et OI. Dans son rapport, on peut également retenir la prise en compte de leur connaissance d'autres langues (address – adresse – dirección), ou de la proximité de leur langue maternelle avec la nouvelle langue pour tester des hypothèses sur les mots qu'ils rencontrent (sport pratiqué – deporte practicado). L'observatrice, de son côté, décrit la même séance plutôt en termes de suite d'activités ou de contenus travaillés. Contrairement à l'enseignant qui cite les questions posées par les apprenants, elle relève le fait que « quelques-uns ne posent pas de questions directement à l'enseignant, mais ils demandent à leurs camarades » (rapport ci-dessous). Dans cet exercice, on croise deux points de vue différents portés sur la même situation. De plus, les demandes faites par les apprenants seront satisfaites par l'observateur qui prendra la place d'enseignant le cours suivant. Le travail en équipe, la cohérence et la résonance entre les séances doivent être assurés par les enseignants afin de retenir l'attention des apprenants et leur faciliter l'approche de la nouvelle langue. Dans la mesure où l'enseignant et l'observateur dressent un bilan hebdomadaire des demandes et des difficultés des apprenants (pour s'y pencher le cours suivant) et qu'ils sont prêts à répondre aux évènements imprévus, leur prise de décision et leurs observations participantes répondent au type d'intervention choisie. La recherche-action fournit en effet le cadre pour comprendre les processus mis en œuvre, et les soumettre à des évaluations permanentes qui tendent à faire émerger les problèmes et à trouver des solutions pour améliorer les situations (Lavoie, 2003). Au niveau de la participation des apprenants lors des ateliers, leurs demandes les plus courantes concernent la prononciation. Il semblerait que le fait de prononcer un mot ou une phrase est pour eux une façon de sentir qu'ils produisent déjà du sens dans la langue étrangère. L'animatrice du premier atelier chez les artisans céramistes a écrit : En termes d'apprentissages, ces premières expériences auprès de ces deux publics différents nous montrent que leur entrée dans la nouvelle langue est plutôt orale. La centration sur la prononciation et le lexique pourrait être l'indice d'un processus d'acquisition basé sur les compétences de l'oral chez des apprenants parfois peu acculturés à l'écrit. Le mot en tant qu'unité pratique par excellence leur permet de décrire le monde qui les entoure. Au niveau de la compréhension, les références obscures dans une consigne ou un discours sont éclaircies par le biais d'un seul mot compris, et l'accès au sens est possible grâce à l'exploitation de tous les éléments signifiants de la situation. Par ailleurs et contrairement à une vision de la langue maternelle comme un code qui parasiterait l'apprentissage de la langue étrangère, nous constatons qu'elle est bien un passage vers l'autre langue (Moore et Castellotti, 1999) et que ce passage est emprunté par l'apprenant lorsqu'il s'aperçoit qu'il existe des équivalences morpho-phonologiques. La proximité entre l'espagnol et le français facilite le processus d'apprentissage et rend la nouvelle langue effectivement abordable. Les habitudes de chaque public semblent différentes. Les artisans sont plus à l'aise au moment d'écrire ou de prendre des notes, tandis que les paysans demandent directement aux animateurs de ne pas parler pendant qu'ils recopient ce qui est au tableau. Le schéma scolaire des paysans semble davantage ritualisé; on s'assied, on salue, on écrit, on écoute, on répète, on ne bouge pas trop, on participe quand on est interpelé. De leur côté, les artisans manifestent moins le besoin de répéter. Ils se lancent plus facilement dans la réalisation d'un jeu, dans la préparation et la présentation d'un petit dialogue. Le rythme des apprentissages est un peu plus rapide dans le deuxième groupe. Il est intéressant de remarquer que les paysans arrivent pourtant plus directement à exprimer leurs besoins, lors des activités en cours, ou à proposer une façon de faire jugée plus pratique à un moment donné. Ils vont demander à l'animateur d'aller plus lentement, de répéter un mot ou une expression, de leur laisser le temps de répéter, d'expliquer à nouveau quelque chose, etc. Deux facteurs pourraient expliquer cette différence dans les rythmes d'apprentissage : le lieu d'habitation et la maitrise de la langue maternelle. La quasi-totalité (83,3 %) des paysans-apprenants habitent dans des zones rurales de la commune et se rendent au village seulement le jour du marché, ou près du village pour l'atelier de français, c'est-à-dire une à deux fois par semaine. Les réseaux sociaux qu'ils fréquentent sont plus denses et multiplexes, ce qui se manifeste sociolinguistiquement parlant par l'utilisation d'une variété locale d'espagnol plus homogène. À contrario, seul un tiers (35,7 %) des céramistes-apprenants habitent dans des zones rurales de la commune, tout en travaillant ou ayant leur propre atelier-boutique dans le village. Ils communiquent ainsi dans des réseaux sociaux plus ouverts qui favorisent la diffusion d'un plus grand nombre de formes linguistiques. Pour les deux groupes, le projet en cours développe le répertoire des apprenants en langue maternelle comme en langue étrangère. Dans le contexte de l'atelier de français, les représentations que les paysans se font du schéma scolaire semblent répondre à un système plus traditionnel, peut-être en raison d'un vécu scolaire plus limité et en milieu rural. Le groupe des artisans se montre plus souple par rapport au schéma scolaire peut-être parce qu'ils ont plus d'expérience au niveau du secondaire et des formations en dehors du système national d'éducation formelle (85,7 % des apprenants ont suivi des formations annexes). Chiss et Cicurel (2005) rappellent que « la classe de langue génère des pratiques didactiques qui sont en résonance avec la culture ou le contexte dans lequel elles existent ». Cette affirmation se révèle pertinente pour nos deux groupes d'apprenants, même s'ils sont tous colombiens et hispanophones. Ces observations placent les futurs enseignants face à la psychologie interculturelle qui « vient nous rappeler qu'il n'existe pas de compétence humaine qui ne soit filtrée et perpétuée par un processus d'apprentissage plus ou moins complexe. Celui -ci varie sensiblement d'une culture à l'autre, comme d'un métier à l'autre » (Chevallier et Chiva, 1991). Ces données alimentent les problématiques abordées au sein des réunions hebdomadaires du groupe de recherche GELVO. Des questions comme le domaine de spécialité du public et leur niveau de scolarisation se sont posées pendant la préparation de l'expérience. Mais la question de l' âge est devenue centrale, suite à quelques demandes. Certains apprenants souhaitaient faire participer aux ateliers un membre plus jeune de la famille. L'équipe enseignante a décidé alors d'accueillir des apprenants, à partir de 13 ans. Voici le tableau des âges dans les deux groupes. Le large éventail des âges met en relief la perméabilité chronologique de la transmission et de la construction des savoirs dans les deux groupes. L'adulte s'engage lui -même dans l'activité d'apprentissage ou/et cherche à faire intégrer un membre plus jeune de son entourage familial dans le projet. Cela fait partie de sa contribution et du profit qu'il peut en tirer. Chez les céramistes de El Carmen de Viboral, les pics d' âge (13-25 ans et 46-60 ans) représentent les générations enfants-parents. Le fait que les enfants d'artisans s'impliquent, avec leurs parents, dans un cours de langue étrangère dont les thèmes récurrents sont l'art, la poterie, la céramique et le commerce équitable, montre la mise en place d'un réseau de transmission et de valorisation intergénérationnel des savoir-faire dans le cours de français. Chez les paysans de Marinilla, on observe que la majorité des apprenants ont entre 13 et 20 ans. Certains paysans devant assurer le travail dans leur ferme ont décidé d'envoyer un de leurs enfants aux ateliers. Les âges vont de 13 à 45 ans, chaque tranche d' âge étant représentée. Cette répartition de la population montre que le réseau de transmission intergénérationnel des savoir-faire dans le cours n'est plus partagé entre les membres d'une même famille, mais distribué, voire optimisé. Est -ce que ces schémas de transmission des savoir-faire influenceront l'acquisition de la nouvelle langue ? Quel impact aura ce nouveau savoir dans les réseaux de transmission préexistants ? L'action sociale et didactique que nous venons de présenter, de façon lapidaire, répond à un besoin de développement régional, où sont en jeu les dynamiques suivantes : l'échange entre des paysans et céramistes d'un côté et de futurs enseignants de langue de l'autre, habitants d'une même région; l'échange de leurs savoir-faire, construits et partagés au sein d'un atelier de français langue étrangère et la coordination des actions des partenaires, en vue d'aboutir à des formations individuelles et à des transformations collectives. Celles -ci s'inscrivent dans le cadre du développement durable, entendu comme un système raisonnable de production, de consommation locale, de respect et de valorisation du travail. La langue française véhicule dans ce milieu rural des valeurs économiques (exportation ou diversification de leurs produits) et symboliques (le commerce équitable, la tradition fromagère) autant qu'elle offre une ouverture sur d'autres cultures. L'équipe d'enseignants cherche à transmettre des savoirs et des savoir-faire à première vue étranges pour les apprenants paysans et céramistes. Mais l'étude de cette nouvelle langue et de nouvelles techniques fromagères et artisanales constitue un facteur de changement. Ce projet en cours de réalisation constitue pour les futurs enseignants une première expérience dans l'enseignement du français langue étrangère et la possibilité de se familiariser avec un public aux besoins spécifiques. La configuration des réseaux de transmission des savoir-faire particulière à chaque métier, la biographie d'apprentissage des participants, les réseaux d'échanges sociaux, la répartition des classes d' âge, etc., influencent les échanges dans la classe de langue autant qu'ils ont déjà influencé les motivations. Ces facteurs de la transformation seront toujours présents en filigrane dans notre analyse des interactions durant les ateliers de français et les enquêtes individuelles. Ils nous permettront de décrire et de comprendre les modalités psychologiques, sociales et culturelles des processus d'enseignement et d'apprentissage en jeu. Le projet éducatif et social que nous venons de présenter implique différents membres d'une même société qui prennent en main leur devenir, à travers une modalité originale d'échange de savoir-faire et d'apprentissage de langues et cultures étrangères. Dans ce sens, ce projet s'inscrit dans la problématique de l'action, de sa description, sa compréhension et son amélioration. Des aspects comme l'intentionnalité, la temporalité, l'interprétation et la planification de l'action, ainsi que l'intervention, l'innovation, la construction de connaissances et l'interaction constituent autant de pistes pour faire de l'action un objet d'étude théorique et empirique . | Le présent article décrit le travail de réflexion et d’action, didactique et sociale, entrepris par une équipe de futurs enseignants de langues étrangères, suivant leur formation au sein de l’antenne rurale Oriente de l’Université publique d’Antioquia en Colombie. Ces jeunes enseignants partagent l’espoir de contribuer aux processus de développement durable de leur région, en proposant des ateliers linguistiques et pratiques en français. Ce projet a pour ambition de favoriser la dynamique de diffusion culturelle de techniques artisanales par le biais d’échanges de savoir-faire, en français et en espagnol, entre la Colombie et la France. | linguistique_11-0353956_tei_776.xml |
termith-727-linguistique | Les lectures non conformes d'abréviations, de sigles et d'acronymes sont aussi anciennes que ces formes elles -mêmes, dont l'usage est attesté dès l'Antiquité. Leur emploi abusif a créé des difficultés de toutes sortes, comme des incompréhensions, des malentendus, des erreurs et des falsifications, en particulier pour les textes de lois et les actes juridiques. Ceci a conduit des souverains, tels que l'empereur byzantin Justinien au 6 e siècle ou Philippe le Bel en France au 14 e siècle, à prendre des mesures pour limiter l'usage des abréviations. De nombreuses anecdotes circulent sur des inscriptions abrégées mal comprises : depuis l'origine de la légende des « Onze mille vierges » – XI.M.V. lu par un chroniqueur du Moyen Âge XI Millia Virginum au lieu de XI Martyres Virgines (« Onze vierges martyres ») – jusqu' à la rumeur contemporaine du jeune conducteur américain qui croit que la position R de la boîte de vitesse automatique signifie Race (« course ») alors que c'est Reverse Gear (« marche arrière ») (Brunvand, 1989, p. 117), en passant par les nombreuses anecdotes épigraphiques, vraies ou fausses, sur les inscriptions prétendument antiques interprétées de manière erronée par des savants. La dimension humoristique du développement non conforme des sigles possède des antécédents anciens. Ainsi Rabelais, dans son Tiers Livre, réinterprète le célèbre sigle romain SPQR par Si Peu Que Rien (Rabelais, 1546, chap. XXXII), c'est-à-dire « si peu que ce soit ». Le comique naît de l'écart entre la majesté du sigle antique et la signification dérisoire qu'en tire Panurge, appliquée à un sujet traité de manière burlesque, le cocuage. Plusieurs siècles plus tard, SPQR sera détourné par des Italiens sarcastiques en Sono Porci Questi Romani (« Ce sont des porcs, ces Romains ») ou par le traducteur italien d ' Astérix en Sono Pazzi Questi Romani (« Ils sont fous ces Romains »), conforme à l'esprit parodique de cette bande dessinée. Une anecdote du 18 e siècle, relatée par Jacob Friedrich von Bielfeld, diplomate prussien, mérite d' être rapportée : On raconte qu'un magistrat en France, homme d'ailleurs d'un grand mérite, mais paresseux, reçut un jour une réponse qui lui fit faire de salutaires réflexions. C'était M. de Pontac qui s'était rendu à sa terre du même nom pour y passer une partie de la belle saison. Un plaideur était allé l'y trouver pour le solliciter de terminer un procès dont il désirait en vain de voir la fin depuis plusieurs années. Il arriva à Pontac au moment que M. le Président était sur le point de se mettre à cheval pour une partie de chasse, et ce magistrat, naturellement goguenard, lui dit d'attendre jusqu' à son retour, et de s'amuser en attendant à déchiffrer le sens de quatre P.P.P.P. qu'il avait fait graver au-dessus de la porte du château et qui signifiaient Pierre Pontac Premier Président. Au retour de la chasse, M. de Pontac ayant retrouvé son plaideur morfondu lui demanda : – Eh bien l'ami, avez -vous trouvé le sens du chiffre ? – Vraiment oui, Monseigneur, lui répliqua -t-il. – Eh bien ? – C'est Pauvre Plaideur Prenez Patience. Son affaire fut expédiée le lendemain. (Bielfeld, 1767, p. 101-102) Cette petite histoire sur la lenteur de la justice (déjà !) comporte les deux caractéristiques qui constituent selon nous le phénomène du détournement de sigles : une dimension ludique (jouer avec les mots) et une dimension idéologique (exprimer une opinion, particulièrement une opinion critique). L'anecdote fait même preuve d'optimisme en laissant entendre que la critique peut être efficace. En privilégiant les exemples de détournement de sigles politiques ou de détournement politique des sigles à l'époque contemporaine, on distinguera quatre types de détournements selon leur finalité dominante, étant entendu que le plus souvent, un détournement de sigle joue dans des proportions variées avec ces diverses finalités : – le détournement ludique; – le détournement injurieux; – le détournement antithétique; – le détournement dévoilant. On conclura l'article sur un phénomène particulier, lorsque le sigle détourné est objet de croyance dans une signification cachée, fonctionnant alors à la manière d'une rumeur. Outre notre collecte personnelle de sigles détournés depuis une dizaine d'années, on utilisera comme sources les sites Web francophones qui rassemblent des sigles détournés, en particulier le site de Michel Buze, bien fait et bien documenté, et la « Liste de sigles et acronymes détournés » du site Echolalie, moins fiable en raison du caractère participatif du site qui fait voisiner des productions singulières de sigles détournés avec des détournements que la mémoire collective s'est appropriés. Des détournements de sigles ont pour finalité dominante l'humour. Le développement inventé n'a pas ou peu de rapport avec l'objet initialement désigné. Cette dimension ludique du détournement est manifeste dans le « jeu des sigles » qui s'est répandu depuis cinq ou six ans sur des forums Internet grand public et qui consiste à imaginer une signification humoristique à des sigles existants. Ce jeu a même donné l'idée à deux auteurs français d'écrire un petit livre, Jeu de sigles ! (Argence, Petiot, 2009), où le lecteur est invité à « se tester et à s'amuser » en retrouvant le sens correct de sigles pour chacun desquels sont proposées plusieurs significations, vraies et fausses mêlées. Ces jeux sur les sigles ou la présence de sigles détournés sur des sites Web d'histoires drôles peuvent être interprétés comme une réaction populaire : d'une part face à l'usage abusif des sigles dans nos sociétés techno-bureaucratiques; d'autre part face au fait que, même si nous connaissons le sens général de sigles fréquents (par exemple CRS désigne des policiers mobiles, IBM une entreprise informatique et ADSL une technique de communication par Internet), nous ignorons souvent leur développement exact. Nous sommes donc amenés ou invités à en imaginer le sens, de préférence de manière humoristique. C'est pourquoi ces productions ont intéressé les folkloristes (Howe, 1989; Renard, 1997; Chevrier, 1997) plus que les linguistes (Calvet, 1980, p. 117, ne consacre que cinq lignes au phénomène du détournement dans son « Que sais -je ? » sur les sigles). C'est d'ailleurs bien l'esprit ludique qui a conduit un plaisantin à introduire une signification détournée dans un dictionnaire international des sigles (www.acronymfinder.com) dont le webmaster américain n'a pas décelé l'intrus : pour SNCF, au-dessous de la signification correcte « Société Nationale des Chemins de fer Français », figure un Sans nous les cafés ferment ! Une première catégorie de détournements ludiques cherche à produire un effet burlesque. Certains ont fait le bonheur de plusieurs générations d'écoliers : SNCF, Savoir Nager Comme Fernandel, et URSS, Union Ratatinée des Saucissons Secs. Dans ce dernier exemple, il y a aussi probablement une finalité injurieuse ou révélatrice qui dénonce indirectement les gérontocrates du régime soviétique. RATP a été développé en Rhinocéros À Trois Pattes, CFDT en Conspiration Fébrile Des Toréadors et PCF en Parti Chercher Fernande. Le domaine alimentaire est fréquemment sollicité : CGT, Courgettes Garnies au Thon; CPE, Carottes, Poireaux, Épinards; CRS, Citron, Rhum, Sucre (c'est la composition du ti punch !); RTT, Rhum, Tequila, Tabasco. En juillet 1999, alors que le Tour de France était entaché par l'affaire du dopage à l'EPO (ErythroPOïétine), une pancarte sur le parcours des cyclistes déclinait le sigle en Eau, Pastis, Olives, pour dédramatiser les esprits et réenraciner le Tour dans un terreau populaire. Une seconde catégorie de détournements relève du registre sexuel et scatologique. Sans doute influencés par le Savoir Nager Comme Fernandel transmis par les anciens, les jeunes de banlieue ont modernisé le détournement de SNCF en Savoir Niquer Comme Fatima (Fattier, 2004, p. 15; le prénom Fatima est un terme générique pour désigner les « beurettes »). Le sigle CGT est développé en Catalogue pour Garçons Travestis ou en Cherche Gigolo Tranquille, tandis que FO devient Formidable Orgasme ou Folies Orgiaques. PCF donne Petit Câlin aux Fesses ou Petite Couille Fraîche. Mentionnons également à titre d'exemples, car la thématique est restreinte : CPE, Coït, Pénétration, Éjaculation; SDF, Sans Demoiselle Fixe; FMI, Fourrer Mon Instrument; TVA, Transsexuel Voyageant en Automobile; BEPC, Brevet Élémentaire de Pipes et Caresses; ZUP, Zigoto Urinant Poétiquement. Le détournement sexuel ou scatologique des sigles relève de la transgression, au même titre que les graffitis obscènes – pensons en particulier au détournement des affiches publicitaires ou politiques par des graffitis sexuels – ou les histoires drôles à contenu scato-sexuel. Le détournement obscène de sigles est à la culture populaire ce que les contrepèteries sont à la culture savante : le goût de la provocation, la jubilation d'un sens caché aux profanes et un certain plaisir pour la régression au stade anal. Les sigles détournés à finalité essentiellement ludique sont en nombre limité, principalement dans le domaine du politique. Ceci montre bien que la plupart des détournements ont tendance à ajouter une dimension polémique, en rapport avec l'objet du sigle. Comme l'écrit un contributeur du site Echolalie : « C'est tellement mieux quand le détournement de l'acronyme reste en rapport avec son sujet… » « C'est tellement mieux », mais ce n'est pas nécessairement de bon goût, comme en témoignent tous les détournements injurieux qui insultent par ce moyen l'objet désigné par le sigle. Notons que ce sont des injures indirectes, en ce sens que l'injurié n'est généralement pas présent et n'a parfois jamais connaissance de l'injure. Il s'agit donc plus d'un « trait d'esprit injurieux » (Larguèche, 1993, p. 109) que d'une injure au sens strict. Utiliser des mots grossiers en détournant un sigle, c'est d'une certaine manière vouloir salir l'objet désigné par ce sigle. Pour Pierre Guiraud, les « gros mots » relèvent de trois champs sémantiques – le sexe, la défécation et la pourriture – et leur emploi vise à la « dévalorisation des choses dont on parle » (Guiraud, 1975, p. 24). C'est pourquoi les injures utilisent de manière privilégiée les gros mots. Certains détournements cumulent la finalité humoristique avec une intention « salissante » : par exemple RPR, Repaire de Pétomanes Retors; UMP, Un Méga Prout; USA, Usine de Suppositoires Atomiques. D'autres sont explicitement injurieux : FN, Fion National; UMP, Une Merde Présidentielle, Une Majorité Putride ou Un Monde Pourri. Des détournements sexuels plus crus utilisent le motif de la sodomie comme métaphore politique de la duperie, au sens de « se faire avoir » (forme passive) ou de « rouler » autrui (forme active) : ainsi RMI, Retourne Moi et Introduis; TVA, Tube de Vaseline Anale; CPE, Contrat Pour t'Enculer; MEDEF, Maison d'Experts De l'Enculage à Froid; UMP, Unis pour nous la Mettre Profond. Les organismes ou les mesures gouvernementales désignés par ces sigles sont ainsi dénoncés comme exploitant le peuple. Des détournements se réfèrent à la « connerie » : CGT, Cons, Gras, Tristes (détournement attribué par Michel Buze au caricaturiste anarchiste Reiser); CD (Corps Diplomatique), Con Diplômé ou, plus ancien et moins fort, Cornichon Diplômé, détournements qui fournissent des jurons appropriés pour les automobilistes mécontents de la conduite d'une voiture portant la plaque CD; IBM, Idiot, Bête et Méchant. Le sigle CFDT a fait l'objet de détournements, sans doute imaginés par des syndicats plus radicaux, où apparaît l'accusation de traîtrise : Cons Fourbes Débiles et Traîtres et Comment Finir Dans la Trahison. À côté des insultes animalières (PS, Planète des Singes; UMP, Union des Moutons de Panurge) ou homophobes (MEDEF, Monsieur Ernest Défile En Folle), on trouve les accusations de malhonnêteté et de mensonge : RPR, Racaille Parisienne Recyclée; UDF, Union Des Fripouilles. La formation UMP (créée en 2002, Union pour la Majorité Présidentielle, chiraquienne, puis Union pour un Mouvement Populaire, sarkoziste) est particulièrement visée : Union des Magouilleurs Patentés, Union de la Minorité Profiteuse, Usine à Mensonges et Promesses. Le PS n'échappe pas à ce type d'accusation avec les détournements Profiteurs Sournois et Pas de Scrupules. Des sarcasmes s'expriment dans le détournement du nom propre siglé d'un ancien président de la République française : VGE, Voici un Grand Escroc et Vieux Gaga Excité. Les services publics ou les assistés sociaux sont accusés de fainéantise par un certain humour poujadiste : PTT, Petit Travail Tranquille ou Prends Ton Temps; SNCF, Sur Neuf, Cinq Fainéants; EDF-GDF, Équipe De Fainéants - Gars Déjà Fatigués; DDE, Dix Doigts Engourdis. SDF a été cruellement détourné en Sans Doute Feignant. On trouve aussi l'accusation d'alcoolisme : SNCF, Sans Nous, les Cafés Ferment; RMI, Rente Mensuelle de l'Ivrogne. Des détournements exploitent le thème de l'absence de sérieux des organismes concernés. Par exemple l'IUFM est l ' Institut Ubuesque de Fumisterie Magistrale. Pour Coluche, qui en bon anarchiste s'en prend aux syndicats ouvriers, FO est la Farce Ouvrière tandis que la CGT est le Cancer Général du Travail, ajoutant : « Encore que Krasucki dit que c'est faux car le cancer évolue, pas la CGT ! » (1986, cité par Marchand, 2008, p. 5). Le sigle CRS, souvent détourné par les jeunes de banlieues, se décline selon toutes les variantes de l'injure : Cars Remplis de Singes, Cerveau Rarement Sollicité, Couillons en Rangs Serrés, Cars Remplis de Salauds, Crapules Racistes et Sanguinaires. On relève aussi quelques détournements xénophobes comme ANPE, Arabes Nourris Par l' État, ou le nom d'une chaîne de magasins à bon marché, Tati, acronymé en Trop d'Arabes Traînent Ici, mais que le langage des jeunes issus de l'immigration a euphémisé en Tout Arabe Transite Ici (Fattier, 2004, p. 15). Cette forme de détournement aboutit à un « retournement », en ce sens que l'on fait dire au sigle l'antithèse, le contraire de ce qu'il signifie ou de ce qu'il évoque. Ce procédé vise à dénoncer l'hypocrisie d'organismes ou de réformes qui agissent à l'encontre de leur mission. Par exemple : ANPE, Avec Nous Peu d'Espoir; Bac (abréviation de Baccalauréat), acronymée en Brevet d'Aptitude au Chômage; CFDT, Chérèque Fait le Désespoir des Travailleurs; FMI, Famine, Misère, Insurrection; MEDEF, Mission Expresse : Diminuer l'Emploi en France; RATP, Rentre Avec Tes Pieds ou Réunir Arrêt de Travail et Pagaille (détournements protestant contre les grèves à la RATP); RMI, Revenu Misérablement Insuffisant; TER, Toujours En Retard; UMP, Usurpation du Mot Populaire. Le procédé est utilisé par des humoristes professionnels : ainsi Anne Roumanoff se moque des ordinateurs en traduisant PC par Plante Constamment, et de l'abus des temps de repos avec RTT détourné en Repose -toi Tout le Temps. Par sa forme de slogan et son contenu contestataire, le détournement antithétique apparaît comme particulièrement approprié aux manifestations de rue. L'exemple du mouvement contre le projet de loi sur le Contrat Première Embauche (CPE) au printemps 2006 est à cet égard très significatif. Les précédents mouvements lycéens et étudiants ont peu utilisé le détournement de sigle. Un site Web qui collecte les slogans de manifestations ([h ], consulté le 10 décembre 2011) témoigne de la rareté des sigles détournés avant 2006. Tout au plus trouve -t-on des allitérations comme le célèbre CRS-SS de Mai 68 ou bien, en mars 1994, le sigle CIP (Contrat d'Insertion Professionnelle) détourné sur une pancarte en Contrat d'Intérêt Patronal. La multiplication des détournements de l'abréviation CPE ne s'explique pas seulement par la présence d'un sigle symbolisant l'objet de contestation mais aussi sans doute, comme le suggère Mat Pires (2007), parce que ce sigle est familier aux élèves (Conseiller Pédagogique d' Éducation). Selon cette étude, près de 70 % des détournements observés ont été collectés dans les manifestations, tandis que 30 % proviennent d'autres sources, en particulier du journal satirique Le Canard enchaîné. Les mots récurrents sont chômeur - chômage, précaire - précarité, exploité - exploitation, exclusion. Par exemple : Chômage Précarité Exploitation (ou Exclusion), Chômeur Précaire Exploité (ou Éjectable), Cherche Pigeons à Exploiter, Contrat Privilégiant l'Exploitation, Contrat Première Exclusion (ou Embûche, ou Emmerde), Carence Pour Étudiant, Citrons Pressés Essorés, Contrat Poubelle Embauche, Certificat Préparatoire à l'Exclusion. D'autres détournements mettent l'accent sur le patronat exploiteur : Contrat Patronal d'Exploitation, Contrat Pour Esclaves, Contrat de Patron Engraissé. D'autres encore sur la désespérance : Contrat Perte Espoir, Comment Pourrir l'Emploi, Certitude Perdre Emploi. Un détournement appelle à la mobilisation : Contre-Pouvoir Étudiant. Sur un mur de la Sorbonne, on peut lire Chômage, Pavés, Émeutes, qui évoque les mots d'ordre soixante-huitards. Les mots d'esprit dans Le Canard enchaîné se réfèrent plutôt aux conséquences politiques du mouvement et à l'opposition entre Dominique de Villepin et Nicolas Sarkozy : Contrat Première Ébauche (comme suggère de l'appeler la caricature de Villepin dans un dessin satirique), Combat Pour l' Élysée ou Comment Perdre les Élections (mot attribué à un député UMP). Le journaliste Thierry Haye, dans le journal de Télé-Matin sur France 2, le 10 mars 2006, s'amuse à détourner CPE en C'est Pas Évident. Le succès des détournements de sigle lors des manifestations contre le CPE donnera sans doute le goût de cette forme de contestation pour des actions politiques ultérieures, par exemple pendant les manifestations universitaires de l'automne 2007 contre la loi relative aux « Libertés et Responsabilités des Universités », dont le sigle LRU a été détourné en Loi de Répression des Universités. Pensons aussi à la multiplicité des détournements du sigle UMP depuis quelques années. Quelques détournements antithétiques relèvent de l'humour noir. C'est par provocation que l'on dit d'une personne riche que c'est un vrai SDF, Sans Difficultés Financières. Comme l'a montré le sociologue américain Joel Best, des plaisanteries circulent souvent après des événements tragiques comme pour exorciser l'effroi qu'ils suscitent. Cet humour noir prend parfois la forme de détournements de sigles. Par exemple le sigle NASA a été développé en Need Another Seven Astronauts (en français, « Nous avons besoin de sept autres astronautes », ou Nous Avions Sept Astronautes), en référence à l'explosion de la navette spatiale Challenger en 1986. De même, après qu'eut lieu en 1993 le suicide collectif de membres d'une secte après un long siège du bâtiment par la police à Waco, au Texas, le nom de cette petite ville américaine a été acronymé en We Ain't Coming Out, « Nous ne sommes pas sortis » (Best, 2005, p. 182). Il existe aussi des détournements antithétiques positifs d'un sigle négativement marqué. Lorsque l'Alsace fut annexée par le Troisième Reich en 1941, des Alsaciens contraints de porter l'uniforme allemand détournèrent le sigle NSDAP (National Sozialistiche Deutsche Arbeiter Partei) en Nous Sommes Des Allemands Provisoires ! Le détournement dévoilant est celui qui fait le plus appel à des références idéologiques et à un contexte historique. Il prétend révéler une vérité cachée que le sigle indiquerait indirectement. Certains dévoilements entretiennent un rapport faible avec l'objet du sigle. Dans ses mémoires, Arletty raconte que, pendant l'Occupation, elle a rencontré un jeune garçon qui résistait à sa façon en complétant systématiquement au crayon rouge dans les toilettes publiques le sigle WC par Winston Churchill (d'après Feixas, 1996, p. 124). Ce détournement ne prend sa valeur que dans son contexte historique et politique. A contrario, l'expression familière « téléphoner à Winston Churchill » pour dire que l'on va aux toilettes (Bernet, Rézeau, 1989, p. 344) n'est plus qu'un jeu de mots, sans référence et sans idéologie. Les détournements politiques de sigles non politiques dépendent souvent de l'actualité du moment. Par exemple en 2006-2007 : DVD, De Villepin Démission; SVP, Sarkozy Va Perdre ou Sarkozy Vouloir Présidence; ADN, Amis De Nicolas. En mars 2006, alors que l'opposition contre le CPE s'engage et que les Français apprennent par la presse les difficultés conjugales de Cécilia et Nicolas Sarkozy, le sigle CPE est détourné en Cécilia Partie Encore. En janvier 1995, Mgr Jacques Gaillot, évêque d' Évreux, est suspendu de ses fonctions par le pape Jean-Paul II en raison de ses prises de position progressistes, en particulier en faveur du préservatif, de l'ordination d'hommes mariés et des sans-papiers. Le turbulent prélat est nommé évêque in partibus du diocèse de Partenia en Algérie, disparu depuis longtemps sous les sables. Cette mesure, qui accorde un titre d'évêque purement nominal, a suscité un détournement du sigle SDF appliqué à Mgr Gaillot avec la signification de Sans Diocèse Fixe à la une du Nouvel Observateur du 19 janvier 1995. Ce détournement, qui sera largement repris, est d'autant plus subtil que l'évêque était précisément attentif à la condition des personnes sans domicile fixe. Une amusante anecdote de détournement religieux d'un sigle syndical a été relatée par le journal Ouest-France en juillet 2001. En voici le résumé : Lors d'une manifestation pour la défense du service public en juin 2001 à Nantes, une religieuse qui a exceptionnellement quitté son monastère pour un examen médical passe au milieu du cortège et demande son chemin à un militant syndical. Celui -ci, après avoir renseigné la sœur, s'amuse à lui poser un auto-collant « CGT » sur son voile, à son insu. « C'est donc, écrit-elle dans une lettre à Bernard Thibault, en faisant de la publicité pour votre manifestation que j'ai effectué mon trajet. La plaisanterie ne me fut révélée qu' à mon retour au monastère. » « Je me suis permis, ajoute -t-elle, de retraduire les initiales et CGT est devenu Christ Gloire à Toi ! » La réponse du secrétaire général du syndicat ne manque pas non plus d'humour : « Je vous pardonne volontiers votre interprétation originale du sigle de notre confédération car nous ne pouvons avoir que de la considération pour un charpentier qui a révolutionné le monde. » (Ballu, 2001) D'autres détournements, les plus intéressants, visent à révéler une réalité cachée concernant l'objet du sigle. Certains détournements sont compréhensibles pour qui a quelques connaissances politiques : CFTC, Congrégation des Fulminants et Tonitruants Curés; CGT, Ci-Gît Trotski; FN, Fascisme et Nazisme; SNCF, Société Nationale des Communistes Feignants; MEDEF, Même En Dormant Enrichis ta Famille; PCF, Parti qu'on Croyait Foutu ou Pourquoi y Croit-on en France. Considérant que les luxueuses Mercedes noires des cardinaux n'étaient pas en accord avec le message de pauvreté du christianisme, les facétieux Romains ont détourné le sigle de la plaque d'immatriculation SCV (Stato della Città del Vaticano) en Se Cristo Vede (Si le Christ voit ça !). Pour être compris aujourd'hui, des détournements nécessitent d' être replacés dans leur contexte historique. Dans les années 1840-1860, le nom du compositeur italien Verdi, lui -même patriote, a été acronymé en Vittorio Emanuele Re D'Italia (Victor-Emmanuel Roi d'Italie) et utilisé comme slogan ou graffiti crypté (Eviva VERDI) par les résistants à l'occupation autrichienne. En 1938, quand fut rendue publique la découverte du Nylon, cet acronyme à l'origine controversée fut détourné en Now You Lost Old Nippons (« Maintenant vous avez perdu, vieux Japonais »), exprimant à la fois l'idée d'une victoire économique, puisque le Nylon allait remplacer la soie produite en Extrême-Orient, mais aussi un sentiment anti-japonais très vif dans ces années d'avant-guerre. En 1945, dans les villes allemandes bombardées, les habitants ont transformé le sigle LSR (LuftSchutzRaum ou abri anti-aérien) en Lernen sie Schnell Russisch (Apprenez vite le russe). Dans la France d'après-guerre, le Mouvement Républicain Populaire (MRP) s'affirme comme le deuxième parti politique, après le PCF. Les détournements du sigle, inventés ou du moins rapportés par Le Canard enchaîné, révèlent ironiquement son origine démocrate-chrétienne – le Mouvement des Révérends Pères (Coutrot, Dreyfus, 1966, p. 192) – ou sa capacité à attirer les nostalgiques du Maréchal : Machine à Ramasser les Pétainistes (attesté en 1945 selon Lacouture, 1985, p. 209). Une recherche sur Internet montre que, comme les mots d'esprit, l'invention de ce détournement est attribuée à des personnalités diverses, par exemple Charles de Gaulle ou le leader communiste Jacques Duclos. Une variante mentionne la Machine à Recycler les Pétainistes, mais le mot « recycler » n'apparaissant en français qu'en 1959, elle semble donc être une création ultérieure. L'accusation a connu en 2009 une nouvelle jeunesse avec le détournement du sigle UMP en Un Mouvement Pétainiste, suite à la polémique autour de l'identité nationale. Dans l'Afrique du Sud d'après l'apartheid, en 1999, le sigle de l'ANC (African National Congress), parti au pouvoir, est détourné en Arrogance, Népotisme, Corruption par les tenants de l'ancien régime. La même année, des militants altermondialistes ont détourné le sigle OMC (Organisation Mondiale du Commerce) en Oh ! Monde Cruel (photo à la une de L'Humanité du 29 novembre 1999) et en septembre 2000, lors de la réunion de l'IMF (International Monetary Fund) à Prague, le sigle a été détourné en International Monetary Failure. Parmi les exemples modernes, le détournement de RPR en Référendum Perdu avec Raffarin est contemporain de la consultation d'avril 2005 sur la Constitution européenne, Jean-Pierre Raffarin étant Premier ministre. Le sigle UMP détourné en Une Machine à Perdre est attesté dès 2004 après la défaite de ce parti aux cantonales et aux régionales et avant les élections européennes, tandis que le détournement Un jour, Moi, je serai Président date de la campagne présidentielle de Nicolas Sarkozy en 2007 et qu ' Un Mauvais Président est apparu plus récemment. Chirac a été acronymé en Cherche Héroïquement et Infatigablement à Rester Aux Commandes lors de sa candidature à un second mandat en 2002, et Bush en Bombardez Uniquement Saddam Hussein en 2003 lors de l'invasion de l'Irak par la coalition menée par les États-Unis. En 2008, Bernard Thibault, qui semble décidément sensible au phénomène des détournements de sigles, dénonce des financements occultes qui auraient été versés par le patronat et s'en prend au patron Denis Gautier-Sauvagnac « dit “DGS ”, ce qui signifie peut-être “Donateur Généreux en Secret” ». En 2007, au moment où des personnalités socialistes rallient le nouveau président de la République française, Anne Roumanoff ironise en interprétant le sigle PS par Potes de Sarkozy. L'engagement politique de journaux est dénoncé par le détournement de VSD en Vendre Sarkozy Durablement, et l'objectivité des sondages est contestée avec IFOP, Institution Flattant l'Opinion des Puissants, et SOFRES, Société Omettant de Fournir des Résultats qui Énerveraient Sarkozy. Par référence à l'insécurité des banlieues, HLM a été détourné en Haut Les Mains ! On prétend que, lors du débat sur le PACS au Sénat en 1999, le sénateur RPR du Rhône Emmanuel Hamel (décédé en 2003) aurait nommé le PACS « Pacte de Contamination Sidaïque ». Il s'agit très probablement d'une rumeur car on ne trouve aucune trace de ces propos dans les comptes rendus des débats. La dénonciation de l'islamisme s'exprime dans le détournement du sigle FIS (Front Islamique du Salut) en Fatima Interdite de Sexe, et du sigle MRAP en Mouvement pour le Respect d'Allah et de son Prophète. Par le détournement de sigles, des antisionistes dénoncent le prétendu soutien apporté à Israël par des partis politiques ou des entreprises. Pour le fondateur du Parti des musulmans de France, le sigle PS (Parti Socialiste) peut se lire Parti Sioniste. Sur une page Web de « sigles humoristiques », on a trouvé le nom Pepsi-Cola développé en Pour Encourager le Peuple Sioniste Israélien - Contre l'Organisation de la Ligue Arabe. Une recherche sur Internet montre que ce détournement est parfois pris au premier degré. Ce qui nous conduit à étudier les cas où les détournements de sigles sont pris dans leur sens littéral et sont objets de croyance. Le détournement pris au sérieux participe du phénomène des rumeurs. Il ne s'agit plus d'un jeu linguistique, même sarcastique, mais de la révélation d'un sens caché dissimulé derrière un sens apparent. Il est de la nature des rumeurs de donner une information qui ne circule pas officiellement. Les rumeurs sur des « symboles cachés » (Campion-Vincent, Renard, 2002, p. 365-375) poussent à l'extrême cette révélation, en dévoilant le vrai visage des choses derrière une apparence anodine. En 2000, des tracts fondamentalistes égyptiens dénonçaient Coca-Cola et Pepsi-Cola comme des entreprises soutenant Israël et appelaient au boycott de ces produits. On prétendait que le célèbre logo Coca-Cola, en écriture cursive sur fond rouge, si on le lit dans un miroir, devient en arabe « Non à Mahomet, non à La Mecque », et que Pepsi est en réalité un sigle signifiant Pay Every Penny to Save Israel (« Donnez jusqu'au dernier sou pour sauver Israël »). En France, la rumeur du sigle Pepsi circule sur des forums Internet, suscitant l'adhésion des uns, qui attribuent au président iranien Ahmadinejad la révélation du sens caché de Pepsi, et les doutes des autres, qui s'appuient sur l'ancienneté de la marque (1893, quand n'existaient ni Israël ni la Ligue arabe) et le fait que le mot Pepsi vient de « dyspepsie », ou maux d'estomac, auxquels devait remédier cette boisson gazeuse inventée par un pharmacien. Le mot Pepsi a été « décrypté » en français par Pour l'Expansion (ou Émigration) du Peuple Sioniste en Israël et Pepsi-Cola par Pour Encourager le Peuple Sioniste Israélien - Contre l'Organisation de la Ligue Arabe ou par Pour l' Édification du Peuple Sioniste d'Israël - Contre l'Organisation de la Ligue Arabe. Aux États-Unis, une rumeur à connotation antisémite a circulé sur la chaîne de magasin E. J. Korvette fondée en 1948 et disparue en 1980. On prétendait que ce nom était l'acronyme de Eight (ou Eleven) Jewish Korean war Veterans (« Huit – ou onze – juifs, vétérans de la guerre de Corée »). En réalité, ce prétendu groupe occulte n'a jamais existé puisque les initiales E. et J. sont celles des deux cofondateurs de la chaîne, Eugene et Joe, associées à un terme d'inspiration navale, Corvette, à une date qui précédait de trois ans la guerre de Corée. Dans l'immédiat après-guerre, alors que la guerre froide s'installait, les anti-communistes américains voyaient partout la main de Moscou. Lorsque la pièce de dix cents à l'effigie de Franklin D. Roosevelt fut frappée en 1946, une rumeur prétendit que les lettres J. S. gravées sous la tête du président signifiaient Joseph Staline. En réalité, il s'agissait des initiales du dessinateur de la pièce, John Sinnock (Morgan et al., 1988, p. 90). Dans les années 1970-1980, on accusait les groupes de hard rock d' être satanistes (Morgan et al., 1988, p. 84-86). Il est vrai que certaines chansons provocatrices comme Highway to Hell (groupe AC/DC) ou Sympathy for the Devil (Rolling Stones) favorisaient ces rumeurs. Le sigle AC/DC a été lu comme Anti-Christ / Death to Christ (ou Devil's Children), Anti-Christ / Destroy Christ ou After Christ Devil Comes. L'histoire du groupe AC/DC témoigne pourtant de l'emprunt du sigle au lexique de l'électricité (Alternative Current / Direct Current, courant alternatif / courant continu), en raison d'une passion pour les guitares électriques; le premier album du groupe s'intitule d'ailleurs High Voltage. Le nom du groupe KISS (dont les deux S souvent écrits en caractères runiques rappellent la sinistre organisation nazie) a été acronymé par la rumeur en Knights In Satan's Service (« Chevaliers au service de Satan »). Sans être aucunement des sectes satanistes, les groupes de hard rock, et plus ouvertement encore par la suite les groupes de black metal, ont joué de symboles blasphématoires pour choquer le bourgeois. Aux communistes, aux juifs et aux satanistes ont succédé les Chinois comme puissance malfaisante. La Chine menace l'économie européenne si l'on en croit une rumeur, circulant depuis avril 2009, qui décrypte l'abréviation CE, logo marquant la conformité d'un produit aux normes européennes, en China Export. Ce qui semble être à l'origine une blague, un détournement ludique du sigle, est devenu avec le temps une rumeur qu'alimente encore la peur des contrefaçons fabriquées en Asie. Le détournement de sigles est une pratique langagière qui apparaît donc comme une forme de contestation sociale ou idéologique. On peut la rapprocher des histoires drôles ou des rumeurs, c'est-à-dire de la créativité populaire (Howe, 1989). Pour John Fiske (1989), une partie de la culture populaire contemporaine est une resémantisation de productions culturelles issues des institutions sociales. L'élargissement du corpus de sigles détournés à d'autres domaines que celui du politique – il y a en particulier beaucoup de sigles détournés pour les compagnies de transport, les marques de voiture, le lexique informatique – pourrait permettre de confirmer cette hypothèse . | La prolifération des sigles dans le monde contemporain s'est accompagnée d'une pratique accrue de leur détournement, qui consiste à substituer d'autres mots commençant par les mêmes lettres à ceux qui composent le sigle original développé. Cette créativité langagière prétend le plus souvent à l'humour, mais elle se donne aussi pour objectif de dénoncer la «face cachée» de l'objet désigné par le sigle. En ce sens, le détournement est éminemment politique. | linguistique_12-0116620_tei_680.xml |
termith-728-linguistique | Les États-Unis se sont construits sur deux principes fondateurs qui peuvent apparaître paradoxaux : la conquête de nouveaux territoires (la frontière) et l'implantation, l'ancrage dans ces nouveaux territoires conquis. Cette implantation donne lieu aujourd'hui à une forte ségrégation territoriale (fondée sur des facteurs économiques mais également sociaux et religieux) dans les villes américaines, avec notamment l'apparition et le développement des gated communities (quartiers résidentiels enclos). Les complexes touristiques n'échappent pas à ce phénomène. Dans ce contexte, il apparaît pertinent de s'intéresser à la stratégie d'implantation en Europe d'une multinationale nord-américaine d'équipement de loisirs : Intrawest. Les loisirs constituent un secteur riche pour l'analyse, s'inscrivant à la fois dans les sphères économique, sociale et culturelle. Les projets immobiliers d'Intrawest relèvent de l'architecture touristique et de loisirs, qui, depuis l'étude du Strip de Las Vegas par Robert Venturi, peut s'analyser non seulement en termes architecturaux mais également en termes sémiotiques. Ces endroits, un peu en dehors du monde, se placent dans la problématique de l'imaginaire (Baudrillard 1996), et peuvent être diversement qualifiés d'utopies, de distopies ou d'hétérotopies (Foucault [1967] 1984). Cette recherche est digne d'intérêt pour la langue de spécialité en ce qu'elle concerne l'analyse du discours d'une entreprise. L'objectif est donc de tenter de lire la stratégie d'Intrawest, notamment à travers le discours marketing entourant le lancement de deux projets immobiliers récents en Europe. Dans un premier temps, nous présenterons l'entreprise et la nature du corpus, puis les résultats de l'analyse de ce corpus. Intrawest est un promoteur canadien, dont le siège se situe à Vancouver. L'entreprise comptait environ vingt-quatre mille employés en 2007 et possède dix stations de ski, dont Whistler/Blackcomb, station-phare de la Colombie britannique. Il s'agit d'une entreprise florissante, dans un marché oligopolistique dominé par quatre firmes (The American Skiing Company, Intrawest Corporation, Vail Resorts et Booth Creek Holdings) qui se partagent un tiers du marché (NYT 1997). Fondée en 1976, l'entreprise a d'abord dirigé ses activités vers l'immobilier résidentiel. À la suite de l'acquisition de la station de Blackcomb Mountain en 1986, elle s'est diversifiée vers l'immobilier de loisirs, principalement en Amérique du Nord. Les stations de Whistler/Blackcomb, Tremblant au Québec et Arc 1950 en France (la filiale Europe fut créée en 2000) constituent ses réalisations les plus marquantes. En 1994, elle se repositionne sur le marché de l'immobilier de loisirs, développant des resorts à la montagne, à la mer et à proximité de golfs. Ses réalisations vont du complexe hôtelier indépendant au village intégré. En 2001, Intrawest a créé Playground, qui lui a permis de se concentrer sur son expertise en matière d'immobilier (dans une perspective d'intégration verticale, incluant la conception, la construction, la commercialisation et surtout l'exploitation — hébergement et gestion des équipements touristiques), notamment par le biais du time sharing et du fractional development (formes de multipropriété en temps partagé). En 2006, l'entreprise a été achetée par Fortress Investment Group LLP. Aujourd'hui, Intrawest se définit comme suit : Intrawest is the world's leading developer and operator of village-centered resort real estate destinations. […] Intrawest is : - The leading North American developer and operator of mountain, seaside and golf resorts including Whistler Blackcomb, a host venue for the 2010 Winter Olympics. - An incredible network through which owners can enjoy many vacation destinations across North America and Europe. - A creator of authentic villages with a unique concept where vision, passion, magic and experience mingle. (site-toile de Flaine Montsoleil) Plusieurs éléments de cette définition méritent d' être commentés. L'entreprise souligne son activité majeure (developer and operator), sa position sur le marché (leading, la référence aux Jeux Olympiques), le statut de ses clients (owners). Le terme village indique le parti pris esthétique, qui apparaît de façon frappante lors de la répétition formant un oxymore (peut-on réellement « créer » des villages authentiques ?). La culture d'entreprise, telle qu'elle est présentée sur le site-toile de Playground, s'inscrit plus largement dans la culture des entreprises de loisirs : Work and Play At Playground, work and play are virtually inseparable. We live it, we love it. We bring a sense of fun and performance to everything we do. And while we have a very disciplined and focused approach to the logic side of our business, the magic is what sets us apart. And this magic is what moves Playground from being just a good company to being a great story. La rhétorique à l' œuvre ici peut sans doute être qualifiée de « rhétorique Disney » (les termes fun, magic, story … rappelons que Disneyland est « The Happiest Place on Earth » et Disneyworld, « The Magic Kingdom »). D'une façon plus globale d'ailleurs, la stratégie marketing de l'entreprise ne fait pas preuve d'une grande originalité, le slogan de Playground, « Connecting people with the ultimate places to play » rappelant étrangement celui de la firme finlandaise de téléphonie mobile, Nokia. Le mission statement de l'entreprise lui sert de vecteur de communication. Nous notons que ce dernier correspond à la forme canonique du genre : « la plupart [des entreprises] annoncent un ou plusieurs buts à atteindre et certaines un tournant à négocier pour s'adapter à une nouvelle activité du groupe » (Resche 2005 : 16). Standards of Business Conduct Our Mission : To create memories for our guests and staff as the best mountain, beach and golf experience … again and again. Our Values : Win Guest Loyalty through the consistent delivery of memorable experiences. Create a positive and enduring Employee Experience. Leverage Team Play to get things done. Strive to be the best at everything we do. (site-toile d'Intrawest) Il convient de souligner que si la déclaration d'intention concernant les valeurs de l'entreprise n'est absolument pas spécifique, et pourrait très bien s'adapter à n'importe quelle entreprise dans une autre branche d'activité de service, la mission est, en revanche, bien propre au domaine des loisirs. Le corpus utilisé pour mener à bien notre analyse est extrait de la documentation marketing diffusée lors de la mise en chantier sur le territoire français de deux programmes : Arc 1950 en Savoie (premier programme alpin français, 2002-2007) et Flaine Montsoleil dans le domaine du Grand Massif en Haute-Savoie (deuxième programme alpin français, 2006-2008). L'une des spécificités de ce corpus est qu'il s'agit de discours marketing publié sur des sites Internet. Notons qu'il s'agit de communication monologique, proche de la communication traditionnelle. Cependant, cette stratégie commerciale via des sites Internet se distingue du matériel imprimé en termes de coût, d'espace, d'accessibilité et de potentialités créatives, par la mise en ligne de matériel audio et vidéo (Pollach 2003 : 279).Par ailleurs, Intrawest propose à ses clients prospectifs de s'inscrire pour recevoir des courriels plus personnalisés. Remarquons également que le recours à une forme moderne de communication (Internet) et au concept d'authenticité dans la communication de l'entreprise n'est pas antagoniste, comme l'ont montré Catherine Lapassouse-Madrid et Marie-Christine Monnoyer-Longé (2000 : 26). L'objectif de toute stratégie marketing est de créer de la valeur : Le marketing est l'effort d'adaptation des organisations à des marchés concurrentiels, pour influencer en leur faveur le comportement de leurs publics, par une offre dont la valeur perçue est durablement supérieure à celle des concurrents. Dans le secteur marchand, le rôle du marketing est de créer de la valeur économique pour l'entreprise en créant de la valeur pour les clients. (Lendrevie et al. 2006 : 12) Évidemment, le discours marketing est une rhétorique de persuasion : il s'agit d'attirer une clientèle qui n'est pas captive, et qui, a fortiori dans le domaine des loisirs, se laisse guider par ses envies. Pour l'entreprise, le défi est donc de savoir s'adapter aux attentes des clients, en particulier en modifiant son discours en fonction de la cible selon les principes de la pragmatique de l'énonciation (Kerbrat-Orecchioni 2002). Ainsi par exemple, l'entreprise Disney a -t-elle dû ajuster son concept de parc de loisirs au marché japonais lorsqu'elle a ouvert Tokyo Disneyland en 1983 (Raz 2000). La démarche a consisté en particulier à réécrire les scripts accompagnant certaines attractions, voire à créer une attraction spécifique pour la clientèle japonaise (Meet the World). À EuroDisney, les adaptations à la clientèle européenne ont été encore plus considérables (Van Maanen 1992 : 25-30). Selon l'analyse faite par Jean-Louis Mucchielli de l'implantation de Disney à Marne-la-Vallée, nous pouvons dire que, dans ce cas précis, concernant l'implantation d'Intrawest dans les Alpes françaises, nous sommes en présence d'avantages spécifiques internationalement transférables (1998 : 129-130). La liste de ces avantages est la suivante : détention d'une marque; savoir-faire dans le métier; accès privilégié aux marchés (du fait de la notoriété induite par la marque); obtention d'économies d'échelle (les mêmes grands principes de conception prévalant pour toutes les stations); courbe d'apprentissage importante (due à l'expérience dans le domaine); politiques locales favorables (Intrawest a fait alliance avec la Compagnie des Alpes par exemple lors de la création d'Arc 1950); barrières à l'entrée (il s'agit d'un marché qui demande de forts investissements initiaux). L'installation d'Intrawest en Savoie ne s'est pas faite sans heurts. Ainsi, certains usagers (par le biais des forums Internet en particulier) ont-ils dénoncé une architecture-pastiche, apparentée à un décor. Pourquoi introduire la notion de décor pour décrire ces programmes immobiliers ? Le décor est la représentation figurée du lieu où se passe l'action. Appliquer cette notion au monde réel valide la théorie de la contamination de la réalité par le spectacle, phénomène inhérent au monde contemporain si l'on en croit Guy Debord (1992) et les situationnistes. Les notions afférentes au terme de décor qui nous semblent opérationnelles dans ce cas précis sont les suivantes : La simultanéité (le décor est le lieu où se déroulent toutes les actions dignes d'intérêt). Cette simultanéité dans le temps implique une densité de l'espace, pour former ce qui peut apparaître comme un panoptique. Le faux, le factice : le décor ne fait que refléter l'image du réel, telle que les prisonniers de l'allégorie de la caverne la contemplent. Le postulat d'un créateur omnipotent, qui préside à la conception et l'arrangement de l'ensemble. Dans The Gutenberg Galaxy, publié à la fin des années soixante, Marshall McLuhan introduisait le concept de village global, faisant l'hypothèse d'un lien renforcé entre les Hommes grâce aux nouvelles technologies de l'information et de la communication. Ce village global serait-il à l'origine d'une tendance à une uniformisation de la forme même du village ? En étudiant la conception du lieu de vacances selon Intrawest, nous pouvons remarquer des éléments récurrents. Ainsi, les points focaux suivants émergent nettement : Concentration, autour d'une place ou d'une rue principale, de bâtiments (tous différents mais dans le même style) de quelques étages, formant un bâti plutôt bas et resserré, contenant des appartements haut de gamme (achetés et loués par le biais d'une centrale de réservation lorsqu'ils sont inoccupés, pour éviter le phénomène dit des volets clos, qui donne une impression d'abandon et de solitude); Présence de magasins, cafés, restaurants, centres de remise en forme de plain-pied avec la rue piétonne; Espace tourné sur son intérieur, entouré de la nature sur laquelle s'ouvrent des perspectives soigneusement travaillées (« Nature here is generous, offering all the unspoilt features that form the wild beauty of the Alps », site-toile de Flaine Montsoleil). Cette rue ou place centrale, cœur de l'activité où se créent les liens et se font les échanges, est ornée de décorations : enseignes, drapeaux, bannières; Style « néo » traditionnel dominant : pierre et bois; Sentiment de former une petite communauté de privilégiés (« creating small, exclusive enclaves or resort residences with unparalleled member privileges in the world's most desirable locations » site-toile de Playground); Sentiment de sécurité et de propreté. Intrawest met ces caractéristiques en avant dans sa stratégie promotionnelle : An authentic Intrawest village is recognized by : - A closeness to the surrounding nature - A place of renewal - A place that is stimulating and energising - A place that is human and vibrant - An enchanting place with a joyful spirit. (site-toile de Flaine Montsoleil) Remarquons que cette concentration est à l'opposé de l'étalement urbain constitutif de la ville américaine contemporaine, et illustre les phénomènes de regroupement social : suburbanisation, gentrification, et repli sur soi (NIMBY). Cette remarque vaut également pour les parcs Disney : In contemporary America, Disneyland emerges as an island of calm sanity and safety in troubled times. The forces of decay are arrested, sexual innuendos are all but banished, liquor is taboo, evil is overcome, the innocent prevail, disorder is tamed, the future is clarified, the past cleaned up, and, in general, the perverse word of doubt, fear, and unfair competition outside the gates is left at bay. (Van Maannen 1992 : 12) Ainsi, la structure du village Intrawest évoque le village du Far West, tout comme la structure des parcs Disney, groupement de satellites autour d'une rue centrale (Main Street USA). Les liens entre les stations de ski et les parcs d'attractions sont multiples et variés, ces deux « produits » se retrouvant en concurrence directe sur le marché du tourisme et des loisirs, proposant des hôtels en périphérie d'un domaine skiable/parc d'attractions constituant le terrain de jeu. Les deux types de structures reposent sur des investissements importants. Dans les deux cas, « [i]l y a la nécessité commune de connaître le client, de mesurer sa satisfaction, de contrôler la qualité du service… les mêmes problèmes de tarification, billetterie, gestion de parking, sécurité ou encore la forte saisonnalité et la grande dépendance vis-à-vis de la météo » (Aménagement et montagne 2000). Intrawest a même franchi un pas supplémentaire vers la « disneylandisation » des stations : à Arc 1950, des hauts parleurs diffusent une musique d'ambiance en continu; à Mont Tremblant, une mascotte (Toufou) se promène dans la station et accueille les visiteurs. Historiquement, il y a eu aux États-Unis un lien constant entre l'évolution de l'organisation des villes et le développement des parcs de loisirs, qui partagent le même lieu de naissance, la foire de Midway Plaisance, composante de l'Exposition universelle de Chicago de 1893 (Grayson 2003). C'est également en 1893 qu'est apparue la synergie entre consommation et loisirs : « [l]'Exposition universelle de Chicago a marqué un tournant décisif dans l'histoire culturelle américaine. Pour la première fois, la consommation devenait la principale activité de loisirs. Présentée sous un jour exaltant, la technologie y tenait la vedette » (Grayson 2003 : 47). Finalement, cette concentration des activités dans un lieu fermé, sorte de prison dorée, participe de l'effet de décor, en dehors du monde réel, il s'agit d'un espace autre, où l'on ne vieillit pas, où le temps s'est arrêté. Cette organisation de l'espace participe de la stratégie sécuritaire de contrôle pour éviter toute errance ou toute déviance : « Disneyland establishes a discourse of rigorous demarcation, both within and without its own space, of reassuring centeredness, old-fashioned pedestrianism, and panoptical policing » (Carosso 2000 : 70). Le sémioticien Louis Marin définit ce type d'espace comme utopique. Selon lui, le visiteur est « sur la scène; acteur de la pièce qui s'y joue » (1973 : 298-299). Il note qu' à Disneyland, c'est le déplacement qui fait l'espace. Suivant la même idée, John Hannigan remarque : To ensure that guests are directed away from or towards specific locations, Disney uses a combination of technology (monorails and other transportation systems and physical barriers such as pools, fountains and flower gardens). An action as innocent as taking off your shoes will bring an instant intervention and reprimand. Efficient as it may be, this control system also acts to ensure that guests exclusively follow an itinerary laid out by the park's designers. (New Internationalist 1998) Le village Intrawest peut en effet être qualifié de « ville fantasme », alliant les dimensions du tourisme, du divertissement et de la consommation, la montagne étant alors reléguée au rang d'environnement thématique, pas toujours respecté. D'ailleurs, aux États-Unis, l'entreprise a dû se défendre lors de plusieurs procès, comme celui intenté par le Sierra Club lors du projet de développement touristique à Mountain Creek par exemple (NYT 2002). La notion de décor ne s'applique bien entendu pas uniquement au bâti, mais également à la décoration des appartements. Là, les notions de faux et de factice jouent à plein. Il suffit pour s'en convaincre de lire cette description, faite par une journaliste du New York Times, des appartements d'un autre resort d'Intrawest, Mountain Creek, situé dans le New Jersey : The new homes at Mountain Creek are indeed carefully designed and appointed. Each of the one-,two -, and three-bedroom condos has luxurious touches, like tile all around the Jacuzzi and bathtub, handsome Adirondack-style furnishings, a snowflake or fish or bear motif on lampshades and tile, an open deck, full Internet service and a ski storage locker outside. (NYT 2002) Le style choisi par les promoteurs se revendique néo-régional : The architectural design of Mountain Creek Resort in Northwest New Jersey will be entrenched with classic regional Adironrack influences from the past [… ]. The homes in Black Creek Sanctuary will utilize “Adirondack Great Camp Architecture ”, first known as the “indigenous rustic” and “harmonious woodland” styles. Introduced in the 1800's, this type of architecture was heavily influenced by the environment, based on a “sporting” lifestyle and found most frequently in the designs of private retreats in secluded mountain, woodland and lake settings. Fabulous, grand lodges were built primarily of native timber, indigenous wood and stone. (site-toile de Mountain Creek) La langue employée ici fait référence à un imaginaire de la tradition et du patrimoine, cette évocation du paradis perdu de Heïdi s'inscrit dans les techniques récurrentes du marketing touristique, comme le remarque Marie Wozniak (2006 : 146) : Les publicitaires imaginent que les touristes plébiscitent « Heïdiland » car il incarnerait l'image de la montagne préservée et accueillante. Il recueille également les suffrages des populations locales qui, traumatisées par le « choc touristique », se replieraient sur leurs « racines ». Parce qu'il symboliserait le respect du passé, le style néo-régionaliste les convainc. Cependant, telle la ferme de Marie-Antoinette, il s'agit d'une évocation du village traditionnel nettoyé, aux codes scrupuleusement revus, terrain de jeux factice pour riches clients (« On n'a rien inventé, on a juste perfectionné le village européen » déclare le Vice-Président Europe d'Intrawest [Moniteur 2001]). Ce village européen se pose en modèle unique, synthèse parfaite des villages existants, participant d'une démarche typique de la société américaine, royaume du faux et de la reproduction kitsch selon Umberto Eco. Dans son essai, « Voyage dans l'hyperréalité » (1985), il argue en effet que cette passion qu'ont les Américains, et plus particulièrement les Californiens, pour la reproduction hyperréaliste va au-delà d'une volonté d'éducation des masses (« Nous vous donnons la reproduction pour que vous ayez envie de l'original ») mais relève d'un processus plus complexe, d'une vision locale et consumériste de la culture (« Nous vous donnons la reproduction pour que vous n'ayez plus besoin de l'original [Eco 1985 : 36-37]). Ce village correspond à l'image rêvée du village savoyard pour une clientèle majoritairement anglo-saxonne (sur la première tranche d'Arc 1950, 70 % des appartements ont été vendus à des Britanniques, 10 % à des Nord-américains [Bernier & Gauchon 2006]). Remarquons, enfin, que le village Intrawest complétant généralement une station déjà existante, le contraste peut surprendre, comme le note un journaliste du New York Times au moment de la reprise de Mammoth, station californienne située au sud du Yosemite, par Intrawest : Mammoth Lakes – the town – is weaning itself from its traditional core. The no-frills, fleece-wearing community is being remade as a world-class resort for a fur-covered clientele that expects white tablecloths, designer boutiques, nightclubs and Starbucks. (NYT 2003) Enfin, la notion de décor implique celle de grand opérateur, d'un metteur en scène intervenant tel un deus ex machina. Rappelons -le, Intrawest se présente comme « developer and operator ». La station de ski et son modèle intégré permettent aisément cette vision holistique, de même que les parcs d'attractions de Walt Disney. Le créateur a alors une vision globale : Chez Intrawest, nous construisons des villages complets où tout est planifié : le bâti, bien sûr, mais aussi les terrasses, les corridors piétons, les rues commerçantes, la zone verte avec son ruisseau, l'implantation des piscines, les corridors d'arrivée et de départ des skieurs, et même les perspectives sur la montagne… (Moniteur 2001) Ce dieu tout-puissant agit sur le décor mais contrôle également les figurants : employés et clients, qui, rappelons -le, sont mis sur un pied d'égalité dans le mission statement de l'entreprise (les liens entre clients étant privilégiés, quant à eux, par le biais d'un club des propriétaires à Arc 1950 par exemple). Puisque nous avons établi que ces lieux utopiques étaient conçus comme des décors de théâtre (ce qui est d'ailleurs le propre de l'architecture touristique), nous allons tenter de mettre à jour l'envers de ce décor, fondé sur la marchandisation et l'effet d'hyperréalité. Par définition, un décor n'est pas voué à la pérennité, il est là uniquement pour une durée déterminée, tout comme le vacancier. Ce dernier finalement repart avec pour seul gain une « expérience », comme le soulignent les promoteurs : Our architects have devoted great thought to the master plan – refining every detail so that, in the future, the place will foster a lively, convivial and hedonistic new art of mountain living. (site toile de Flaine-Montsoleil) Cette emphase sur l'importance des souvenirs et de l'expérience relève d'une approche consumériste des loisirs, qui consiste à objectiver l'espace, le temps, ainsi que les réactions et les sentiments. Ceci est dénoncé par l'analyse postmarxiste : The “disneyfication” of our cities reflects a larger societal trend toward the “commodification” and “passportization” of experience. Today people buy and collect “leisure experiences” the same way they do consumer goods. And like the purchase of Ralph Lauren sweaters or Gaggia expresso machines, our choices are designed to increase our holdings of “cultural capital” – resources which can be used to give us an advantage in our dealings with others. (New Internationalist 1998) Le produit « expérience » se matérialise alors sous forme de souvenirs, de photos ou de films comme le remarque l'ethnologue Marc Augé. Ainsi, le faux est mis en abyme : « chacun de ceux qui filmaient ou photographiaient était lui -même filmé ou photographié filmant ou photographiant. On va à Disneyland pour pouvoir dire qu'on y est allé et en fournir la preuve » (1997 : 25-26). Finalement, nous sommes très proches ici d'une analyse ricardienne de l'avantage comparatif, l'expérience donnant un avantage à son détenteur sur le grand marché des relations humaines et du capital culturel. De plus, cette expérience fait entrer de plain-pied la démarche du touriste dans un processus narratif, qui contribue à la production du discours spécialisé. Dans son ouvrage No Logo, paru en 2000, Naomi Klein consacre plusieurs pages de son analyse à ces lieux touristiques. Selon elle, la culture de la marque s'est imposée sur le territoire en trois phases distinctes qui se rattachent à trois lieux. Les deux premières phases correspondent au magasin (qui peut relever d'une véritable expérience de la marque, tel le premier Nike Town, sur la Cinquième Avenue à Manhattan, les Disney Stores, etc.) et aux lieux de vacances (« branded holidays », dans un parc d'attractions, un village tels ceux d'Intrawest). Elle prend pour sa part l'exemple du Roots Lodge, fausse colonie de vacances développée par la marque canadienne Roots établie sur Vancouver Island, qui a fermé en mars 2004 : Instead of canoes, an “adventure station” rents out ocean kayaks and surfboards; instead of outhouses, each cabin has its own hot tub; instead of the communal campfire, individual fireplaces. The lodge restaurant is set up mess-hall style, but the food is pure Pacific Coast gourmet. Most important, the rough-hewn wooden cabins are equipped with the entire Roots home furniture line. (2000 : 153) Selon elle, la troisième phase, manifestation ultime de cette culture de la marque est Celebration, la ville Disney, située en Floride : […] that very first Disney town. The meticulously planned development arrives complete with picket fences, a Disney-appointed homeowners ' association and a phony water tower. For the families who live there year-round, Disney has achieved the ultimate goal of lifestyle branding : for the brand to become life itself. (154-155) Les villages Intrawest s'inscrivent, on l'aura compris, dans la même vision de la société et du territoire. Le paradoxe intéressant que la journaliste relève à propos de Celebration est le suivant : il s'agit sans doute de la seule ville d'Amérique où il n'y a pas de Disney Store, où les marques sont singulièrement absentes du paysage, puisque l'endroit se veut le reflet d'une Amérique « pré-Disney ». Cette analyse rappelle bien sûr la sentence de Jean Baudrillard : « le Nouvel Ordre mondial est disnéique » dans l'article où il évoque : « l'univers spectral de la réalité virtuelle, dont nous sommes tous devenus les figurants » (1996). L'implantation d'un promoteur immobilier sur un territoire souligne la forte représentation symbolique attachée à ce dernier. En l'occurrence, l'architecture néo-régionale d'Intrawest apparaît à la fois sur le bâti et dans le discours commercial, et se double d'implications variées. Ce discours commercial renvoie finalement le touriste à son désir d'identité, en promouvant un art vernaculaire. Ce genre d'architecture touristique est directement lié à l'architecture commerciale, qui apparaît comme le vecteur privilégié de cet art populaire (à travers les thèmes de l'imitation et de la reproduction). Dans « Voyage dans l'hyperréalité », Umberto Eco s'attache à identifier, décrire et analyser cet intérêt pour la reproduction à l'échelle 1/1 et l'hyperréalité, phénomène central selon lui pour comprendre la culture américaine contemporaine, balançant entre science-fiction et « passéisation » constante des événements récents et du présent afin de construire l'histoire de la nation, suivant un fil narratif ininterrompu. Il évoque ce qu'il qualifie de « forteresse de la Solitude » (selon la terminologie « comics » – la Fortress of Solitude étant celle de Superman) : le château de Hearst en Californie ou encore la Lyndon Johnson Library au Texas. À propos de cette dernière, il écrit : La Lyndon B. Johnson Library est une forteresse de la Solitude : chambre des merveilles, exemple naïf de narrative art, musée de cire, caverne des automates. Elle permet de comprendre qu'il existe une constante de l'imagination et du goût américains moyens pour qui le passé doit être conservé et célébré sous forme de copie absolue, format réel, à l'échelle 1/1 : une philosophie de l'immortalité avec duplicata. Elle domine le rapport des Américains avec eux -mêmes, avec leur propre passé, rarement avec le présent, toujours avec l'histoire, et à la limite avec la tradition européenne. (Eco 1985 : 21) Remarquons cependant que la culture distinguée n'est pas complètement absente des référents d'Intrawest. Ainsi un journaliste du New York Times évoque à propos de Mountain Creek « a Rockwell painting on steroids » (NYT 2002). De même, pour son développement de Flaine, la firme a privilégié, en termes de décoration intérieure, un style plus contemporain, rappelant les choix originels opérés par les créateurs de la station (issue d'un projet d'urbanisme de Marcel Breuer intégrant des œuvres de Dubuffet et de Picasso). En lieu et place d'une analyse de l'espace et des déplacements, nous avons procédé à une analyse linguistique, pragmatique et culturelle, qui reprend les fondements de l'étude de la langue de spécialité. Ce faisant, nous avons bien humblement marché dans les pas de Louis Marin (1973) et tenté de montrer que les outils de la langue-culture spécialisée permettent de s'inscrire dans une démarche d'analyse d'objets et de terrains variés, en mettant en lumière les choix lexicaux porteurs de messages. Nous avons tenté de décrypter le code holistique de ces lieux, code homogénéisant à lecture univoque qui crée la sensation de faux, de pastiche et, partant, de décor alors que la réalité est faite d'un conflit constant de codes multiples. Notons que la firme Intrawest a lancé en France plusieurs nouveaux programmes, un aux Arcs (Edenarc 1800), un autre dans le tourisme vitivinicole cette fois, nommé Domaine Haut-Gardegan et situé dans le terroir de Saint-Émilion près de Bordeaux. Naomi Klein s'interroge sur le statut juridique de ces lieux à l'écart du monde, de ce processus de privatisation de l'espace public impliquant une réduction de ce dernier : « Yes, these creations can be vaguely spooky and sci-fi, but they should not be dismissed as just more crass commercialism for the unthinking masses : for better or for worse, these are privatized public utopias » (2000 : 157-158). Ainsi, la démarche des promoteurs semble viser à rendre plus performant économiquement un modèle d'organisation urbaine et sociale. Ces dernières années ont vu une augmentation très forte des achats de résidences secondaires à proximité de Disneyworld à Orlando (NYT 2006), Intrawest a d'ailleurs développé dans la région « The Village of Imagine ». Le site-toile de Flaine Montsoleil souligne en quoi l'achat d'un appartement constitue une vraie chance pour l'heureux acquéreur : You don't stop playing because you grow old, You grow old because you stop playing ! Aussi, pouvons -nous nous interroger sur les motivations qui sous-tendent ces différents choix. Finalement, ce propriétaire attiré par un monde théâtralisé et artificiel n'est-il pas à la recherche d'une enfance elle -même idéalisée, et cette recherche ne constitue -t-elle pas une forme de peur et de renoncement ? | À l'heure d'un accroissement constant des flux touristiques dans les pays industrialisés, cet article vise à analyser le discours marketing d'une firme transnationale nord-américaine d'équipement de loisirs, Intrawest, entreprise canadienne fondée en 1976. Son activité principale fut en premier lieu le développement immobilier; elle est aujourd'hui une des entreprises dominantes dans le développement touristique, en particulier en montagne (dans des stations telles que Whistler-Blackcomb, Tremblant, Copper Mountain, Mammoth sur le territoire américain). Elle a également ouvert un village dans la station savoyarde des Arcs, baptisé Arc 1950. L'approche retenue pour cette analyse articule la langue, le discours et la culture et intègre la dimension esthétique. En effet, l'analyse du discours construit autour de réalisations architecturales, particulièrement en ce qui concerne l'architecture commerciale, peut révéler les grands principes qui gouvernent une société et sont reconnus par tous comme tels. | linguistique_11-0218968_tei_579.xml |
termith-729-linguistique | Il ne sera pas question, ici, du discours du formateur, mais du discours de la personne que l'on forme, à ce moment clé qu'est le stage. Je tenterai de montrer comment la situation de stage oblige le stagiaire à gérer une tension s'exerçant entre sa position d'expert (devant l'usager de ses services) et d'étudiant (devant le superviseur de stage). Cette tension serait repérable dans l'interaction professionnelle, le discours du stagiaire articulant tant bien que mal un double rapport au savoir acquis (dans la formation) et à transmettre (à l'usager des services). L'analyse, menée dans une perspective interactionniste, est fondée sur un corpus d'une vingtaine d'heures d'interactions sage-femme / cliente recueillies en 2003 à Montréal (données sur lesquelles je reviendrai un peu plus loin). Le savoir dont il est question est à la fois le savoir médical lié à la périnatalité et le savoir « de conviction » (pour reprendre l'heureuse expression de N. Blanc), relevant de la philosophie distinctive des sages-femmes québécoises. La profession de sage-femme a connu au Québec une histoire singulière. Sans la rappeler en détail (voir Laforce, 1987; Vadeboncœur, 2004), mentionnons que les sages-femmes de village, présentes dans la tradition québécoise comme partout ailleurs, ont peu à peu disparu à mesure que l'hospitalisation des femmes devenait le standard en matière d'accouchement, à partir des années 1930, pour ne renaitre que dans les années 1970, en partie sous l'impulsion du mouvement féministe. La reconnaissance officielle de l' État en 1999, malgré les réticences du Collège des médecins, est l'aboutissement d'une longue lutte. Les sages-femmes québécoises assument aujourd'hui la pleine responsabilité du suivi d'une grossesse normale, de l'accouchement et de la période postnatale. Les « nouvelles » sages-femmes se définissent par opposition aux autres groupes de professionnels œuvrant dans le domaine de l'obstétrique. Toujours pour l'instant très minoritaires dans le monde de la santé, elles militent contre la technicité et la compartimentalisation croissantes des soins. Leur savoir technique et scientifique en matière de périnatalité est équivalent à celui d'un médecin généraliste. Elles s'en distinguent et se définissent donc par un certain nombre de valeurs spécifiques qu'elles défendent et qui orientent leur pratique, notamment une approche holistique de la santé et la volonté d ' empowerment de la cliente (Ordre des sages-femmes du Québec, 2002), terme entendu comme le processus de soutien et de renforcement du pouvoir d'agir sur soi -même et sur son environnement (Le Bossé, 2003). Presque toutes les sages-femmes travaillent en maison de naissance, lieu d'accouchement et de consultation distinct de l'hôpital. Au Québec, la formation (universitaire) d'une sage-femme dure quatre ans. La première année est consacrée aux cours fondamentaux (anatomie, microbiologie et autres sciences biomédicales). À partir de la deuxième année, les étudiantes commencent une série de stages. Les cours sont dès lors donnés en ligne ou à un rythme intensif dans un bref laps de temps, car la formation se déroule en grande partie en maison de naissance. L'étudiante est alors couplée à une sage-femme expérimentée qui devient sa préceptrice. La stagiaire suit la préceptrice dans toutes ses activités, qu'il s'agisse des consultations, des accouchements ou des diverses réunions de travail et peu à peu, après une période d'observation, elle accomplit un nombre croissant de tâches. Chaque stage ne durant que quelques mois, l'étudiante a l'occasion de connaitre différentes préceptrices et manières de faire. C'est au cours de ces stages qu'elle acquiert la compétence technique et communicationnelle essentielle à la pratique et forge peu à peu son identité professionnelle. Je suis engagée dans la recherche sur et avec les sages-femmes depuis 2002. Cette démarche procède d'un cumul d'expériences d'observation participante et de collecte de données variées qui permettent de suivre l'évolution rapide de la profession. Les interactions sage-femme / cliente dont il sera ici question ont été enregistrées (enregistrement audio seulement) dans une maison de naissance, sans la présence d'un enquêteur. Deux stagiaires et leurs préceptrices ont participé à l'étude. La première, Anne, effectue son deuxième stage; la seconde, Luce, achève son troisième stage. L'analyse présentée ici porte sur 9 des 16 consultations prénatales du corpus, soit celles où l'activité langagière de la stagiaire est importante, parce que la préceptrice lui confie plus ou moins brièvement la conduite de l'entretien. La stagiaire agit alors, en présence de sa préceptrice, en qualité de sage-femme devant la cliente. J'ai extrait de ces passages les séquences thématiques où la stagiaire se livre à l'explication ou au conseil, activités qui supposent l'étalage d'un certain savoir et qui de ce fait me semblaient susceptibles de présenter la trace d'un positionnement par rapport à ce savoir. 18 séquences ont été extraites des 9 consultations retenues (soit environ 20 pages de transcription). Faisant l'hypothèse qu'une certaine tension entre les statuts d'experte et d'étudiante se manifesterait dans le discours tenu par la stagiaire, j'ai concentré mon attention sur les passages où le savoir médical et les valeurs spécifiques à la profession (savoir de conviction) s'affichaient, afin de voir comment cette démonstration de savoir s'effectuait et ce qu'elle révélait. L'analyse du discours de la stagiaire, dans les moments où elle dirige l'entretien, atteste qu'elle se trouve en position délicate, puisque si elle joue les professionnelles de la santé, elle a pleinement conscience de rester en même temps une étudiante dont toutes les actions sont susceptibles d' être évaluées. Ce statut hybride peut être schématisé de la façon suivante : L'axe de la formation représente le parcours (en gris) d'une candidate à la profession, de l'admission au programme à l'obtention du permis de pratique. Pour sa part, l'axe de la transmission représente la chaine sans fin des individus à qui est transmis un savoir qu'ils transmettent à leur tour. Le schéma n'en représente que trois « maillons », bref segment qui va de l'enseignante formatrice à son étudiante et de celle -ci (une fois diplômée) à la cliente. Les formatrices des futures sages-femmes qui enseignent à l'université ont exercé pour la plupart leur profession de sage-femme avant d'entreprendre les études supérieures qui leur ont permis de devenir professeures. Elles sont les dépositaires d'un savoir obstétrical produit par des scientifiques et d'un savoir expérientiel, d'un savoir-être intimement lié aux valeurs spécifiques à la profession. En tant que professeures, ce sont ces savoirs qu'elles transmettent, dans le cadre d'un programme universitaire, à leurs étudiantes. Celles -ci, une fois devenues sages-femmes, vont à leur tour contribuer à la transmission du savoir à la cliente. Bien sûr, à ce stade, la transmission change de nature, puisqu'il ne s'agit pas de faire de la consultante une experte, mais seulement de lui fournir, à la demande, l'information utile. C'est à cette étape de la transmission que se construisent à la fois l'autorité professionnelle de l'experte et la qualité de la relation avec la cliente. Car il s'agit à la fois de démontrer son savoir (c'est l'expertise) et d'en rendre une partie accessible (ce qui suppose le recours à diverses stratégies de vulgarisation et d'adaptation au profane). Le partage du savoir revêt une grande importance pour les sages-femmes et rejoint deux éléments essentiels de leur philosophie, soit l'établissement d'un rapport égalitaire avec la cliente et l ' empowerment des futurs parents. La stagiaire occupe une position singulière sur ces deux axes. Sur l'axe de la formation, le stage représente une étape charnière entre le statut d'étudiant et celui de professionnel. Sur l'axe de la transmission, la stagiaire occupe aussi une position intermédiaire : comme professionnelle, elle fait ses premières armes dans la transmission expert-profane du savoir, mais en même temps, en tant qu'étudiante qui agit en présence de sa préceptrice, elle doit faire la démonstration de l'acquisition du savoir qui lui a été transmis. Simultanément donc, dans l'interaction qui se construit avec la préceptrice et la cliente au cours de la consultation, elle rend compte de la qualité d'une transmission de savoir (ce qu'indique la ligne pointillée vers la formatrice dans la figure 1) et transmet une partie de ce savoir (ce qu'indique la ligne pointillée vers la cliente). La présentation schématique de la double position, et de ce fait de la double tâche discursive de la stagiaire sage-femme, permet de comprendre les divers cas de figure de ses interventions – qu'il s'agisse d'explications ou de conseils, dont je vais maintenant donner quelques exemples. Les séquences d'explication ou de justification des conseils prodigués, assez fréquentes dans les données, font apparaitre un rapport au savoir nettement lié aux valeurs spécifiques à la profession et ce, à deux égards : premièrement, le savoir médical doit être largement et généreusement partagé; deuxièmement, les pratiques médicales doivent faire l'objet d'un examen critique ou du moins peuvent être mises en débat. Les données font apparaitre le savoir comme une chose qu'on ne garde pas pour soi, afin d'instaurer un rapport de pouvoir, conformément à l'optique des sages-femmes, suivant laquelle la concentration du pouvoir entre les mains des professionnels de la santé entraine la montée d'un sentiment croissant d'incapacité chez les femmes. On observe plusieurs traces d'établissement d'un rapport peu hiérarchisé, assez familier avec la cliente, ainsi que le recours quasi-systématique à l'explication des phénomènes dont il est question et à diverses stratégies de vulgarisation comme la métaphore ou la comparaison. L'exemple 1, dans lequel la stagiaire répond à une cliente qui craint de ne pouvoir faire face à un accouchement interminable, illustre bien cette façon de faire. Ex. 1 (extrait 5, MN2003, act. 10) : Les mentions, par la stagiaire, d'une source quelconque du savoir scientifique sont rares (on en trouve huit dans tout le corpus), peu variées et assez vagues : on informe la cliente sur tel sujet et à l'occasion, on mentionne « des études » ou « des recherches » menées sur ce sujet. Le fait intéressant est que presque toutes ces mentions surviennent dans le contexte d'une décision que les parents sont invités à prendre, elles relèvent donc de la mise en œuvre du choix éclairé, fondamental pour les sages-femmes. Elles ont par conséquent toujours une valeur argumentative et praxique très forte, d'autant plus que, dans plusieurs cas, il s'agit d'études qui n'ont pas été faites, information qui constitue un argument en faveur de la thèse que telle option comporte un risque parce que l'innocuité d'une pratique dont il est question n'a pas été démontrée. Il s'agit donc, dans ces cas qu'illustre bien l'exemple 2, de mettre en évidence, indirectement, le caractère distinctif des pratiques sages-femmes, en l'occurrence le choix laissé aux parents des décisions de soin et une grande prudence dans le recours aux médicaments de synthèse. Ex. 2 (extrait 11, MN2003, act. 13) : Tant en ce qui concerne le partage du savoir médical que sa critique, la comparaison du discours que tient la stagiaire avec celui que tient sa préceptrice à la cliente dans les mêmes circonstances ne fait pas apparaitre de traits distinctifs du discours de l'apprentie. Il appert que dans cette situation, la stagiaire, lors même qu'elle n'en est qu' à mi-parcours de sa formation, se comporte de manière très semblable à sa préceptrice (qu'elle a eu tout le loisir d'observer longuement), même si elle n'en a évidemment pas la finesse de jugement, l'aisance du geste et la facilité à interpréter le comportement de la cliente. Le rapport au savoir (partagé, critiqué) est celui qui est en accord avec la philosophie qui sous-tend la pratique et la stagiaire, en le reproduisant, montre que dès la deuxième année de formation, elle a commencé à faire siennes les valeurs spécifiques à la profession. La transmission du savoir de conviction et du savoir expérientiel des sages-femmes a donc bel et bien lieu. Ce rapport aux pratiques et au savoir obstétricaux est indissociable de l'histoire récente, très militante, de la profession. En effet, la renaissance des sages-femmes au Québec résulte d'une remise en question du pouvoir médical, perçu comme une mainmise sur le corps et la santé des femmes. Partager le savoir, c'est ne pas en faire un instrument de domination; le critiquer, c'est s'inscrire en faux contre la médicalisation à outrance d'un processus physiologique normal. Par ailleurs, le discours de la stagiaire montre qu'elle a pleinement conscience de rester une étudiante, bien que ce rôle soit moins en évidence que celui de professionnelle devant la cliente. Sur ce plan, l'influence de la sage-femme en titre se fait nettement sentir. Celle -ci, qui elle aussi joue deux rôles dans la consultation, donne comme la stagiaire priorité à celui qu'elle joue auprès de la cliente. Le rôle de préceptrice reste discret (il ne faut pas donner l'impression à la cliente qu'elle n'est là que pour faciliter l'apprentissage de l'étudiante), mais émerge par moments, ce qui recadre aussitôt la stagiaire dans le rôle d'étudiante. Il arrive ainsi parfois que la préceptrice pose une question à la stagiaire, mais toujours de manière assez fine, en l'invitant à fournir à sa place une information à la cliente. Celle -ci n'est donc jamais mise de côté, même dans ces moments où le rôle de préceptrice est brièvement dominant, comme le montre l'exemple 3. Ex. 3 (extrait 5, MN2003, act. 10) : On notera dans ce passage la transition subtile d'une destinataire à l'autre : le début de l'intervention, dans lequel la sage-femme explique ce qu'est la phase de latence, s'adresse sans équivoque à la cliente. À la ligne 5, l'auto-interruption (« c'est de sss c'est quoi ? ») indique qu'en cours de formulation la sage-femme transforme en question ce qui devait être une affirmation. Cette question ne peut s'adresser qu' à la stagiaire. La cliente s'y trompe et tente un début de réaction (ligne 6), mais presque simultanément, la stagiaire répond à sa place (lignes 7-8). Ce faisant, elle se trouve à poursuivre ce qui apparait (quand on considère l'ensemble de la séquence dont l'exemple est tiré) comme une seule intervention complexe visant à calmer l'inquiétude de la cliente à propos de la durée de l'accouchement, intervention co-construite par la préceptrice et la stagiaire. Un seul point de vue, celui de « l'expertise », s'exprime, la co-énonciation préservant la prééminence de l'interaction sage-femme / cliente sur l'interaction préceptrice / stagiaire. Dans tous ces cas, il y a référence indirecte au maillon antérieur de la chaine de transmission du savoir, c'est-à-dire au moment où le savoir passe de la formatrice à l'étudiante. C'est l'action de la préceptrice qui remet la stagiaire dans son rôle d'étudiante. Mais ce recadrage ne va pas toujours sans conséquence pour la cliente. En effet, le savoir dont la cliente a besoin n'est pas celui dont doit disposer le professionnel. En lui demandant de produire une explication à l'intention de la cliente, la sage-femme peut amener la stagiaire à construire un discours qui relève d'une démonstration d'acquisition du savoir médical allant bien au-delà de l'information qui répondrait à ses besoins. Dans ces cas relativement fréquents, le discours émancipatoire que tient la stagiaire comporte un si grand nombre de détails techniques qu'on se demande si la cliente en est véritablement bénéficiaire; il s'adresse au moins autant à la préceptrice qu' à cette dernière. L'exemple 4 illustre ce phénomène. Ex. 4 (extrait 14, MN2003, act. 17) : La sage-femme vient de demander à la cliente si on lui a déjà parlé de la vitamine K. Ce qui frappe dans ce passage, c'est la profusion de détails techniques dont la pertinence apparait discutable pour la cliente. En effet, la tâche de la stagiaire consiste à mentionner qu'on proposera après la naissance de donner une dose de vitamine K au bébé, injection qui n'est vraiment nécessaire que dans le cas d'une naissance traumatique. Mais la stagiaire fait beaucoup plus : elle énumère notamment toutes les indications de cette injection (lignes 14-25), dont la mention est parfois accompagnée d'une explication (par exemple, le rôle de l'oxygène dans la coagulation du sang, ligne 17, ou la cause du céphalhématome, ligne 22), avant d'évoquer la dose nécessaire (ligne 29) et le processus de fabrication de la vitamine K par l'organisme (lignes 33-37). Il serait hasardeux d'estimer précisément le degré de pertinence de telle ou telle information. On peut cependant faire remarquer qu'une intervention à peu près monologale d'une telle longueur (près de sept minutes et demie) est rare dans les interactions sage-femme / cliente, qui présentent un certain équilibre de la parole entre les interlocutrices. Cet équilibre est ici nettement rompu. Un autre indice que l'intervention s'adresse au moins autant à la préceptrice qu' à la cliente est que la première y réagit davantage que la seconde. La réaction minimale de la cliente (lignes 39 et 41) peut être interprétée comme une marque de quasi-désintérêt (que dire après un tel déluge de paroles ?); la préceptrice, pour sa part, évalue la qualité de l'explication à deux reprises (ligne 7 : « exact » et ligne 42 : « C'est beau. Bonnes explications »). Ce discours fait apparaitre un autre rapport au savoir, celui d'un savoir pas encore intégré, trop scolaire pour les besoins de l'interaction professionnelle avec la cliente, d'un savoir dont l'acquisition doit encore être prouvée. Il témoigne d'une nette tension entre les deux rôles d'étudiante et de professionnelle qu'endosse la stagiaire. Cette tension ne va pas sans conséquences interactionnelles, comme en témoigne l'apathie de la cliente à la fin de l'exemple, attitude rare dans les consultations recueillies. Toutefois, on ne saurait passer sous silence le rôle que joue aussi peut-être, dans cet étalage de savoir médical, le statut toujours institutionnellement précaire des sages-femmes au Québec. Dix ans après sa reconnaissance officielle, la profession reste méconnue et victime de la représentation dominante dans la population, celle de la sage-femme d'antan, dépositaire d'un savoir populaire associé à la non-modernité et surtout à la non-sécurité (Vincent, Laforest et Deshaies, 2002), une image qu'a réussi à imposer l'institution médicale responsable de sa disparition. Dans ce contexte, la démonstration superfétatoire de savoir médical n'est pas seulement l'apanage d'une stagiaire qui veut bien faire, elle manifeste également l'intériorisation de la représentation qu'on se fait généralement au Québec de la sage-femme. Sur ce plan, la compétence à prouver ne caractériserait pas que l'attitude de la stagiaire, mais relèverait plus largement de l ' ethos de celle qui exerce une profession en voie de légitimation. Notre rapide analyse du discours de deux stagiaires sages-femmes permet de conclure que la stagiaire, dès la deuxième année de sa formation, a bien intégré plusieurs des valeurs de sa future profession et, notamment, fait du partage de son savoir – sans lequel une relation égalitaire avec la femme enceinte ne saurait s'établir – un impératif. Toutefois, l'hybridité de son statut, ni tout à fait celui d'une étudiante, ni tout à fait celui d'une sage-femme en titre, transparait dans son discours. En effet, s'il revient à la sage-femme de se faire la continuatrice de la chaine de transmission du savoir en émancipant la cliente autant que faire se peut, le savoir à transmettre change dans l'interaction professionnelle : la sage-femme n'est pas enseignante, mais conseillère et à cet égard, son rôle consiste non seulement à vulgariser son savoir médical de façon à le rendre accessible au profane, mais aussi à évaluer la quantité et la nature des informations qu'elle doit donner. Sur le plan interactionnel, on sait depuis longtemps que la rétention du savoir par le soignant peut avoir des effets néfastes sur la relation avec le soigné et sur la qualité du traitement (Fainzang, 2006; Richard et Lussier, 2007); mais une quantité trop importante d'informations peut également nuire en provoquant le désintérêt du soigné. Sur ce plan, le discours de la stagiaire qui, dans les passages analysés, tente de concilier ses deux rôles d'étudiante et de professionnelle, montre le caractère paradoxal de sa situation, mais aussi le savoir-faire qu'il lui reste à acquérir pour devenir une véritable sage-femme, en l'occurrence cette souplesse dans le maniement du savoir qui caractérise le professionnel aguerri . | Un double statut d'étudiant et d'expert caractérise la situation du stagiaire. Posant l'hypothèse que la tension qui s'exerce entre ces deux statuts est repérable dans le discours, nous avons analysé, dans une perspective interactionniste, le discours de deux stagiaires sages-femmes québécoises lors de consultations de suivi prénatal. Un double rapport au savoir acquis et à transmettre apparait, qui est étroitement lié à l'histoire récente de la profession de sage-femme au Québec. Les sages-femmes québécoises fondent leur identité professionnelle sur un ensemble de valeurs distinctives, parmi lesquelles le partage du savoir médical avec la cliente occupe une grande place. L'analyse montre l'adhésion de la stagiaire à cette valeur; en cela, elle est déjà sage-femme. Mais le partage du savoir suppose une évaluation de la pertinence des informations à transmettre. Sur ce plan, la stagiaire reste une étudiante et doit encore acquérir un élément important de l'expertise: la souplesse dans le maniement de ce savoir. | linguistique_12-0173336_tei_661.xml |
termith-730-psychologie | On publie peu sur la restitution de test. Est -ce à dire que cette pratique ne pose pas question alors que l'on fait de nouveau plus appel aux outils d'évaluation dans le conseil en orientation scolaire et professionnelle ? Or, on l'oublie peut-être trop souvent, dans le domaine psychologique, les évaluations sont réalisées sur des personnes. Les règles déontologiques du psychologue impliquent, postérieurement à l'évaluation, d'engager une phase de communication des résultats au sujet. Cette communication n'est pas une contrainte administrative de la fonction, mais doit être considérée comme une intervention psychologique à part entière. (Bernaud & Loss, 1995) L'entretien de restitution de test nécessite préparation et savoir-faire. La méthode proposée a fait l'objet d'une étude approfondie avant d' être testée sur le terrain où elle s'est enrichie. Depuis toujours, auteurs et éditeurs de tests se focalisent essentiellement sur les qualités psychométriques des épreuves (fiabilité, fidélité, sensibilité). Actuellement, la passation et la cotation se font de plus en plus sous formes informatisées, elles permettent de générer des rapports automatisés, en langage naturel, illustrés de diagrammes reprenant les différents facteurs et échelles employés. Ceux -ci sont ensuite envoyés par courriel au bénéficiaire et/ou au conseiller selon l'outil utilisé. Le grand perdant de ces avancées technologiques est le mode de restitution. Il est au mieux largement laissé à l'appréciation et à la créativité du conseiller-psychologue (avec une vague consigne du type « la restitution peut se faire de façon individuelle ou en groupe »), au pire préconise -t-on d'envoyer le rapport directement au bénéficiaire, à lui de s'en débrouiller. Une difficulté supplémentaire réside dans la gestion du temps qu'il importe de compter, de « rationaliser », son utilisation est une question au cœur des débats professionnels. L'entretien individuel de restitution devient donc un luxe que ne peuvent s'offrir nombre de conseillers. On ne peut que regretter cet état de fait tant la passation d'un outil d'évaluation ne trouve de sens que par l'usage qu'on en fait. Une approche classique consiste à opposer les méthodes idiosyncrasiques aux méthodes nomothétiques. Les premières consistent à faire émerger les caractéristiques propres à une personne particulière en s'appuyant sur son propre système de valeurs, de besoins et d'intérêts professionnels afin qu'elle produise ses propres catégorisations. L'entretien de restitution servira à extraire des connaissances que le sujet a sur lui -même mais qui ne sont pas directement disponibles dans la mesure où elles sont implicites au départ. Une démarche représentative de la méthode idiosyncrasique a été développée en 1970 par Pelletier, Noiseux & Bujold avec l'ADVP (Activation du Développement Vocationnel et Personnel) dans le domaine de l'orientation professionnelle, méthode encore activement diffusée au travers la collection « chemin faisant » (Pelletier, Noiseux & Bujold, 1974, 1988). Les méthodes nomothétiques sont représentées par les méthodes standardisées et consistent à situer les résultats d'une personne par rapport à ceux obtenus par des groupes de personnes. On présente alors les scores obtenus en fonction d'un étalonnage (selon le sexe, la classe d' âge, la catégorie socioprofessionnelle, etc.) qui permet de situer le bénéficiaire par rapport à un groupe donné de sujets. Le dépassement de cette opposition avec l'utilisation conjointe des méthodes nomothétique et idiosyncrasique est représenté, entre autres, par la « restitution dynamique » de Boy (2005). Quelle que soit la méthode (ou même l'absence de méthode) privilégiée, le praticien ne peut faire l'économie d'une réflexion sur la finalité d'une restitution de tests. Au-delà de la simple communication de résultats de tests à un individu, une restitution demeure avant tout « un espace de négociation permettant une “auto-réflexion ”, une clarification par le bénéficiaire de ses points forts et de ses faiblesses » (Blanchard, Sontag & Leskow, 1999). Se pose alors la question de l'effet recherché et du choix des critères à retenir pour en évaluer la portée chez les consultants. Dans ce domaine, les approches et les indices quantitatifs sont hétérogènes et la tentative de modélisation de critères universels reste un vœu pieux. On retiendra néanmoins une recension réalisée par Bernaud & Vrignaud (1996) selon quatre grands axes : l'évaluation spontanée du sujet en termes d'appréciation par le bénéficiaire lui -même des différentes composantes de la situation de restitution (qualité du conseiller, des interprétations fournies); l'assimilation des résultats et de leur signification (il s'agit de ne pas confondre « la capacité à se rappeler ses résultats et l'acceptation de ceux -ci »); l'évolution des caractéristiques individuelles de personnalité (ce domaine est rarement pris en compte dans les démarches de validation des méthodes de restitution); enfin, l'évolution des attitudes et de la maturité face au choix de carrière. La question de la finalité d'une restitution appelle également une clarification (voire une redéfinition) de la notion de résultat. Ce terme défini habituellement les scores (bruts ou étalonnés) obtenus aux différentes échelles et/ou résultants de l'analyse factorielle. Or, dans la restitution dialogique, les scores sont considérés comme de simples supports à l'élaboration; le résultat d'une restitution représente quant à lui l'issue de ce type d'entretien, c'est-à-dire la prise de conscience ou, idéalement, la prise de décision du bénéficiaire (cette conception se rapproche sémantiquement du terme anglais outcome qui conjugue le résultat et l'aboutissement). Les travaux originels de Bakhtine (1895-1975) sur le dialogisme sont encore de nos jours perçus comme « un corpus d'écrits qui défie la clarté de l'interprétation » (Gergen, 1999) mais ce qu'il faut en retenir, c'est l'idée simple que le sens naît entre les hommes lorsqu'ils le cherchent ensemble, lorsqu'ils dialoguent véritablement. Il est important d'insister sur le fait, même si cela peut sembler évident, qu'une restitution ne saurait être dialogique si le type de relation établie en amont entre le conseiller-psychologue et le bénéficiaire ne porte pas en elle les germes de l'intentionnalité et de la co-construction du sens. Les années soixante ont vu la naissance de la notion de contrat de communication avec l' École de Palo Alto, premier pas certes fondateur, mais qui, des années plus tard, suscitera un nouveau questionnement. En effet, est -ce que communiquer est suffisant en soi, les processus sont-ils les mêmes que dans le dialogue ? Certainement non, répondront certains, « le dialogue requiert une intention commune, une présence simultanée d'une même réalité aux deux interlocuteurs » (Lhotellier, 2000). L'intentionnalité partagée implique que les deux acteurs de la relation se soient reconnus comme interlocuteur privilégié (ou comme autrui significatif selon l'école de pensée). L'intentionnalité fait également partie du modèle descriptif de la relation interpersonnelle chez Saint-Arnaud. Selon lui, il en résulte une relation coopérative où « les deux partenaires vivent une expérience de produire qui contribue à leur croissance personnelle » (2004). Ce qui nous intéresse ici, c'est bien sûr la conception d'un sujet actif dans son développement (depuis Lemoine et son « Objet ou analyste de son bilan » [1996 ], on a compris que l'usager n'est pas une pâte molle sur laquelle le conseiller laisse sa marque), mais aussi la réciprocité qui permet l'enrichissement mutuel et la production d'un savoir à deux. Plus concrètement, il résulte de l'intentionnalité l'établissement d'une alliance de travail, sorte de « déclaration d'intention » à triple composante : un accord avec le conseiller sur le but à atteindre (goal agreement), un accord sur les moyens les plus adaptés pour y parvenir (task agreement), la construction d'un lien particulier entre le conseiller et le consultant leur permettant de se mettre d'accord sur l'importance à accorder aux buts et aux moyens (bond development). Si le lien apparaît en troisième position dans la théorie de Bordin (1979), il va sans dire que, sans celui -ci, un accord sur les moyens et le but paraît difficilement envisageable. Car c'est dans la création de ce lien qu'on trouvera, côté conseiller, une forme d'empathie bienveillante, côté consultant, la confiance suffisante pour souhaiter s'ouvrir à l'autre. Entrer en dialogue demande un effort conscient, un travail de la parole et de l'écoute de la part des deux interlocuteurs. Accepter de co-construire le sens, c'est reconnaître qu'il ne pré-existe pas à l'échange mais qu'il va advenir dans l'ici et maintenant. C'est à cette condition qu'on assistera à une production conjointe du discours : « le discours ne prend sens que d' être échangé; mieux : mis en commun. Mieux encore : élaboré en commun » (Jacques, 2000). L'interprétation conjointe et co-construite ne peut naître que d'une relation symétrique. Cet impératif doit amener le conseiller-psychologue à un travail de réflexivité sur sa posture et sa façon d' être avec l'autre. Longtemps considérée comme idéal de pratique dans la relation dyadique, la posture maïeuticienne qui consiste à parler jusqu' à ce que l'autre soit d'accord avec soi n'a pas sa place ici. On retiendra de ce qui précède, premièrement qu'il n'y a pas un temps consacré au dialogisme car ce mode d'interaction s'inscrit dans une démarche globale d'accompagnement; deuxièmement que le résultat d'une restitution de test (sa finalité) est considéré comme l'élaboration co-produite par le bénéficiaire et le conseiller-psychologue à partir des scores énoncés comme support de dialogue (le moyen). Une précision terminologique s'impose également : au terme généralement utilisé de « restitution » on préfèrera celui d' « interprétation ». Le premier est en effet synonyme de « rendre, redonner, rétablir », verbes qui impliquent que le sens préexiste, qu'il est de ce fait rendu à l'autre (or rien n'a été « pris » puisque le sens n'a pas encore été élaboré). Le mot interprétation rend non seulement compte d'une activité, mais aussi de la notion de subjectivité qu'il est important de garder à l'esprit. Enfin, cet article s'appuie sur des travaux expérimentaux menés en 2007 sur l'interprétation des scores d'un inventaire d'intérêts (IRMR). Cette méthode est généralisable à d'autres types de tests (nous y reviendrons plus en détail ci-dessous, voir : « L'interprétation dialogique est-elle universelle ? »). On part du principe que le type de relation engagée en amont a permis au conseiller de devenir un autrui significatif aux yeux du bénéficiaire. Il s'est donc instauré entre les deux acteurs de la relation un climat de confiance et de respect mutuel propices à l'interlocution. Tout au long du processus, on cheminera à partir des représentations et significations du bénéficiaire; celles -ci seront ensuite redéfinies par le sens élaboré en commun à travers la boucle de rétroaction. La procédure envisagée (terme lui -même ô combien étranger au dialogisme tant il laisse peu de place à l'imprévu) pour la mise en œuvre pratique comporte deux volets en deux temps distincts : d'une part la passation du test, d'autre part l'interprétation dialogique des scores. La passation d'un test n'est pas un acte anodin, un temps qu'on « glisserait » entre deux entretiens d'accompagnement. Elle nécessite la présence du conseiller, au moins dans la phase préparatoire ainsi que lors de la conclusion. A/ Qu'il ait déjà connu ou non une telle expérience, chaque bénéficiaire porte en lui ses représentations de la situation de test (souvent de l'ordre des stéréotypes, positifs ou négatifs). Ces représentations doivent pouvoir s'exprimer librement et surtout être entendues par le conseiller dans la mesure où elles « teinteront » inévitablement d'une couleur particulière l'ensemble du processus (en donnant notamment du sens quant à l'éventuelle anxiété du consultant). On portera de même une attention particulière à l'explicitation des attentes du bénéficiaire car celles -ci fournissent dès le départ des indications importantes sur ses attributions causales et son Locus Of Control. Concrètement, l'expression des attentes individuelles permet au conseiller de situer le bénéficiaire sur un continuum dont les deux extrêmes sont représentés par la conception « baguette magique » (« j'attends du test qu'il me dise ce que je veux faire – qui je suis ») et la conception nihiliste (« je n'ai aucune attente – les tests ne servent à rien »). On notera d'une part que les attentes explicites ne reflètent pas nécessairement les attentes implicites, d'autre part que les attentes évoluent souvent entre la passation et l'interprétation, quelquefois même entre le début et la fin d'un entretien. Il est donc recommandé de ne pas hésiter à revenir sur cette question. B/ C'est à partir du cadre de référence du bénéficiaire que le conseiller fera part de sa posture : principalement celle de facilitateur de la parole, secondairement celle d'un expert (dans le sens détenteur d'un savoir) en ce qui concerne la cotation d'un test. Il s'agira ensuite d'expliquer en termes simples et précis l'accent mis sur la perception du bénéficiaire ainsi que la situation de co-construction du sens. Il est utile de rappeler que les scores obtenus au test ne sont pas révélateurs d'une « vérité » mais servent de support à un dialogue d'égal à égal. Des précautions verbales particulières sont également nécessaires en fonction des attentes énoncées (trop de rationalisations peuvent avoir un effet délétère sur les pensées magiques et mettre à mal l'alliance de travail). On posera par ailleurs un cadre à la situation de test (s'il n'a pas déjà été évoqué par le bénéficiaire lui -même) : sa durée, le déroulement de la passation et la fixation d'un second entretien pour l'interprétation conjointe. Le calendrier ainsi établi ne saurait être immuable ou rigide, il offre tout au plus un cadre temporel qui permet de diminuer l'incertitude. C/ L'étape suivante est la passation du test stricto sensu. Il s'agit tout d'abord d'obtenir le consentement éclairé du bénéficiaire puis de lui lire à haute voix les consignes de passation (en encourageant l'expression des remarques et/ou interrogations qui pourraient émerger). On le laissera ensuite idéalement dans une pièce à l'abri des interférences et des stimuli externes. Il pourra bien entendu faire appel au conseiller en cours de passation, celui -ci lui ayant indiqué précisément où il se trouvait. Après la passation, le bénéficiaire sera appelé à exprimer ses impressions « à chaud » par rapport au test (éventuelle difficulté ou facilité à répondre aux questions). D/ Au moment où il est courant que les deux parties se séparent commence la phase cruciale du partage des connaissances. Il s'agit en effet de présenter au bénéficiaire des éclairages théoriques sur les dimensions, échelles et/ou facteurs propres au test utilisé pour l'évaluation. Des explications simples sur la façon de mesurer lesdites dimensions sont également utiles dans la mesure où elles permettront par la suite de relativiser certains scores. Une démarche pédagogique est alors à élaborer pour définir, sans le mettre en position d'expert, comment le conseiller peut transmettre ses savoirs de façon simple et efficace (l'injonction tacite et ô combien paradoxale étant « ne me prenez pas pour l'expert que je suis en ce moment même »). On peut par exemple « humaniser » la présentation d'un outil au sigle souvent barbare (car composé de lettres et/ou de chiffres) en parlant de la biographie de l'auteur(e), des ses travaux de recherche, du contexte dans lequel un test a vu le jour. Un support écrit approprié (i.e. expurgé de tout jargon psychologique) qui reprend les fondements théoriques explicités dans le manuel de test sera remis au bénéficiaire. E/ La cinquième et dernière phase consiste à préparer l'entretien suivant. Pour ce faire, le bénéficiaire conservera le support écrit utilisé précédemment afin de lui laisser l'opportunité de s'approprier le modèle théorique à son propre rythme. La personne sera également invitée à exprimer par écrit son auto-perception sur un support intitulé « Comment je me perçois », reprenant exactement les dimensions ou facteurs évalués avec les mêmes graduations d'échelle et dont la mise en forme est similaire au document de restitution. Ce travail de réflexivité individuel et de retour sur soi (traduction opérationnelle de l'approche idiosyncrasique) a pour objectif d'amener le bénéficiaire à prendre une part active dans le dialogue consécutif à la passation. On notera que le temps de l'intersession prend toute sa valeur avec cette méthode : l'auto-évaluation et le positionnement permettent un travail de cheminement personnel visant à renforcer les formes identitaires du bénéficiaire là où la perspective d'une restitution des résultats obtenus au test le mettait habituellement en position d'attentisme, voire de passivité. Avant de clore l'entretien, on sollicitera son point de vue sur la démarche ainsi que sur ses éventuelles interrogations. La grille d'entretien de passation récapitule ces différentes étapes. L'entretien d'interprétation dialogique des scores, dans un deuxième temps de la démarche, comporte quatre phases dont il est important de respecter la chronologie. Durant l'intersession, le conseiller aura organisé la cotation du test lorsqu'il s'agit d'une passation en ligne, la cotation d'un test papier/crayon aura lieu lors de la troisième phase de l'entretien. La formulation des interventions du conseiller et du questionnement proposé ne sont que des suggestions en gardant à l'esprit que la première question a pour objectif d'ouvrir l'espace de parole. Lorsqu'un climat de confiance et de dialogue véritable s'est instauré, la fluidité du discours du bénéficiaire apporte souvent des réponses sur plusieurs points. On évitera bien entendu de formuler des questions sur le mode interro-négatif (réponse induite), de même que l'utilisation successive de questions fermées. Le premier aspect sur lequel on souhaite répondre concerne l'utilisation possible de cette méthode pour tous types de tests. On remarque qu'elle exprime tout son potentiel dans le domaine des inventaires de personnalité de la motivation, des intérêts et des valeurs. Son utilisation s'avère plus délicate avec les tests cognitifs (test d'intelligence, d'aptitudes, de connaissances et de culture générale) principalement parce que, pour le conseiller, le partage des savoirs demande une grande maîtrise de la théorie sous-jacente, tandis que, pour le bénéficiaire, l'auto-positionnement devient un exercice beaucoup plus complexe. Il est également important de savoir si cette approche trouve sa place pour tous types de prestations. On répondra sans hésitation par l'affirmative pour une passation de test dans le cadre d'un bilan (qu'il soit professionnel ou d'orientation). Le pronostic est plus hasardeux avec les prestations de type expert (le recrutement ou la sélection) où il s'agit de procéder à un appariement entre une personne et les exigences d'une fiche de poste ou les critères d'entrée en formation. La logique sollicitée est ici celle de la résolution de problème (avec une réponse binaire « oui ou non », adéquation ou pas). Le dialogisme est plus adapté à l'exploration et à l'ouverture des possibles. L'interprétation dialogique ne requiert aucun investissement en termes d'équipement ou de technologie. Tout ce qu'elle demande est du temps. Celui de la construction d'une alliance de travail entre deux personnes qui se découvrent, de l'introspection pour le bénéficiaire appelé à réfléchir sur lui -même, de la co-construction du sens et du dialogue véritable pour les deux acteurs de la relation. Considérer cette nécessité comme une contrainte de la méthode serait un raccourci hâtif car le temps gagné sur le diagnostic peut alors être pleinement consacré à l'accompagnement, cœur de métier du conseiller-psychologue . | Dans un contexte où les outils d'évaluation deviennent de plus en plus pointus, il semble pertinent de réfléchir à leur mode de restitution. Cet article présente une méthode basée sur les apports du dialogisme, une école de pensée qui réfléchit au sens profond du dialogue. La démarche s'appuie sur une conception du sujet actif dans son développement en accordant de l'importance à son auto-perception. Elle met l'accent sur la nécessité de respecter deux temps distincts: celui de la passation, qui est consacré au partage des savoirs (empowerment) ; celui de l'interprétation conjointe, qui permet de co-construire autour du sens des scores. | psychologie_10-0050699_tei_951.xml |
termith-731-psychologie | Lors de la vague 2006 de l'enquête PISA (Programme International pour le Suivi des Acquis des élèves), les élèves de 15 ans de plus d'une cinquantaine de pays ont, entre autres, été interrogés au sujet du métier qu'ils espèrent exercer à l' âge de 30 ans. L'ample couverture géographique de l'enquête nous a convaincus d'analyser les réponses fournies par les élèves dans le cadre d'une comparaison internationale. Le questionnaire contextuel rempli par l'élève fournit des informations importantes sur la famille et l'environnement de l'élève, et nous permet d'étudier les facteurs à l'origine de ses souhaits professionnels. Afin d'évaluer le degré d'ambition et de réalisme des aspirations des élèves, nous les avons confrontées à des informations relatives aux marchés du travail nationaux, établies par le Bureau International du Travail et Eurostat. Aussi, l'une des forces de cet article réside dans l'enrichissement des données de PISA à l'aide d'informations concernant l'état de l'emploi dans une cinquantaine de pays. Bien que l'objectif de cet article soit essentiellement exploratoire et descriptif – dans la mesure où il met au jour avant tout des associations statistiques et non des causalités –, nous pensons que nos résultats sont intéressants à plusieurs titres. Premièrement, à notre connaissance, la question de PISA portant sur les vœux professionnels des élèves demeure trop rarement exploitée (Buchmann & Park, 2009), malgré la possibilité qu'elle offre d'étudier les aspirations professionnelles des élèves dans des dizaines de pays et autant de configurations différentes. Deuxièmement, même si nous identifions essentiellement des corrélations et non des causalités, une interprétation causale ne peut être exclue. Par conséquent, nous pensons avoir identifié des facteurs discriminants dont il serait intéressant d'approfondir l'étude. Nous exposons dans un premier temps quelques éléments de cadrage théorique puis nos principales questions de recherche. Ensuite, nous décrivons les données retenues pour l'analyse. Enfin, nous présentons nos principaux résultats avant de conclure. Les aspirations professionnelles des élèves constituent un thème d'investigation crucial pour comprendre les trajectoires scolaires et professionnelles des individus. Contrairement à un choix d'orientation ponctuel qui s'effectue à une date clé de la carrière scolaire, une aspiration professionnelle consiste en un goût durable, en une tension profonde vers un but futur idéal ou réaliste. Par conséquent, les aspirations professionnelles sous-tendent les choix éducatifs effectués par les élèves et présagent de leur situation professionnelle future. Des études ont notamment montré que les aspirations professionnelles ont une influence sur les orientations scolaires et ce de manière relativement indépendante de l'effet de facteurs individuels comme l'origine sociale de l'élève (cf. notamment Murat & Rocher, 2002). Ainsi, l'analyse des aspirations professionnelles permet à la fois de mieux comprendre les comportements éducatifs des élèves et la répartition par métier de la force de travail à venir. Dans la lignée des recherches théoriques passées, nous nous intéressons ici aux déterminants des aspirations professionnelles des adolescents. Nous abordons ces aspects dans un cadre comparatif spécifique, lequel a guidé la manière de conduire notre étude. Trois éléments de ce cadre ont infléchi nos analyses : la question posée, la population ciblée et l'approche comparative. Premièrement, la question adressée aux élèves circonscrit la nature des aspirations professionnelles appréhendées dans cet article. Dans l'enquête PISA, les élèves sont interrogés de la manière suivante : « Quel type de métier espérez -vous exercer quand vous aurez environ 30 ans ? ». Bien que le libellé de la question ne soit pas dénué de toute ambiguïté, on peut raisonnablement penser qu'il sonde davantage les aspirations réalistes (expectations) que les aspirations idéales (aspirations) des élèves (Gottfredson, 1996). Les aspirations idéales sont généralement consultées de la manière suivante : « Si vous étiez libre de choisir n'importe quel travail, lequel souhaiteriez -vous exercer ? » (Mc Nulty & Borgen, 1988). En cela, les aspirations idéales s'inscrivent davantage dans le champ des intérêts professionnels, c'est-à-dire des préférences pour des types de métiers ou d'activités (Vrignaud & Bernaud, 2005). Ces aspirations sont élaborées suivant une multiplicité de critères et présentent ainsi un caractère multidimensionnel (Johnson, 1995). Les individus évaluent à la fois la rémunération financière, la nature du travail, le prestige social ou encore le caractère sexué (c'est-à-dire typé féminin ou masculin) des professions et forment sur cette base leurs préférences professionnelles. Deux de ces multiples dimensions apparaissent particulièrement prépondérantes dans l'élaboration des aspirations professionnelles : le prestige et le degré de féminité ou de masculinité de la profession. Un métier sera d'autant plus désirable qu'il sera prestigieux et qu'il correspondra au stéréotype de genre auquel appartient l'individu. Quant aux expectations (ou aspirations réalistes), elles correspondent aux professions que les sujets considèrent qu'ils pourraient occuper de manière réaliste ou accessible. Les aspirations réalistes se forgent en relation avec les aspirations idéales, par circonscription de zones d'acceptabilité et par des compromis au regard des possibilités perçues (Gottfredson, 1981). Dans le cas de PISA, la formulation de la question et notamment le verbe anglais expect invitent plutôt les élèves à déclarer une aspiration réaliste. La part d'ambiguïté de l'énoncé nous a cependant incités à étudier les décalages possibles entre les conceptions des élèves des différents pays. Nous avons ainsi été conduits à éprouver le degré de réalisme des réponses fournies par les élèves d'un pays en les confrontant à la situation du marché du travail national. Deuxièmement, l' âge auquel les élèves sont interrogés sur leurs aspirations professionnelles, à savoir 15-16 ans, n'est pas neutre pour les analyses et justifie l'intérêt porté à ces données. Les recherches passées ont montré que les aspirations se fondent sur des représentations des professions qui évoluent avec l' âge. Or, les études du développement des aspirations chez les enfants et chez les adolescents révèlent qu' à 15-16 ans les représentations professionnelles se précisent et se stabilisent. Nous pouvons raisonnablement supposer qu' à cet âge, les adolescents commencent à se forger une vision abstraite et sociale des professions (Huteau, 1982) et à élaborer des représentations adaptées à leurs aspirations (Super, 1990). Enfin, le cadre comparatif retenu pour l'analyse a guidé nos hypothèses et nos questions de recherches. La comparaison internationale présente l'intérêt de pouvoir étudier les déterminants des aspirations professionnelles des élèves dans 57 pays, c'est-à-dire dans 57 configurations nationales différentes sur les plans économique, social, culturel et scolaire. Dans le cadre de cette comparaison internationale, nous abordons les aspirations professionnelles suivant deux axes d'investigation. Premièrement, nous cherchons à caractériser la manière dont les aspirations professionnelles sont élaborées par les élèves. Les déterminants individuels des aspirations professionnelles ont-ils des effets variables suivant les pays ? Deuxièmement, nous nous intéressons au degré de réalisme de ces aspirations en les confrontant à la situation du marché du travail national. La recherche passée a mis au jour un certain nombre de caractéristiques des élèves influant sur leurs choix d'orientation et leurs aspirations professionnelles. Dans cet article, nous circonscrivons notre étude aux principaux facteurs individuels qui génèrent des différences dans les ambitions professionnelles, à savoir : les compétences scolaires, le milieu familial, le genre et le statut d'immigré de l'élève. La discussion que nous initions repose pour partie sur des résultats empiriques et pour partie sur des hypothèses théoriques. Dans un paragraphe conclusif, nous cherchons à savoir si les mécanismes qui génèrent des différences dans les aspirations des élèves sont les mêmes pour toutes les nations. Le principal déterminant des choix d'orientation des élèves est assez naturellement le bulletin de notes de l'élève, c'est-à-dire le niveau de ses compétences académiques (Erikson & Jonsson, 1996). De bonnes performances scolaires favorisent la poursuite d'études et l'ambition professionnelle. Inversement, un niveau d'ambition élevé est susceptible d'avoir un effet de levier et d'engendrer de meilleurs résultats. Il existe donc un biais de simultanéité ou encore un effet de circularité entre ambition et performance (qu'il est néanmoins possible de corriger (Goux & Maurin, 2001)). Par conséquent, nous faisons l'hypothèse que les performances scolaires sont corrélées positivement avec le niveau des aspirations professionnelles. Nous supposons de même que l'origine sociale est associée positivement à l'ambition professionnelle de l'élève. De nombreuses théories ont cherché à rendre compte de l'effet positif de l'origine sociale sur les choix scolaires et professionnels. Une première théorie suggère que les différences sociales d'ambition professionnelle résultent d'une forme de domination sociale : les élèves des milieux modestes intériorisent de plus faibles chances de réussite, lesquelles découlent d'une « distance sociale » plus importante de leur environnement à l'institution scolaire (Bourdieu & Passeron, 1970). Une seconde théorie plaide pour l'autonomie des acteurs : les choix sont réalisés en fonction d'une comparaison des coûts et des bénéfices anticipés; ils sont le fruit de stratégies rationnelles qui tiennent compte des contraintes relatives au contexte dans lequel elles peuvent s'exercer (Boudon, 1973). De fait, ces deux types d'interprétation ne sont pas exclusifs, tant il est difficile de distinguer entre ce qui relève de l'intériorisation et ce qui relève de l'anticipation (Duru-Bellat, 2002). Nous supposons en outre qu' à compétences scolaires données, les élèves d'origine sociale favorisée élaborent des aspirations professionnelles plus ambitieuses que les élèves de milieux défavorisés. Conformément à la théorie de l'aversion au risque relatif (Relative Risk Aversion, Breen & Goldthorpe, 1997), nous supposons que les choix éducatifs et professionnels sont motivés par le souhait des élèves d'éviter à tout prix le déclassement social. L'élément central de cette théorie est de supposer que la classe sociale détermine un niveau d'éducation minimal pour atteindre une position sociale au moins aussi élevée que celle de ses parents. Des élèves d'origine favorisée chercheraient par conséquent à accéder à une profession au moins aussi valorisée que celles de leurs parents et donc plus valorisée que celles d'élèves de milieux défavorisés. L'effet du genre sur les aspirations professionnelles est assez complexe à saisir. Les meilleures performances des filles les conduisent à effectuer de meilleurs parcours scolaires dans la plupart des pays européens (Rosenwald, 2008). Cependant, les filles sont susceptibles d'anticiper la ségrégation sexuée des emplois, laquelle demeure forte depuis vingt ans (Méron, Okba, & Viney, 2006). Or, de telles anticipations pourraient conduire les filles à revoir à la baisse leurs aspirations professionnelles. Toutes choses considérées, on peut globalement supposer que les filles nourrissent des ambitions légèrement supérieures à celles des garçons. Cependant, on devrait s'attendre à ce qu' à note égale les filles fassent les mêmes vœux d'orientation que les garçons. Si certaines études montrent en effet que les choix des filles et des garçons sont, à résultat scolaire donné, d'un niveau d'ambition comparable (Rosenwald, 2006), d'autres études révèlent que ces préférences apparaissent en effet très stéréotypées (Baudelot & Establet, 2007). La différenciation sexuée des aspirations professionnelles serait favorisée par le fait que les filles lient leur destin professionnel à leur avenir familial (Duru-Bellat, 2005) : les filles intègreraient les compromis qu'elles devront effectuer dans le futur et orienteraient leurs choix en ce sens. De fait, les résultats de la littérature empirique laissent penser qu'en général les filles forment des aspirations aussi ambitieuses que celles des garçons, à performances scolaires égales. Les aspirations scolaires et professionnelles des élèves varient également suivant leur origine migratoire. Dans la majorité des pays de l'OCDE, les élèves d'origine immigrée affichent des attitudes envers l'école plus positives et un degré de motivation scolaire plus élevé que les autres élèves, bien que leurs performances demeurent inférieures (OCDE, 2006b). Ce résultat est notamment valable pour la France : en 2002, parmi les élèves entrés en 6 e en 1995, 75 % des enfants de parents ouvriers d'origine maghrébine ou portugaise espéraient poursuivre des études dans l'enseignement supérieur, contre 50 % des enfants de parents ouvriers français (Birnbaum & Kieffer, 2005). Ce niveau élevé d'aspirations explique qu' à caractéristiques sociodémographiques égales, les enfants issus de l'immigration réalisent de meilleures transitions scolaires à l'issue du collège (Vallet & Caille, 1996). L'école représenterait pour ces familles « la voie principale de mobilité sociale qui leur est accessible ». Ainsi, on peut raisonnablement supposer, une fois l'origine sociale contrôlée, une association positive entre l'origine migratoire et l'ambition professionnelle des élèves. Finalement, les effets des caractéristiques individuelles des élèves sur le niveau des aspirations professionnelles sont-ils de même nature entre les pays ? Nous présageons que le sens des relations entre les caractéristiques scolaires et sociales des élèves et leurs ambitions professionnelles devrait être stable d'un pays à l'autre, puisque les mécanismes qui les produisent, tout au moins ceux identifiés par la littérature, sont similaires d'une société à l'autre. Le deuxième axe d'investigation de cet article concerne le degré de réalisme des aspirations professionnelles déclarées par les élèves. Dans cette section, nous comprenons « réalisme » au sens de conformité ou encore d'homologie des aspirations professionnelles à la réalité du marché du travail du pays. Le degré de réalisme des aspirations des élèves varie -t-il suivant les pays ? Les analyses de Buchmann et Park (2009) sur les données de PISA 2003 révèlent que la structure du système d'enseignement influe sur le réalisme des aspirations scolaires des élèves. Les auteurs trouvent que dans les systèmes scolaires précocement organisés en filières, les aspirations des élèves sont plus réalistes que celles des élèves des systèmes unifiés, puisque le pourcentage d'élèves aspirant à entrer à l'université est plus proche du véritable taux d'entrée à l'université. Ils établissent également que les aspirations des élèves des systèmes éducatifs très différenciés sont moins ambitieuses car la part des élèves aspirant à devenir cadre est plus faible qu'ailleurs. Afin d'éprouver le réalisme des aspirations professionnelles des élèves, nous les confrontons à la structure réelle du marché du travail national. Nous déclinons la question de l'homologie entre les aspirations professionnelles et la situation du marché du travail en deux sous-questions. Premièrement, les aspirations des élèves sont-elles contraintes par les données relatives à l'état du marché du travail ? Deuxièmement, les aspirations des élèves sont-elles plus ou moins stéréotypées suivant le genre que ne le sont les emplois réellement occupés ? Sur ce point, on peut supposer que les représentations professionnelles des élèves de 15 ans intègrent partiellement le caractère sexué des catégories professionnelles, si la différenciation sexuée des métiers résulte aussi des mécanismes qui prévalent sur le marché du travail. Les données mobilisées dans cette étude proviennent de diverses sources. Les observations concernant les aspirations professionnelles des élèves sont issues de l'enquête PISA 2006 conduite sous l'égide de l'OCDE (Organisation de Coopération et de Développement Économiques). Les informations relatives au marché du travail et aux inégalités de revenu émanent du Bureau International du Travail (BIT) et d'Eurostat. Les enquêtes PISA sont devenues très populaires au sein des communautés scientifiques de nombreuses disciplines, comme la sociologie, l'économie, les sciences de l'éducation ou encore les sciences politiques, mais elles sont également bien connues des médias et du grand public. Pour cette raison, nous ne nous étendons pas ici sur la description de ces enquêtes. Rappelons simplement que l'objectif premier de PISA est de collecter des données hautement standardisées qui puissent être utilisées dans le cadre d'une comparaison internationale des compétences des élèves. Notre étude mobilise trois types d'observations recueillies par l'enquête PISA : les déclarations des élèves quant à leurs aspirations professionnelles et leur environnement familial ainsi que les scores de performances obtenus par les élèves au test de culture scientifique (domaine majeur de PISA 2006). Les trois variables de professions mobilisées dans les analyses – la profession envisagée par l'élève, celle de la mère et celle du père – ont été codées selon la nomenclature internationale CITP (Classification Internationale Type des Professions, en anglais ISCO – International Standard Classification of Occupations) (Bureau International du Travail, 1990). Il s'agit d'une nomenclature de métiers comportant quatre niveaux de classification est dont le niveau le plus agrégé est composé de neuf grands groupes (cf. tableau 1). Source : BIT Note. Les professions du groupe CITP « forces armées » (groupe 0) n'ont pas été citées par les élèves de l'enquête PISA 2006; les militaires officiers ont été classés dans le groupe 1, les militaires hors officiers dans le groupe 3. Dans les analyses, nous utilisons deux variables pour approcher le niveau d'ambition d'un élève. Une première mesure consiste en l'indicatrice : l'élève aspire à une profession dite de direction, intellectuelle ou scientifique (groupes CITP 1 et 2), dite « supérieure ». Au niveau national, l'indicateur agrégé est le pourcentage d'élèves du pays déclarant une profession « supérieure ». Une deuxième manière de caractériser le niveau d'ambition des élèves consiste à utiliser l'indice socio-économique international (SEI, en anglais Socio Economic Index), proposé par Ganzeboom, De Graaf et Treiman (1992). Cet indice attribue à chaque profession de la nomenclature CITP un score qui consiste en la moyenne pondérée du nombre d'années d'études et du niveau des revenus des membres de la profession. L'échelle du SEI est proche de l'échelle de prestige des professions établie par Chambaz, Torelli et Maurin (1998) (Le Donné & Rocher, 2010). En cela, il constitue un bon indicateur de l'ambition des élèves. On utilisera la moyenne nationale du SEI pour évaluer le niveau d'ambition professionnelle des élèves d'un pays. En outre, le statut socio-économique des parents de l'élève sera approché à l'aide de la variable HISEI (Highest International Socio Economic Index) qui donne la valeur la plus élevée du SEI des deux parents. Les scores de réussite des élèves au test de culture scientifique sont fixés à une moyenne internationale de 500 et un écart-type de 100. Le contenu de l'évaluation de sciences de PISA dépasse le cadre strictement scolaire et s'intéresse plus particulièrement à la capacité des élèves à utiliser leurs connaissances dans des situations de la vie quotidienne (OCDE, 2006a). Néanmoins, dans les analyses qui suivent, les scores sont supposés refléter la performance scolaire des élèves. Les compétences mesurées par PISA diffèrent certes un peu des compétences validées par l'institution scolaire, mais plusieurs travaux ont révélé qu'elles sont très corrélées aux résultats scolaires des élèves (cf. notamment Prenzel & Zimmer, 2006; Rocher, 2003). Enfin, précisons que notre étude porte sur les 57 pays qui ont participé à l'enquête PISA 2006, soit environ 400 000 élèves (OCDE, 2007). Nous avons ensuite complété ces données par des informations concernant la situation professionnelle de la population adulte établies par le BIT à partir des différentes enquêtes nationales sur l'emploi. Dans l'article, nous utilisons notamment les statistiques de 32 des 57 pays participant à PISA 2006, sur la répartition des hommes et des femmes au sein des grands groupes professionnels de la CITP. Enfin, nous mobilisons des indicateurs d'Eurostat tels que des taux de chômage et des revenus annuels moyens par niveau d'éducation, pour caractériser le marché de l'emploi de 29 pays. Un premier aperçu des professions envisagées par les élèves fait apparaître l'importance des deux dimensions pointées par Gottfredson (1996) : le prestige et la différenciation selon le genre des aspirations professionnelles. Au niveau le plus fin de la nomenclature (celui des 533 groupes de base dénotés par un code à 4 chiffres), les professions les plus citées par les garçons et par les filles sont : médecin (en moyenne, 5 % sur l'ensemble des pays, 7 % chez les filles, 4 % chez les garçons), avocat (en moyenne 3 %, 4 % chez les filles, 2 % chez les garçons). Moins prestigieux, certains métiers se démarquent selon le genre : le métier de coiffeuse est cité par 4 % des filles et le groupe « athlètes, sportifs » par 4 % des garçons. À un niveau plus agrégé de la nomenclature (celui des 38 sous-grands groupes dénotés par un code à 2 chiffres), les différences sexuées en matière de préférences professionnelles apparaissent encore plus nettement : les professions du sous grand groupe « spécialistes de l'enseignement » (CITP 23) sont envisagées par 13 % des filles, et par 6 % des garçons. À l'inverse, le sous grand groupe « spécialistes des sciences physiques, mathématiques et techniques » (CITP 21) est choisi par 16 % des garçons et par 7 % des filles. Ces écarts de genre s'observent dans la grande majorité des pays mais selon des importances variables. Il serait souhaitable d'engager un travail d'investigation complémentaire à partir de ces mêmes données, afin d'apprécier la variabilité des intérêts professionnels des élèves selon les pays dans le cadre du modèle hexagonal de Holland (1992). Le tableau 2 dresse un portrait d'ensemble des aspirations professionnelles des élèves dans chacun des 57 pays de la comparaison. Pour chaque nation, il donne tout d'abord la répartition des élèves selon le type de réponses déclarées. Ensuite, il montre la part d'élèves aspirant à une profession dite « supérieure » (professions des groupes 1 et 2 de la CITP), pour l'ensemble de la population d'élèves, pour l'ensemble des filles et des garçons pris séparément, enfin pour les élèves de milieu socio-économique défavorisé (appartenant au premier quartile du HISEI) et favorisé (appartenant au dernier quartile du HISEI) pris séparément. Il est tout d'abord notable, qu' à 15 ans, les élèves n'ont pas nécessairement un projet professionnel explicite à l'horizon de leurs 30 ans. Ainsi, sur l'ensemble des pays participant à l'enquête PISA 2006, les réponses de 23 % des élèves n'ont pas fait l'objet d'un codage selon la nomenclature CITP : 14 % n'ont pas répondu à la question; 3 % ont donné une réponse trop vague pour être codée (par exemple, en France : « un métier qui rapporte », « un métier qui me plaît »); 6 % ont explicitement répondu ne pas savoir ce qu'ils envisageaient de faire à 30 ans. Ces différents taux de réponses « invalides » varient fortement selon les pays – le taux de non-réponses varie notamment de 3 % à 37 % suivant les pays – mais sans lien saillant avec des caractéristiques nationales telles que le niveau de développement économique ou la performance moyenne obtenue à PISA. En revanche, à l'intérieur des pays, les réponses non codées concernent plus particulièrement certains groupes d'élèves. Les non-réponses sont plus fréquentes chez les garçons, parmi les élèves de milieu social défavorisé et parmi les élèves faibles. En France, par exemple, le taux de non-réponses est de 25 % chez les garçons et de 17 % chez les filles. La part des élèves déclarant des professions supérieures varie sensiblement selon les pays. Les élèves français n'affichent pas les ambitions les plus élevées : 33 % d'entre eux envisagent une profession « supérieure », contre 45 % en moyenne sur l'ensemble des pays. Un lien négatif est observé entre le niveau d'ambition des élèves et la performance moyenne du pays. Le pourcentage d'élèves envisageant une profession supérieure et le score moyen obtenu en culture scientifique sont corrélés négativement, de manière très significative (le coefficient de corrélation est égal à - 0,54), bien qu'au niveau individuel, ambition et performance soient corrélées positivement. Les évaluations internationales ont déjà révélé ce type de phénomènes en apparence contradictoires pour des variables subjectives telles que les aspirations professionnelles ou l'estime de soi. Dans chaque pays, ce sont bel et bien les meilleurs élèves qui ont la plus haute estime d'eux -mêmes; mais ce sont pourtant les pays les moins performants qui enregistrent en moyenne les plus hauts niveaux d'estime de soi (Van de gaer et al., 2009). Ce constat renvoie en partie au caractère local des dispositions des élèves : l'estime de soi s'élabore relativement aux autres élèves du pays et non par rapport aux élèves des autres pays. Dans le cas des aspirations professionnelles, d'autres facteurs peuvent être invoqués, comme la confusion possiblement plus importante dans les pays les moins performants, entre aspirations et expectations (Rojewski, 2005). Source : PISA 2006. Note. Les colonnes 3 à 5 présentent les pourcentages d'élèves par professions envisagées, rassemblées en grands groupes de la nomenclature CITP (cf. tableau 1) : groupe 1, groupe 2, groupes 3 à 9. Les pays sont classés par ordre croissant selon le pourcentage d'élèves de 15 ans aspirant à une profession de direction, intellectuelle ou scientifique (groupes 1 et 2 de la nomenclature CITP). Les colonnes 6 à 8 donnent les pourcentages d'élèves qui déclarent ne pas savoir (NSP), qui ont donné une réponse trop vague pour être codée (VAG), qui se sont abstenus de répondre (NR).Les colonnes 9 à 13 donnent le pourcentage d'élèves qui ont déclaré une profession de direction, intellectuelle ou scientifique (groupes CITP 1 et 2) respectivement parmi l'ensemble des élèves, des garçons, des filles, des élèves d'origine sociale défavorisée (appartenant au premier quartile du HISEI) et des élèves d'origine sociale favorisée (appartenant au dernier quartile du HISEI) du pays. Dans la dernière colonne, figure le score moyen obtenu par les élèves à l'épreuve de culture scientifique, domaine majeur de PISA 2006 dont la moyenne a été fixée à 500 et l'écart-type à 100 au niveau des pays de l'OCDE. Les données ont été arrondies à l'unité afin de faciliter la lecture du tableau. Lecture : 11 % des élèves colombiens aspirent à une profession de direction (groupe CITP 1) Dans tous les pays (aux exceptions près de l' île chinoise de Taipei et de la Suisse), les filles sont plus nombreuses que les garçons à souhaiter exercer une profession supérieure. De même, les élèves d'origine favorisée nourrissent des aspirations plus élevées que les élèves d'origine défavorisée, et ce, quel que soit le pays. Ces constats sont intéressants malgré leur simplicité. Ils portent sur des écarts bruts (entre filles et garçons d'une part, entre élèves favorisés et défavorisés d'autre part), c'est-à-dire « toutes choses inégales d'ailleurs ». Dans les deux cas, nous avons tout lieu de croire que la meilleure performance scolaire des filles, respectivement des élèves favorisés, joue comme variable cachée sur le niveau des aspirations. Ces premiers résultats nécessitent donc d' être complétés par une modélisation multi-variée des ambitions professionnelles dans le cadre d'un raisonnement du type « toutes choses égales par ailleurs ». Nous avons ainsi cherché à expliquer le niveau d'ambition professionnelle des élèves à l'aide de facteurs individuels pertinents : le statut socio-économique des parents, les ressources éducatives de la famille, le sexe, le statut d'immigration, les compétences en sciences de l'élève et la composition socio-économique de l'établissement scolaire fréquenté (cf. tableau 3). Pour chaque pays, nous avons appliqué une régression linéaire de type multi-niveau, afin de tenir compte des effets potentiels générés par les regroupements des élèves au sein des établissements. Ces modèles hiérarchiques comportent ainsi deux niveaux emboîtés l'un dans l'autre : le niveau élève et le niveau établissement. De manière attendue, il apparaît que, dans la quasi-totalité des pays, la compétence de l'élève en sciences est associée de manière positive et significative à son ambition professionnelle, toutes choses égales par ailleurs. Le statut socio-économique des parents et les ressources éducatives de la famille sont en général positivement corrélés avec le niveau des aspirations professionnelles. Cependant, il arrive que cette corrélation ne soit pas significative, notamment dans certains pays n'appartenant pas à l'OCDE. Ces pays manifestent par ailleurs un niveau d'ambition très élevé. La performance de l'élève en sciences devient alors la variable la plus discriminante pour expliquer les différences interindividuelles dans les niveaux d'aspirations. Contre toute attente, les résultats des estimations montrent qu' à performance et origine sociale fixées, les filles demeurent en général plus ambitieuses que les garçons. Deux ensembles de pays font exception à ce constat : d'une part, des pays germaniques dotés de systèmes scolaires fortement différenciés (comme la Belgique, la Suisse, l'Allemagne, le Liechtenstein, le Luxembourg et les Pays-Bas) pour lesquels la variable de genre ne joue pas de manière significative sur l'ambition; d'autre part, un certain nombre de sociétés asiatiques très développées telles que la Corée du Sud, Hong-Kong, Taipei ou encore Macao, où les garçons tendent à être à l'inverse plus ambitieux que les filles, toutes choses égales par ailleurs. Ces résultats entrent en apparente contradiction avec des études françaises passées qui ont montré que les filles ont des vœux d'orientation aussi ambitieux que les garçons (cf. notamment Rosenwald, 2006). Mais ces analyses portaient sur des élèves d'un niveau donné de la scolarité. Or, PISA cible les élèves d'une même classe d' âge et non d'un même degré scolaire. De fait, les filles tendent à effectuer de meilleurs parcours scolaires et se situent, à 15 ans, dans des filières généralement plus prestigieuses que les garçons. On peut donc penser que, dans les pays où la sélection scolaire n'est pas aussi précoce que dans les systèmes éducatifs germaniques, l'effet du genre sur les ambitions professionnelles, contrôlé de la performance, répercute en partie les trajectoires scolaires plus brillantes des filles, que capte partiellement leur niveau de compétences en sciences. Pour éprouver cette hypothèse dans le cas français, nous avons appliqué le même modèle multi-niveau à deux sous-populations d'élèves de PISA : aux élèves de 3 e d'une part et aux élèves de 2 nde générale et technologique d'autre part. Dans les deux cas, tous les coefficients estimés demeurent positifs et significatifs, à l'exception du coefficient associé au genre qui n'est plus significatif. Les ambitions apparemment supérieures des filles s'expliqueraient ainsi par un effet de structure : mieux positionnées que les garçons dans le système scolaire à 15 ans, les filles afficheraient par conséquent de plus hautes ambitions. Conformément aux hypothèses formulées dans une section précédente, dès lors que l'on contrôle de la performance et du statut social de la famille, les ambitions des élèves d'origine immigrée deviennent le plus souvent significativement supérieures à celles des élèves autochtones. Enfin, nous avons cherché à analyser plus avant les effets de circularité entre ambition professionnelle et réussite académique et à tenir compte de leur interaction avec l'origine sociale. Pour rappel, de bonnes performances scolaires favorisent la poursuite des études et donc l'ambition professionnelle; inversement, un niveau d'aspiration élevé est susceptible d'avoir un effet de levier et d'engendrer de meilleurs résultats. De quelle manière l'origine sociale des élèves intervient-elle dans cette Source : PISA 2006 Note. Le même modèle multi-niveau a été estimé sur les données de chacun des pays. La variable expliquée est le niveau des aspirations professionnelles des élèves mesuré à l'aide du SEI. Les variables explicatives sont : l'indice de profession le plus élevé des deux parents sur l'échelle SEI (HISEI), l'indice composite mesurant les ressources éducatives du foyer de l'élève (intitulé HEDRES dans PISA), le fait d' être une fille, le fait d' être immigré de deuxième génération, c'est-à-dire né en France de parents nés à l'étranger (IMMIG2), le fait d' être immigré de première génération, c'est-à-dire né à l'étranger de parents nés à l'étranger (IMMIG3), le score en sciences donné par la première valeur plausible, le statut socio-économique moyen de l'établissement scolaire fréquenté (mesuré par le SEI moyen des élèves de l'établissement). Les variables de statut d'immigration ne sont introduites que pour les pays où la part d'élèves issus de l'immigration est supérieure à 5 % (cases du tableau non grisées). Enfin, le pourcentage de variance expliquée par les différences inter-établissements est donné dans la dernière colonne (rho). Les valeurs des coefficients ne sont pas reportées pour faciliter la lecture. À la place, les signes « + » (respectivement « - ») indiquent des coefficients positifs (respectivement négatifs) et significatifs au seuil de 5 %. Les cases blanches vides indiquent des coefficients non significativement différents de 0. relation ? La figure 1 présente le niveau des ambitions des élèves français, approché par l'indice socio-économique associé à la profession envisagée, en fonction des performances obtenues au test de sciences et de l'origine sociale des élèves. Il ressort qu' à niveau de performance comparable, les élèves d'origine sociale défavorisée nourrissent des ambitions moins élevées que les autres. Cependant, l'écart d'ambition entre les élèves d'origines sociales différentes varie suivant le niveau de la performance : cet écart est ténu pour les élèves très compétents (obtenant un score supérieur à 600 points sur l'échelle PISA de sciences) et maximal pour les élèves moyens (obtenant un score de 500 points). Seuls 2 points d'indice socio-économique séparent les aspirations professionnelles des élèves très compétents défavorisés de celles des élèves très compétents favorisés, tandis que cette différence d'aspiration s'élève à plus de 10 points d'indice socio-économique pour les élèves moyens. Les élèves moyens d'origine modeste semblent donc revoir leurs ambitions à la baisse. Ce phénomène d' « autosélection » apparaît significatif dans 18 pays, quasiment tous européens. À considérer que les aspirations professionnelles traduisent non seulement l'ambition mais également l'évaluation que font les individus de leurs chances d'accès à la profession, il a paru souhaitable de confronter les aspirations des élèves à la situation professionnelle réelle, pour chacun des pays. Nous déclinons la question du réalisme des aspirations professionnelles en deux sous-questions. Premièrement, la situation du marché du travail contraint-elle l'ambition des élèves ? Deuxièmement, les aspirations des élèves sont-elles plus ou moins stéréotypées suivant le genre que ne le sont les emplois réellement occupés ? Pour apporter des éléments de réponse à la première question, nous avons confronté les réponses des élèves à quelques indicateurs clefs du marché du travail. Les aspirations des élèves s'apparentent à des anticipations, et, à cet égard, les élèves sont amenés à tenir compte des informations relatives au marché du travail de leur pays pour élaborer leurs choix d'orientation scolaires et professionnels. À ce titre, on peut présager que les élèves auront des aspirations d'autant plus élevées que la rémunération financière associée aux professions supérieures est importante. Les figures 2a et 2b croisent chacune un indicateur du niveau des aspirations des élèves et la part supplémentaire de revenu perçue par les diplômés de l'enseignement supérieur relativement aux diplômés de l'enseignement secondaire. Les deux graphiques révèlent une corrélation positive assez forte (supérieure à 0.50) entre les rendements financiers associés à la poursuite d'études dans le supérieur et le degré d'ambition professionnelle des élèves d'un pays. En poussant cette conclusion plus loin, on peut supposer que plus les inégalités de revenus sont importantes dans un pays, plus l'accès à une profession prestigieuse est avantageux. On devrait par conséquent observer une plus grande part d'élèves très ambitieux dans les pays inégalitaires que dans les pays égalitaires. Pour éprouver cette hypothèse, nous avons croisé la part Sources : PISA 2006, Eurostat. Note. La part supplémentaire de revenus associée à la poursuite d'études dans le supérieur est calculée comme l'écart relatif entre les revenus annuels moyens des diplômés de l'enseignement supérieur et les revenus annuels moyens des diplômés de l'enseignement secondaire. d'élèves aspirant à une profession de direction, intellectuelle ou supérieure avec l'indice de Gini d'inégalités de revenus (cf. figure 3). Ces deux indicateurs sont en effet corrélés positivement (le coefficient de corrélation est égal à 0.64 sur l'ensemble des pays et à 0.50 pour l'ensemble des pays à l'exception de la Turquie). Dans le prolongement de cette idée, on pourrait s'attendre à ce qu'un marché du travail dégradé, notamment du fait d'un fort taux de chômage parmi les jeunes ou les moins diplômés, affecte les aspirations des élèves. Cependant, nous ne trouvons aucun lien significatif entre le niveau national des ambitions des élèves et les différents taux de chômage disponibles (taux de chômage pour l'ensemble de la population, pour les jeunes, pour les personnes ayant atteint un niveau d'éducation primaire, secondaire ou tertiaire). Sources : PISA 2006, Eurostat. Les aspirations des élèves sont-elles en adéquation avec les emplois effectivement occupés ? Pour instruire cette question, il nous a paru raisonnable de conduire des analyses séparées sur les populations féminine et masculine tant la structure des emplois des femmes et des hommes diffère. Les figures 4a et 4b croisent ainsi les pourcentages de professions de direction, intellectuelles ou scientifiques, d'après les aspirations des élèves d'une part et selon Sources : PISA 2006, BIT. Sources : PISA 2006, BIT. la situation réelle de l'emploi d'autre part. Dans la grande majorité des pays, le niveau des ambitions des élèves de 15 ans est supérieur au niveau réel des situations professionnelles de la population active. Autrement dit, le pourcentage de filles – respectivement de garçons – qui ambitionnent une profession de direction, intellectuelle ou scientifique est supérieur, dans la plupart des pays, au pourcentage de femmes – respectivement d'hommes – qui exercent une telle profession. En France, par exemple, 35 % des filles déclarent envisager ce type de profession, alors que seules 17 % des femmes actives l'exercent. L'écart entre le niveau des ambitions des élèves et la situation réelle de la population active varie sensiblement selon les pays. En Allemagne et en Italie, par exemple, où la situation des femmes actives est proche de la situation française (environ 17 % des femmes relèvent des groupes professionnels 1 et 2), les ambitions des filles sont très différentes : proches de la situation réelle en Allemagne (24 % des filles souhaitent une profession supérieure), très éloignées en Italie (56 % des filles). C'est en Turquie que l'écart est le plus important, surtout chez les filles : 74 % d'entre elles déclarent envisager une profession supérieure, alors que seulement 11 % des femmes actives exercent ce type de métier dans leur pays. Des écarts relativement importants sont également observés dans les pays du sud de l'Europe (Italie, Espagne, Grèce, Portugal), en Belgique, au Luxembourg, en Roumanie et en Russie. À l'inverse, en Allemagne, en Autriche, en Croatie, en Suède et en Suisse, les garçons forment des ambitions très réalistes. En Finlande, ils ont même des ambitions inférieures à la situation des hommes sur le marché du travail : 23 % des garçons déclarent envisager une profession supérieure, alors que 28 % des hommes actifs occupent ce type d'emplois. Deux types d'explications peuvent être mobilisés pour justifier ces écarts : l'organisation des parcours scolaires et les politiques d'éducation à l'orientation. Les systèmes scolaires dotés d'un palier d'orientation précoce peuvent conduire leurs élèves à intérioriser dès l' âge de 15 ans le type d'emploi auquel ils sont destinés. En particulier, les élèves des filières professionnelles auront tendance à adopter des ambitions en moyenne moins élevées et plus réalistes. Cette hypothèse est vérifiée pour des pays comme l'Allemagne, l'Autriche, la Suisse, et dans une moindre mesure aux Pays-Bas, où le niveau d'ambitions des élèves correspond peu ou prou à la situation de la population active, surtout pour les garçons. Ces pays ont en outre adopté une politique d'éducation à l'orientation plus favorable que les autres en favorisant la diffusion d'informations sur les parcours professionnels et le suivi des élèves (OCDE, 2004). La situation est plus contrastée pour les autres modes d'organisation scolaire. Les élèves des systèmes éducatifs nordiques relevant du modèle « d'intégration individualisée » (Mons, 2007) ont également tendance à élaborer des ambitions proches de la réalité : cela est vrai pour la Finlande, la Suède, le Danemark mais pas pour l'Islande. La France occupe, quant à elle, une place singulière. Elle se place parmi les pays dont les écarts entre ambitions et réalités sont parmi les moindres, bien que l'organisation de son école s'apparente au modèle « d'intégration uniforme », comme pour l'Espagne et l'Italie (Mons, 2007). Cette particularité est probablement liée au recours plus important en France au redoublement, pratique qui opère une « filiarisation du système » (Rocher, 2008). Source : PISA 2006. Note : pour des raisons de lisibilité, les libellés des pays ne figurent pas tous sur le graphique. Lecture : pour l'Argentine, l'indice de dissemblance des aspirations professionnelles des élèves égale 0,36 tandis que l'indice de dissemblance des emplois des parents égale 0,50. Les aspirations des élèves sont-elles plus ou moins stéréotypées suivant le genre que ne le sont les emplois réellement occupés ? Cette question est également traitée en confrontant les aspirations des élèves à la réalité de l'emploi. La figure 5 croise les degrés de différentiation sexuée des emplois envisagés par les élèves d'une part, et des emplois effectivement occupés par leurs parents d'autre part. Le degré de différenciation sexuée est mesuré à l'aide de l'indice de dissemblance proposé par Duncan et Duncan (1955), calculé sur la base des 38 groupes professionnels figurant au deuxième niveau de la nomenclature CITP (code à 2 chiffres). Au sein de la population des élèves, le calcul de l'indice nécessite de distinguer entre les professions envisagées par les filles et celles envisagées par les garçons; au sein de la population des parents, le calcul dissocie les professions des mères de celles des pères. L'interprétation de l'indice est simple : il s'agit du pourcentage minimum d'individus qu'il faudrait déplacer pour obtenir une répartition des genres au sein de chaque profession qui soit identique à la répartition des genres dans l'ensemble de la population. En France, l'indice de dissemblance vaut 0,51 pour les professions occupées par les parents : il faudrait donc qu'au minimum 51 % des parents changent de profession afin que les mères et les pères soient représentés au sein de chaque profession dans les mêmes proportions que dans l'ensemble de la population parentale. L'indice de dissemblance vaut 0,42 pour les aspirations professionnelles des élèves, il est donc inférieur à l'indice calculé sur la population des parents. En somme, en France, les emplois des adultes sont plus typés suivant le genre que ne le sont les aspirations professionnelles des adolescents. Ce constat est vrai pour une grande majorité des nations, à l'exception de certains pays comme la Finlande, l'Autriche, la République Tchèque ou l'Italie où les niveaux de différentiation sexuée des aspirations des élèves et des professions des parents sont comparables. Les aspirations professionnelles diffèrent ainsi fortement selon le sexe. Elles entretiennent donc en partie les stéréotypes de genre classiquement observés (Duru-Bellat, 2005). Pour les filles par exemple, ces stéréotypes proviennent de l'héritage de l'environnement social et familial (Baudelot & Establet, 2007), ainsi que de la « stratégie » qui consiste à choisir des métiers plus adaptés à leurs contraintes familiales futures (Duru-Bellat, 2005). Cependant, ces stéréotypes sont davantage palpables sur le marché du travail que dans les représentations professionnelles des élèves. Ce résultat laisse ainsi penser que les mécanismes de marché sont également en partie responsables de la ségrégation sexuée au sein des emplois. À cet égard, nos résultats confortent les conclusions de Couppié et Épiphane (2006) selon lesquelles, en France, la récente baisse relative du degré de ségrégation sexuée des emplois provient davantage du fonctionnement du marché du travail que de la ségrégation sexuée des élèves des formations scolaires. Dans cet article, nous nous sommes intéressés aux degrés d'ambition et de réalisme des aspirations professionnelles des élèves de 15 ans de 57 pays. Selon nos conclusions, les déterminants de l'ambition professionnelle sont de nature comparable entre les nations tandis que leur degré de réalisme varie fortement suivant les nations. Les pays où les élèves ont obtenu les performances scolaires les plus faibles et où les inégalités économiques sont les plus importantes sont généralement les pays où les élèves nourrissent les ambitions professionnelles les plus élevées. Enfin, les analyses menées au niveau de l'élève comme au niveau agrégé du pays révèlent une forte différenciation sexuée des aspirations professionnelles des jeunes. En montrant que les filles de 15 ans nourrissent des aspirations professionnelles plus hautes que les garçons de leur âge dans la quasi-totalité des pays, nos résultats paraissent prendre à contre-pied les conclusions des recherches empiriques passées. Il semble cependant que cette contradiction ne soit qu'apparente sans être réelle. De fait, les résultats des études sont susceptibles de varier suivant le critère retenu pour cibler la population (critère d' âge, de niveau scolaire). Des analyses complémentaires à ce travail ont révélé qu'en effectuant des régressions séparées sur les élèves de 3 e d'une part et sur les élèves de 2 nde générale et technologique d'autre part, on ne retrouve plus cet écart d'ambition en faveur des filles. Il est plausible que les filles soient plus ambitieuses que les garçons à l' âge de 15 ans mais que ce ne soit plus le cas aux âges de 18 ans et plus. Pour mieux comprendre les écarts d'aspirations entre les genres, il serait ainsi préférable de disposer de données longitudinales plutôt que de données en coupe. Le programme PISA est, de fait, dépourvu de perspective longitudinale puisqu'il ne suit pas les mêmes élèves au cours du temps mais évalue ponctuellement des élèves âgés de 15 ans. Un dispositif d'enquête qui interrogerait les mêmes élèves à différents moments de leur scolarité permettrait d'étudier la manière dont se forment et se modifient les aspirations professionnelles des élèves. Un tel dispositif honorerait la dimension dynamique des souhaits professionnels des individus et apporterait notamment un éclairage intéressant sur les différences de genre dans les niveaux d'ambition. Enfin, en privilégiant dans cet article l'analyse des degrés d'ambition et de réalisme des aspirations professionnelles, nous avons en partie évacué la question des préférences des jeunes pour tel ou tel domaine d'activité. Une part importante des différences de genre dans les souhaits professionnels réside pourtant bien dans le choix du type de métier. Un travail est actuellement en cours pour étudier plus avant cette dimension à l'aide du modèle d'Holland (1992) . | Dans cet article, nous nous intéressons aux degrés d'ambition et de réalisme des aspirations professionnelles des élèves de 15 ans. Notre étude porte sur les déclarations des élèves de 57 pays recueillies lors de la vague 2006 du Programme International pour le Suivi des Acquis des Élèves (PISA). L'analyse des aspirations des élèves est enrichie par des informations portant sur les marchés du travail nationaux, établies par le Bureau International du Travail et Eurostat. Dans un premier temps, nous étudions les déterminants individuels des aspirations professionnelles. Puis, nous confrontons les souhaits des élèves à la situation réelle du marché du travail. | psychologie_13-0003194_tei_891.xml |
termith-732-psychologie | Le système d'orientation professionnelle en France est caractérisé par une multitude de structures, dispositifs et prestations, avec des particularités qui le distingue des pays anglo-saxons (Bernaud, Cohen-Scali & Guichard, 2007). Jeunes et adultes bénéficient, entres autres, du support d'institutions publiques comme les CIO 1, SUIO 2, PAIO 3, Missions Locales, Pôle Emploi, mais aussi d'un ensemble d'acteurs, cabinets et associations, émanant du secteur privé de l'orientation. Ces dernières années, la rationalité et les fonctionnalités du système d'orientation ont été interrogées au travers de multiples rapports (Tharin, 2005; Bargas et al., 2005; Lunel, 2007). Des constats d'insuffisances ont été relevés : par exemple, le rapport produit par Descoings (2009) 4 indique (p.28) que « le système d'orientation aujourd'hui contribue à éloigner le jeune et futur citoyen, de la république ». Le domaine des bilans de compétences pour adultes n'échappe pas à ces remises en cause; Ainsi, de Saintignon, Vilchien, Dole et Guedj (2008) 5 considèrent (p.29) que « le niveau de satisfaction manifesté par les usagers rencontrés est inégal sur les préconisations à l'issue du bilan ». Parallèlement à ces rapports, l'efficacité de l'orientation est régulièrement questionnée à travers des enquêtes (Bernaud, Di Fabio & Saint-Denis, 2010) qui confirment la satisfaction modérée et les effets nuancés du conseil, quoique pour les bilans de compétences, des effets notables soient relevés (Bernaud, Gaudron & Lemoine, 2006). Les conséquences de ces dysfonctionnements s'observent à plusieurs niveaux : remaniement du service public de l'emploi, mais aussi, émergence de préconisations pour améliorer les dispositifs. Pour aller dans le même sens, la résolution du conseil de l'Union européenne sur « mieux inclure l'orientation tout au long de la vie dans les stratégies d'éducation et de formation tout au long de la vie » 6 propose quatre axes d'action dont l'un est « faciliter l'accès de tous les citoyens aux services d'orientation » qui propose des mesures comme (p.7) « promouvoir activement les services d'orientation auprès des citoyens en assurant leur visibilité par tous les moyens d'information et de communication ». En effet, dans un contexte caractérisé par de fortes transitions, et par une complexité croissante de l'information, les acteurs sont soumis à de fortes pressions qui engendrent parfois un état de souffrance psychologique (Gingras, 2005) et qui, occasionnellement, nécessitent un accompagnement spécifique. Se pose alors la question de l'accessibilité des services d'orientation, avec comme interrogations concomitantes, le fait de savoir si les besoins des publics convergent bien avec l'offre de service. Or, il n'est pas certain que cette convergence soit satisfaisante. Si on établit le parallèle avec le champ de la psychothérapie, Andrews, Issakadis et Carter (2001) ont démontré que ceux qui ont le plus besoin d' être aidé ne sollicitent pas de services d'aide psychologique (seul un tiers des personnes ayant besoin d'un suivi psychologique y ont recours). De même, Kushner et Sher (1991) citent, dans la population américaine, le chiffre de 3 % de la population ayant recours à la consultation des services compétents, alors que 15 % relèvent d'un besoin d'aide en matière de santé mentale. Dans le champ de l'orientation professionnelle, cette question apparaît peu documentée. Fouad et al. (2006) ont relevé un fort décalage entre les besoins exprimés et l'utilisation effective des services sur un campus universitaire; par exemple, si 51,2 % des participants déclarent ressentir le besoin d'un accompagnement individuel, seuls 6,1 % y ont effectivement recours. Au vu de ces différents résultats, se pose la question de savoir comment les services sont utilisés, qui s'y engage et pour quel motif; finalement, la question centrale est de cerner quels sont les déterminants de l'entrée en consultation d'orientation professionnelle. L'objectif de cet article est de présenter différents modèles pour analyser les processus à l' œuvre dans l'entrée en consultation. Après avoir discuté la question du rapport entre la prescription, l'intention comportementale, le premier engagement et l'implication dans la prestation, nous présenterons une réflexion sur l'inventaire des déterminants potentiels puis axerons notre présentation sur différents modèles de référence pour expliquer l'entrée en consultation; enfin nous élaborerons les perspectives de recherche que ces travaux impliquent. L'analyse du rapport entre les personnes et l'entrée en consultation nécessite de distinguer quatre niveaux : l'existence d'une prescription, l'intention de consulter, le premier engagement et l'implication effective en consultation. Le premier niveau revient à débattre de l'existence d'un prescripteur, plus ou moins influent, qui suscite l'entrée en consultation. Dans certains dispositifs d'orientation et d'insertion des adultes – notamment les bilans de compétences approfondis –, la prestation peut-être prescrite par un professionnel dans le but de construire un projet d'insertion ou pour aboutir à une formation. Les publics scolarisés peuvent être aussi « adressés » par un prescripteur parent ou membre du système éducatif, qui joue alors un rôle plus ou moins conséquent dans la prise de contact. Si la littérature scientifique a débattu des processus d'influence dans le choix professionnel (Fisher & Stafford, 1999), force est de constater que l'impact de prescripteurs est un sujet peu documenté, à l'exception de la question du rôle du soutien social qui sera exposée plus loin. Le second niveau, l'intention de consulter, peut être considéré comme une variable intermédiaire entre l'attitude face à la relation d'aide et le comportement qui est l'entrée effective en consultation. Selon Fishbein et Ajzen (1980), cette intention précède le comportement et se traduit par la motivation à accomplir certaines tâches pour atteindre le but visé. Différents construits ont été proposés pour formaliser cette intention comportementale. Gim, Atkinson et Whiteley (1990) ont élaboré une échelle qui prend en compte vingt-quatre problèmes couramment rencontrés au moment de l'adolescence (exemples : les conflits avec les parents, le sentiment d'infériorité, les problèmes de choix d'orientation, etc.). Ces problèmes sont analysés sur le plan de la sévérité de l'affection ainsi qu'au niveau de la demande de consultation qu'ils sont susceptibles de générer. Une analyse factorielle réalisée par les auteurs sur la base du degré de sévérité a permis de faire émerger trois composantes qui sont les difficultés relationnelles, celles qui ont trait aux études ou à la carrière et celles qui concernent les addictions. Cette formalisation a été utilisée dans d'autres recherches (Kim & Omizo, 2003) ou sous un format de présentation différent, mais avec les mêmes sous-dimensions (Vogel, Wester, Wei & Boysen, 2005). Bernaud et Bideault (2005) et Bernaud, Di Fabio et Mpouki (2006) ont proposé une formalisation différente d'une échelle d'intention de consultation dans le domaine de l'orientation professionnelle. La distinction repose sur trois facettes qui expriment chacune un palier intentionnel différent : l'intention effective (item : « je compte prendre un rendez -vous dans un centre dans les semaines qui viennent »), l'intention ressentie (« actuellement, je ressens le besoin de consulter dans un centre d'orientation ») et l'intention conditionnelle (« si je rencontrais des difficultés d'orientation scolaire ou professionnelle, j'irais consulter dans un centre ») y sont distinguées. Cette échelle a été utilisée dans plusieurs protocoles de recherche avec des résultats satisfaisants sur le plan de la consistance interne (Bernaud, Di Fabio & Mpouki, 2006). L'analyse des pourcentages d'intention pour chaque item, menée dans deux protocoles de recherche (Bernaud & Bideault, 2005; Bernaud, Di Fabio & Mpouki, 2006) montre que l'intention conditionnelle est souvent majoritaire (51,3 % et 71,6 %), l'intention ressentie rare (12,6 % et 30,8 %) et l'intention effective très peu fréquente (8,8 % et 7,8 %). Au-delà de l'intention, figurent le premier engagement du bénéficiaire dans un dispositif d'aide à l'orientation et son implication au cours du même dispositif. Si le premier engagement est un acte qui peut s'observer à partir du moment où le bénéficiaire entre en consultation, l'implication repose sur une première facette qui est la présence effective du bénéficiaire tout au long des rendez -vous. Robbins, Mullison, Boggs, Ridesel et Jacobson (1985) citent 30 % d'abandon au cours de consultation d'orientation. L'analyse des renoncements renvoie à des raisons internes (découragement, oubli) pour 45 %, à des raisons externes (incompatibilité d'emploi du temps, difficulté rencontrée pour la garde des enfants, problème de transport, etc.) pour 38 %; pour 17 % des participants, l'argument est que les objectifs de carrière ont été atteints. Une autre facette de l'implication dans la consultation traite du niveau de participation du bénéficiaire au cours des échanges. Des indices comme la prise de certaines initiatives, la participation, l'assiduité, les efforts accomplis pour réaliser certaines tâches peuvent être pris en compte. La littérature scientifique est limitée sur ce sujet de l'implication en consultation (Galiegue, Bernaud & Carrein, 2008), tout comme le lien entre implication, intention comportementale et prescriptions. L'analyse des déterminants de l'entrée en consultation est un sujet complexe qui nécessite d'avoir recours à des modèles multidimensionnels. Kushner et al. (1991) l'ont parfaitement souligné en identifiant les facteurs qui peuvent constituer des freins ou des barrières à l'entrée en consultation. La liste des craintes s'avère fournie : gêne pressentie, crainte de changement, perception négative due à l'influence des médias, expérience négative avec un service d'aide mentale, crainte d' être jugé, crainte d' être exposé à des problèmes psychologiques sont mentionnés. Si l'apport de cette revue est considérable en termes d'identification de variables, elle est peu adaptée à l'analyse des déterminants pour le conseil en orientation, car elle ne traite pas spécifiquement du rapport à la carrière. Pour aller au-delà, trois thématiques méritent d' être mentionnées : l'accessibilité des structures de conseil, les processus psychosociaux et les déterminants individuels. En premier lieu, l'accessibilité d'une prestation d'aide peut être un facteur déterminant dans l'entrée en consultation. Une prestation loin du domicile et peu accessible physiquement peut rebuter. De même, s'il s'avère compliqué de joindre un conseiller ou de constituer un dossier pour y avoir droit, cela peut freiner voir dissuader l'entrée en consultation. Bernaud et Bideault (2005) ont utilisé le paradigme de la brochure pour évaluer l'effet de deux déterminants contextuels de l'intention de consultation. La reconnaissance institutionnelle du centre de consultation joue à la fois sur le sentiment de sécurité et sur la perception de la qualité des pratiques. Cette variable est proche du facteur de « réputation » d'une institution qui semble avoir un impact sur l'intention de consulter (Kushner et al., 1991). De la même façon, le coût est un des facteurs déterminants de l'accessibilité des services (Kushner et al., 1991). Les prestations payantes pourraient jouer un rôle inhibiteur de l'intention de consulter, car l'idée de financer individuellement les consultations d'orientation n'est pas répandue dans la culture française. Les résultats de la recherche expérimentale montrent que la labellisation d'un centre (opérationnalisée par la mention d'un label fictif du conseil régional sur la brochure) a un effet positif mais modéré (de l'ordre d'un demi écart-type) sur l'intention de consulter. Par ailleurs, le fait d' être confronté à une participation financière apparaît fortement dissuasif. Il est possible de résumer l'ensemble de ces résultats de la façon suivante : lorsque le centre est labellisé et sans tarification, 25 % se déclarent prêts à s'engager dans une consultation, 30 % y songent, 95 % se déclarent prêts à s'y rendre en cas de difficulté; alors que lorsque le centre n'est pas labellisé et est payant, 0 % se déclare prêt à s'engager dans une consultation, 0 % y songe, et 5 % se déclarent prêts à s'y rendre en cas de difficulté d'orientation. Le contraste est donc particulièrement frappant. Parfois même, c'est la connaissance même des structures qui est en question. Kahn, Wood et Wiesen (1999) ont montré que la majorité des étudiants de leur échantillon connaissent l'existence du centre de counseling, mais ne savent pas quels services y sont dispensés. Fouad et al. (2006) constatent également qu'il existe une différence relativement importante entre le pourcentage de personnes connaissant certains services proposés et l'utilisation de ces services. Plusieurs études ont montré qu'il existait un lien entre le soutien social perçu et le besoin de faire appel à un professionnel pour se faire aider (Bosmajian & Mattson, 1980; Goodman, Sewell & Jampol, 1984). Ces études ont montré que les personnes percevant peu de soutien social ont plus tendance à consulter un professionnel de la relation d'aide que celles qui ont un niveau de soutien social perçu élevé. En effet, se sentir faiblement soutenu peut engendrer des souffrances psychologiques, ce qui contribue au besoin de se faire aider par un spécialiste (Cramer, 1999). Croity-Belz, Gaudron, Baudin et Simonet (2006) constatent que les relations affectives familiales ont un rôle moteur dans la mise en œuvre de démarches actives pour retrouver du travail. Le soutien et les encouragements des proches paraissent motiver la personne et la conforter dans sa dynamique de changement. À l'inverse, les proches réfractaires à l'idée de ce changement peuvent être un frein pour la personne et rendre le changement difficile. Avoir un réseau social qui comprend et encourage la recherche d'aide, plutôt que de la rejeter ou de la décourager, peut être un facteur nécessaire pour que l'individu conçoive la recherche d'aide comme étant une démarche positive (Rickwood & Braithwaite, 1994). Le soutien social perçu constitue donc un facteur potentiel expliquant l'entrée en consultation (Vogel & Wei, 2005; Vogel, Wester, Wei & Boysen, 2005). Les périodes de transition constituent également un élément déterminant dans l'entrée en consultation. Tout au long de sa vie professionnelle, l'individu est amené à vivre plusieurs phases de transition telles que changer de travail, vivre des périodes de chômage, se réinsérer professionnellement ou encore faire face à la nécessité de se spécialiser dans les études. Ces périodes peuvent être vécues comme une rupture avec les expériences de vie passées et elles risquent de modifier les projets de l'individu. De plus, ce changement peut être choisi mais aussi subi, ce qui va modifier la perception de la personne et la manière dont elle va vivre cette transition. Hinson et Swanson (1993) ont montré dans leur étude que les personnes ont tendance à consulter un psychologue en dernier recours. C'est seulement si les conseils et/ou le soutien des proches ne lui permettent pas de résoudre son problème, que la personne va s'adresser à un professionnel (Wills, 1992). En ce qui concerne la population étudiante, Bernaud et Bideault (2005) montrent que les étudiants consultent un professionnel de l'orientation moins pour des raisons psychologiques que pour des raisons conjoncturelles. Ainsi, les participants ont donc tendance à raisonner non par anticipation, mais en réponse à la nécessité de dénouer un problème contemporain. Croity-Belz et al. (2006) ont montré que le conseiller bilan est un soutien crucial pour le sujet lorsqu'il est en situation de transition. C'est une ressource indéniable pour que le sujet dépasse ses difficultés professionnelles mais aussi pour favoriser l'expression de ses inquiétudes et de ses doutes dus à son travail ou à une autre sphère de vie interférant avec la sphère travail. Un changement choisi ou subi peut donc être l'initiateur de l'entrée en consultation d'accompagnement professionnel. Rombi (2007) montre que le rapport au travail, opérationnalisé par la centralité du travail, la satisfaction au travail et la résistance aux changements, explique 25 % de la variance de l'intention de consulter un conseiller en carrière. Selon Locke 7 (1969), la satisfaction au travail est un état émotionnel qui découle de la relation perçue entre les attentes vis-à-vis de son emploi et ce que celui -ci procure. Un individu est satisfait de son travail lorsque les résultats qu'il obtient sont conformes à ses aspirations. Lemoine (2004) stipule que l'insatisfaction incite à se mettre en action. Si un salarié n'est pas satisfait dans son travail, il aura donc plus tendance à consulter un conseiller si cette solution est pour lui un moyen de résoudre son insatisfaction. Ce résultat a été démontré (Verbruggen, Sels & Forrier, 2007), même s'il semble que la politique organisationnelle de développement de l'employabilité joue un rôle encore plus important dans l'intention de consultation. La centralité du travail est définie par l'importance relative du travail dans la vie d'une personne à un moment donné (Paullay, Alliger & Stone-Romero, 1994). Elle s'évalue par deux dimensions : l'importance absolue du travail (le fait de continuer à travailler même si les ressources financières sont suffisantes) et l'importance relative du travail qui est sa place par rapport à la vie de famille, aux loisirs, aux relations sociales. Rombi (2007) a démontré que plus un individu est insatisfait, plus il aura l'intention de rencontrer un conseiller. De la même manière, une personne aura davantage l'intention de consulter si le travail a une place centrale que s'il a une place périphérique. L'entrée en consultation suppose que la personne présente un rapport particulier à sa carrière. Deux variables semblent assez centrales dans cette perspective : le sentiment d'efficacité vocationnelle et l'indécision vocationnelle. Le sentiment d'efficacité vocationnelle (ou career-decision making self-efficacy) est dérivé de la notion de sentiment d'efficacité de Bandura (1977). Il s'agit des croyances d'un individu quant à ses capacités à réussir une tâche nécessitant une prise de décision de carrière (Taylor & Betz, 1983). Pour pouvoir prendre une « bonne » décision de carrière, il est nécessaire de posséder certaines compétences (Crites, 1981) : évaluer avec justesse ses capacités, rechercher des informations liées au domaine professionnel concerné, sélectionner ses buts, planifier ses actions et résoudre des problèmes. Les personnes ayant un faible sentiment d'efficacité à la prise de décision de carrière sont plus indécises (Betz & Luzzo 1996) et moins susceptibles de recueillir les informations pouvant les aider dans leur prise de décision (Blustein, 1992) que celles ayant un sentiment d'efficacité élevé. Recourir à un conseiller peut donc aider à augmenter son sentiment d'efficacité et à prendre des décisions de carrière. L'indécision vocationnelle, pour sa part, peut être définie comme l'incapacité d'une personne à réaliser un choix de nature vocationnelle (scolaire, professionnel) lorsqu'elle est amenée à le faire (Forner, 2004). Selon Kelly et Lee (2002), qui l'ont étudiée dans une perspective multifactorielle, elle est composée de six facteurs : le manque d'informations, le fait d' être indécis, le besoin d'informations, la présence d'un conflit externe (avec un proche), la présence d'un conflit interne (ou psychologique) et l'anxiété par rapport à l'avenir. Lucas (1993) a montré que les personnes ayant une forte indécision de carrière sont plus nerveuses, ont moins confiance en elles et ont plus tendance à être dépressives que les personnes ne présentant pas ou peu d'indécision vocationnelle. Cette dernière peut donc être génératrice de souffrance et l'état de souffrance peut amener à consulter un professionnel de l'accompagnement. Leroux (2005), en se référant au modèle de Gati, Krausz et Osipow (1996), montre que 8 des 10 déterminants de l'indécision sont corrélées aux intentions de consultation en orientation (r compris entre .23 et .37 pour les variables : indécision généralisée, manque d'information à propos de la prise de décision d'orientation, manque d'information à propos de soi, manque d'information professionnelle, manque d'information sur la façon d'obtenir des informations nouvelles, information disponible mais incohérente, conflit interne, conflit externe). Le modèle de Rochlen, Mohr et Hargrove (1999) s'est intéressé à l'attitude envers le conseil en orientation. Ces auteurs ont conçu une échelle de Likert spécifique en s'appuyant sur les trois facettes (cognitive, affective, comportementale) proposées par Fiske et Taylor (1991). Après factorisation des items, deux dimensions apparaissent : la valeur du conseil en orientation (exemple d'item : « si je devais changer de filière professionnelle, je trouverais utile de rencontrer un(e) conseiller(e) d'orientation ») et la crainte des conséquences liées au conseil (exemple d'item : « si je rencontrais un conseiller(e) en orientation, je ne voudrais pas que cela se sache »). De fait, ce modèle est assez proche de la structure préconisée par Fishbein et al. (1980). L'échelle de « valeur du conseil en orientation » est corrélée positivement à l'intention de consultation en cas de nécessité (r = .46 et .58) et à l'attitude face à la relation d'aide (r = .34 et .46). L'échelle de « crainte des conséquences du conseil » est corrélée à une sous-échelle similaire dans le domaine de la psychothérapie (r = .47), et négativement à l'intention de consultation en cas de nécessité (r = - .45 et - .28) et à l'attitude face à la relation d'aide (r = - .35 et - .39). Les adaptations françaises et italiennes de l'échelle ont abouti à établir le caractère prédictif de la sous-échelle de valeur du conseil en orientation avec les intentions de consultations. Les corrélations suivantes ont ainsi été relevées : .34 (Bernaud & Bideault, 2005), .43 à .47 (Bernaud, Di Fabio & Mpouki 2006), .55 (Leroux, 2005), .22 à .60 (Lemenach, 2006; Legrand, 2006) Plusieurs recherches laissent supposer l'influence de caractéristiques individuelles, particulièrement celles qui ont trait à la mobilisation de la personne face aux enjeux de sa carrière : la personnalité proactive, la résistance au changement, l'autonomie, et l'identité. La personnalité proactive a été vue par Bateman et Crant (1993) comme correspondant à une personne insoumise à son environnement et qui tend de ce fait à le modifier. Les personnes proactives savent identifier des opportunités mais aussi les créer, elles persévèrent jusqu' à atteindre leur but. Elles ont tendance à s'adapter à leur environnement plutôt que d'essayer de le modifier. Ashford et Black (1996) ont mis en évidence que les personnes proactives ont davantage tendance à gérer leur carrière (comme rechercher un emploi, rechercher des informations sur un métier ou une formation) et sont plus persévérantes face aux obstacles rencontrés dans leur vie professionnelle. On peut donc raisonnablement envisager qu'avoir une personnalité proactive influencera favorablement l'entrée en consultation. Cette dimension de la personnalité n'est pas sans entretenir de lien avec la dimension de « conscience » du modèle de la personnalité en 5 facteurs, dont on sait qu'elle génère des conduites d'excellence et une certaine recherche du perfectionnisme (Stoeber, Otto & Dalbert, 2009). La résistance au changement peut être définie comme la réticence au changement de la part d'une personne ou d'un groupe. Elle peut concerner la situation nouvelle suite au changement, les processus pour réaliser le changement ou encore le contexte dans lequel se déroule celui -ci (Brassard & Brunet, 1994). Oreg (2003) a identifié six sources potentielles de résistance au changement : la volonté de ne pas perdre le contrôle, la rigidité cognitive, le manque de résilience psychologique, l'intolérance aux périodes d'ajustement dues au changement, la préférence pour un faible niveau de nouveauté et de stimulation, la volonté de ne pas changer ses habitudes. Pour comprendre le processus de changement, il faut donc saisir ce que représente ce changement pour l'individu, ce qui l'effraie ou le freine. Il est probable que les personnes résistantes au changement ne s'engageront pas dans des consultations d'orientation, préférant le maintien des habitudes prises. Si le cas venait à se présenter, on peut s'attendre néanmoins à une faible mobilisation psychologique pour explorer des univers nouveaux. L'autonomie est une des dimensions constitutives du bien-être psychologique selon Ryff (1989). Une personne autonome présente les qualités suivantes : l'autodétermination, l'indépendance et la capacité à résister aux pressions sociales. L'autonomie est peu compatible avec l'approbation des autres (la personne se fie à ses propres évaluations) et l'intéressée est peu soumise aux conventions auxquelles certains adhèrent (peur, croyances, etc.). On peut donc envisager qu'une personne autonome exprimera moins de fausses croyances (véhiculées par la majorité) quant au conseil de carrière et ne craindra pas d' être jugée en entrant en consultation. On peut aussi penser qu'une personne moins autonome et donc plus soumise aux pressions environnementales aura davantage de facilité à entrer en consultation si son entourage approuve et encourage cette démarche. À l'inverse, celles entourées par des personnes réfractaires à l'entrée en consultation risquent d'éprouver de grandes difficultés à rechercher de l'aide auprès d'un conseiller. Cette hypothèse est confirmée par Lemenach (2006) et Legrand (2006) qui ont montré que certaines dimensions de l'échelle de sentiment d'autonomie dans la prise de décision de carrière (Guay, 2005) étaient liées aux intentions de consultation. Enfin, plusieurs études (Vogel, Wester & Larson, 2007; Pederson & Vogel, 2007; Mc Kelley, 2007) ont montré que les personnes développant une identité masculine ont généralement moins tendance à vouloir consulter. Ils présentent une attitude plus modérée vis-à-vis de la relation d'aide et un engagement effectif moins fréquent. Fischer et Farina (1995) expliquent que les femmes ont tendance à avoir une attitude plus positive envers la recherche d'aide que les hommes. L'identité féminine serait donc un facilitateur de l'entrée en consultation contrairement à l'identité masculine. Cet élément s'inscrit dans une analyse plus large des attitudes des hommes face à la relation d'aide (Addis & Mahalik, 2003). Dans le même esprit, les dimensions culturelles de l'identité, comme le fait d'intérioriser les valeurs de sa culture, semblent expliquer pour une part les conduites face à la relation d'aide et l'intention de consultation (Townes, Chavez-Korell & Cunningham, 2009; Kim & Omizo, 2003; Gim, Atkinson & Whiteley, 1990). L'exposé d'une liste de variables, quand bien même elles reposent sur les données de recherches antérieures, n'est pas suffisant pour rendre compte des processus en jeu dans l'entrée en consultation. Pour éclairer ces processus de façon globale, sont développés ci-après plusieurs modèles : l'exploration de carrière, la prise de décision cognitive, les modèles d'aide au changement et les modèles explicatifs-structuraux. L'exploration de carrière, définie comme « la collecte d'informations pertinentes pour avancer dans sa carrière » (Zikik & Klehe, 2006, p.393) est considérée comme un concept majeur de la psychologie du conseil de ces vingt dernières années. Elle correspond à un stade de développement vocationnel, mais aussi, selon Flum et Blustein (2000, p.381), à un « processus comportant des fonctions adaptatives et critiques tout au long de la vie, plutôt qu'un état dans le développement de la carrière et la prise de décision, processus qui comporte des composantes attitudinales et cognitives, ainsi que des activités prévues et imprévues ». L'exploration de carrière renvoie à des conduites spécifiques d'engagement qui permettent d'accroître le niveau de développement vocationnel. Elle est liée à la motivation intrinsèque, à la capacité de planification, à l'ouverture, au sentiment d'efficacité et au locus de contrôle interne (Littman-Ovadia, 2008). Du point de vue de la mesure et des facettes qui entrent dans sa composition, l'exploration de carrière est organisée différemment selon les modèles. Par exemple, le modèle de Stumpf, Colarelli et Hartmann (1983) distingue, sur une période de trois mois, l'exploration centrée sur soi, qui vise à mieux connaître ses intérêts et compétences de l'exploration centrée sur l'environnement, qui cherche à mieux cerner le fonctionnement du monde éducatif ou professionnel. Ce modèle – ou des versions proches – a été utilisé dans de nombreux contextes de recherche (Cheung & Arnold, 2010; Littman-Ovadia, 2008; Zikik & Klehe, 2006). Adoptant un modèle légèrement différent, Vignoli, Croity-Belz, Chapeland, de Fillipis et Garcia (2005) ont identifié cinq facteurs reflétant l'exploration de carrière : la lecture de brochures, la demande d'informations auprès de membres de la famille, la demande d'informations auprès de connaissances, la visite de centres et de professionnels, la recherche d'information sans lien avec le projet professionnel. L'entrée en consultation d'orientation, de ce point de vue, peut être considérée comme une facette de l'exploration de carrière. Si on se réfère à des travaux sur les préférences énoncées vis-à-vis de la relation d'aide en orientation professionnelle (Bernaud & Caron, 2004), il s'agit de la conduite la plus formalisée pour répondre à certains aspects de l'indécision de carrière. Traditionnellement, les recherches menées sur la prise de décision concernent plutôt le choix professionnel (Mullet, Barthélémy, Duponchelle, Munoz Sastre & Neto, 1996). Cependant, l'entrée en consultation repose aussi sur un processus de prise de décision impliquant des mécanismes cognitifs. Vogel, Wester, Larson et Wade (2006), en s'inspirant du courant sur le traitement de l'information, ont proposé un modèle répondant à ces dernières caractéristiques. Ils s'appuient sur le postulat selon lequel la décision de consulter provient de la perception des souffrances psychiques et des croyances dans les capacités à surmonter ou non ces souffrances. Selon eux, pour prendre une décision, un individu passe par quatre étapes cognitives et affectives : – (1) Encodage et interprétation des stimuli externes et internes. Selon Pill, Prior et Wood (2001) les personnes qui considèrent leur mal-être psychologique comme n'étant pas pathologique ont tendance à interpréter les symptômes comme insignifiants. La mésinterprétation de ses symptômes ou le manque d'information sur ces symptômes peut donc amener une personne à ne pas ressentir le besoin de recourir à l'aide d'un professionnel. – (2) Production et évaluation de plusieurs options comportementales. Durant cette étape, la personne génère des solutions comportementales à partir des informations qu'elle a encodées et interprétées. Par exemple, si la personne reconnaît son problème comme étant important et remédiable, elle va se mettre en action afin de le résoudre. La production du comportement va donc dépendre de l'importance du symptôme, de ses conséquences et de la connaissance de la personne quant aux moyens d'action sur ses symptômes. Par exemple, une personne en souffrance peut refuser de consulter car elle ne croit pas en l'efficacité d'une consultation. – (3) Prise de décision. Une fois l'information encodée, interprétée et différentes solutions générées, la personne décide de la réponse à apporter et de ses conséquences. Il s'agit donc d'évaluer les coûts et bénéfices de chaque solution tout en pensant au but escompté. L'individu choisira alors la réponse qui présente, selon lui, le plus d'avantages et le moins d'inconvénients. – (4) Réaction personnelle et des pairs quant au comportement adopté. Durant cette étape, la personne évalue l'efficacité du comportement adopté. Si ce comportement a été inefficace, la personne doit à nouveau envisager des solutions possibles, leurs coûts et bénéfices. Si, face à un symptôme, elle tente plusieurs actions pour y remédier mais qu'elles s'avèrent inefficaces, elle envisagera une autre solution. Si une personne consulte en dernier recours, cela peut signifier que tout ce qu'elle a entrepris avant n'a pas eu le résultat escompté. Ce modèle permet de comprendre comment une personne décide d'entrer en consultation, par extension, on peut donc aussi comprendre les facteurs en jeu dans la non consultation : fausses croyances, peurs, mésinterprétation d'une situation. Cependant, un tel modèle ne permet pas d'estimer le poids des facteurs explicatifs de l'entrée en consultation. Certains modèles ont cherché à favoriser l'entrée en consultation en faisant référence à un modèle d'aide au changement. Il s'agit, dans cette perspective, de vérifier si des tâches préalables et conceptuellement fondées (souvent, de simples consignes) agissent sur l'attitude face à la consultation ou l'intention de consulter. Adoptant une perspective psychosociale, Guillon, Dosnon, Esteve et Gosling (2004) utilisent la théorie de l'engagement (Joule & Beauvois, 1998) et celle du sentiment d'efficacité personnelle (Bandura, 1986) pour évaluer quels facteurs influencent les lycéens dans les démarches pouvant les aider dans leur orientation. La tâche consiste à proposer une séance d'information au cours de laquelle les auteurs font varier la liberté de participation et la publicité de l'acte, conformément à la théorie de l'engagement. Les participants placés dans une situation d'engagement librement consentie présentent plus de démarches post-séances (rencontres avec des COP, visites d'établissements) que ceux qui sont placés dans une condition d'information obligatoire. Par ailleurs, un modèle médiationnel est mis en évidence, la situation d'engagement librement consentie augmentant le sentiment d'efficacité personnelle qui impacte ensuite les conduites de recherche d'information. Utilisant un paradigme différent, Fouad et al. (2007) montrent aux participants des vidéos d'entretiens de conseil en orientation en faisant précéder par une consigne d'induction de rôle qui présente les objectifs de l'intervention : – (1) s'appuyant sur la mesure des caractéristiques individuelles, la recherche d'informations et la prise de décision; – (2) insistant sur l'alliance de travail avec le conseiller, la satisfaction globale dans la vie, et le fait de maintenir un bon état de santé mentale; – (3) sans consigne particulière. Les résultats montrent que l'évaluation du conseil en orientation et les craintes que celui -ci génère dépendent du sexe des répondants et de l'induction de rôle. Notamment, les hommes jugent plus favorablement les activités de conseil en orientation lorsque celles -ci sont présentées d'une façon plus analytique et centrées sur la carrière (condition 1). En résumé, les tâches préalables ou les consignes données aux participants influencent les intentions de consultation et potentiellement, les actes de consultation. Ces consignes sont d'autant plus efficaces lorsqu'elles reposent sur une théorie explicite de l'influence sociale ou lorsqu'elles ont du sens par rapport aux valeurs ou aux attentes du groupe social concerné. Les modèles explicatifs sont les plus nombreux dans les recherches empiriques antérieures. Ces modèles mettent surtout l'accent sur les déterminants individuels susceptibles, lorsqu'ils sont combinés, de rendre compte des intentions et/ou de l'engagement en consultation. Ils reposent sur un cadre théorique ou sur une exploration des variables entrant en jeu (souvent à partir d'analyses de régression multiple) ou encore sur des approches confirmatoires basées sur des modèles structuraux. Le modèle de l'action planifiée (Ajzen, 1991) fournit un exemple de construction théorique dans ce sens. Il s'appuie sur l'idée que les comportements sont précédés par une intention comportementale, elle -même influencée par 3 variables : l'attitude, qui repose sur la croyance envers des conséquences du comportement et l'évaluation de l'importance de ces conséquences; les normes subjectives, qui renvoient aux croyances envers les opinions des personnes référentes et la motivation à se conformer; enfin, le contrôle comportemental traite des facteurs de contrôle interne et externe, ainsi que la puissance de ces facteurs. Le modèle de l'action planifiée a été appliqué à de nombreux contextes comportementaux, dans le domaine de la santé principalement. La méta-analyse d'Armitage et Conner (2001) montre un lien important entre les 3 variables et l'intention comportementale (r = .63; avec une corrélation de .49 pour l'attitude, .43 pour le contrôle comportemental et .34 pour les normes subjectives) et un lien plus modéré entre l'intention et le comportement (r = .47). Le modèle a également été appliqué avec succès pour comprendre les demandes d'aide exprimées par les hommes (Smith, Tran & Thompson, 2008). Ainsi, les effets d'idéologie masculine traditionnelle sur l'intention de consultation sont médiatisés par l'attitude envers l'aide psychologique. Une perspective exploratoire peut constituer à évaluer l'impact d'un ensemble de variables pour rendre compte des intentions et des conduites. Pour cela, les prédicteurs jugés comme potentiellement pertinents peuvent être intégrés dans des analyses de régression multiple. Cette démarche empirique à l'aveugle ne peut être acceptable que lors d'une phase préliminaire de la recherche. Aller au-delà suppose de mener une réflexion sur un modèle structural. Les modèles structuraux permettent d'appréhender la complexité d'un système en traitant les données en termes de pistes causales et rendre compte de manière plus complète des données observées. L'un de leurs points forts est de pouvoir étudier le lien entre un ensemble de variables, qu'il soit unidirectionnel ou bidirectionnel. Cette méthodologie permet aussi de tester, non plus des hypothèses isolées, mais de modéliser le fonctionnement d'un système tout entier (Klem, 2002). En ce sens, elle se prête bien à un schéma explicatif de l'entrée en consultation, à condition que les données ne soient pas traitées en bloc et sans analyse des fondements théoriques. Cramer (1999) l'illustre en étudiant le rôle de quatre facteurs (le niveau de souffrance, l'attitude vis-à-vis du conseil psychologique, le soutien social et enfin la dissimulance, qui est une prédisposition à dissimuler activement aux autres des informations personnelles perçues comme douloureuses ou négatives) dans la prise de décision de consulter chez des étudiants. Pour cela, les auteurs construisent et évaluent un modèle révélant les liens entre ces 4 facteurs et le critère (entrée en consultation). Les 6 hypothèses qui entrent dans le modèle sont : – (1) les individus qui ont tendance à être dissimulants ont tendance à percevoir peu ou pas de soutien social; – (2) l'importance des difficultés psychologiques sera plus élevée pour les personnes ayant peu de soutien social; – (3) les difficultés psychologiques seront plus importantes chez les personnes qui ont tendance à les dissimuler aux autres; – (4) les personnes dissimulantes sont plus susceptibles d' être sceptiques vis-à-vis du conseil, de ses méthodes et de ses effets et donc ont davantage tendance à avoir une attitude négative envers le conseil; – (5) les individus sont plus susceptibles de consulter un conseiller si leurs problèmes psychologiques sont suffisamment importants; – (6) les individus ont plus tendance à consulter s'ils ont une attitude positive vis-à-vis du conseil psychologique ou s'ils pensent que le conseil est efficace et utile. Après avoir confronté ce modèle à d'autres, les auteurs en déduisent qu'il est celui qui s'ajuste le mieux aux données, bien que dans un échantillon une variante puisse être envisagée (la dissimulance prédisant directement l'intention de consultation). Ce modèle permet donc de comprendre les liens entre les différents prédicteurs mais aussi l'importance qu'ils ont dans la prise de décision de consulter un professionnel de la relation d'aide. Les intentions de consulter sont donc influencées par l'attitude envers le conseil et le mal-être psychologique, eux -mêmes influencés par le soutien social et la dissimulance. Ce modèle a ensuite été répliqué avec succès (Leech, 2007). Proposant une orientation différente, Vogel et Wei (2005) se sont intéressés au lien entre l'intention de se faire aider par un professionnel et le type d'attachement des sujets en considérant le soutien social perçu comme médiateur. Ils posent l'hypothèse qu'avoir un attachement du type anxieux (prédisposant l'individu à considérer les autres comme peu fiables ou indifférents) amène à percevoir moins de soutien social de la part de son entourage, ce qui entraîne en général des souffrances psychologiques, un mal-être qui peut s'additionner aux souffrances existantes. La souffrance psychologique et le soutien social perçu joueraient donc un rôle médiateur entre le type d'attachement et les intentions de consulter. Les résultats obtenus par cette recherche sont présentés sur le schéma ci-dessous. N = 355. * p < .05. ** p < .01. *** p < .001 N = 355. * p < .05. ** p < .01. *** p < .001 Les données confirment que le soutien social perçu et la souffrance psychologique jouent un rôle de médiateur entre l'attachement et l'intention de se faire aider. Le soutien social étant corrélé négativement avec la souffrance psychologique, les personnes percevant peu de soutien ont tendance à souffrir davantage psychologiquement. Cette souffrance est corrélée positivement aux intentions de chercher l'aide d'un professionnel. On constate par cette recherche que l'intention de consulter dépend en partie des souffrances psychologiques rencontrées et du soutien social, mais il ne faut pas négliger le lien qui existe entre le type d'attachement et les intentions de consulter. Cette modélisation permet de comprendre les liens entre les différents prédicteurs et le critère et le poids de ces interactions. Pour leur part, Vogel, Wester, Wei et Boysen (2005) ont employé un modèle pour prédire les intentions de consultation dans le domaine interpersonnel, académique et addictif et ont montré que les prédicteurs étaient différents selon les objectifs de la consultation : alors que pour les causes interpersonnelles et addictives plusieurs variables conatives ont un effet médiatisé par l'attitude face à la relation d'aide, l'intention de consultation pour des raisons académiques est influencée seulement par la crainte de l'intervention. * p < 0.05, *** p < 0.01 * p < 0.05, *** p < 0.01 En résumé, le recours à un modèle structural pourrait s'avérer, dans le futur, d'un intérêt heuristique pour comprendre ce qui mobilise les personnes dans leur démarche de consultation. Les différentes recherches présentées mettent en évidence des facteurs psychologiques et contextuels qui interviennent à la fois sur l'intention et sur l'acte de consultation et offrent des perspectives nouvelles pour comprendre les réticences à s'engager dans ce type de démarche. Nous avons cherché, dans cet article, à analyser les déterminants de l'entrée en consultation d'orientation professionnelle. Après avoir rappelé les enjeux de l'orientation et de l'accès aux services, nous avons exposé différents modèles susceptibles de rendre compte de la façon dont les acteurs pouvaient se mobiliser envers une demande de consultation. L'optique choisie a été de se focaliser sur un modèle multidimensionnel et sur des cadres théoriques variés dont nous avons étudié les principales composantes qui entrent en ligne de compte. Si la question du besoin d'aide a relativement été bien traitée dans la littérature scientifique, la demande de conseil en orientation professionnelle est encore relativement peu documentée et mérite le développement d'une réflexion et de recherches sur la base de quatre points : – (1) Une priorité devrait être accordée à l'élaboration d'un modèle explicatif, impliquant un certain nombre de variables qui ont été identifiées dans cette revue afin de prédire les intentions de consultation. Une telle démarche suppose plusieurs opérations de recherche en différenciant les publics et en analysant d'abord les variables les plus pertinentes, puis en proposant un modèle d'agencement dans le cadre d'une approche en pistes causales. Il paraît nécessaire, après des phases de recherche exploratoire, de prendre en compte l'attitude face au conseil en orientation comme variable médiatrice et les variables exposées précédemment comme prédicteurs : accessibilité perçue des centres d'orientation, soutien social, confrontation à une transition, rapport au travail et à la carrière, facteurs de personnalité et d'identité. S'il est nécessaire de proposer un tel modèle, celui -ci ne peut être universel et doit au moins différencier les publics en activité professionnelle de ceux qui sont engagés en formation. Une telle analyse suppose des approches méthodologiques spécifiques comme l'analyse multiniveaux (Snijders & Bosker, 1999). – (2) Une deuxième orientation de recherche consiste à étudier, d'un point de vue développemental, comment se forge la conviction qu'il est nécessaire de consulter, comment la personne étudie différentes alternatives, et quels sont les facteurs de contextes qui interagissent avec la prise de décision de consultation. Actuellement, les recherches qui ont été menées apparaissent segmentées et renvoient à des cadres théoriques différents et à des dimensions conceptuelles diversifiées. L'unification théorique des recherches paraît donc une nécessité. Une orientation à la fois cognitive et écologique permettrait de mieux comprendre comment s'organisent les différentes étapes de la prise de décision et comment la personne régule les informations, les normes et les opportunités. Il est probable que la recherche de consultation soit initiée par le contexte immédiat, et en particulier, une transition subie ou choisie, actuelle ou anticipée. Cette situation de rupture pressentie incite à trouver des options de régulation du problème dont la consultation peut être perçue comme une stratégie de remédiation. L'environnement immédiat, familial en particulier, est susceptible de jouer un rôle dans la mobilisation face au contexte. Pour que se pose alors l'éventualité de recherche d'une institution ou d'un professionnel, la personne tient compte de deux paramètres internes : son niveau d'indécision pour faire face au choix de carrière qui se pose et son attitude face à la valeur du conseil en orientation. En cas d'indécision significative et de valeur accordée suffisante, une intention comportementale est déclenchée et est favorisée ou limitée par des caractéristiques identitaires ou personnelles, ainsi que par des éléments du contexte. L'exploration de solutions consiste à confronter le réel au possible et à y intégrer des paramètres de faisabilité (coût notamment), de notoriété de l'institution ou encore d'évaluation subjective du professionnel suite à un premier contact. Le modèle d'accompagnement proposé est évalué eu égard aux attentes et aux caractéristiques conatives du répondant. La prise de décision initiale d'entrée en consultation est confrontée au réel et subit des ajustements qui dépendent de l'évolution de la situation personnelle, de contraintes matérielles inattendues et de facteurs affectifs inhibiteurs. Le premier contact, surtout s'il est librement choisi et fait l'objet de publicité, s'avère être un facteur qui consolide l'entrée en consultation. – (3) Un troisième axe à développer concerne la modélisation de la variable dépendante qui est l'intention de consulter. En effet, plusieurs options méthodologiques sont en concurrence : l'emploi d'un item unique, qui présente l'intérêt d' être une mesure bien ciblée mais qui manque de stabilité et de fidélité; l'emploi d'une échelle comportant des niveaux d'intention (effective, ressentie et conditionnelle), qui a fait ses preuves dans plusieurs recherches, mais qui pourrait confondre attitude face au conseil et intention de consultation; enfin, une forme reposant sur les motifs qui amèneraient à consulter, basée sur différentes facettes, pourrait avoir une certaine valeur heuristique. En l'état, la littérature scientifique est encore peu avancée sur l'intérêt de ces distinctions (Di Fabio & Bernaud, 2008). – (4) Enfin, il reste à élaborer des modèles d'intervention pour optimiser l'adéquation entre la demande et l'offre de service – autrement dit réduire les consultation inutiles et favoriser l'entrée en consultation des personnes qui en ont réellement besoin. Les recherches expérimentales d'aide au changement (Guillon et al., 2004; Fouad et al., 2007) ont montré que des approches psychopédagogiques étaient possibles et manifestaient un effet réel. Pour le premier niveau, une analyse de la demande basée sur des caractéristiques vocationnelles devrait permettre un filtrage pertinent des consultants; la seconde option, qui consiste à inciter les bénéficiaires réticents et qui en manifestent le besoin à entrer en consultation, paraît plus délicate à opérationnaliser. Elle nécessiterait de tester des programmes pédagogiques ayant travaillé sur les obstacles perçus des bénéficiaires et sur des modèles de changement des représentations (Ringer Lepre, 2007; Vogel, Wade & Hackler, 2007; Vogel & Wester, 2003). Les difficultés liées à ces recherches ne doivent pas être minimisées. Tout d'abord, la difficulté à généraliser et à élaborer un modèle unique de l'entrée en consultation se justifie par le fait que des contextes variés s'expriment. Les personnes vivent dans des environnements culturels spécifiques, qui ne prennent pas les mêmes contours d'une région à l'autre et a fortiori d'une culture à l'autre, par conséquent des effets différents ont été observés (ÆgisdóTtir & Gerstein, 2004). La notion de consultation ne prend pas la même signification selon qu'il s'agit d'une démarche de recherche d'information, de conseil ou d'engagement thérapeutique. À ce titre, les recherches ont surtout été développées dans le cadre du conseil personnel et de la psychothérapie, ce qui ne constitue pas nécessairement des résultats transférables au conseil en orientation. La multitude des variables contextuelles impliquées (qui s'expriment au niveau de la famille, de l'école, du travail, etc.) implique, dans les protocoles futurs de recherche, de bien délimiter leur rôle et leurs interactions avec des variables individuelles. Cette analyse a été peu accomplie dans les travaux antérieurs de recherche. En ce sens, une approche visant une bonne validité écologique devra s'atteler à développer un ensemble de modèles plutôt qu'un cadre unique, et à analyser les interactions personnes-situations plutôt que la simple juxtaposition des déterminants . | Comment expliquer le fait que certaines personnes sollicitent des consultations d'orientation professionnelle alors que d'autres ne s'y engagent pas ? À partir d'une analyse de la littérature, sont examinés les freins et facteurs facilitateurs de l'entrée en consultation d'orientation. L'accent est mis sur l'analyse des variables identitaires, vocationnelles, contextuelles et psychosociales jouant potentiellement un rôle, puis différents cadres théoriques sont exposés pour en rendre compte: l'exploration de carrière, la prise de décision cognitive, la théorie de l'engagement et les modèles explicatifs. La conclusion décrit les enjeux professionnels et scientifiques des travaux sur les déterminants de l'entrée en consultation d'orientation. | psychologie_11-0379291_tei_928.xml |
termith-733-psychologie | Cet article présente, dans une perspective théorique et pratique, l ' Inventaire des préoccupations de carrière (Dupont, Gingras & Tétreau, 1993; Super, Thompson & Lindeman, 1988), un outil psychométrique mesurant les préoccupations de carrière relatives aux stades et tâches de développement de carrière proposés par la théorie de Super (1980, 1990). Cette théorie du développement de carrière a, au cours de la seconde moitié du XX e siècle, provoqué un tournant majeur dans l'évolution des pratiques en orientation professionnelle (Marceau & Tremblay, 1995). En effet, les principales théories du domaine de la psychologie vocationnelle s'inscrivaient, depuis l'origine (e.g. Parsons, 1909), dans ce que l'on appelle aujourd'hui l'approche d'appariement (matching model), selon laquelle les caractéristiques relativement fixes de la personne, en particulier ses profils de personnalité, d'intérêts et d'aptitudes, la « prédestinent » à un type de profession spécifique (Super, 1983). La plus marquante de ces théories est certes celle de l'américain John Holland (1973). Bien sûr, en regard des résultats des nombreuses études empiriques s'inscrivant dans l'approche d'appariement, nul ne peut nier que les caractéristiques individuelles fondamentales que sont la personnalité, les intérêts professionnels et les aptitudes permettent de prédire, du moins partiellement, des variables clés telles la satisfaction, le maintien et la performance au travail (Devinat, 1999; Judge, Heller & Mount, 2002; Ones, Viswesvaran & Dilchert, 2005; Salgado, Anderson, Moscoso, Bertua, De Fruyt & Rolland, 2003). Par contre, nombre de chercheurs et de praticiens soutiennent que les théories strictement dispositionnelles ne peuvent rendre compte de toute la complexité du choix vocationnel et ne peuvent non plus considérer l'ensemble des éléments qui contribuent à expliquer la satisfaction en emploi et les autres indicateurs semblables (e.g. Fouad & Kantamnemi, 2008; Gottfredson, 1996; Pryor & Bright, 2003; Super, 1983). De son côté, Super a toujours reconnu l'importance des différences individuelles en orientation professionnelle (Guichard & Huteau, 2006). Celui -ci n'a d'ailleurs jamais eu pour objectif de proposer une théorie qui remplacerait l'approche d'appariement, mais il voulait plutôt l'enrichir en y ajoutant de nouvelles perspectives qui permettraient de bonifier l'intervention en counseling de carrière (Savickas, 1997). En ce sens, les principales contributions de Super sont d'avoir investi les dimensions développementale, adaptative, contextuelle et du concept de soi du développement de carrière, mettant ainsi en lumière l'importance des changements dynamiques chez l'individu en relation avec son environnement (Bujold & Gingras, 2000; Guichard & Huteau, 2006; Savickas, 1997). Il serait prétentieux – et surtout impossible – de vouloir résumer en quelques pages une théorie aussi vaste que celle de Super, d'autant plus que de l'aveu même de ce dernier, il s'agit plutôt de plusieurs théories interreliées que d'une seule théorie intégrative du développement de carrière (Super, 1990). Ainsi, dans le cadre de cet article nous nous limiterons à présenter succinctement son concept d'adaptabilité à la carrière, auquel se rattache l ' Inventaire des préoccupations de carrière. Le lecteur intéressé est invité à consulter la dernière publication de Super (Super, Savickas & Super, 1996), posthume, dans laquelle l'essentiel de son corpus théorique est résumé en quatorze propositions 1. Pour Super, la carrière doit être envisagée dans une perspective développementale qui trouve son origine dès l'enfance et se poursuit tout au long de la vie (Super, 1990). Ainsi il propose que le développement vocationnel se fasse suivant cinq grands stades (Super, 1980). Chacun de ces stades représente un objectif différent, d'après lequel il est nommé, soit la croissance, l ' exploration, l ' établissement, le maintien et le désengagement. Mis à part le premier, chaque stade est composé de trois tâches développementales auxquelles l'individu fait face lors de celui -ci, tâches imposées par les impératifs individuels et sociaux, qui sont vécues par les personnes comme des préoccupations de carrière (Savickas, 2002). La capacité à faire des choix professionnels appropriés en regard de son âge, représentée par le fait de s'acquitter progressivement des tâches de développement de carrière et ainsi à en franchir les stades, est essentiellement ce à quoi se réfère le concept de maturité vocationnelle (Savickas, 1984). Cependant, alors que Super avait originellement développé sa théorie principalement pour les adolescents, il en est venu à constater que chez les adultes, le processus développemental serait davantage de l'ordre de l'adaptation que de la maturation (Super & Knasel, 1981), ce qui l'a amené à proposer le concept d ' adaptabilité à la carrière. Pour lui, l'adaptabilité représente la capacité d'une personne à changer sans grande difficulté en fonction des situations nouvelles ou changeantes. Conséquemment, l'adaptabilité à la carrière se définit comme la capacité à s'adapter aux tâches prévisibles de préparation et de participation à un rôle professionnel, ainsi qu'aux ajustements imprévisibles qui seront engendrés par des changements relatifs au travail. Cette définition inclut donc celle de la maturité vocationnelle et en ce sens, le concept d'adaptabilité à la carrière est vu comme incluant celui de maturité vocationnelle et s'applique autant aux adolescents qu'aux adultes (Savickas, 1997). L'adaptabilité à la carrière, concept issu de celui de maturité vocationnelle, s'exprime selon les mêmes stades, mais s'en démarque en étant leur pendant contextuel plutôt que développemental. Dans cette perspective, l'adaptabilité à la carrière se manifeste (et donc s'évalue) selon les tâches développementales dont la personne s'acquitte ou se préoccupe à un point donné de sa carrière (Bujold & Gingras, 2000). Les stades et tâches du développement de carrière sont introduits au tableau 1, dans lequel figurent également des exemples d'items tirés de l ' Inventaire des préoccupations de carrière (note : la version complète de l'inventaire se trouve en annexe). Pour Super, la carrière d'une personne est la suite des rôles qu'elle exerce au cours de sa vie. Ainsi, la carrière, loin de se résumer à l'emploi d'une personne, inclut aussi ses autres rôles de vie importants tels ceux de parent, d'époux ou d'épouse, etc. Chacun de ces rôles suit les mêmes stades de développement tout au cours de la vie de la personne, donnant lieu à des cycles de vie, ou maxicycles. Il faut également garder à l'esprit que les stades et tâches développementaux ne sont pas étanches les uns par rapport aux autres et peuvent ainsi se chevaucher (Bujold & Gingras, 2000). Note. *Ce stade n'est pas évalué par l'IPC. Du point de vue de l'orientation professionnelle et en regard de l ' Inventaire des préoccupations de carrière qui fait l'objet du présent article, c'est le concept de minicycle qui s'avère particulièrement important. Contrairement à ce qui pourrait être perçu par l'étude des stades de développement de carrière, ce développement n'est dans bien des cas pas linéaire. En effet, il semble que, de nos jours, l'instabilité dans la carrière serait la norme plutôt que l'exception (Dubar, 2000). Des minicycles marqueraient alors l'expérience vécue lors des moments où la carrière d'une personne est affectée par des événements perturbateurs qui peuvent être d'ordre personnel, professionnel ou social (ex. : divorce, perte d'emploi) (Super et al., 1996). Lors d'une telle période de « recyclage », due par exemple à une perte d'emploi, une personne pourrait passer successivement par des phases de désengagement, d'exploration et d'établissement (Smart et Peterson, 1997). Ainsi, un minicycle est le processus par lequel une personne repasse par des stades « antérieurs » pendant une période de transition, d'instabilité ou de remise en question et ce, de façon accélérée en comparaison au processus global du maxicycle (Bujold & Gingras, 2000). On comprend également que, par exemple, une tâche reliée au désengagement ne prendra pas la même forme si elle est vécue à l'intérieur d'un minicycle par un trentenaire en perte d'emploi que si elle arrive chez un sexagénaire à l'aube de la retraite. C'est justement dans des moments d'instabilité que les personnes ont souvent recours à un conseiller d'orientation, dont le rôle est notamment de les guider à travers un minicycle, leur permettant de se réajuster au cours de cette période de « recyclage ». Ainsi, le concept d'adaptabilité à la carrière est à notre avis l'un des éléments les plus actuels de la théorie de Super. En effet, l'adaptabilité à la carrière, en tant que théorie de l'adaptation en période de transition professionnelle, est hautement pertinente dans le contexte du marché chaotique de l'emploi auquel nous faisons face actuellement, qui engendre un nombre accru de périodes d'instabilité pour les travailleurs et donc de situations où leur adaptabilité est grandement sollicitée. Dans cette perspective, il est fort intéressant pour les conseillers d'orientation de disposer d'un outil psychométrique permettant de mesurer les préoccupations face aux stades et tâches du développement de carrière. Une telle mesure se démarque des mesures traditionnelles des différences individuelles telles la personnalité, les intérêts et les aptitudes, en s'intéressant à l'aspect contextuel et dynamique de la carrière de la personne. Originellement développé en anglais (Adult Career Concerns Inventory; Super et al., 1988), l ' Inventaire des préoccupations de carrière (IPC; Dupont et al., 1993) a été adapté en langue française pour le Québec (Gingras, Tétreau & Dupont, 1994). Cette adaptation a également été mise à l'épreuve et jugée adéquate pour la population française (Gelpe, 1996). Par ailleurs, l'IPC est en cours d'adaptation en portugais pour le Brésil (Balbinotti, communication personnelle). Notons aussi que la version anglophone peut être administrée gratuitement sur Internet (Glavin, 2009). Enfin, une version brève réduite à 12 items a été développée récemment, mais n'est disponible qu'en langue anglaise (Perrone, Gordon, Fitch & Civiletto, 2003). L'IPC vise à mesurer le concept d'adaptabilité à la carrière. Sur le plan opérationnel, l'IPC mesure le degré de préoccupation que la personne manifeste face aux quatre stades du développement de carrière (le stade de croissance n'est pas mesuré puisqu'il ne s'applique qu'aux enfants et ne ferait pas partie des minicycles en cours de carrière) et aux douze tâches qui leur sont rattachées (Gingras, Durocher & Tétreau, 1995). Il ne mesure donc pas si les tâches ont été effectuées, mais bien les préoccupations face à celles -ci (Gingras et al., 1994). Cette mesure du degré de préoccupation face aux stades et tâches du développement de carrière est par la même occasion indicative de l'aptitude à planifier de la personne, en particulier la perspective temporelle qu'elle adopte face à sa carrière, par la réflexion sur ses expériences passées et sur son anticipation de ce qui est à venir (Whiston, 1990). L'IPC est composé de quatre échelles de 15 items chacune mesurant le degré de préoccupation face aux quatre stades du développement de carrière. Chacune de ces échelles est composée de trois sous-échelles de cinq items mesurant le degré de préoccupation face aux 12 tâches associées aux quatre stades. Ces 60 items sont précédés d'une question générale (« Est -ce que cela vous préoccupe actuellement ? ») qui invite le répondant à indiquer son degré de préoccupation face à ce qui est exprimé à chacun des items, à l'aide d'une échelle Likert à 5 niveaux allant de « pas du tout » à « très fortement ». Ces items sont formulés sous forme d'énoncés représentant des attitudes et comportements relatifs aux tâches concernées (par exemple, pour le stade d'établissement et la tâche d'avancement : « Améliorer mes chances d'avancement dans mon occupation actuelle »). Ils sont présentés suivant la chronologie des stades et des tâches, de telle sorte que les cinq premiers items du questionnaire mesurent la cristallisation d'une préférence professionnelle, les cinq suivants mesurent la spécification des préférences professionnelles, et ainsi de suite. Enfin, un soixante-et-unième item qui n'est pas relié à un stade de développement de carrière porte sur l'intention du sujet d'effectuer un possible changement d'orientation dans sa carrière. L'IPC peut être administré à toute personne âgée d'au moins 15 ans ayant un niveau de lecture suffisant, soit le niveau normalement attendu au premier cycle du secondaire au Québec et au collège en France. Quinze à 30 minutes sont requises pour le compléter. La correction, très simple, se fait manuellement. Il suffit d'additionner les réponses aux items de chaque échelle et sous-échelle. La feuille de profil, qui fait aussi office de grille de cotation des résultats et présente les instructions à cet effet, se trouve en annexe. L'interprétation des résultats de l'IPC peut se faire de manière normative, c'est-à-dire en comparant les résultats obtenus par la personne évaluée à la norme de son sexe et de son groupe d' âge afin d'identifier à quel point elle est préoccupée par les différentes tâches relatives aux stades du développement de carrière. Une interprétation ipsative est par ailleurs possible en comparant entre eux les résultats de la personne aux différentes échelles. À cet effet, la feuille de profil permet une représentation visuelle des scores de la personne. Une interprétation ipsative est également possible en comparant les résultats d'une personne à deux passations subséquentes pour évaluer la progression 2 au cours ou suite à un processus de counseling de carrière. D'abord, notons que la traduction canadienne-française a été faite selon une méthodologie systématique des plus rigoureuses (i.e. suivant Vallerand, 1989). La méthode de traduction inversée (parfois nommée traduction à rebours) a d'abord été appliquée, puis le résultat a ensuite été validé par la méthode du comité d'experts, auquel a notamment participé Donald Super lui -même (Gingras et al., 1994). Suite à un pré-test sur un échantillon plus restreint, les propriétés psychométriques de la version française ont été étudiées dans un échantillon de 1 554 hommes et femmes de la région de l'Estrie au Québec (Gingras et al., 1994) ainsi que dans un échantillon de 1414 hommes et femmes provenant des 22 régions du territoire français (Gelpe, 1996). Les analyses rapportées montrent que la fidélité de l'IPC est excellente. Dans l'échantillon québécois, les coefficients alpha de Cronbach sont d'au moins 0,93 pour chacune des quatre échelles (stades) et varient entre 0,85 et 0,94 pour les sous-échelles (tâches), à l'exception de celle qui porte sur le ralentissement qui affiche un coefficient de 0,77. Dans l'échantillon français, les coefficients alpha de Cronbach sont égaux ou supérieurs à 0,91 pour chacune des quatre échelles et varient entre 0,81 et 0,92 pour les sous-échelles, à l'exception là aussi de la sous-échelle ralentissement pour laquelle un coefficient de 0,72 a été obtenu. Mis à part le cas de cette dernière sous-échelle, les coefficients de fidélité rapportés sont remarquables, en particulier vu le petit nombre d'items (n = 5) qui composent les sous-échelles. Des analyses factorielles ont permis de confirmer la structure en quatre facteurs de l'IPC (les quatre stades) ainsi que l'appartenance des items aux échelles, tant dans l'échantillon québécois (Gingras et al., 1994) que français (Gelpe, 1996). Toutefois, dans l'échantillon français, certains items se situant en début ou en fin de stade sont aussi fortement associés (saturation élevée) à l'échelle mesurant le stade précédant ou suivant. Cette dernière observation ne remet pas en cause, à notre avis, la validité théorique (parfois nommée validité conceptuelle) de l'IPC, mais témoigne plutôt d'une continuité fluide entre les stades de développement de carrière, ce qui est en accord avec la théorie (les stades et tâches ne sont pas étanches). La validité théorique de l'instrument est également supportée par le fait que les scores moyens aux échelles varient en fonction de l' âge, tant chez les québécois que chez les français. Il est en effet cohérent théoriquement que, de manière générale, plus les gens avancent en âge, moins ils sont préoccupés par les tâches relatives à l'exploration et plus ils sont préoccupés par les tâches relatives au désengagement. Enfin, la validité en référence à un critère externe (concomitante) est supportée par le fait que, dans l'échantillon français, les chômeurs montrent un niveau de préoccupation plus élevé que les gens en emploi à chacune des quatre échelles de l'IPC, la différence la plus marquée se situant sur l'échelle exploration. À notre avis, l'Inventaire des préoccupations de carrière peut s'avérer très utile en counseling de carrière, tant comme outil d'évaluation initiale que comme outil d'accompagnement en cours de processus. Il n'est pas rare qu'une personne décide de consulter un conseiller d'orientation quand elle éprouve des difficultés ou des insatisfactions sur le plan professionnel et qu'elle n'est pas en mesure d'en identifier les causes ou les facteurs sous-jacents (Whiston, 1990). À cet égard, l'IPC peut s'avérer un excellent outil d'évaluation initiale afin de cibler les préoccupations de carrière de la personne (Super, Osborne, Walsh, Brown & Niles, 1992). Une telle évaluation peut permettre d'une part de guider la suite de l'évaluation (Super et al., 1992; Whiston, 1990) et d'autre part, d'adapter l'intervention de counseling aux préoccupations de la personne (Niles, Anderson, Hartung & Staton, 1999). Il va de soi que les préoccupations de carrière les plus saillantes d'un client sont utiles pour guider la suite d'une évaluation. Par exemple, une personne se révélant préoccupée par des tâches d'exploration sera fort probablement bien servie par l'utilisation d'un inventaire d'intérêts professionnels. En effet, à une étape où la personne recherche des informations sur elle -même et sur le monde du travail afin d'y trouver une place qui lui convient, un inventaire d'intérêts professionnels contribuera alors à l'exploration de possibilités professionnelles et à la spécification de ses intérêts. En contrepartie, chez une personne étant principalement préoccupée par des tâches du stade d'établissement (ex. : faire ses preuves dans son domaine de travail), un inventaire d'intérêts professionnels serait alors de peu d'utilité. Sachant que les difficultés rencontrées à cette étape sont souvent relatives à une faible congruence entre les caractéristiques de la personne et l'emploi qu'elle occupe (Super et al., 1996), l'évaluation de ses valeurs, de sa personnalité ou de ses aptitudes sera probablement plus appropriée. Cette personne pourrait rencontrer des difficultés à progresser dans son domaine d'activités sur le plan du rendement ou encore des relations avec ses collègues (tâche d'avancement) en raison d'une faible congruence entre ses valeurs et celles qui sont prônées dans son milieu de travail et par ses collègues, ce que pourrait permettre de cibler un inventaire de valeurs. Notons également que l'évaluation des préoccupations de carrière peut aider à interpréter et restituer de manière personnalisée les résultats obtenus à d'autres tests. Par exemple, les résultats d'un inventaire d'intérêts ne seront pas restitués de la même façon selon les tâches par lesquelles la personne est le plus préoccupée. Dans certains cas, la restitution aura avantage à être centrée sur ce que les résultats offrent en termes d'ouverture à de nouvelles possibilités professionnelles, alors que dans d'autres cas l'accent aura avantage à être mis sur ce que l'inventaire apporte comme éléments de spécification d'une préférence professionnelle, et dans d'autres cas encore les résultats seront mieux mis à profit pour vérifier l'adéquation entre les intérêts de la personne et la profession dans laquelle elle tente de s'établir. Cibler les préoccupations prioritaires d'un client face à sa carrière permet également d'adapter l'approche de counseling à celles -ci (Niles et al., 1999). Il est évident que, par exemple, une personne préoccupée par des tâches de maintien n'a pas les mêmes besoins d'accompagnement qu'une personne préoccupée par des tâches relatives au désengagement. De plus, l'une des forces de l'IPC est sa spécificité; ses sous-échelles permettent d'identifier les préoccupations non seulement au niveau des stades, mais aussi de façon différenciée au niveau de chacune des tâches qui les composent. De fait, un jeune adulte en période d'exploration devrait se voir offrir un accompagnement différent selon qu'il est davantage préoccupé, par exemple, par la tâche de cristallisation ou par la tâche d'actualisation. Dans le premier cas, les préoccupations du jeune adulte sont centrées sur l'exploration de soi et du monde du travail alors que dans le second cas l'accompagnement à lui fournir doit être davantage axé vers le support à l'action et l'entrée concrète dans un emploi ou un programme de formation. En tant qu'outil d'évaluation de l'adaptabilité à la carrière, l'IPC permet aussi d'évaluer la disponibilité à faire un choix de carrière. Cela est possible au regard de l'élévation et de la différenciation du profil des préoccupations de la personne (voir Bernaud, 2007). Essentiellement, tant un profil particulièrement élevé que particulièrement faible, où la personne se révèle très fortement ou très faiblement préoccupée par trois ou quatre des quatre stades évalués, indique généralement une personne qui n'est pas disponible à faire un choix vocationnel. Il en va de même pour un profil indifférencié, où la personne apparaît également préoccupée par les différents stades et tâches. En contrepartie, un profil différencié, indiquant des préoccupations claires face à une ou à un petit nombre de tâches, suggère plutôt une personne qui est prête à faire un choix relatif à cette ou ces tâches. Par exemple, une personne spécifiquement préoccupée par la tâche d'innovation (stade de maintien) sera disponible à faire un choix professionnel qui lui permettra de se développer professionnellement à l'intérieur de son métier, choix qui pourra être de changer d'employeur, de tenter d'innover à l'intérieur de son poste actuel, d'aller chercher une formation supplémentaire, etc. L'IPC contribue donc à une évaluation spécifique des préoccupations d'une personne face à sa carrière qui permet à la fois d'orienter la suite de l'évaluation plus approfondie et d'identifier les besoins les plus saillants en matière de counseling et ce, de manière spécifique. L'Inventaire des préoccupations de carrière peut également se révéler un outil d'accompagnement fort utile au processus d'orientation professionnelle. Étant bref à administrer et à interpréter, il est peut être utilisé à plusieurs reprises au cours d'une telle démarche, ce qui permet de suivre les changements possibles dans les préoccupations de carrière d'un client et la progression de ce dernier à travers les étapes d'un minicycle (Dupont, 2001). En plus d'aider la personne à cerner objectivement ses préoccupations actuelles au sujet de sa carrière, cet outil s'avère aussi pertinent pour éduquer la personne sur les étapes d'un minicycle et permet par le fait même d'anticiper les tâches auxquelles elle fera face pendant la suite du processus (Dupont, 2001; Hood & Johnson, 2007). À cet effet, il a été démontré que l'utilisation de l'IPC en counseling de carrière augmente la capacité de planification de carrière d'une personne ainsi que son adaptabilité à la carrière (Savickas, 2002). Il est de notre avis que l ' Inventaire des préoccupations de carrière est un excellent outil d'évaluation, tant sur le plan conceptuel, que psychométrique et pratique. Il s'appuie sur une théorie bien articulée et qui a fait l'objet de validations empiriques et pratiques, il affiche des propriétés psychométriques très satisfaisantes tant pour une utilisation au Québec qu'en France, et il s'avère utile dans diverses facettes d'une intervention en counseling de carrière. Notons que les normes de la version francophone de cet outil sont également une force qui mérite d' être soulignée. Le conseiller d'orientation de langue française aura bien souvent été confronté au problème – particulièrement fréquent au Québec – de devoir interpréter les résultats d'un test à la lumière d'échantillons normatifs américains, car la majorité des outils psychométriques de langue française sont des traductions de versions originales états-uniennes. Or, dans le cas de l'IPC, nous disposons de normes populationnelles québécoises et françaises, établies dans les deux cas sur des échantillons d'environ un millier et demi de participants, ce qui est un élément important pour la validité de l'interprétation des résultats. L'IPC est à notre avis un outil que les professionnels de l'orientation et leurs clients expérimenteront certainement avec grand intérêt, particulièrement en cette période d'incertitude et de changement dans le monde du travail . | Cet article présente la version canadienne-française de l'Adult Career Concerns Inventory (Super, Thompson & Lindeman, 1988), soit l'Inventaire des préoccupations de carrière (IPC ; Dupont, Gingras & Tétreau, 1993), un instrument psychométrique qui mesure le degré de préoccupation relatif à chacun des stades et tâches du développement de carrière proposés dans la théorie de Super (1980, 1990). Après une brève présentation des fondements de l'IPC, ses caractéristiques et ses propriétés psychométriques sont présentées en détail, pour enfin discuter de ses diverses applications possibles en orientation professionnelle. | psychologie_11-0379304_tei_925.xml |
termith-734-psychologie | Le premier texte fondateur des Unités Pédagogiques d'Intégration (UPI) date de 1995 : il permet la mise en place de dispositifs de regroupements pédagogiques d'adolescents présentant un handicap mental. En 2001, les UPI se développent pour généraliser la scolarisation des élèves handicapés dans les établissements du second degré. La loi pour l'égalité des chances, la participation et la citoyenneté des personnes handicapées de février 2005 pose le principe de scolarisation de fait de l'enfant dans l'école de proximité. Apparaissent ainsi les notions d'école de référence et de scolarisation à la place du terme intégration. À partir de cette nouvelle base, les commissions au sein de l' Éducation nationale vont être réorganisées pour l'enseignement adapté qui devient une voie ordinaire. Collectivité départementale et Éducation nationale se partagent les missions : la Maison Départementale des Personnes Handicapées (MDPH) étudie en commission les dossiers établis par les Équipes de Suivi et de Scolarisation (ESS) dans les établissements scolaires. Animées par l'enseignant référent, les ESS intègrent l'ensemble des données d'observation et d'analyse réalisées par les acteurs en charge du suivi du jeune. Le passage de la notion d'intégration à la notion de scolarisation se concrétise dans une circulaire de 2010 en transformant les UPI en Unités Localisées pour l'Inclusion Scolaire (ULIS). En effet, il n'y a pas lieu d'intégrer l'élève en situation de handicap puisque, de fait, son appartenance à l'école est acquise. L'inclusion met l'accent sur la participation de l'élève à la vie sociale et éducative de l'établissement, et c'est au système de se structurer de manière à prendre en compte les besoins de chacun. Les ULIS renforcent l'idée d'une organisation pédagogique adaptée aux besoins spécifiques des élèves en situation de handicap; elles affirment l'appartenance du dispositif au réseau des lycées professionnels pour faciliter la construction et la mise en œuvre du parcours de formation et du projet professionnel du jeune. À ce titre le Conseiller d'Orientation Psychologue (COP) apporte sa contribution et son expertise spécifiques. L'augmentation du nombre d'implantations d'ULIS dans les établissements a été sans précédent ces dernières années. Cette croissance importante questionne l'implication professionnelle des COP : manière de prendre en charge ces élèves, à la fois pour tenir compte de la spécificité du public et répondre au mieux à la demande des équipes dans le cadre des ESS; intégration de cette prise en charge dans le programme d'activité du COP proposé à l'établissement, et dans la partie « information/orientation » du projet d'établissement. Ces aspects justifient la nécessité de réfléchir à la méthodologie de bilan adressée aux élèves scolarisés en ULIS; l'argument essentiel étant d'éviter aux élèves d'avoir à se soumettre à un bilan lourd et souvent inutile au regard des évaluations déjà réalisées dans le cadre de leur parcours. Adapter la méthodologie de bilan aux élèves d'ULIS, c'est aussi prendre en compte et respecter leur situation de handicap. Les professionnels de l'orientation ne peuvent se soustraire de cette prise en charge sous prétexte que d'autres professionnels occupent le terrain et que les élèves d'ULIS bénéficient généralement de suivi plus ou moins important. Il est vrai que, selon les situations, le jeune en situation de handicap est susceptible d' être accompagné par une diversité de professionnels : auxiliaire de vie scolaire, psychologues, éducateurs, personnel médical, etc. Le positionnement professionnel est alors à comprendre en matière de complémentarité pour un apport spécifique au regard de chaque situation : le COP n'intervient pas de manière systématique et répétitive, mais adapte sa pratique aux paramètres qui jalonnent le parcours du jeune prenant en compte le point de vue des professionnels référents du jeune, les conclusions et la spécificité des bilans précédents, la personnalité du jeune, la singularité de la situation de handicap du sujet, etc. Au sein du système éducatif, les équipes enseignantes et dirigeantes sollicitent de plus en plus le COP en tant qu'expert de l'évaluation, les enseignants recherchent auprès du COP un avis différent et/ou complémentaire à l'évaluation pédagogique pour mieux cerner le jeune, favoriser son inscription dans un suivi plus individualisé et proposer des pistes de remédiation adaptées (Voyazopoulos, 1999; Roux, 2003). Dans la mesure où cette position existe et est validée au sein des équipes éducatives, elle s'applique aussi aux élèves en situation de handicap. Le handicap n'exclut pas l'expertise du COP, mais la sollicite : l'élève d'ULIS, comme tout élève, est en droit de bénéficier des ressources professionnelles existantes dans les établissements ainsi que de l'ensemble des dispositifs structurant le système éducatif (accompagnement personnalisé, entretien d'orientation, parcours de découverte des métiers et des formations, etc.); la loi d'orientation de 2005 met l'accent sur la prise en charge des élèves à besoin spécifique et inscrit les professionnels de l' Éducation nationale dans cet accompagnement. Les élèves scolarisés en ULIS collège sont issus, pour la plupart, de Classes Locales d'Insertion Scolaire du primaire, ou d'Institut Médico-Éducatifs et ont tous bénéficié de bilans psychologiques. Le COP doit donc être en mesure de choisir l'outil adapté à la problématique du sujet dans une perspective éducative et/ ou pédagogique, et fonder son accompagnement sur l'analyse de l'ensemble du parcours de vie du jeune (Huteau & Lautrey, 1978). Il évitera ainsi une inutile répétition d'épreuves ou l'administration d'une batterie lourde et inadaptée; la méthodologie proposée dans le cadre de cet article s'adresse aux élèves sortants d'ULIS collège : ces élèves sont souvent scolarisés depuis quatre années successives dans l'établissement et arrivent au terme du cycle au collège. Un changement d'établissement ou de structure est à envisager, un regard est à porter sur l'ensemble de la progression au collège, un parcours de formation est à construire, l'insertion professionnelle est à préparer. La notion de bilan prend ici tout son sens : point sur les étapes successives du parcours et les compétences développées, temps d'arrêt pour conclure une scolarisation en collège et envisager une nouvelle perspective de formation et d'évolution (Arbisio, 1999). La généralisation des ULIS contribue donc à renforcer le rôle d'expertise du COP au sein des ESS et le sollicite en tant qu'acteur du diagnostic des besoins du jeune et de la définition des réponses possibles et originales à ces besoins. Les échelles de Wechsler sont constituées d'épreuves composites nous offrant l'opportunité d'un terrain d'observation clinique (Grégoire, 2005). Dans la relation de face à face qui s'établit avec le consultant, le psychologue est vigilant à tout ce qui compose de manière unique et singulière cette rencontre : réactions du jeune aux consignes données et face à la difficulté, modes de réponse privilégiés, stratégies de résolution observées dans les tâches proposées, sollicitations du jeune dans la construction de ses réponses (Bourges, 1984). Cette approche de l'évaluation dépasse le cadre strict de la seule expression des aptitudes pour une compréhension plus globale du fonctionnement psychique du sujet. Cette position clinique répond aussi au besoin d'accompagnement du jeune en adaptant « la distance à laquelle il (le psychologue) lui faut se tenir pour permettre à l'enfant de composer avec lui » (Jumel, 2010). Le Wechsler Non Verbal a été conçu pour permettre une évaluation d'aptitudes cognitives générales avec un contenu verbal a minima (ou minimum). Il se compose de quatre épreuves pour chacune des formes. Nous nous intéresserons, dans le cadre de cet article plus particulièrement à la forme 8-21 ans. Si l'outil se limite à quatre subtests, il préserve néanmoins le caractère multidimensionnel des échelles de Wechsler : situation papier-crayon, restitution d'informations séquencées à partir de manipulation d'images, analyse de situations visuo-spatiales, appel au raisonnement logique. L'outil est particulièrement adapté à des sujets de groupes culturellement et linguistiquement variés qui ne peuvent être évalués par des tests demandant des connaissances et une pratique du langage, à des cas particuliers de handicaps langagiers, auditifs ou expressifs, ou dont la capacité à comprendre les stimuli verbaux est limitée. Il permet une analyse des difficultés cognitives tout en réduisant l'influence des capacités verbales dans le diagnostic. Il est donc particulièrement adapté à certaines situations de handicap et aux sujets ne maîtrisant pas, ou mal, la langue française. Il s'avère particulièrement utile pour le conseil en orientation et la scolarisation de primo-arrivants, d'autant que son utilisation est possible jusqu' à l' âge de 21 ans et 11 mois. Plusieurs arguments plaident pour son utilisation dans le cadre de l'évaluation des sortants d'ULIS au collège : la durée de passation ne dépasse pas 40 minutes : le psychologue évite ainsi la lassitude pour des élèves dont la capacité d'attention est souvent limitée. Il évite aussi la redondance de situations de bilan lourdes pour des élèves dont le parcours est déjà jalonné d'évaluations diverses. Enfin, il permet au psychologue une organisation des passations au sein de l'établissement, conciliant qualité et efficacité des interventions; et ce dans un contexte où les dossiers doivent parvenir à la Maison du Handicap dans des délais contraints; le WNV se limite à quatre épreuves, ce qui est peu comparativement au WISC4 ou à la WAIS; cependant les tâches proposées étant très différentes les unes des autres, une analyse globale du fonctionnement cognitif est possible, dès lors que le psychologue sait mettre en lien les résultats obtenus avec les évaluations réalisées par les enseignants, et compléter l'échelle avec d'autres outils pour une approche plus clinique. La méthodologie expérimentée dans les collèges du secteur de Saint-Malo assortit l'utilisation du WNV (Wechsler & Naglieri, 2009), de l'Alouette (Lefavrais, 2005) et du Dessin de la famille (Jourdan-Ionescu & Lachance, 2000). Le choix de cette composition permet de respecter un temps de passation limité, ces deux outils complémentaires ne prenant généralement que dix minutes supplémentaires. Ils donnent au psychologue un regard sur la lecture, aspect non traité dans la WNV, et proposent au sujet un autre moyen que la parole pour exprimer des idées et des émotions. Une batterie de quatre subtests, Matrices, Code, Mémoire spatiale et Arrangement d'Images, compose la forme 8 ans-21 ans de l'échelle de Wechsler Non Verbale. Les consignes verbales sont assorties de consignes en images pour chacune des épreuves. Celles -ci donnent au psychologue un support de communication ne nécessitant pas l'utilisation de la parole. Les items d'exemple permettent de vérifier la compréhension des consignes par le sujet. Le livret met aussi à disposition du psychologue des traductions en six langues pour compléter les consignes visuelles, et préconise la possibilité d'utiliser une gestuelle, si nécessaire, pour faciliter la compréhension. Cette application est particulièrement intéressante quand il s'agit de mettre en œuvre des bilans pour des jeunes primo-arrivants ne maîtrisant pas ou peu la langue française. Concernant les situations de difficultés de compréhension ou de troubles cognitifs, l'utilisation du support visuel peut faciliter la compréhension des tâches à accomplir. Ces combinaisons possibles d'explicitation des consignes donnent au psychologue l'assurance de la bonne compréhension des tâches à accomplir par le sujet avant d'enchaîner les items pour chaque subtest, et une marge de manœuvre pour adapter à chaque situation particulière l'énoncé des consignes. L'expérience auprès des élèves d'ULIS ne présentant pas de trouble particulier de l'audition montre que l'appui sur les consignes en images n'est pas indispensable : en dehors des situations de handicaps ou de déficiences auditives pour lesquelles les consignes visuelles sont tout à fait adaptées, les autres situations de handicaps n'empêchent en rien le sujet d'entendre et de comprendre les consignes verbales usuelles de ces subtests : les épreuves composant la WNV ne présentent pas en elles -mêmes de difficulté particulière au niveau de la compréhension des consignes; chaque subtest est assorti d'items d'observation, d'exemples et/ou d'apprentissage qui rendent la situation explicite; le fait d'établir une communication orale avec le sujet (entretien préalable, présentation du test), puis de passer à des consignes en images produit une ambiguïté au cours de la situation de testing : cela complexifie la compréhension dans la mesure où la consigne sous forme visuelle demande au sujet un regard distancié sur ce qu'il est en train de vivre (métacognition). En effet, il doit se construire une représentation mentale de ce qui se passe ici et maintenant avec le psychologue en acceptant de s'imaginer lui -même ainsi que le psychologue en face de lui sur les planches qui lui sont présentées. « Les consignes en image illustrent ce que le psychologue et le sujet vont accomplir pendant l'administration du subtest » (p. 93 du manuel de la WNV). Le sujet doit être en mesure de se décentrer de la situation d'évaluation tout en s'y investissant. La prise de recul sur la situation d'évaluation n'étant pas nécessairement évidente à mettre en œuvre, il y a risque de confusion; les élèves d'ULIS sont surpris quand on leur présente les consignes en images, les explications directes leur étant accessibles. Tant pour le psychologue que pour les élèves, une présentation directe et verbale est plus appropriée : ce choix n'affecte pas la standardisation de l'administration, le psychologue s'appuyant sur les consignes données en français dans le manuel à l'usage des élèves français. Au cours de la passation, chaque épreuve proposée par la WNV pourra être un terrain d'observations cliniques et de repérage du fonctionnement de l'adolescent (Barbot, 2008) dont l'analyse, combinée aux résultats chiffrés et aux données de l'anamnèse, favorisera l'interprétation. L'épreuve de Matrices de la WNV est une adaptation du Naglieri Non Verbal Abilities Test (NNAT). Elle se compose de 41 items faisant appel aux lois d'éduction. Comme pour d'autres matrices, la construction de la réponse s'appuiera sur des opérations mentales type addition/soustraction, rotation/translation, représentation dans le plan et dans l'espace, repérage des positions relatives d'éléments sur une figure, perception des superpositions de plans, combinaisons de formes, croisement de logiques différentes, association de plusieurs critères. Seules trois formes géométriques sont présentes (carré, triangle et rond) pour une plus grande universalité des perceptions interculturelles, et seules cinq couleurs sont utilisées pour limiter l'effet possible d'une vision déficitaire des couleurs (noir, blanc, jaune, vert et bleu). On pourra ici se référer utilement à l'ouvrage de Bernard Jumel (2010) « Guide clinique des tests chez l'enfant » (pp. 254 à 258 : l'épreuve de matrice du WISC4 et matrices progressives de Raven) pour une analyse plus fine des aspects cognitifs et cliniques de ce support. On pourra également consulter les recherches de P. Chartier (2001). L'épreuve de matrices n'étant pas chronométrée, elle favorise l'observation clinique et le repérage de fonctionnements cognitifs : nombre de critères combinés, critères privilégiés dans la résolution, analyse des erreurs, processus d'apprentissage par transfert de raisonnement logique d'un item à l'autre, régulation en cours d'épreuve par rectification des choix, investissement et persévérance dans l'épreuve, verbalisation. Des liens sont à rechercher avec les qualités et/ou difficultés repérées en géométrie et en technologie sur le plan scolaire. Dans l'épreuve de Code le sujet doit apparier des symboles et des chiffres dans un temps limité à deux minutes. Le subtest est semblable à celui que l'on retrouve dans le WISC4 ou la WAIS, cependant pour la WNV, dès la 1 re rangée, tous les chiffres de 1 à 9 apparaissent, certains chiffres apparaissant deux fois (le 1, le 4 et le 6). Même si les corrélations entre le code du WISC 4 et le code de la WNV ne font pas apparaître de différence significative, la phase d'apprentissage des appariements est moins progressive dans la WNV. Cet aspect sera à prendre en compte sur le plan de l'analyse qualitative notamment lors de la restitution mémorisée des appariements, à l'issue de l'épreuve. Évaluant la vitesse de traitement, faisant appel à la mémoire et à la vitesse graphomotrice, Code est un terrain privilégié pour observer la gestion des émotions, la réaction à la pression du temps, la coordination visuomotrice, ainsi que les stratégies particulières mises en place par le sujet (accompagnement verbal, doigt curseur, besoin de vérification, concentration sur la tâche). L'analyse du tracé donne également des indications utiles (appui du crayon, remplissage des cases, dépassement des lignes), et est à mettre en lien avec l'écriture. Là encore, les éléments mentionnés par Bernard Jumel (2010) s'avèrent utiles pour un recueil optimal d'informations par le psychologue. Le matériel utilisé pour évaluer la mémoire spatiale se compose d'une planche sur laquelle sont collés dix cubes. Ces cubes sont pointés successivement par le psychologue et sur des séries de plus en plus longues pour mesurer l'empan de mémoire visuelle. Le sujet pointe les cubes dans le même ordre dans un premier temps, puis en ordre inverse dans un second temps. Cette évaluation de la mémoire de travail à partir de stimuli visuo-spatiaux nécessite une forte attention et concentration sur la tâche. Tout comme dans l'épreuve de mémoire des chiffres du WISC4, on observe la fragilité dans le temps de la mémoire à court terme sur ce support. Le subtest se compose de huit items pour chaque partie, et chaque item comporte deux essais. Quelques recommandations au praticien s'avèrent utiles pour l'administration de l'épreuve : le psychologue doit lui -même mémoriser les suites de cubes pour ensuite les pointer aisément. La numérotation des cubes sur la face visible par le psychologue facilite la mémorisation des séries chiffrées. Cependant, la tâche se complexifie lorsque l'item comporte plus de six cubes. En effet, le psychologue doit aussi et surtout se concentrer sur les réactions et attitudes du sujet, être en mesure d'observer et de reporter instantanément les séries restituées par le sujet sur le protocole. Deux difficultés majeures apparaissent donc dans cette épreuve : une difficulté pour présenter les séries longues, le psychologue ne pouvant respecter un rythme de pointage d'un cube à la seconde s'il est obligé de se référer en même temps à la lecture de la série sur le protocole; une difficulté pour transcrire la réponse du sujet, celui -ci restituant souvent la série de manière rapide et sans délai pour éviter de « perdre » les éléments mémorisés. Deux conseils permettent de relativiser ces difficultés : un carton reproduisant les différentes séries et à tenir dans la main opposée à celle qui pointe les cubes, évite d'avoir à chercher le modèle dans le protocole, facilitant ainsi le passage de la lecture au pointage; un crayon maintenu dans la main qui pointe pendant la présentation des cubes au sujet assure une meilleure réactivité pour le report de la série restituée sur le protocole. Ces aspects sont importants dans une épreuve pour laquelle l'hésitation ou l'erreur du praticien porte à conséquence : une série énoncée de manière irrégulière, une erreur de pointage, invalident le résultat obtenu, et peuvent agir sur l'investissement même du sujet et la relation qui se tisse entre le consultant et le psychologue. La manière de gérer la passation par le psychologue est perçue, et joue sur l'engagement du jeune lors de l'administration. Cette épreuve nécessite une forte concentration de la part du psychologue, à la fois pour assurer une administration fluide et régulière, et pour maintenir son attention sur l'observation du sujet et de sa production. L'épreuve de mémoire spatiale informe sur la mobilisation du sujet, sur le maintien de son attention, et sa réaction face à la difficulté croissante liée à l'allongement des séries. La répétition d'erreurs de position de cubes dans la série ou de position de cubes sur la planche peut être un indice de difficulté de repérage dans le plan ou l'espace. Arrangement d'Images se compose de treize items repris du WISC 3 et de la WAIS 3. Le sujet doit ordonner des images en reconstituant une histoire cohérente. Pour construire l'organisation temporelle de la séquence, il est important de repérer l'information pertinente qui donne sens à la séquence. Certains items sont sensibles à l'émotion (relation parent/enfant, situation de danger), ou aux normes socioculturelles (relation homme/femme, attitude adoptée lors d'un spectacle). Les éléments de l'anamnèse deviennent alors d'une importance capitale dans l'interprétation des résultats. Les situations temporelles proposées sont diverses et les durées des séquences varient de quelques minutes à une journée. Des indications précieuses sur la capacité du sujet à organiser sa propre temporalité, à adapter ses propres cycles de temps (journée, semaine, mois, etc.), à organiser sa prise de repères dans l'espace-temps social sont à repérer. Des liens sont à tisser avec l'histoire du sujet et ce qu'il en peut en exprimer, avec la succession des lieux de scolarisation et des prises en charge éducatives, psychologiques, sociales. Le psychologue se montrera attentif aux attitudes de dépendance du sujet lors de l'administration du subtest : recherche de l'aval de l'adulte dans la réalisation des suites, sensibilité au regard et à l'écriture du psychologue, demandes d'indications ou d'aides. Il observera les stratégies mises en œuvre : type d'appariement d'images, regard critique du sujet sur sa production, repérage des éléments qui guident sa logique temporelle, répétitions d'erreurs, verbalisation pendant la construction, manifestations de saturation ou de fatigue au cours de cette dernière épreuve. Chacune des épreuves de la WNV donne lieu à une évaluation chiffrée sous forme de note standard (M = 50, ET = 10) et l'ensemble de l'échelle fournit une note totale (M = 100, ET = 15). Le livret de la WNV propose deux versions : une version courte (2 épreuves seulement) et une version complète (les 4 épreuves). Si les bonnes qualités métriques sont soulignées pour les deux versions, la version à 4 épreuves permet une évaluation plus complète des aptitudes cognitives. La WNV apporte des informations quantitatives et qualitatives précieuses, et ce d'autant plus dans un contexte global d'évaluation. Pour parer à la diversité limitée des situations proposée par l'échelle de Wechsler Non Verbale, des épreuves complémentaires peuvent compléter utilement la démarche de bilan pour les élèves d'ULIS. Un premier complément est fourni par le point de vue des enseignants et les indications des évaluations scolaires. L'évaluation scolaire, à travers les indications relatives aux acquisitions scolaires, à la maîtrise du langage et de la langue, complète l'évaluation des aptitudes cognitives générales de la WNV. Le suivi et la prise en charge réalisés par les enseignants en ULIS vont bien au-delà du cadre strictement scolaire : leur approche est globale, leurs champs d'intervention multidimensionnels, ce qui engendre une réelle connaissance du fonctionnement affectif, cognitif et psychique, ainsi que du contexte dans lequel évolue le jeune sur les plans social, familial et culturel. Les échanges COP/enseignants sont un moment de partage d'expérience pédagogique et humaine, un temps privilégié pour faire le point sur la manière d'appréhender l'évolution du jeune et le travail de longue haleine mis en place. Pour préserver la neutralité de l'approche et créer cet espace nécessaire de « table rase » entre le psychologue et le consultant, les échanges avec les enseignants sont à privilégier après passation et correction de la WNV et des épreuves complémentaires. Les éléments recueillis au cours de l'entretien préalable prendront une importance toute particulière : la structuration du déroulé de l'entretien (parcours scolaire, organisation de l'intégration dans les cours du collège, suivi en dehors du collège, activités extrascolaires, composition familiale, projet de formation et professionnel), et le relevé fidèle des réponses du jeune au cours des échanges favoriseront ce recueil d'informations. Cette conception de l'entretien est habituelle à la pratique du COP, cependant elle met en relief l'importance que peuvent prendre certains détails. Par exemple, la capacité du jeune à citer les lieux de scolarisation successifs de son parcours est à mettre en lien avec les résultats au subtest Arrangements d'images. Ou encore, la manière de restituer la date de naissance (restitution à l'envers en partant de l'année, recherche de document pour retrouver la date, etc.) est à prendre en compte dans la construction et la prise des repères temporels. On voit ici tout l'intérêt de l'approche clinique qui va servir d'appui à l'interprétation et donner sens aux résultats. Le nombre restreint de données chiffrées par rapport à un outil plus classique amène le psychologue à exploiter tous les éléments à sa disposition et à fonder son interprétation sur les liens possibles entre ces éléments. C'est aussi tout l'intérêt d'utiliser des outils complémentaires : récolter de données utiles pour une interprétation plus fine et se doter d'observations pour une évaluation plus riche et plus clinique. Le choix dans la méthodologie proposée porte sur l'Alouette et le Dessin de la famille. L'Alouette, test de lecture dont les étalonnages ont été révisés à l'occasion de la 4 e version du WISC, ne nécessite que quelques minutes pour l'administration. Le calcul d'un indice de vitesse de lecture et d'un indice de précision de lecture complète l'analyse des erreurs de lecture. L'intérêt majeur de l'épreuve est d'identifier le niveau d'acquisition des mécanismes de lecture et les répétitions d'erreurs en se référant à la typologie proposée (paralexies verbales, paralexies sémantiques, barbarismes, correspondance graphophonologique). L'Alouette n'évalue pas la compréhension, mais le test permet au psychologue d'observer comment le jeune entre dans une tâche plus scolaire et maintient son effort dans une activité de lecture. Les échanges avec l'enseignant croisés avec les résultats et observations de l'Alouette donnent alors un aperçu sur le niveau de maîtrise de la lecture. Le dessin de la famille est un complément intéressant sur le plan clinique : à partir de consignes simples le sujet représente une famille et décrit le contexte du dessin. Il est fait appel aux ressources de sa personnalité plus qu' à ses aptitudes; le dessin exprime un état psychique du moment tout en intégrant des éléments de l'histoire du sujet. Pour des élèves scolarisés en ULIS, cette approche est un moyen alternatif à l'expression par la parole ou l'écriture. L'ouvrage édité par les ECPA propose une grille de cotation et des éléments d'interprétation. Les auteurs, Colette Jourdan-Ionescu et Joan Lachance y développent une méthodologie d'analyse rigoureuse des résultats et synthétisent l'ensemble des travaux réalisés. S'agissant d'adolescents, le psychologue peut être confronté au refus du jeune à la demande de réalisation du dessin. Ce refus, s'il est à prendre en compte dans la compréhension de la problématique du sujet, n'empêche en rien la poursuite de la démarche de bilan : le refus est légitime et n'est pas à justifier du point de vue de l'adolescent. Dessiner une famille est impliquant sur le plan affectif, et les causes de refus peuvent être multiples : le jeune peut simplement ressentir comme infantilisant, décalé ou inapproprié le fait d'avoir à dessiner; il peut rejeter cette activité pour se protéger lui -même ou protéger sa famille, évitant ainsi le risque de révéler ou dévoiler des aspects qu'il souhaite mettre à distance. Les observations à partir de cet outil sont riches, offrant l'opportunité de conforter ou non des hypothèses suggérées par les éléments de l'anamnèse, les observations au cours des épreuves ou les retours de l'enseignant. Le plus souvent le dessin de la famille est ressenti par les jeunes comme une possibilité de s'exprimer autrement que par les mots, ou de mettre en valeur une dimension expressive différente. Les aptitudes particulières, la précision du geste, le plaisir repérés lors de la réalisation, l'imagination et la créativité qui s'y révèlent, sont des indices possibles pour engager la réflexion sur la diversification des choix de formation ou d'orientation professionnelle. Une grande prudence s'impose quant à l'interprétation : ce support va surtout permettre d'étayer des hypothèses déjà en cours d'élaboration, plutôt que de dévoiler l'état et le fonctionnement psychiques de l'individu. Et ce d'autant plus qu'il s'agit d'adolescents, c'est-à-dire de sujets qui vont s'exprimer avec la contenance et la qualité qu'ils auront décidé d'y attribuer, avec un regard distancié sur leur réalisation. Au-delà de l'analyse du niveau développemental et des qualités graphiques développées, des éléments très objectifs sont à relever : nombre de personnages représentés comparativement à la composition de la famille réelle; spécificités et âge des personnages; proportion et position les uns par rapport aux autres; utilisation de la page, choix et utilisation des couleurs; contexte développé autour des personnages; indications culturelles et rôle des personnages. L'échelle de Wechsler Non Verbale, au-delà de l'évaluation des aptitudes cognitives du sujet, permet d'appréhender ses capacités d'adaptation, sa prise de repères dans l'espace et le temps, ses stratégies de résolution, ses qualités d'attention et de concentration, son attitude face à l'échec ou à la difficulté. Les éléments recueillis à travers les différentes approches proposées ici complètent les données chiffrées obtenues aux subtests de la WNV par des aspects plus qualitatifs. Le croisement de ces indications permet alors de définir les besoins du jeune et de prendre appui sur ce diagnostic pour établir le conseil en orientation. Au-delà d'une proposition d'orientation vers telle ou telle structure, le conseil en orientation intégrera les contours et contenus nécessaires de l'accompagnement pour assurer la poursuite du parcours du jeune et les conditions de sa réussite. La restitution du bilan à l'élève sortant d'ULIS et à sa famille boucle cette démarche. C'est aussi la première étape dans la construction de la suite de son cheminement. Les éléments dont il va se saisir et s'approprier comptent parmi les facteurs qui favoriseront sa projection dans l'avenir et faciliteront son adaptation future. L'échelle de Wechsler Non Verbale, même si le nombre d'épreuves se limite à quatre, s'avère être un outil complet, si le psychologue sait associer dans sa démarche les apports d'autres outils et surtout s'il est mesure d'exploiter au mieux, par une exploration systémique et clinique, les données à sa disposition. Concernant la mise en œuvre des bilans psychologiques pour des élèves sortants d'ULIS, la WNV est particulièrement adaptée : durée de passation courte, des subtests dont les consignes sont simples et dont les supports sont agréables voire ludiques, des situations diversifiées. L'outil permet de conjuguer l'évaluation standardisée des aptitudes cognitives avec des observations cliniques; de croiser les résultats aux subtests avec d'autres éléments d'évaluation ou d'autres épreuves, fournissant ainsi les données pour fonder et enrichir le conseil en orientation. Et ce, sans alourdir la démarche d'évaluation tant pour le psychologue que pour le consultant. L'échelle se montre aussi tout à fait performante quand il s'agit de prendre en charge des primo-arrivants ne maîtrisant pas ou peu la langue française, des situations de handicaps auditifs ou langagiers. La relative rapidité de passation de la WNV laisse au psychologue une disponibilité pour le choix d'outils complémentaires et les échanges avec différents acteurs concernés par la problématique du sujet. La marge de liberté afférente à cette organisation et la capacité à établir des liens entre les données de l'anamnèse, les observations cliniques et les résultats chiffrés mettent en valeur l'expertise du COP, et confortent sa place en tant que psychologue dans l' Éducation nationale . | La mise en application de la loi du handicap de 2005, a amené les Conseillers d'Orientation Psychologues à intervenir auprès des élèves scolarisés en Unité Locale d'Inclusion Scolaire. L'article propose une méthodologie de prise en charge des élèves, en vue d'enrichir le conseil en orientation dans le cadre de leur participation aux Équipes de Suivi et de Scolarisation. L'échelle de Wechsler Non Verbale prendra une place particulière dans cette présentation, et sera complétée par l'utilisation de l'Alouette et du Dessin de la Famille. Les résultats chiffrés sont mis en lien avec les éléments d'anamnèse, d'observation clinique et d'évaluation scolaire. | psychologie_13-0050841_tei_887.xml |
termith-735-psychologie | La théorie sociale cognitive de l'orientation scolaire et professionnelle (TSCOSP) a été conçue en vue de développer un système explicatif bien intégré de l'orientation scolaire et professionnelle (Lent, Brown & Hackett, 1994, 2000). Cette théorie vise en particulier à rapprocher et à examiner les liens existant entre les variables clés dégagées par les théories antérieures de l'orientation scolaire et professionnelle et par la recherche. La TSCOSP englobe trois sous-modèles qui se recouvrent en partie. Ces trois sous-modèles ont pour but d'expliquer les processus grâce auxquels les personnes (a) développent leurs intérêts professionnels, (b) réalisent leurs choix professionnels et les modifient et (c) parviennent à des niveaux différents de réussite et de stabilité professionnelle. Un quatrième sous-modèle, qui concerne la satisfaction professionnelle, a été développé récemment (Lent & Brown, 2006). La TSCOSP repose principalement sur la théorie sociale cognitive générale d'Albert Bandura (1986) qui met l'accent sur les mécanismes complexes d'influence mutuelle qui s'exercent entre les personnes, leur comportement et leurs environnements. Fidèle en cela à la théorie sociale cognitive de Bandura, la TSCOSP met l'accent sur la capacité des personnes à diriger leur propre orientation scolaire et professionnelle – tout en reconnaissant aussi l'importance des nombreuses influences personnelles et environnementales (par exemple les obstacles et les soutiens liés aux structures sociales, à la culture et au statut de handicapé) qui contribuent à renforcer, à affaiblir ou, dans certains cas, à annihiler l ' agentivité personnelle ou la capacité à se diriger. Dans cet article, je présenterai trois modèles originaux de la TSCOSP et je mettrai l'accent sur quelques-unes des manières de les appliquer à des interventions pratiques d'éducation ou de soutien à l'orientation, ce qui inclut les efforts visant à optimiser les choix professionnels, à soutenir la prise de décision professionnelle et sa réalisation et à promouvoir la réussite et la satisfaction professionnelle. La recherche conduite dans le cadre de la TSCOSP sera également brièvement discutée. On trouvera des présentations plus approfondies de la théorie, de ses fondements en matière de recherche, de ses implications sur le plan pratique et de ses applications à des populations variées dans d'autres articles (Brown & Lent, 1996; Fabian, 2000; Hackett & Byars, 1996; Lent, 2005; Lent, Brown & Hackett, 1994, 2000; Morrow, Gore & Campbell, 1996; Swanson & Gore, 2000). Comme la théorie sociale cognitive générale, la TSCOSP met l'accent sur l'interaction entre trois « variables individuelles » qui activent l'auto-direction du développement professionnel : les croyances relatives aux sentiments d'efficacité personnelle, les attentes de résultats et les buts personnels. Les croyances relatives aux sentiments d'efficacité personnelle concernent « les jugements que les personnes portent sur leurs propres capacités d'organisation et de réalisation des activités qui permettent d'atteindre des types de résultats déterminés » (Bandura, 1986, p. 391). Ces croyances d'efficacité, qui comptent parmi les déterminants les plus importants de la pensée et de l'action dans la théorie de Bandura (1986), ont été l'objet d'une attention particulière de la part des chercheurs qui travaillent dans le champ de l'orientation scolaire et professionnelle (Rottinghaus, Larson & Borgen, 2003). Selon la conception sociale cognitive, l'auto-efficacité ne constitue pas un trait unitaire ou global, comme l'estime de soi (par exemple les sentiments généraux de valeur de soi). L'auto-efficacité est plutôt considérée comme un ensemble dynamique de croyances relatives à soi, liées à des domaines particuliers de réalisations et d'activités. Un individu pourrait, par exemple, avoir des croyances d'efficacité personnelle élevées en ce qui concerne ses capacités artistiques, mais se sentir beaucoup moins compétent dans des tâches sociales ou mécaniques. Ces croyances relatives aux capacités personnelles, qui sont susceptibles de changer au cours du temps et qui sont sensibles aux conditions environnementales, peuvent être acquises et modifiées par quatre types principaux d'expérience d'apprentissage : (a) les expériences individuelles de maîtrise, (b) l'apprentissage par observation (ou modelage), (c) la persuasion sociale et (d) les états physiologiques et affectifs (Bandura, 1997). En général, ce sont les expériences individuelles de maîtrise qui ont la potentialité d'exercer l'influence la plus grande sur les sentiments d'efficacité personnelle. Les expériences notables de succès dans un domaine particulier (les mathématiques par exemple) tendent à accroître les sentiments d'efficacité dans ce domaine, tandis que les échecs notables ou répétés tendent à faire baisser les sentiments d'efficacité personnelle relatifs à ce domaine. Les attentes de résultats font référence aux croyances personnelles relatives aux conséquences et aux résultats de la réalisation de comportements particuliers. Alors que les croyances d'efficacité personnelle concernent ses propres capacités (« suis -je capable de faire ceci ? »), les attentes de résultat concernent les conséquences de la réalisation d'un type particulier d'action (« si j'essaie de faire ceci, qu'arrivera -t-il ? »). Bandura (1986) a souligné l'importance du rôle joué par les sentiments d'efficacité personnelle et les attentes de résultats dans le comportement humain, notamment au sujet des activités que les personnes choisissent de réaliser ou d'éviter. Toutefois, on présuppose que ce sont les sentiments d'efficacité personnelle qui constituent souvent le déterminant le plus influent, en particulier lorsque les activités à réaliser font appel à des capacités complexes à mettre en œuvre pour réaliser un ensemble de tâches potentiellement difficiles à réaliser. Les personnes développent des attentes par rapport à différentes filières universitaires ou professionnelles à partir d'une variété d'expériences d'apprentissage direct ou d'apprentissage par observation – comme les perceptions relatives aux résultats qu'ils ont déjà obtenus antérieurement au cours d'activités du même type (par exemple au cours de leur scolarité ou d'un travail à temps partiel) – et à partir de l'information qu'ils ont acquise auprès d'autres personnes sur différents domaines professionnels. Les buts personnels peuvent être définis comme l'intention qu'a la personne de s'engager dans une activité précise pour atteindre un objectif particulier (Bandura, 1986). La TSCOSP distingue les choix concernant les buts exprimés en termes de choix de contenu (le type d'activité ou de profession que quelqu'un souhaite poursuivre) et les buts en termes de niveau de résultat fixé (le niveau ou la qualité du résultat que l'on cherche à atteindre dans le domaine choisi). Les buts sont des moyens importants que les personnes utilisent pour exercer leur agentivité personnelle dans la réalisation de leur projet d'études ou de leur projet professionnel. En se fixant des buts, les personnes se donnent les moyens d'organiser, de diriger et de soutenir leur propre comportement, et cela même sur de longues périodes et en l'absence de renforcements externes. Dans le cadre de la TSCOSP, le développement des intérêts scolaires et professionnels, la construction des choix d'études et des choix professionnels et le niveau de réussite à atteindre dans les domaines universitaires et professionnels sont décrits dans le cadre de trois modèles de processus conceptuellement distincts mais en interaction (Lent et al., 1994). Dans chacun des modèles, présentés plus loin, les variables personnelles clés – les sentiments d'efficacité personnelle, les attentes de résultats, et les buts – sont considérées comme fonctionnant de concert avec d'autres caractéristiques personnelles importantes (par exemple le genre, l'appartenance ethnique), avec leurs contextes et avec les expériences d'apprentissage qui contribuent à modeler la progression dans les domaines universitaires et professionnels. Modèle des intérêts. Les environnements sociaux de la personne – comme la famille, l'école, les lieux récréatifs et les groupes de pairs – exposent les enfants et les adolescents à un ensemble de domaines d'activités comme les sports, les mathématiques et la rédaction. Les parents, les enseignants, les pairs, et les « autruis significatifs » encouragent les jeunes gens à s'engager, de façon sélective, dans certaines activités parmi toutes celles qui leur sont disponibles, en essayant de bien y réussir. En pratiquant certaines activités – et en obtenant de façon continue des informations en retour (feedback) sur la qualité de leurs performances – les enfants et les adolescents affinent progressivement leurs capacités, développent des normes personnelles de niveau de réussite à atteindre et construisent des croyances d'efficacité personnelle et des attentes de résultats relatives à différentes tâches et à différents domaines de comportement. Selon le modèle des intérêts de la TSCOSP, illustré par la figure 1, les sentiments d'efficacité personnelle et les attentes de résultats relatives à des activités particulières contribuent à la construction des intérêts professionnels (par exemple la configuration des goûts, des rejets et des sentiments d'indifférence que chaque personne développe à l'égard de tâches propres à certaines professions). L'intérêt pour un type d'activité a une probabilité plus forte de se développer et de se renforcer (a) quand les personnes se considèrent elles -mêmes comme compétentes (personnellement efficaces) pour cette activité et (b) quand elles anticipent le fait qu'en réalisant cette activité elles obtiendront des résultats valorisés (attentes positives à l'égard des résultats). En même temps, les personnes ont une probabilité plus forte de développer un désintérêt ou même une aversion envers des activités pour lesquelles elles doutent de leur propre efficacité et s'attendent à obtenir de mauvais résultats. En se développant, les intérêts – ainsi que les sentiments d'efficacité personnelle et les attentes de résultats – suscitent l'élaboration d'intentions ou de buts qui soutiennent ou accroissent sa propre implication dans des activités particulières. Les buts que l'on se fixe, à leur tour, augmentent la probabilité de pratique de l'activité et les efforts mis en œuvre au cours de cette pratique entraînent la construction progressive d'une configuration particulière de résultats qui, pour le meilleur ou pour le pire, aide à réviser les sentiments d'efficacité et les attentes de résultats grâce à une boucle de rétroaction en constante activité. On considère que ce processus de base se répète sans arrêt avant l'entrée dans un parcours professionnel. Copyright : Lent, R. W., Brown, S. D. & Hackett, G. (1993). Reproduit avec l'autorisation des auteurs Bien que les intérêts professionnels tendent à se stabiliser au cours du temps (et, pour beaucoup de personnes, les intérêts peuvent être assez stables à la fin de l'adolescence ou au début de l' âge adulte), la TSCOSP considère que les intérêts des adultes ne sont pas nécessairement immuables. Si les intérêts changent ou se stabilisent, cela tient à certains facteurs, comme au fait de savoir si les activités initialement préférées deviennent plus difficiles à exercer, ou si les personnes sont exposées (ou s'exposent elles -mêmes) à des expériences d'apprentissage notables (l'éducation d'enfants, le travail bénévole, l'expérience de la direction d'autres personnes, la participation à des innovations technologiques, etc.) qui leur permettent d'étendre leurs sentiments d'efficacité et les attentes positives de résultats dans de nouveaux domaines d'activités. Ainsi, la TSCOSP postule que, lorsqu'elles se produisent, les évolutions des intérêts sont fortement liées à des changements affectant les croyances d'efficacité personnelle et les attentes de résultats. La TSCOSP prend également en compte d'autres caractéristiques des personnes et de leurs environnements, caractéristiques qui affectent le développement et la modification des intérêts. Par exemple, les capacités et les valeurs – éléments essentiels des théories traits-facteurs – jouent également un rôle important dans le cadre de la TSCOSP, mais on considère que leurs effets sur les intérêts s'exercent à travers la forte médiation des sentiments d'efficacité et des attentes de résultats. Ainsi, plutôt que de déterminer les intérêts de façon directe, la capacité objective (telle qu'elle est reflétée par des résultats à des tests ou par des succès ou des échecs antérieurs) contribue à augmenter ou à diminuer les croyances d'efficacité personnelle qui, à leur tour, influent sur les intérêts (Lent et al., 1994). En d'autres termes, les sentiments d'efficacité personnelle remplissent une fonction d'intermédiaire entre les capacités et les intérêts. Les valeurs relatives à la vie professionnelle sont construites dans le cadre du concept des attentes de résultats de la TSCOSP. On peut considérer ces attentes de résultats comme une combinaison, d'une part, de préférences des personnes pour des caractéristiques professionnelles particulières ou pour des renforçateurs (le statut, l'argent, l'autonomie) et, d'autre part, de croyances relatives au fait de savoir jusqu' à quel point ces professions particulières offrent bien ces avantages. Il est nécessaire de mettre l'accent sur le fait que les sentiments d'efficacité personnelle et les attentes de résultats ne se construisent pas dans un vide social et qu'ils n'interviennent pas de façon isolée dans la construction des intérêts professionnels, des choix, ou des processus permettant d'atteindre un certain niveau de réussite. Il faut plutôt considérer que les sentiments d'efficacité et les attentes de résultats sont le produit d'une construction et qu'ils fonctionnent dans un contexte où interviennent d'autres caractéristiques importantes des personnes et de leurs environnements, telles que le genre, l'appartenance ethnique, le patrimoine génétique, la santé physique ou le statut de handicapé, et les conditions socio-économiques, l'ensemble de ces caractéristiques pouvant jouer des rôles importants au cours du processus d'orientation scolaire et professionnelle. La TSCOSP présente (voir figure 2) un modèle de l'élaboration des intérêts et des choix scolaires et professionnels, modèle qui précise les relations existant entre les variables relatives à une personne singulière, à l'environnement, ainsi qu'aux apprentissages et aux expériences. En bref, la TSCOSP met l'accent sur les aspects psychologiques et sociaux des variables telles que le genre et l'appartenance ethnique. On considère que ces variables sociodémographiques influent sur l'orientation scolaire et professionnelle suivant plusieurs voies principales – en particulier, à travers les types de réaction qu'elles suscitent de la part de l'environnement social et culturel et par l'intermédiaire de leur relation à la structure des opportunités à laquelle les individus sont exposés (par exemple l'accès offert à des modèles professionnels pertinents ou à des expériences personnelles de maîtrise). Une telle conception incite à considérer la façon dont le genre ou l'appartenance ethnique influe sur les contextes au sein desquels les sentiments d'efficacité personnelle et les attentes de résultats sont construits. Par exemple, les processus de socialisation des rôles de genre tendent à biaiser l'accès des garçons et des filles aux expériences nécessaires pour développer des croyances fortes d'efficacité et des attentes positives relatives aux activités perçues comme typiquement masculines (par exemple les sciences) et aux activités perçues comme typiquement féminines (par exemple l'aide). Il en résulte que les garçons et les filles ont une probabilité plus forte de développer des capacités (ainsi que des sentiments d'efficacité personnelle et des attentes de résultats favorables) et, par suite, des intérêts pour des tâches qui sont culturellement définies comme appropriées au genre (Hackett & Betz, 1981). Modèle du choix professionnel. Choisir une voie professionnelle n'est pas un acte singulier ou un acte de type statistique. Comme le modèle des intérêts de la TSCOSP l'illustre, le choix professionnel est précédé d'un vaste ensemble de sous-processus – notamment ceux du développement des sentiments d'efficacité, des attentes de résultats, des intérêts et des capacités relatifs à différents types d'activités – qui, au cours du temps, resteront ouverts et rendront attractifs certains choix pour un individu particulier, alors que d'autres options seront considérées comme beaucoup moins enviables ou auront une probabilité moins forte d' être envisagées par la suite. Une fois que les choix professionnels initiaux sont faits, ils restent toutefois sujets à de futurs remaniements parce que les individus et leurs environnements évoluent. C'est pourquoi il convient de concevoir le choix professionnel comme un processus continu, soumis à une multiplicité d'influences, au cours duquel les occasions de choix sont nombreuses. Dans un but de simplification conceptuelle, la TSCOSP analyse le processus de choix initial en trois composantes : (a) l'expression d'un choix initial pour entrer dans un domaine particulier, (b) la mise en œuvre d'actions destinées à réaliser son propre but (par exemple s'inscrire à un programme de formation particulier ou dans une discipline universitaire principale et (c) les expériences de réussite postérieures (les réalisations exemplaires) qui alimentent une boucle de rétroaction, affectent la configuration des futurs choix d'options. Tout au long du processus de choix, il est bon de garder à l'esprit le fait que les personnes ne choisissent pas leur profession de manière unilatérale; les environnements choisissent aussi les personnes. Ainsi, le choix professionnel (et la stabilité du choix) est un processus interactif qui est conditionné, d'une part, par la réceptivité de l'individu à l'environnement et, d'autre part, par les jugements d'autrui concernant sa propre capacité à répondre aux obligations de formation et aux obligations professionnelles. Comme la théorie de Holland, la TSCOSP postule que les intérêts professionnels des personnes tendent à les orienter vers des choix d'options qui pourraient leur permettre de réaliser leurs activités préférées et d'interagir avec d'autres individus qui ont des profils d'intérêts professionnels proches des leurs. Par exemple, une personne dont les intérêts principaux relèvent du domaine social a une plus forte probabilité de s'orienter vers des professions sociales, ce qui lui permet de travailler avec d'autres personnes en mettant en œuvre sa capacité d'aide ou d'enseignement. Toutefois, ce processus n'est pas toujours simple ou exempt de problèmes. Il se peut en effet que le milieu social n'encourage pas les choix des individus et que les personnes ne soient pas toujours libres de poursuivre leurs intérêts principaux. Le choix peut être contraint, par exemple, par des pressions familiales, des contraintes économiques (par exemple le besoin de gagner rapidement sa vie, le manque d'argent pour se former) et le niveau atteint au cours de ses études antérieures. Dans de tels cas, il se peut que les intérêts professionnels ne soient pas les « éléments principaux » du choix professionnel d'un individu. C'est pourquoi il est important de prendre en compte les autres variables qui influencent le processus de choix. Le modèle du choix professionnel de la TSCOSP, tel qu'il est présenté sur la figure 2, est intégré dans un schéma conceptuel plus global qui prend en compte les antécédents et les conséquences des choix. Comme nous l'avons déjà mentionné, on considère que les sentiments d'efficacité personnelle et les attentes de résultats influent conjointement sur les intérêts relatifs aux activités professionnelles, intérêts qui nourrissent les choix de buts professionnels (par exemple les intentions de poursuivre une voie professionnelle particulière) qui sont congruents avec ses propres intérêts. Ensuite, les buts motivent des choix d'actions ou des efforts pour atteindre ces buts (rechercher un entraînement adapté, poser sa candidature pour certains emplois). Ces actions, à leur tour, aboutissent à une configuration particulière de réussites et d'échecs. Par exemple, après avoir été admis dans une école d'ingénieurs, un étudiant peut avoir des difficultés pour suivre les cours de mathématiques et de physique. Il peut alors découvrir que l'environnement professionnel et les rémunérations offertes par le métier d'ingénieur lui conviennent moins bien qu'il ne l'avait imaginé auparavant. Ces expériences d'apprentissage peuvent inciter l'étudiant à réviser ses croyances d'efficacité et ses attentes de résultats, ce qui peut l'amener ensuite à modifier ses intérêts et ses buts (la sélection d'un autre type d'études et d'une nouvelle voie professionnelle par exemple). Il est important de souligner que les sentiments d'efficacité et les attentes de résultats peuvent influer sur les choix de buts et d'actions des personnes, et cela en plus et au-delà de l'influence exercée par les intérêts (il faut noter que les sentiments d'efficacité personnelle et les attentes de résultats agissent en suivant des voies séparées, comme on peut le voir sur la figure 2). Note. Les relations directes entre les variables sont représentées à l'aide de traits pleins; les effets modérateurs (dans le cadre desquels une variable donnée renforce ou affaiblit les relations entre deux autres variables) sont représentés à l'aide de traits pointillés. Copyright : Lent, R. W., Brown, S. D. et Hackett, G. (1993). Reproduit avec la permission de l'éditeur. Ces pistes théoriques supplémentaires visent à aider à expliquer le choix professionnel dans bien des circonstances du monde réel où les personnes ne sont tout simplement pas libres de poursuivre leurs intérêts principaux. Comme Bandura le faisait remarquer (communication personnelle, 1 er mars 1993), ce ne sont pas des intérêts dévorants qui poussent les personnes à travailler sur des chaînes d'assemblage ou dans des mines de charbon. Quand les personnes comprennent qu'elles doivent faire des choix professionnels en transigeant avec leurs intérêts ou pour des raisons autres que les intérêts (à cause d'obstacles environnementaux ou d'opportunités limitées par exemple) il se peut qu'elles choisissent des options moins intéressantes en se fondant sur le type de travail qui leur est accessible et qui est en rapport avec leurs sentiments d'efficacité personnelle (« est -ce que j'ai, ou suis -je capable de développer les capacités nécessaires pour réaliser ce travail ? ») et avec leurs attentes de résultats (« est -ce que les avantages valent la peine que je fasse ce travail ? »). Examinons selon quelles autres voies l'influence des environnements des personnes s'exerce sur leurs processus de choix. Chaque personne trouve certaines opportunités dans son environnement (par exemple des ressources sociales et matérielles ou des restrictions) qui contribuent à modeler son développement professionnel (Vondracek, Lerner & Schulenberg, 1986). Dans le cadre de la TSCOSP, on distingue deux grands types d'opportunités contextuelles en fonction du moment où elles interviennent au cours du processus de choix. Le premier type d'opportunités inclut les influences les plus lointaines liées au milieu socioculturel (par exemple la socialisation par l'apprentissage des rôles de genre et des rôles culturels, les types de modèles de rôles professionnels disponibles, les opportunités de développement des capacités) qui contribuent à façonner les sentiments d'efficacité personnelle, les attentes de résultats et, par là, les intérêts. Le second type d'opportunités concerne les influences environnementales plus proches qui entrent en jeu au cours même des phases actives du processus de choix. Cela inclut, par exemple, le soutien émotionnel ou financier permettant la poursuite d'un choix particulier, les emplois disponibles dans son domaine professionnel préféré, les obstacles socioculturels tels que la discrimination. La figure 2 prend en compte ces opportunités contextuelles proches (partie droite en bas) et lointaines (partie droite en haut). En présentant le modèle d'intérêt de la TSCOSP, nous avions considéré les effets les plus éloignés des variables contextuelles sur la formation des sentiments d'efficacité personnelle et sur les attentes de résultats. Nous examinerons maintenant le fait que les facteurs contextuels peuvent influer de deux façons sur les personnes tout au long du processus d'élaboration et de réalisation de leurs projets professionnels, ces facteurs contextuels contribuant ainsi à développer ou à diminuer leur agentivité personnelle dans le domaine des choix professionnels. En premier lieu, la TSCOSP pose en principe que certaines conditions peuvent influer directement sur les actions et les buts des personnes. Dans certaines cultures, par exemple, pour ses choix professionnels, il se peut que l'on s'en remette à la volonté des « autruis significatifs » au sein de sa famille, même quand la voie professionnelle préférée par les autres n'est pas celle que l'on préfère soi -même. Les personnes peuvent aussi rencontrer dans leur environnement social des soutiens et des obstacles relatifs à la réalisation de leurs choix préférés. Des influences directes de ce type sont représentées, sur la figure 2, par les flèches en traits pleins qui partent des influences contextuelles pour aller vers les choix de buts et les choix d'actions. En second lieu, les variables contextuelles peuvent influer sur les capacités des personnes ou sur leur volonté de traduire leurs intérêts en buts et leurs buts en actions. Conformément à la TSCOSP, les intérêts professionnels ont une probabilité plus grande de devenir des buts (et les buts ont une probabilité plus grande d' être atteints) quand les personnes rencontrent, à l'égard de leurs projets professionnels, de forts soutiens environnementaux et des obstacles surmontables. Au contraire, l'absence de soutien et/ou des conditions hostiles peuvent empêcher le processus de transformation des intérêts en buts et des buts en actions. En termes statistiques, cela signifie que les soutiens contextuels et les obstacles peuvent jouer un rôle de modérateur dans le processus de modification du but (rôle représenté par les lignes en pointillés de la figure 2). Ainsi, l'on s'attend à ce que les relations entre les intérêts et les buts et les relations entre les buts et les actions soient plus fortes dans des conditions environnementales favorables que dans des conditions environnementales restrictives. En résumé, la TSCOSP postule que les choix d'études et les choix professionnels sont souvent, mais pas toujours, liés aux intérêts des personnes. Les circonstances et les conditions culturelles nécessitent quelquefois de faire un compromis avec les intérêts professionnels. Dans de tels cas, les choix sont déterminés par les types d'options disponibles pour la personne, par la nature de ses croyances d'efficacité personnelle et de ses attentes de résultats et par les types de message que la personne reçoit de son réseau de soutien. Les facteurs environnementaux (et notamment les soutiens et les obstacles) peuvent aussi faciliter ou contrarier le processus de réalisation du choix, indépendamment du fait de savoir si les personnes poursuivent ou non des choix qui sont cohérents avec leurs intérêts principaux ou si ces choix ont été faits librement. Modèle du niveau de réussite atteint. La TSCOSP ne s'intéresse pas uniquement à la façon dont les intérêts se développent et dont les choix sont faits, mais aussi aux facteurs qui influent sur les résultats scolaires et universitaires et sur les niveaux de réussite professionnelle. Cela inclut le niveau atteint par les personnes au cours de leurs études ou de leurs activités professionnelles (par exemple les évaluations de réussite ou de compétence) ainsi que le degré jusqu'auquel elles persistent dans la réalisation de tâches particulières ou dans des voies choisies, tout particulièrement lorsqu'elles rencontrent des obstacles. Comme cela apparaît sur la figure 3, la TSCOSP considère que le niveau de réussite atteint au cours des études ou de la vie professionnelle met en jeu les interactions qui s'exercent entre les capacités de la personne, les sentiments d'efficacité personnelle, les attentes de résultats et les niveaux de buts fixés. Plus précisément, la capacité – telle qu'elle est évaluée par des indicateurs de réussite, d'aptitude, ou de niveau de performance antérieur – influe sur les performances futures et cela à la fois (a) de façon directe, par exemple, via la connaissance de la tâche et les stratégies d'exécution que les personnes mettent en œuvre et (b) de façon indirecte, en apportant des informations qui alimentent les croyances d'efficacité et les attentes de résultats. C'est-à-dire que les personnes fondent leurs sentiments d'efficacité personnelle et leurs attentes de résultats, d'une part, sur les perceptions des capacités qu'elles possèdent habituellement (ou Figure 3. Modèle de réalisation de la tâche Copyright : Lent, R. W., Brown, S. D & Hackett, G. (1993). Reproduit avec la permission de l'éditeur qu'elles peuvent développer) et, d'autre part, sur le niveau de réussite atteint et sur les résultats obtenus par le passé dans des conditions similaires. Les sentiments d'efficacité personnelle et les attentes de résultats, à leur tour, influent sur le niveau de difficulté des buts que les personnes se fixent (par exemple se donner l'objectif d'atteindre un niveau élevé en algèbre ou d'obtenir une promotion professionnelle). Des sentiments d'efficacité personnelle plus forts et des attentes de résultats positifs encouragent la fixation de buts plus ambitieux qui aident eux -mêmes à mobiliser et à maintenir les efforts mobilisés pour atteindre le niveau de performance que l'on s'est fixé. Comme la théorie sociale cognitive générale, la TSCOSP postule l'existence d'une boucle de rétroaction qui met en relation les niveaux de performance atteints et les comportements futurs (Bandura, 1986). Plusieurs avantages découlent des tentatives de réalisation de tâches et des succès rencontrés, tout particulièrement lorsque la difficulté des tâches s'accroît de façon progressive. De telles expériences fournissent à la personne l'occasion d'améliorer ses connaissances et ses stratégies de réalisation de tâches, permettent d'atteindre des résultats valorisés qui, à leur tour, permettent de développer ses sentiments d'efficacité personnelle et ses attentes de résultats dans un cycle de développement dynamique des capacités. Bien que ce modèle décrive les processus en jeu au niveau individuel (par exemple cognitif, motivationnel), il est important de rappeler que les personnes développent leurs talents, leurs sentiments d'efficacité personnelle, leurs attentes de résultats et leurs buts dans un contexte social et culturel plus vaste. Comme on le voit sur la figure 2, les expériences d'apprentissage dans lesquelles les personnes s'engagent et les résultats qu'elles obtiennent sont étroitement liés aux caractéristiques de leur environnement, telles que la qualité de l'enseignement dont elles bénéficient, la nature des modèles de rôle disponibles, le style d'éducation parentale, la socialisation par les rôles de genre, les soutiens des pairs, ainsi que les normes communautaires et familiales. Il faudrait aussi insister sur le fait que l'on considère que les sentiments d'efficacité personnelle complètent la capacité objectivement évaluée mais qu'ils ne peuvent pas s'y substituer. La réalisation de performances complexes n'est pas favorisée uniquement par les capacités mais aussi par un sens optimiste des sentiments d'efficacité personnelle qui aide les personnes à organiser, à orchestrer et à tirer le meilleur parti de leurs talents. Ce que les personnes peuvent réaliser dépend en partie de la façon dont elles interprètent et exercent leurs capacités, ce qui contribue à expliquer pourquoi deux individus qui ont des capacités objectives semblables peuvent réaliser des performances dont la qualité varie fortement (Bandura, 1986). Lorsqu'une personne doute de ses capacités, elle va probablement, par exemple, moins souvent mettre en œuvre ses capacités de façon efficace, rester moins longtemps focalisée sur la tâche et ne pas persévérer face aux difficultés. Les effets des sentiments d'efficacité d'une personne peuvent dépendre du fait qu'ils sont plus élevés ou moins élevés que le niveau actuel de ses capacités objectives. Les personnes peuvent rencontrer des difficultés quand elles interprètent mal leurs capacités, que ce soit de façon positive ou négative. Les croyances d'efficacité personnelle qui surestiment fortement leurs capacités actuelles (cas de surestimation) peuvent encourager les personnes à se lancer dans la réalisation de tâches pour lesquelles elles sont mal préparées, risquant de ce fait l'échec et le découragement. Les sentiments d'efficacité personnelle qui sous-estiment beaucoup leur capacité objectivement évaluée (cas de sous-estimation) peuvent influer sur le niveau de réussite des personnes en suscitant une moins grande mobilisation des efforts et de la persévérance, des buts moins élevés, une anxiété plus forte relative au niveau de réussite à atteindre et l'évitement d'objectifs pourtant réalistes. Ces deux types de mauvaise interprétation (surestimation et sous-estimation) peuvent contrarier le développement des capacités. Au contraire, des sentiments d'efficacité personnelle légèrement supérieurs aux capacités objectives (légère surestimation) favorisent une utilisation optimale des capacités et une motivation pour leur développement. Les modèles de base de la TSCOSP (modèles des intérêts, du choix, et du niveau de réussite atteint) – et tout particulièrement les hypothèses relatives au développement, au cours de l'enfance et de l'adolescence, des sentiments d'efficacité personnelle et des autres variables sociales cognitives – peuvent susciter l'idée de types d'intervention en orientation scolaire et professionnelle et pour la prévention de ses difficultés. En ce qui concerne les applications qui ont un objectif de soutien, la TSCOSP peut être utilisée comme cadre conceptuel permettant à la fois d'adapter les méthodes de counseling existantes et de développer de nouvelles techniques d'intervention. Dans ce chapitre, je suggérerai quelques pistes d'utilisation de la TSCOSP en vue de favoriser l'éducation et le soutien à l'orientation scolaire et professionnelle. Selon la perspective de la TSCOSP, plusieurs processus clés interviennent au cours de l'enfance et de l'adolescence – dans les cadres de la scolarité, de la famille, des groupes de pairs et d'autres domaines – processus qui créent les bases pour les choix et les adaptations futures. Ces processus incluent l'acquisition des sentiments d'efficacité personnelle et les attentes de résultats relatives à divers types d'activités, le développement des intérêts qui sont en rapport avec des types d'activités professionnelles et la formation des aspirations professionnelles (dans le cadre de la TSCOSP, les aspirations représentent des buts professionnels provisoires ou des rêveries). Ces processus participent aux activités de développement qui prédominent au cours des années de scolarité de l'école élémentaire et du collège et qui sont revisitées de façon continue et précisées au lycée et au-delà (Lent, Hackett & Brown, 1999). Le plus souvent, les jeunes enfants ont une emprise très limitée sur leurs capacités, sans parler de leurs activités et de leurs choix professionnels. À cause de leur faible expérience professionnelle et de leur possibilité limitée d'observer des modèles de rôles professionnels, leurs intérêts et leurs aspirations professionnels ont une forte probabilité d' être stéréotypés, étroits et peu stables. Au cours de l'enfance et de l'adolescence, les personnes connaissent un nombre de plus en plus grand d'expériences : réalisations de tâches variées et expositions directes ou vicariantes à un nombre croissant de situations professionnelles. Ces expériences conduisent les personnes à construire des croyances différenciées concernant leurs capacités liées à différents domaines d'activité, et à une meilleure connaissance des conditions de travail et des valeurs offertes par divers types de choix professionnel. Les sentiments d'efficacité personnelle et les attentes de résultats qui émergent nourrissent à leur tour des intérêts et des buts éducatifs et professionnels qui tendent progressivement à se préciser et à se cristalliser au cours du temps, même s'ils sont encore relativement modifiables en fonction de l'accroissement des connaissances relatives au soi (la connaissance de ses capacités personnelles, de ses valeurs) et aux professions (la connaissance des capacités requises, des renforçateurs offerts). C'est ainsi que les aspirations professionnelles tendent à devenir progressivement (mais pas toujours) de plus en plus stables et réalistes – c'est-à-dire congruentes avec les intérêts personnels, les capacités et les valeurs. Cette analyse suggère que les sentiments d'efficacité personnelle et les attentes de résultats – et les informations sur lesquelles elles sont fondées – sont des éléments clés dans la construction des intérêts scolaires, universitaires et professionnels des étudiants et dans l'élaboration de l'éventail des types de choix professionnel qu'ils sont disposés à envisager. Cependant, les aspirations professionnelles des étudiants peuvent se voir restreintes soit parce que l'environnement social leur offre des possibilités limitées ou biaisées de réaliser des expériences susceptibles de développer des sentiments d'efficacité (par exemple de rares opportunités de réussir dans des recherches scientifiques, l'absence de modèles de rôle de genre féminin en mathématiques) soit parce qu'ils développent des sentiments d'efficacité ou des attentes de résultats professionnels non réalistes. Ces observations suggèrent que les interventions éducatives qui visent à augmenter les sentiments d'efficacité et les attentes de résultats favorables sont probablement plus utiles au cours de l'enfance et de l'adolescence, avant que les intérêts et les aspirations deviennent plus stables et que certains types de choix soient prématurément écartés. Les quatre sources qui alimentent les sentiments d'efficacité personnelle peuvent être utilisées comme un cadre qui permet d'organiser des interventions psycho-éducatives. Le fait d'atteindre soi -même des objectifs que l'on s'est fixés constitue un objectif d'intervention particulièrement important, à cause des effets potentiels des expériences de maîtrise sur les sentiments d'efficacité. Les expériences de maîtrise, dont le niveau de difficulté augmente progressivement, peuvent nourrir un sentiment d'efficacité personnelle pour des tâches particulières. Toutefois, il est important de prêter attention à la façon dont les étudiants interprètent la qualité de leur niveau de réussite. Par exemple, des réussites objectives peuvent ne pas avoir d'effet sur les sentiments d'efficacité lorsque les étudiants attribuent leurs bonnes notes à la chance, à l'effort ou à la facilité de la tâche. Cela se produit souvent lorsque des filles réussissent en mathématiques, en sciences et dans d'autres activités non traditionnelles (Hackett, 1995). Les efforts pour modifier les sentiments d'efficacité personnelle des étudiants peuvent, par conséquent, bénéficier de la mise en œuvre de procédures de restructuration cognitive qui encouragent les étudiants à produire des attributions de réussite qui renforcent le soi (par exemple attribuer sa réussite au développement de ses capacités personnelles, en considérant la capacité comme un attribut qui est susceptible d' être acquis et non pas comme une entité fixée, innée). Des types d'interventions utiles peuvent aussi être conçus à partir des trois autres sources de construction des sentiments d'efficacité personnelle. Par exemple, on peut recourir à l ' apprentissage par observation pour aider les étudiants à explorer des voies universitaires et professionnelles qu'ils n'ont pas suivies auparavant ou qu'ils n'ont pas été encouragés à envisager. Les étudiants ont une forte probabilité de s'identifier à des modèles de rôle qu'ils perçoivent comme étant conformes à leur genre, à leurs caractéristiques ethniques et à leur âge. On peut tirer parti du soutien social et utiliser la persuasion afin d'encourager les étudiants à s'engager dans de nouvelles tâches, à persister en dépit de résultats initiaux négatifs et à interpréter de façon positive leurs expériences (par exemple, en se focalisant sur le développement des capacités et non sur l'atteinte ultime du but). Il se peut qu'il faille prendre en compte les états physiologiques et affectifs dans les cas où, par exemple, l'anxiété attachée à la tâche semble diminuer les sentiments d'efficacité personnelle et dégrader le niveau de réussite atteint. Des exercices de relaxation et d'autres stratégies cognitivo-comportementales peuvent alors être utilisées pour diminuer l'anxiété qui fragilise l'étudiant. Les croyances d'efficacité personnelle relatives aux différentes disciplines scolaires (en mathématiques ou dans d'autres disciplines scolaires par exemple) ne doivent pas être les seuls points de focalisation des efforts de construction des sentiments d'efficacité personnelle. Il semble également souhaitable de favoriser le développement des capacités et des sentiments d'efficacité personnelle relatifs à des domaines plus généraux du processus d'orientation, comme la communication, le travail en équipe, la résolution de conflit, le leadership ou la sensibilité multiculturelle. On considère que ces types de capacité générale font partie intégrante des processus en jeu lors de la transition formation-emploi que les étudiants doivent affronter (Lent et al., 1999). La TSCOSP ne devrait pas se focaliser uniquement sur le renforcement des sentiments d'efficacité personnelle. Elle pourrait aussi susciter d'autres types d'interventions éducatives visant une variété de buts. En particulier, l ' apport d'informations professionnelles remplit un rôle clé en favorisant l'élaboration d'attentes réalistes à l'égard, par exemple, des croyances relatives aux conditions de travail et des aspects considérés comme attrayants pour la personne dans diverses professions). La TSCOSP pourrait aussi susciter des interventions appropriées à l' âge, conçues pour aider les élèves ou les étudiants à explorer leurs intérêts émergeants et les nombreuses professions avec lesquelles ces intérêts peuvent être compatibles – étant entendu que les intérêts, les buts, les valeurs et les capacités sont des attributs évolutifs qui peuvent changer au cours du temps. La TSCOSP a été utilisée pour la conception (Prideaux, Patton & Creed, 2002) et l'évaluation (McWhirter, Rasheed & Crothers, 2000) de programmes scolaires d'éducation à l'orientation (programmes qui visent à développer chez l'élève ou l'étudiant des connaissances et des compétences en jeu dans le processus d'orientation scolaire et professionnelle). Selon un scénario idéal, les personnes parviennent à la fin de l'adolescence et au début de la vie adulte à avoir : (a) une bonne appréciation de leurs intérêts, de leurs valeurs et de leurs talents, (b) une compréhension de la façon dont ces attributs personnels correspondent à des choix professionnels potentiels, (c) un but clair ou un choix qui permet de faire des liens entre leurs attributs personnels et une voie professionnelle qui convient (par exemple un choix qui peut éveiller leurs intérêts, satisfaire leurs valeurs et qui valorise leurs talents), (d) des capacités suffisantes pour prendre des décisions, se fixer des buts et les poursuivre (les capacités d'autorégulation par exemple), (e) un environnement qui les soutient suffisamment dans leurs buts (le soutien social, les mentors, les ressources financières) et l'existence d'obstacles liés aux buts qui soient surmontables (discrimination sociale) et enfin (f) un ensemble de traits de personnalité qui aide généralement à prendre les décisions importantes dans la vie et à les réaliser. Il est peu probable que ceux qui disposent de fortes ressources personnelles et environnementales fassent appel aux services d'un conseiller d'orientation. Malheureusement, des problèmes peuvent se manifester dans l'un ou dans plusieurs de ces domaines – et d'autres types variés de défis, tels que les handicaps physiques ou des difficultés relatives aux sphères de vie externes au choix professionnel, peuvent aussi se présenter – ce qui peut entraver les efforts faits par un individu pour choisir une profession et pour réaliser ce choix. Les conseillers d'orientation expérimentés sont capables d'évaluer et de traiter un large éventail de ces problèmes qui restreignent les choix. Si un examen exhaustif des problèmes de choix professionnel et des solutions envisageables dépasse le cadre de cet article, il est possible de présenter quelques stratégies inspirées par la TSCOSP qui peuvent aider à sortir de certaines impasses du choix professionnel et de sa réalisation. Comme la plupart des autres conceptions du counseling d'aide au choix d'orientation, la TSCOSP se donne pour objectif d'aider les consultants à sélectionner un ensemble de professions qui s'accordent suffisamment bien avec les caractéristiques importantes de leur personnalité impliquées dans le choix professionnel (par exemple les intérêts, les valeurs, les capacités). Certains consultants sont bloqués dans leur choix professionnel à cause d'une différenciation insuffisante de ces caractéristiques (c'est le cas, par exemple, lorsque les intérêts – évalués à l'aide de questionnaires – sont faibles et lorsque le profil des intérêts est plat) ou parce qu'ils se sentent limités à un petit nombre d'éventualités de choix professionnels possibles. Lorsque c'est le cas, nous avons jugé utile, mes collègues et moi, d'explorer les processus sociocognitifs qui peuvent sous-tendre les problèmes de choix, en adaptant les stratégies d'évaluation qui sont communément utilisées en counseling d'orientation (Brown & Lent, 1996). Il découle notamment du modèle des intérêts de la TSCOSP que les personnes rejettent souvent des éventualités de choix professionnels potentiellement viables à cause de sentiments d'efficacité personnelle et d'attentes de résultats non réalistes (une personne peut croire par exemple, à tort, qu'elle n'a pas les capacités pour exercer efficacement une profession particulière ou que la profession n'offre pas des conditions de travail qu'elle valorise). En réexaminant les options antérieurement écartées et en envisageant les raisons pour lesquelles elles l'ont été, les consultants peuvent souvent clarifier leurs intérêts, leurs capacités et leurs valeurs et, suite à cela, ils peuvent élargir la gamme des options potentiellement satisfaisantes parmi lesquelles leur choix peut être fait. Nous avons utilisé deux stratégies pour explorer les options écartées. La première stratégie consiste à utiliser des questionnaires d'évaluation standardisés d'intérêts professionnels, de valeurs, de besoins et d'aptitudes et à en examiner les résultats en se demandant s'il y a des désaccords entre les options professionnelles dégagées à partir des résultats fournis par les diverses évaluations. Nous examinons tout particulièrement les désaccords entre les intérêts et les aptitudes d'une part et entre les intérêts et les valeurs d'autre part. Dans les cas où les consultants paraissent avoir les dispositions permettant de réussir dans des professions particulières tout en ayant des intérêts relativement faibles pour ces mêmes professions, cela peut suggérer qu'ils sous-évaluent leurs capacités personnelles (par exemple, que les intérêts peuvent ne pas s' être développés à cause de sentiments d'efficacité personnelle anormalement faibles). De même, dans les cas où les valeurs d'un consultant paraissent compatibles avec certaines professions, mais où le consultant manifeste peu d'intérêts pour ces professions, cela peut suggérer que ses attentes de résultats sont non réalistes (il se peut que ce consultant possède une information limitée ou biaisée sur certaines professions, si bien qu'il se trompe sur le fait que ces activités professionnelles pourraient répondre à ses besoins). Le constat de tels désaccords peut faire l'objet d'une discussion approfondie et il peut amener à s'engager dans une activité de counseling qui vise à augmenter les sentiments d'efficacité personnelle ou à inculquer des attentes de résultats plus exactes. Notre seconde stratégie d'exploration des options professionnelles non choisies consiste à utiliser une procédure modifiée de la technique d'entretien des cartes-métiers. Nous demandons d'abord aux consultants de classer des professions en trois catégories : (a) « je pourrais choisir cette profession », (b) « je ne choisirais pas cette profession » et (c) « je ne sais pas ». Dans un deuxième temps, nous nous focalisons sur les professions classées dans les catégories (b) et (c). Le consultant est encouragé à classer ces professions à l'intérieur de catégories plus spécifiques reflétant : Les croyances d'efficacité (« je pourrais choisir cette profession si je pensais avoir les capacités pour l'exercer »). Les attentes à l'égard de la profession (« je pourrais la choisir si je pensais qu'elle pourrait m'apporter des choses que je valorise »). Le manque complet d'intérêt (« je ne la choisirais en aucun cas »), ou toute autre catégorie. Les professions classées dans les sous-catégories « croyances d'efficacité » et « attentes à l'égard de la profession » sont ensuite explorées du point de vue du réalisme des capacités et des perceptions des apports de la profession. Comme dans le cadre de la première stratégie, on peut s'engager dans une évaluation plus approfondie, dans le renforcement de sentiments d'efficacité personnelle, ou dans une recherche d'information, afin de mettre en question les perceptions de soi non réalistes et les attentes erronées à l'égard de la profession, et cela dans le but d'élargir l'éventail des options de choix possibles. Pour illustrer la première stratégie à l'aide de l'exemple d'un cas, nous avons travaillé avec une femme âgée de 35 ans qui est venue consulter au centre de counseling à cause de l'insatisfaction qu'elle ressent dans l'exercice de sa profession actuelle de directrice de la photographie dans une maison d'édition importante. Pour cette consultante, qui avait obtenu une maîtrise en histoire de l'art, son travail n'était pas assez stimulant dans la mesure où il ne lui donnait pas suffisamment l'occasion d'utiliser ses capacités. Envisagés dans le cadre de la théorie sociale cognitive, ses résultats aux tests étaient très spectaculaires. Les évaluations de ses aptitudes et de ses besoins ont révélé un profil d'aptitudes et de besoins professionnels assez comparable à celui de professeurs de l'enseignement supérieur dans une variété de domaines comme la sociologie, les sciences sociales, la psychologie et le counseling. Toutefois, elle avait répondu au questionnaire d'intérêts en utilisant souvent la modalité de réponse « indifférent », ce qui avait eu pour effet d'aboutir à un profil d'intérêts plat. Lorsque ces divergences ont été abordées avec elle, elle a indiqué qu'elle avait, il y a déjà assez longtemps, envisagé ces options professionnelles mais qu'elle n'avait pas (ni à cette époque, ni aujourd'hui) considéré qu'elles étaient sérieusement envisageables du fait qu'elle pensait ne pas avoir les capacités nécessaires, en rédaction et en mathématiques, pour réussir dans de telles professions. Son conseiller lui fit remarquer que les résultats relatifs à ses aptitudes indiquaient qu'en réalité elle semblait avoir le niveau d'aptitudes verbales et mathématiques nécessaire pour réussir dans ces professions. Une exploration plus approfondie de ses performances scolaires antérieures permit d'identifier des capacités rédactionnelles plutôt bien développées qu'elle semblait dévaloriser à cause de ses normes très élevées de niveau de réussite (elle pensait par exemple que les mémoires qu'elle a rédigés lors de son cursus universitaire devaient être d'une qualité qui les rende publiables et c'est en fonction de cette norme qu'elle les a jugés satisfaisants). Son conseiller professionnel l'a alors aidée à reconsidérer ses normes très élevées – et de ce fait décourageantes – et à rechercher des informations supplémentaires concernant ses capacités en mathématiques en l'encourageant à suivre un cours de statistiques dans un établissement universitaire des environs. Elle a finalement choisi de suivre un programme doctoral en sociologie urbaine dans une université réputée. Elle a obtenu de bons résultats universitaires et elle est parvenue à publier des articles universitaires avec le professeur qui dirigeait son travail. Au cours de sa première année d'études doctorales, elle a eu besoin d'avoir plusieurs entretiens avec son conseiller professionnel afin de travailler sur la question de ses normes de niveau de réussite décourageantes et de maintenir ses attentes d'efficacité relatives à la profession choisie. Notre seconde stratégie, qui consiste à utiliser une technique modifiée des cartes-métiers, peut être illustrée à l'aide d'un autre cas concret de counseling professionnel. C'est le cas d'une femme âgée de 24 ans qui exprime son insatisfaction à l'égard de sa profession d'assistante de production indépendante dans l'industrie cinématographique, en évoquant le manque de sécurité dans l'emploi et l'absence d'opportunités de promotion. Elle évoque également le fait que son travail ne lui permet pas d'avoir assez d'influence sociale. Au début de l'activité de counseling, nous avons proposé à cette consultante notre technique modifiée des cartes-métiers. Elle a choisi initialement plusieurs professions en rapport avec l'enseignement aux niveaux primaire, secondaire et universitaire, professions qu'elle a classées dans la catégorie « je pourrais choisir cette profession » mais les professions liées à l'enseignement qui impliquent des responsabilités de supervision ou de direction (par exemple directeur ou principal d'établissement scolaire, représentant d'étudiants) ont été classées dans la catégorie « je ne la choisirais pas ». Au cours de la deuxième étape de l'opération de classement des professions rejetées, elle a placé toutes les autres professions dans la sous-catégorie qui concerne les croyances d'efficacité faibles (« je pourrais choisir cette profession si je pensais avoir les capacités nécessaires ») parce que, comme l'entretien qui a suivi l'a confirmé, elle ne croyait pas qu'elle avait (ou qu'elle pouvait acquérir) les capacités de leadership et d'influence requises par ces professions. Afin de rassembler des informations complémentaires sur ses capacités de commandement et d'influence, on lui a proposé de répondre aux subtests de l'échelle de capacité d'une épreuve de capacités et d'intérêts couramment utilisée (le « Campbell interests and skills survey ») et de donner le même inventaire à trois de ses amis afin qu'ils y répondent « comme ils pensaient qu'elle y avait elle -même répondu ». Les moyennes des scores bruts obtenus aux sept premières dimensions d'aptitudes primaires ont été calculées à la fois sur les réponses de la consultante et sur les réponses de ses amis. Une comparaison entre les moyennes de la consultante et une moyenne composite des résultats de ses amis a été conduite avec la consultante. Cela a permis de mettre en évidence un désaccord substantiel entre les deux évaluations, à la suite de quoi la consultante a été encouragée à discuter de ce résultat avec ses amis. Ces discussions l'ont amenée à réévaluer ses croyances d'efficacité et ses capacités d'influence et de leadership, ainsi que son intérêt pour les positions de leadership en éducation. À la suite de cela, elle s'est engagée dans un diplôme qualifiant dans un département universitaire de formation à l'encadrement éducatif, en même temps qu'elle obtenait un diplôme d'enseignement et elle déclare actuellement être satisfaite de ce choix. Un principe important, mais peut-être subtil, de la théorie sociale cognitive du counseling d'aide au choix professionnel doit être mis ici en lumière : mes collègues et moi, nous pensons qu'il est important de donner les moyens aux consultants de faire leurs choix professionnels à partir de l'éventail le plus large possible d'options professionnelles réalistes, en incluant le réexamen de choix d'options antérieurement écartées. Même si ces options peuvent ne pas être choisies au bout du compte, leur réexamen peut aider les consultants à apprendre plus de choses sur eux -mêmes et sur l'éventail des alternatives qu'ils pourraient trouver attrayantes, actuellement ou dans le futur. Une conception clé du modèle du choix de la TSCOSP est que les personnes ont une probabilité plus forte de réaliser leurs choix professionnels (c'est-à-dire de traduire leurs buts en actions) s'ils perçoivent que leurs options préférées seront associées à des obstacles faibles et à des soutiens solides. Réciproquement, les consultants qui anticipent, par exemple, que leurs « autruis significatifs » déprécieront leurs options préférées ou qu'ils ne pourront pas bénéficier du soutien financier dont ils ont besoin pour la poursuite de leurs choix, seront moins enclins à poursuivre leurs buts jusqu'au bout. Ces hypothèses nous ont conduits à considérer sérieusement les soutiens et les obstacles potentiels dans le processus de counseling décisionnel. En particulier, nous avons conçu une suite d'étapes pour aider les consultants : (a) à identifier et à anticiper les obstacles éventuels au cours de la réalisation de leur choix, (b) à analyser les probabilités de se heurter à des obstacles, (c) à préparer des stratégies d'ajustement à ces obstacles (par exemple, des méthodes pour prévenir ou surmonter les obstacles probables) et (d) à rechercher des soutiens leur permettant d'atteindre leurs buts auprès de leur famille, de leurs pairs et d'autres groupes sociaux importants. Nous avons utilisé une procédure modifiée de la technique d'entretien de « feuille de bilan-inventaire » pour aider les consultants à identifier les obstacles potentiels liés au choix. Nous demandons expressément aux consultants d'envisager les conséquences positives et négatives liées à chacune des options professionnelles qu'ils ont sérieusement envisagées. Nous leur demandons ensuite de se focaliser sur les conséquences négatives qui pourraient les empêcher de poursuivre chacune des options. On demande au consultant d'estimer les probabilités qu'il pense avoir de rencontrer réellement chaque obstacle, à la suite de quoi on développe et on prépare des stratégies en vue de prévenir ou de surmonter les obstacles les plus probables. Pour illustrer l'utilisation de cette procédure, considérons de nouveau le cas de notre consultante de 35 ans que nous avons déjà évoqué. En suivant la procédure de la feuille de bilan-inventaire, elle a pris conscience d'un obstacle significatif à la poursuite d'une carrière universitaire en sociologie urbaine. Plus précisément, en considérant les conséquences négatives qui pourraient être liées à la poursuite de cette voie professionnelle, elle a été amenée à aborder le fait qu'elle vivait depuis plusieurs années avec un homme qui a un emploi dans la région. Parce qu'un seul programme diplômant de sociologie existe dans l'université voisine, elle a peur de devoir changer de domicile et de mettre son couple en danger. Elle a considéré cette question comme étant susceptible de constituer pour elle un très fort obstacle à l'idée de suivre son option sociologique dans une université éloignée de son domicile. Le conseiller l'a encouragée à en discuter avec son compagnon afin d'approfondir cette question et de pouvoir développer des stratégies pour y faire face. Suite à cette discussion, la consultante et son compagnon ont conclu que ce choix les concernait tous les deux. Ils se sont mis d'accord sur le fait qu'elle présenterait sa candidature aux programmes nationaux diplômants, mais qu'elle mettrait en première position le programme de l'université de sa région. Dans l'éventualité où elle ne serait pas acceptée dans l'établissement de sa région, son partenaire était d'accord pour la suivre, dans la mesure où il pensait pouvoir exercer son métier dans d'autres villes. Bien qu'elle ait été acceptée dans l'université de sa région, le fait d'avoir discuté avec son conjoint de ce problème l'a aidée à anticiper et à se préparer à faire face à un obstacle potentiellement important afin de réaliser son choix de carrière préféré. En plus d'anticiper les obstacles et de les préparer à s'y confronter, il peut être très utile d'aider les consultants à se construire des systèmes de soutien qui appuieront leurs efforts au cours du processus de choix (Lent et al., 2000). En fait, on a établi que la construction de systèmes de soutien est un élément clé dans la réussite du processus de counseling de choix professionnel (Brown & Ryan Krane, 2000). Une fois que les consultants ont limité le nombre d'options professionnelles possibles, on peut les inciter à considérer : (a) les étapes qu'ils ont besoin de suivre pour réaliser leurs choix préférés, (b) les ressources de l'environnement (sociales, financières. ..) qui pourraient les aider à franchir ces étapes et (c) les ressources qu'ils pourraient utiliser, de façon spécifique, afin de surmonter les obstacles qu'ils sont susceptibles de rencontrer en cherchant à atteindre leurs buts. Les conseillers peuvent aussi aider les consultants à considérer où et quand ils peuvent accéder aux soutiens dont ils ont besoin. Dans de nombreux cas, les systèmes de soutien des consultants peuvent leur fournir les ressources utiles dans leur poursuite de but (par exemple, l'accès à des contacts professionnels pertinents). Dans d'autres cas, les ressources peuvent être obtenues en développant des systèmes de soutien nouveaux ou alternatifs (développer des relations avec des pairs qui soutiendront, ou ne contrarieront pas, ses aspirations académiques ou professionnelles, par exemple). Les efforts destinés à promouvoir la réussite scolaire et professionnelle et à optimiser les niveaux de réussite, peuvent être guidés par la TSCOSP. Les hypothèses de base du modèle du niveau de réussite de la TSCOSP suggèrent que les croyances d'efficacité personnelle peuvent faciliter la réussite dans un domaine universitaire ou professionnel particulier, à condition que la personne possède bien les niveaux suffisants de capacités requises dans ce domaine. Ainsi, les procédures construites pour renforcer les croyances d'efficacité personnelle peuvent être des éléments utiles à la fois dans les programmes de développement des capacités (aspect déjà discuté dans le contexte du développement des aspirations) et dans les efforts faits pour soutenir les personnes en difficulté. Une stratégie de base fondée sur l'efficacité personnelle, qui a pour objectif d'améliorer le niveau de réussite, implique d'explorer les divergences possibles entre, d'une part, les estimations des sentiments d'efficacité personnelle et, d'autre part, les résultats exprimés en termes de capacités objectivement évaluées ou de performances antérieures. On peut alors concevoir des procédures d'intervention répondant au type de divergence identifié. Par exemple, les étudiants et les travailleurs qui ont des croyances d'efficacité personnelle faibles, mais des capacités suffisantes dans le domaine d'activité en rapport avec leur choix, peuvent bénéficier d'interventions relativement courtes conçues pour améliorer leurs sentiments d'efficacité personnelle et, éventuellement, pour développer davantage leurs capacités, ce qui dépend du niveau actuel de leurs capacités. Ceux qui présentent à la fois des sentiments d'efficacité faibles et des capacités insuffisantes peuvent toutefois être de bons candidats pour des interventions de soutien intensif à la construction de capacités, en se centrant sur les informations qui sont source de sentiments d'efficacité personnelle. Il peut aussi arriver que l'on rencontre des cas où l'insuffisance des capacités est très importante, où le consultant n'est pas disposé à s'engager dans des activités de soutien (ou a peu de chance d'en profiter) et où l'institution sociale (l'université, l'organisation de travail) refuse de soutenir de telles activités ou a décidé de mettre un terme aux études d'un étudiant ou aux activités professionnelles d'un employé. Dans les termes des théories de l'appariement personne-environnement, de tels scénarios reflètent un mauvais appariement entre les capacités de l'individu et les capacités requises dans un domaine scolaire ou professionnel. Dans de tels cas, des prestations de counseling en orientation peuvent être proposées, avec l'objectif d'identifier des options scolaires ou professionnelles alternatives dont les exigences en matière de capacités correspondent mieux aux aptitudes actuelles du consultant. Soulignons le fait que la TSCOSP ne permet pas de penser que les sentiments d'efficacité personnelle compenseront un manque d'aptitudes requises ou que les efforts visant à augmenter les sentiments d'efficacité personnelle sont toujours indiqués. En fait, de tels efforts ne semblent pas avoir une forte probabilité d'améliorer le niveau de réussite (et tous les gains qui en résultent en termes de sentiments d'efficacité personnelle ont une faible probabilité d' être maintenus) s'ils ne tiennent aucunement compte de capacités déficientes. Lorsque le consultant a les capacités requises mais des croyances d'efficacité faibles dans un domaine particulier, la théorie mettrait l'accent sur la valeur des activités conçues pour l'aider à : (a) avoir des expériences personnelles de maîtrise dans des tâches dont le niveau de difficulté croît progressivement dans le domaine, (b) passer en revue les expériences antérieures de réussite et (c) interpréter les succès passés et présents de façon à mettre en valeur, et non pas à dévaluer, sa compétence perçue. Dans le même esprit que les suggestions antérieures faites pour renforcer les croyances d'efficacité personnelle, les consultants peuvent être encouragés à attribuer leurs expériences de réussite au développement de leurs capacités, à des facteurs stables, à des capacités personnelles particulières, plutôt qu' à des facteurs internes, instables (l'effort) ou externes (la chance, la simplicité de la tâche). Par exemple, lorsque les consultants réussissent à accomplir des tâches ou quand ils passent en revue leurs expériences antérieures, on peut leur demander quelles sont, à leur avis, les raisons qui expliquent leurs réussites. Les attributions non adaptatives peuvent être remises en question, par exemple, en demandant aux consultants de proposer et d'évaluer des interprétations alternatives pour expliquer leurs réussites (Brown & Lent, 1996). Cette focalisation sur les expériences de maîtrise – ce qui conduit à la fois à en susciter de nouvelles, à passer en revue celles qu'on a déjà faites et à les interpréter – peut être renforcée par les activités de counseling qui s'appuient sur les autres sources des sentiments d'efficacité personnelle. Par exemple, le fait d'offrir des modèles pertinents, un soutien verbal ou une aide en matière de stratégies d'ajustement aux situations anxiogènes (coping) peut aider à augmenter les sentiments d'efficacité personnelle et, dans un second temps, à développer les capacités et le niveau de réussite. En outre, la TSCOSP considère les attentes de résultats et le niveau des buts fixés, qui entrent en jeu concurremment avec les sentiments d'efficacité personnelle, comme des éléments clés de la motivation à la réussite. Ainsi, une conception globale des éléments qui améliorent le niveau de réussite devrait aussi prendre en compte les efforts pour instiller des attentes de résultats favorables (par exemple une connaissance précise des conditions de travail et des éléments renforçateurs) et réalistes, tout en recherchant des buts (en matière de niveau de résultat que l'on se fixe) qui représentent un défi (des buts qui sont réalisables mais qui permettent d'étendre et aussi d'affiner ses propres capacités). Les variables centrales de la TSCOSP et les prédictions que cette théorie permet ont suscité un grand nombre de recherches au cours des dernières années. Bien qu'une revue exhaustive de la recherche conduite dans le cadre de la TSCOSP ne soit pas possible dans le cadre de cet article, nous pouvons résumer quelques-unes de ses tendances majeures et ses principaux résultats. On peut consulter plusieurs revues plus complètes (Bandura, 1997; Swanson & Gore, 2000) et des méta-analyses (Lent et al., 1994; Stajkovic & Luthans, 1998) qui présentent une analyse approfondie de la recherche qui étudie les processus développementaux de l'orientation scolaire et professionnelle et leurs résultats à la lumière de la théorie sociale cognitive. Dans ce chapitre, je prendrai en considération l'ensemble des résultats empiriques obtenus dans le cadre de la TSCOSP, en m'appuyant principalement sur plusieurs méta-analyses. Un ensemble important de résultats suggère que les variables sociales cognitives aident à comprendre les comportements dans les domaines de l'enseignement et du choix professionnel au cours de la phase préparatoire, de la phase de transition (le passage de l'école au travail ou le changement d'emploi) et de la phase qui suit l'entrée dans le monde professionnel (adaptation professionnelle). Parmi les variables sociales cognitives, les sentiments d'efficacité personnelle ont fait l'objet de la plus grande attention, avec des revues de recherches qui aboutissent traditionnellement aux conclusions suivantes : Les mesures des sentiments d'efficacité personnelle relatifs à un domaine spécifique sont prédictives des intérêts professionnels qui sont liés à ce domaine, au choix, au niveau de réussite et à la persistance du comportement. Les études qui portent sur des interventions, des études expérimentales et des études utilisant des analyses en pistes causales confirment certaines relations causales dont la TSCOSP fait l'hypothèse (par exemple le fait que les sentiments d'efficacité personnelle sont un des déterminants des intérêts). Les différences de genre en termes de sentiments d'efficacité personnelle aident à expliquer les différences constatées entre les garçons et les filles dans le domaine professionnel, notamment dans les domaines scientifiques et mathématiques (Bandura, 1997; Hackett, 1995; Hackett & Lent, 1992; Swanson & Gore, 2000). Les méta-analyses fournissent une méthode quantitative utile qui permet d'intégrer les résultats d'un grand nombre d'études indépendantes et d'apporter des conclusions sur la force des relations dont on fait l'hypothèse, en passant en revue toutes les études qui ont testé des hypothèses particulières. Plusieurs méta-analyses de recherches – qui concernent majoritairement de grands adolescents et de jeunes adultes – ont testé directement plusieurs des hypothèses de la TSCOSP. Une méta-analyse des hypothèses relatives aux intérêts, par exemple, montre que les sentiments d'efficacité personnelle et les attentes de résultats sont de bons prédicteurs des intérêts professionnels (Sheu et al., 2006), et que, conformément à la prédiction, il apparaît que la relation entre les capacités et les intérêts s'exerce à travers la médiation des sentiments d'efficacité personnelle, comme cela apparaît sur les figures 1 et 2 (Lent et al., 1994). Une méta-analyse des hypothèses relatives au choix dans la TSCOSP a montré que les choix professionnels sont fortement prédits par les intérêts et que les sentiments d'efficacité personnelle et les attentes de résultats sont, eux aussi, liés au choix de carrière de façon à la fois directe et indirecte, à travers leur lien aux intérêts (voir figure 2) (Lent et al., 1994; Sheu et al., 2006). L'étude de Sheu et de ses collègues suggère que le rôle des soutiens et des obstacles sociaux – perçus par la personne – au cours du processus de choix peut différer quelque peu des prédictions de la TSCOSP : plutôt que d' être relié directement aux résultats du choix, comme le propose la TSCOSP, le rôle principal des soutiens et des obstacles peut être de renforcer ou d'affaiblir les croyances de sentiments d'efficacité personnelle qui, à leur tour, développent et favorisent les intérêts et encouragent les choix. Une méta-analyse des prédictions du modèle du niveau de réussite de la TSCOSP s'est focalisée sur le lien entre les sentiments d'efficacité personnelle et divers indicateurs de niveau de performance. Les résultats ont montré que les sentiments d'efficacité personnelle sont de bons prédicteurs de la réussite universitaire (Multon, Brown & Lent, 1991) et professionnelle (Stajkovic & Luthans, 1998) et que certains facteurs affectent la force de la relation entre les sentiments d'efficacité personnelle et le niveau de réussite. Par exemple, les sentiments d'efficacité personnelle tendent à être plus fortement reliés à la réussite, d'une part, chez les étudiants les plus âgés que chez les étudiants les plus jeunes et, d'autre part, chez les étudiants à faible niveau de réussite que chez les étudiants à bon niveau de réussite (Multon et al., 1991). De plus, on a montré – ce qui est conforme à la théorie – que le lien entre les capacités et le niveau de performance atteint s'exerçait à la fois de façon directe et indirecte, à travers la médiation des croyances d'efficacité personnelle (Lent et al., 1994) (voir la figure 3). Dans l'ensemble, les résultats des méta-analyses sont conformes à de nombreuses prédictions de la TSCOSP. On a notamment trouvé que : Les intérêts sont fortement liés aux sentiments d'efficacité personnelle et aux attentes de résultats. Sa propre capacité ou l'atteinte de niveaux élevés de réussite dans un domaine particulier ont de fortes chances de susciter des intérêts pour ce domaine et de favoriser l'accroissement des sentiments d'efficacité personnelle à l'égard de ce même domaine. Les sentiments d'efficacité personnelle et les attentes de résultats sont liés dans une large mesure (mais pas complètement) aux choix professionnels par l'intermédiaire de leur relation aux intérêts. Les niveaux de réussite atteints antérieurement favorisent la réussite future grâce, d'une part, aux capacités des personnes et, d'autre part, à leurs sentiments d'efficacité personnelle qui peuvent les aider à organiser leurs capacités et à persister dans l'effort en dépit des échecs. Des études particulières ont appliqué la théorie sociale cognitive de l'orientation (TSCOSP) à divers types de populations, variables quant à l' âge, au niveau de développement, au genre, à l'appartenance ethnique et à la nationalité. De plus, plusieurs études portant sur des interventions fondées sur la théorie ont paru dans la littérature (voir Lent, 2005). Les promesses de ce type de recherche sont stimulantes. En même temps, il reste à conduire des recherches supplémentaires qui précisent davantage, par exemple, comment les variables environnementales agissent au cours du processus de choix professionnel et qui évaluent l'efficacité des interventions conçues en référence à la TSCOSP. D'une façon générale, il est important de conduire d'autres recherches pour savoir comment les variables sociales cognitives agissent conjointement avec la culture, l'appartenance ethnique, le statut socioéconomique, les orientations sexuelles et le statut de handicap afin de concevoir une formation à l'orientation scolaire et professionnelle adaptée aux divers groupes d'étudiants et de travailleurs. La théorie sociale cognitive de l'orientation scolaire et professionnelle est un cadre théorique évolutif qui a été construit à partir de la théorie sociale cognitive générale de Bandura (1986) et qui cherche à étendre cette théorie générale à la compréhension des processus en jeu au cours de l'orientation scolaire et professionnelle. Ce cadre de travail met en lumière les variables sociales cognitives telles que les sentiments d'efficacité personnelle qui rendent les personnes capables de donner une direction à leur orientation scolaire et professionnelle; il s'intéresse également aux modalités d'action d'autres facteurs personnels et environnementaux (le genre, la culture, les obstacles) qui contribuent à déterminer les cheminements professionnels des personnes. Cet article a présenté une revue des trois modèles initiaux (intérêts, choix et niveau de réussite) de la TSCOSP. Il a également examiné la portée de certains aspects de cette théorie pour des interventions éducatives ou de soutien en counseling d'orientation et il a discuté les voies et les résultats d'une recherche plus vaste conduite dans le cadre de la TSCOSP . | Cet article ' présente la théorie sociale cognitive de l'orientation scolaire et professionnelle2 (TSCOSP), fruit d'un effort récent pour étendre l'application de la théorie sociale cognitive générale de Bandura (1986) au domaine de l'orientation scolaire et professionnelle. La TSCOSP se focalise sur les processus grâce auxquels l'individu (a) développe ses intérêts scolaires/académiques et professionnels, (b) fait ses choix d'études et ses choix professionnels et (c) parvient à des niveaux de réussite variables, au cours de ses études et de ses activités professionnelles. La TSCOSP intègre à la fois des variables (par exemple les sentiments d'efficacité, les buts) qui permettent aux personnes d'influer sur leur propre orientation professionnelle et des variables (les obstacles environnementaux, les systèmes de soutien) qui peuvent affaiblir ou renforcer l'exercice de l'auto-contrôle que chacun exerce sur le déroulement de son orientation professionnelle. Cet article ne se limite pas à présenter une vue d'ensemble de la TSCOSP ; il discute aussi les résultats des recherches conduites dans son cadre et il en dégage les implications en matière d'interventions visant à aider au développement et au soutien de l'orientation scolaire et professionnelle. | psychologie_08-0381473_tei_981.xml |
termith-736-psychologie | L'adolescence est une phase de construction de l'identité, une période où l'individu doit élaborer ses premiers choix. Ces « tâches » correspondent à un processus développemental d'individuation et répondent dans le même temps à une injonction sociale, représentée notamment par les paliers d'orientation et les formulations de choix qui les accompagnent. Certes, l'identité est conçue comme une adaptation au contexte social (Baumeister & Muraven, 1996), et on peut supposer que le questionnement suscité aux différents paliers d'orientation stimule la construction identitaire des adolescents. Néanmoins, le soi en construction est particulièrement mis à rude épreuve aujourd'hui (Jeammet & Corcos, 2001). Il nous est ainsi apparu intéressant d'étudier les caractéristiques de la construction identitaire à deux paliers importants de l'orientation et jalonnant l'adolescence – les paliers de troisième et de terminale – en tentant de répondre à la question suivante : y a -t-il convergence des processus développementaux de construction identitaire et des injonctions sociales liées à l'orientation ? Comme Erikson l'a souligné (1968), l'identité comporte un aspect réflexif mais aussi un aspect social : avoir une identité, c'est être engagé socialement, c'est avoir fait ses propres choix. Avant de s'engager, l'adolescent connaît une période de moratoire psychosocial nécessaire, pendant laquelle il expérimente divers rôles sociaux, pour que les choix pris ultérieurement lui soient personnels. À la suite de la théorisation de Erikson (1968), Marcia (1966; Marcia, Waterman, Matteson, Archer & Orlofsky, 1993 pour une synthèse) a proposé une description de quatre statuts d'identité à partir des processus d'exploration et d'engagement. Le sentiment d'identité serait, selon cette conceptualisation, basé sur les engagements individuels dans des domaines significatifs, engagements possibles après une période d'exploration, elle -même synonyme de période de « crise ». L'exploration peut ainsi se définir comme l'observation et la recherche des différentes orientations et possibilités alternatives, et l'engagement fait référence à un choix effectué parmi les alternatives possibles dans les différents domaines de la vie (famille, travail-école, idéologies, amitiés, loisirs, orientation sexuelle, etc.). Faire référence à l'exploration et à l'engagement prend un sens particulier à l'adolescence. Après la période de dépendance que représente l'enfance, l'entrée personnelle dans la société (entendue au sens large, recouvrant aussi bien les relations sociales immédiates, que le rapport aux institutions, et encore plus largement à la culture), suppose que le sujet en explore les différents aspects, les différents possibles. L'engagement signifie, quant à lui, une certaine prise de position face à ces possibilités explorées, un positionnement personnel relevant du processus d'individuation et conduisant à la formulation de choix. La combinaison de ces deux processus, l'exploration et l'engagement, a conduit Marcia (1966; Marcia et al., 1993) à distinguer quatre types – « statuts » – d'identité élaborés à partir de l'analyse d'entretiens explorant les engagements individuels : La réalisation identitaire correspond au fait que les engagements marquent un positionnement de soi car ils résultent d'une activité exploratoire importante. Elle caractérise les personnes capables d'articuler les raisons de leurs choix et de décrire comment elles ont élaboré leurs choix personnels. Le moratoire se définit par une exploration importante de la part de l'adolescent avec une quête d'engagements encore vagues. Selon Marcia, ce statut identitaire représente davantage une étape dans le développement de l'identité qu'une forme de résolution identitaire, parce qu'il devrait déboucher à terme sur la définition de valeurs et de choix propres à l'individu. L'adolescent ici fait des tests (que ce soit sur des idées, sur des attitudes, des comportements), il joue des rôles, il s'engage à court terme dans des voies qu'il peut quitter par la suite : tester par exemple plusieurs activités de loisirs sportives et culturelles permet à l'individu en moratoire de profiter de cette phase intense d'exploration pour définir son identité. La forclusion identitaire se manifeste par des engagements forts sans qu'il y ait eu exploration préalable (l'adolescent reprenant généralement le discours parental). Le sujet en forclusion exprime des engagements, adopte des valeurs en bloc sans avoir connu de période d'exploration, c'est-à-dire sans les avoir assimilées lui -même. Il est en train de devenir ce que d'autres ont souhaité et préparé pour lui lorsqu'il était enfant. L'éducation ne sert qu' à confirmer ses croyances infantiles. La diffusion identitaire se caractérise par l'absence d'engagement qu'il y ait eu ou non exploration. En d'autres termes, les adolescents en diffusion se caractérisent par l'absence d'un ensemble cohérent de valeurs personnelles et par un faible degré ou une absence d'exploration des possibilités. Ils se laissent porter par le courant, pourrait-on dire. Par exemple, un individu en diffusion peut, comme celui en moratoire, être amené à diversifier ses activités de loisirs – mais contrairement à l'individu en moratoire, il n'a pas activement cherché une activité pouvant lui convenir, il semble y avoir été amené par hasard, au gré des événements. Concernant la question de l'identité à l'adolescence et la période « jeune adulte », le modèle des statuts d'identité est devenu l'approche dominante (Bosma, 1994; Meeus, 1996) servant de base à des travaux développementaux, différentiels et contextuels sur l'identité. L'accent a d'abord été mis sur la recherche d'une séquence développementale conformément aux présupposés théoriques de Marcia, allant de la diffusion ou forclusion vers le moratoire, puis la réalisation identitaire. Or les travaux empiriques n'ont pas validé l'existence de cette séquence développementale mais ont mis en évidence une évolution globale allant de la diffusion identitaire en début d'adolescence vers la réalisation en fin d'adolescence (cf. notamment Meeus, 1996; Waterman, 1982; 1993). Les conceptions développées dans le champ de l' « Ego Identity » se sont progressivement orientées vers la mise au jour de transitions identitaires, puis vers l'articulation d'une construction identitaire en contexte. Les travaux de recherches sont centrés désormais sur l'interaction individu-environnement dans le développement de l'identité (Adams & Fitch, 1983; Adams & Marshall, 1996; Goossens & Phinney, 1996; Markstrom-Adams, 1992; Schwartz, 2001). L'identité individuelle est ainsi conçue comme une adaptation au contexte social (Baumeister & Muraven, 1996). Grotevant (1987) a été l'un des premiers chercheurs dans ce domaine à tenter d'identifier les différents contextes jouant un rôle dans le développement identitaire à l'adolescence : que ce soit l'environnement socio-culturel, la famille, les pairs, ou encore l'environnement scolaire. Des caractéristiques de chaque contexte facilitent ou handicapent la construction identitaire. Ces questions sont notamment importantes dans les domaines scolaire et vocationnel puisqu'ils représentent les domaines d'engagement nécessaires les plus explicites du point de vue social (Lannegrand-Willems, 2000; Lannegrand-Willems & Bosma, 2006). La question du contexte peut être abordée de façon plus ou moins proximale, du microcontexte, tel que la famille ou l'école, au macrocontexte, tel que le contexte socio-culturel (Bronfenbrenner, 1979). D'un point de vue macrocontextuel, Côté (1996) souligne que les sociétés occidentales ont évolué d'une certaine rigidité vers une plus grande liberté, ce qui est censé permettre à chacun d'adapter son identité en fonction des circonstances, mais ce qui a, en contrepartie, augmenté la pression de chacun dans la création de sa propre identité – une pression qui est la plus forte au moment de l'adolescence. L'identité serait devenue une question essentielle du développement humain mais particulièrement difficile à résoudre. Selon son analyse, les sociétés occidentales favorisent l'approbation d'autrui, et guidée par l'image, l'identité se caractériserait par un déclin général des engagements (Côté, 1996; 1997). Elles ont produit en quelque sorte une adolescence prolongée et potentiellement aliénée, avec une recherche d'approbation et de soutien (Côté & Allahar, 1996). Ces caractéristiques sociétales pourraient conduire à une relative baisse d'activité exploratoire, mais surtout à une absence d'engagements. D'ailleurs, dans les recherches récentes comparées aux plus anciennes, Côté (1996) remarque que le nombre de personnes « diffuses » est plus important alors que le nombre de personnes en réalisation identitaire décroît. Cette évolution nous interroge par rapport à la nécessité qu'ont les adolescents de formuler des choix, particulièrement dans le domaine de l'orientation. Partant de cette conception de la construction identitaire à l'adolescence reposant sur la combinaison des processus d'exploration et d'engagement et la détermination de statuts d'identité, il s'agissait d'analyser l'articulation des questions d'identité et de contexte, en soulignant la difficulté de la construction de l'identité aujourd'hui, en évaluant la place de la diffusion identitaire (Côté, 1996), à travers notamment la mise en évidence d'un sous-type de diffusion, « l'aliénation », marquée par une absence d'exploration et d'engagement. En effet, lors d'une précédente étude (Lannegrand-Willems & Bosma, 2006), il est apparu nécessaire d'intégrer un statut supplémentaire au modèle en différenciant les adolescents explorant différentes alternatives sans parvenir à se déterminer, forme d'exploration divergente, des adolescents sans quête exploratoire ni de recherche de positionnement de soi. Ce nouveau statut identitaire a été nommé « aliénation identitaire » pour rendre compte de l'absence d'exploration et d'engagement. La subdivision du statut de diffusion identitaire est en accord avec des travaux antérieurs (Archer & Waterman, 1988; Marcia, 1989) et avec les considérations des effets macrocontextuels sur la construction identitaire de Côté et Allahar (1996). L'étude visait ensuite à caractériser l'identité des adolescents en termes de cinq statuts d'identité à ces deux grands paliers de l'orientation que sont les classes de troisième et de terminale. La classe de troisième, le « cycle d'orientation », constitue le premier palier de distribution des compétences avec une séparation entre les études générales et les études professionnelles. La classe de terminale quant à elle marque la fin des études secondaires : il s'agit du « cycle terminal » au cours duquel les élèves doivent s'informer des différentes orientations post-bac possibles en accord avec les séries de baccalauréat. Les enjeux de l'orientation scolaire et professionnelle sont importants, car comme l'ont souligné Dubet et Duru-Bellat (2000), il existe une forte hiérarchie des filières, des sections, des formations, explicite ou implicite, c'est-à-dire des inégalités des voies d'orientation, à tous les niveaux du système scolaire, et particulièrement au premier palier, la classe de troisième. À ces deux paliers d'orientation qui représentent des contextes favorisant la formulation de choix, observe -t-on chez les élèves une prédominance des statuts d'identité marqués par l'exploration (le « moratoire ») ? Par l'engagement (« la forclusion ») ? Par la combinaison des deux processus (la « réalisation » identitaire) ? Quelle est l'ampleur des cas de diffusion identitaire, marquée par une absence de construction de choix personnels, qu'il y ait une tentative de quête exploratoire (le statut de « diffusion » ici) ou une absence d'exploration (« l'aliénation ») ? L'étude empirique présentée ensuite tente de répondre à ces questions. Le sexe des élèves a été également pris en compte dans l'étude, des travaux ayant mis en évidence une maturation plus rapide des filles dans le développement identitaire (Streitmatter, 1988). Cependant, dans le seul domaine scolaire et professionnel, les études n'ont pas réellement mis en évidence de différences entre garçons et filles (Bilsker, Schiedel, & Marcia, 1988; Bosma, 1994). La population d'étude est constituée de 357 adolescents scolarisés en troisième (N = 253) dans des collèges socialement diversifiés et en terminale (N = 104) d'un lycée polyvalent. L'échantillon total se compose de 224 filles et 132 garçons, la moyenne d' âge est de 16,68 ans (minimum = 14; maximum = 20) et se décompose de la façon suivante : En troisième : 124 garçons et 128 filles, l' âge moyen est de 15,6 ans (minimum 14; maximum 18). En terminale : 8 garçons et 96 filles; l' âge moyen est de 18,1 ans (minimum = 16; maximum = 20). Les élèves sont issus de différentes filières (littéraire N = 30 – Économique et Social N = 39 – Scientifique N = 21 – Sciences Médico-Sociales N = 21). Une adaptation française sous forme de questionnaire de la GIDS (Groningen Identity Development Scale) de Bosma (1985; 1992; 1994) a été réalisée et validée (Lannegrand-Willems & Bosma, 2006). Ce questionnaire se compose d'une question ouverte thématique centrée sur le domaine des choix vocationnels dans cette étude, puis de 11 items d'exploration et de 15 items d'engagement. La question ouverte permet de solliciter le point de vue de l'élève sur son orientation. Il était ainsi demandé aux sujets de se prononcer sur leur orientation scolaire et professionnelle après la troisième pour le palier troisième, après la terminale pour le palier terminale. Les items du questionnaire proposés ensuite sont relatifs au point de vue exprimé par le sujet. Par exemple, « Essayez -vous de vous renseigner pour vous faire un point de vue plus large ? » est un item d'exploration, « Êtes -vous sûr(e) de votre avis sur votre orientation scolaire et professionnelle ? » est un item d'engagement. Les réponses possibles sont présentées sous forme d'échelle de Likert (réponses négatives, intermédiaires et positives, cotées de 0 à 2). Les scores varient de 0 à 22 pour l'exploration et de 0 à 30 pour l'engagement. La consistance interne de l'échelle est satisfaisante pour les deux dimensions (exploration : = .81 – engagement : = .84). La passation des questionnaires a été réalisée dans les établissements scolaires de façon collective par des collaborateurs de recherche, au cours du troisième trimestre, c'est-à-dire à un moment où les élèves doivent se prononcer sur leurs choix d'orientation. À partir des Z-scores d'exploration et d'engagement (obtenus à partir des scores bruts issus du questionnaire), des analyses hiérarchiques permettent de mettre en évidence des profils d'identité différents. La procédure retenue ici consiste à effectuer une première analyse exploratoire suivant la méthode de Ward afin de voir si on retrouve les statuts d'identité attendus (réalisation, moratoire, forclusion, diffusion, aliénation), puis de réaliser une analyse en nuées dynamiques dans le but d'affiner la classification des sujets. Une fois la répartition des sujets dans les statuts d'identité effectuée, il s'agit d'en voir les distributions aux deux paliers d'orientation (à l'aide d'un test du Khi-deux). Étant donné que la répartition par sexe est très différente aux deux paliers, l'effet du sexe sera analysé en croisant le sexe et les statuts d'identité au palier de la troisième, et contrôlé en analysant sur le seul échantillon féminin le croisement entre les deux paliers d'orientation et les statuts d'identité. Dans un premier temps, l'analyse hiérarchique utilisant la méthode de Ward a permis de mettre en évidence les 5 statuts d'identité attendus. À la première division en 2 groupes des 357 sujets, la partition distingue un groupe 1 de 157 sujets et un groupe 2 de 200 sujets. À l'étape suivante, le groupe 2 se subdivise en un nouveau groupe 1 (N = 52) et un groupe 2 (N = 105). La partition suivante se fait sur le groupe 3, en distinguant un nouveau groupe 3 de 79 sujets d'un groupe 4 constitué de 121 sujets. À ce stade de l'analyse hiérarchique exploratoire, 4 groupes combinant de façon distincte les processus d'exploration et d'engagement ont été mis en évidence. En réalisant une ANOVA simple avec test de Tukey a posteriori, il s'agissait de définir les caractéristiques de chacun de ces groupes, afin de voir s'ils correspondaient au modèle de Marcia. Les 4 groupes se distinguent effectivement du point de vue des scores moyens d'exploration et d'engagement (Exploration : F(3, 356) = 136,47 – Engagement : F(3, 356) = 384,34; p < .0001). Le test de Tukey met en évidence une distinction des groupes sur les dimensions de l'exploration (voir tableau 1) et de l'engagement (voir tableau 2). Le groupe 1 se caractérise par la moyenne la plus faible sur les deux processus. Les groupes 2 et 3 ont les 2 moyennes les plus élevées d'exploration mais se distinguent sur la force de l'engagement : le groupe 2 a une moyenne faible d'engagement alors que le groupe 3 obtient la moyenne la plus élevée d'engagement. Enfin, le groupe 4 se caractérise par une moyenne faible d'exploration et une moyenne élevée d'engagement. À ce stade de l'analyse hiérarchique, les 4 groupes semblent correspondre à la diffusion identitaire sous une forme « aliénation » (groupe 1), au moratoire identitaire (groupe 2), à la réalisation identitaire (groupe 3) et à la forclusion identitaire (groupe 4). Si une partition supplémentaire est demandée, la division est réalisée au niveau du groupe 2, qui se subdivise en un groupe 2 (N = 46) et un groupe 5 (N = 59). Grâce à l'analyse de variance et au test de Tukey, il est possible de spécifier les caractéristiques de ces groupes (voir tableaux 3 et 4). Les groupes 1 et 2 ne se distinguent pas du point de vue de leur degré d'engagement – très faible dans les 2 cas. L'analyse de variance fait d'ailleurs état d'un calcul de F moins élevé à ce stade : F(4, 356) = 367,96; p < .0001; et le test de Tukey identifie 4 sous-groupes et non 5. Ils se distinguent en revanche clairement par le degré d'exploration : F(4, 356) = 140,97; p < .0001. Le groupe 1 obtient en effet une moyenne extrêmement faible (m = 1,38) comparée aux autres groupes, alors que le groupe 2 a une moyenne attestant de l'existence d'une activité exploratoire (m = 0,07). Cette subdivision correspond bien à une distinction entre un groupe sans engagement et sans activité exploratoire, que l'on peut qualifier d' « aliénation », et un groupe sans engagement avec activité exploratoire renvoyant à la diffusion identitaire. En somme, l'analyse hiérarchique conduit à distinguer 5 profils identitaires : Un profil alliant de très faibles scores d'exploration et d'engagement (« l'aliénation » identitaire, groupe 1, N = 52). Un profil caractérisé par des scores moyens d'exploration et de très faibles scores d'engagement (la « diffusion » identitaire, groupe 2, N = 46). Un profil alliant de faibles scores d'exploration et des scores élevés d'engagement (la « forclusion » identitaire, groupe 4, N = 121). Un profil combinant des scores très élevés d'exploration et des scores moyens-faibles d'engagement (le « moratoire », groupe 5, N = 59). Et enfin, un profil caractérisé par de hauts scores d'exploration et d'engagement qualifié de « réalisation identitaire » (groupe 3, N = 79). Cette première étape exploratoire semble valider l'existence de 5 statuts d'identité. Une analyse hiérarchique en nuées dynamiques a permis ensuite d'affiner la classification. La figure 1 présente la classification obtenue à l'issue de cette procédure : 18,2 % de notre échantillon présentent un profil « aliénation » de l'identité, 27,2 % ont une identité « diffuse », 18,8 % sont dans un profil dit « forclos », 13,7 % des adolescents sont dans une période de « moratoire », et enfin, 22,1 % ont un profil « réalisation » de l'identité (la pertinence de cette répartition est appuyée par la réalisation d'une analyse discriminante aboutissant à un pourcentage d'individus bien classés égal à 99,4 %). La répartition est utilisée ensuite dans le but de voir la distribution des profils identitaires aux deux paliers d'orientation étudiés. Le test de Khi-deux réalisé ensuite met en évidence des différences de distribution des statuts d'identité aux deux paliers d'orientation (Khi-deux = 110,76; ddl = 4; p < .0001; voir figure 2). En classe de troisième, les statuts d'identité les plus fréquents sont la diffusion identitaire (32,5 %), l'aliénation identitaire (25,7 %), et la forclusion identitaire (22,5 %). Les deux autres statuts, moratoire et réalisation identitaire, ont des proportions plus faibles (de l'ordre de 10 %). En classe de terminale, les profils identitaires les plus fréquents sont nettement plus marqués par l'exploration active (moratoire pour 25 % des élèves) et par la construction personnelle des choix (réalisation identitaire pour 50,9 %). Les autres statuts identitaires sont beaucoup moins présents (diffusion pour 14,4 % des élèves; forclusion pour 9,6 % d'entre eux; absence d'aliénation à cette étape de la scolarité). Qu'en est-il de l'effet du sexe ? D'une part, au palier de la troisième, où la répartition garçons-filles est à peu près équivalente, un test de Khi-deux a été réalisé croisant le sexe et les statuts d'identité et n'a mis en évidence aucune différence significative (Khi-deux = 1,23; ddl = 4; p = .87). D'autre part, pour contrôler un éventuel effet du sexe dans la comparaison des deux paliers d'orientation, un test de Khi-deux croisant les deux paliers d'orientation et les statuts d'identité a été réalisé de nouveau sur le seul échantillon féminin. De la même façon que pour la totalité de l'échantillon, la répartition dans les différents statuts d'identité des collégiennes est différentes de celle des lycéennes (Khi-deux = 77,85; ddl = 4; p < .0001). L'étude menée ici avait pour objectif de questionner la convergence des caractéristiques de l'identité des adolescents et des demandes sociales en termes de choix d'orientation à deux paliers d'orientation : les classes de troisième et de terminale. Elle a mis en évidence le fait que des profils identitaires, marqués par la difficulté à construire des choix, tels que la « diffusion » et l' « aliénation » identitaires, sont fréquents au premier palier d'orientation de la troisième. À eux deux, ces statuts concernent plus de 57 % des adolescents. Ces fortes proportions vont bien dans le sens des analyses faites à la fois par des spécialistes de l'identité et de l'adolescence selon lesquelles la construction identitaire serait particulièrement difficile dans notre société (Baumeister & Muraven, 1996; Côté, 1996). Conformément aux présupposés, l'aliénation identitaire, caractérisée par une absence d'exploration et d'engagement, est présente ici chez un quart des élèves de troisième. Néanmoins, en fin d'adolescence, le moratoire, et surtout la réalisation identitaire progressent chez les sujets. Ce résultat est conforme aux études développementales menées sur le sujet (Marcia et al., 1993). Ainsi, à ce stade, les injonctions sociales de l'orientation sont bien en phase avec les caractéristiques de la construction identitaire, en termes ici de construction personnelle des choix. Suite à ces résultats, deux points de discussion paraissent nécessaires. D'une part, la difficulté pour l'adolescent d'aujourd'hui, et plus particulièrement pour le jeune adolescent, de formuler des choix – difficulté à relier en partie à l'extension de la scolarisation et au développement d'une nouvelle période appelée « emerging adulhood » (Arnett, 2004), caractérisée notamment par l'incertitude et l'exploration. D'autre part, la question de l'incertitude et des fonctions adaptatives qu'elle peut révéler. Développons successivement ces deux points. Il nous semble important de ne pas négliger de considérer l'adolescence par rapport à l'évolution du monde social. Notre société se caractérise par un avenir ou un devenir à construire (et non pas à reproduire), et cela s'accompagne à la fois d'un affaiblissement des interdits et d'un accroissement des exigences en termes de réussite individuelle. Comme le disent Jeammet & Corcos (2001), le slogan implicite de nos sociétés pourrait être le suivant : « fais ce que tu veux mais soit le meilleur », alors que, lorsque l'interdit était fort, l'adolescent pouvait se dire : « si je ne fais pas ce que je veux, ce n'est pas que je n'en ai pas les moyens, c'est parce que c'est interdit » (p. 74), ce qui protégeait le soi en construction. Aujourd'hui, la construction de soi est une « tâche » développementale de l'adolescence particulièrement difficile. Les résultats de l'étude réalisée ici illustrent bien ce phénomène, puisqu'un adolescent sur quatre est, en classe de troisième, dans une situation d'aliénation identitaire – à ceux -là s'ajoutent les cas de diffusion identitaire (environ un adolescent sur trois étant en diffusion identitaire). Ces constats rejoignent les analyses de Côté (1996; Côté & Allahar, 1996) selon lesquelles les caractéristiques de notre société actuelle favorisent la diffusion identitaire. Néanmoins, la construction identitaire se fait de façon dynamique, pas nécessairement de façon « ascendante », puisque des transitions identitaires du moratoire vers la diffusion identitaire par exemple ont pu être constatées (Waterman, 1982; 1993). Un mouvement global de la diffusion vers la réalisation identitaire semble toutefois se dégager lorsqu'on envisage une perspective temporelle de l'entrée dans l'adolescence à l'entrée dans l' âge adulte (Meeus, 1996). Ces constats sont liés en partie à l'extension de la scolarisation qui conduit à reporter le moment des choix. Si construction identitaire et adolescence coïncidaient dans les années 70, un décalage temporel s'est réalisé, car la construction identitaire caractérise aujourd'hui – avec ses interrogations, l'essai des possibles, l'exploration – la population des 18-25 ans, devenue une classe d' âge à part entière, entre l'adolescence et l' âge adulte (rappelons que 54 % des jeunes français de 20 ans sont scolarisés). Voici la façon dont Arnett (2004) définit cette population d' « adultes en émergence » à partir de cinq caractéristiques : c'est l' âge de l'exploration identitaire (essai de différentes possibilités, notamment du point de vue professionnel et des relations amoureuses); l' âge de l'instabilité; la période de la vie la plus centrée sur le soi; l' âge où on se sent « en transition » (ni adolescent, ni adulte); et enfin l' âge des possibles (existence d'opportunités de choix). Ces caractéristiques – exploration, instabilité, questionnement sur le soi, âge de transition (ni enfant, ni adulte), âge des possibles – correspondaient clairement à l'adolescence. Le décalage temporel de l'entrée dans l' âge adulte entraînerait-il le report de certaines de ces caractéristiques ? Si on se réfère aux processus de construction identitaire aujourd'hui, l'exploration identitaire caractériserait à la fois les périodes de l'adolescence et de l'adulte en émergence (bien que l'exploration ne semble pas une nécessité à l'adolescence si elle peut être reportée, alors qu'elle le devient ensuite), l'engagement quant à lui serait plus caractéristique de la deuxième période. Encore faudrait-il mener des recherches sur les différents domaines de construction identitaire afin de voir si une élaboration progressive par domaine de vie est observée. Des recherches déjà menées dans ce sens (Archer, 1982; Meilman, 1979) ont mis en évidence des domaines où s'observent d'abord des signes de construction identitaire (comme les choix vocationnels) comparés à d'autres qui se construisent plus tardivement dans le développement (l'idéologie politique par exemple), mais elles doivent être réactualisées et tenir compte de caractéristiques psychosociales des jeunes : si 54 % des jeunes de 20 ans sont scolarisés, cela signifie que 46 % ne le sont pas. Qu'en est-il de la construction identitaire des adolescents et jeunes adultes ayant quitté le système scolaire pour entrer dans la vie active ? Qu'en est-il des jeunes déscolarisés ? Considérant l'ampleur du phénomène de la diffusion de l'identité, il paraît difficile de considérer l'incertitude et l'indécision seulement sous un angle négatif, alors qu'elles font partie intégrante des étapes de construction des choix et correspondent à ce qu'on observe aujourd'hui le plus fréquemment, notamment chez les jeunes adolescents. Si l'indécision semble caractéristique de la diffusion de l'identité, l'incertitude semble correspondre au moratoire identitaire, à un espace ouvert à différents possibles. Et on sait combien la plasticité des choix est importante à cette période de la vie. Le lien entre choix d'orientation et réussite a d'ailleurs été mis en évidence, non pas dans un rapport de causalité linéaire, mais dans un rapport de détermination circulaire, où le projet favorise la réussite autant que la réussite engendre le projet. Il avait été ainsi montré que des étudiants en psychologie qui réussissaient leurs études deux ans après leur entrée dans le cursus souhaitaient massivement poursuivre leurs études en psychologie (bien plus qu' à leur entrée) alors que ceux qui échouaient dans leurs études envisageaient une autre orientation (et ce bien plus qu' à leur entrée dans la filière) [Dumora & Lannegrand-Willems, 1999 ]. Il existe bien une plasticité des choix mis en évidence ici au niveau universitaire, des processus de conformisation progressive à l'espace des probables qui mobilisent positivement les étudiants en réussite, ou pour ceux qui sont en échec, les conduisent à une acceptation rationalisée de leur situation. À l'adolescence comme au début de l' âge adulte, les questions dynamiques de la construction des choix et de l'identité sont centrales. Lors des demandes sociales et scolaires de formulation de choix d'orientation, chaque élève est renvoyé à un devenir à construire (Jeammet & Corcos, 2001), avec un éventail des possibles plus ou moins important selon les cas, mais sans base claire pour faire un choix (Baumeister & Muraven, 1996), mis à part les résultats scolaires. En montrant certaines difficultés des jeunes adolescents notamment dans la construction des choix, cette étude souligne l'importance de l'accompagnement des élèves par des professionnels du conseil en orientation . | L'objectif de cette étude est de caractériser l'identité des adolescents en termes de statuts d'identité à deux grands paliers de l'orientation. Un questionnaire portant sur l'exploration et l'engagement dans le domaine des choix vocationnels (adaptation de GIDS) a été proposé à 357 élèves de troisième et de terminale. Les résultats mettent en évidence le fait que des profils identitaires, marqués par la difficulté à construire des choix (« diffusion » et « aliénation »), sont fréquents en troisième. Néanmoins, au palier de terminale, conformément aux études développementales menées sur le sujet, le moratoire, et surtout la réalisation identitaire progressent chez les sujets. | psychologie_09-0254044_tei_965.xml |
termith-737-psychologie | Les revues de travaux récents conduits sur un plan international (Bimrose, 2008), aux États-Unis (Betz, 2005; Farmer, 1997) et en France (Marguerite, 2008; Vouillot, 2007) montrent que les filles et les garçons se différencient encore fortement dans leurs orientations scolaires et professionnelles. Mosconi et Stevanovic (2007) ont passé en revue trente-huit études francophones et trente études anglo-saxonnes (publiées entre 1984 et 2004) sur les représentations des métiers des adolescentes et des adolescents scolarisés au collège et au lycée. Elles en concluent que les représentations des adolescentes et des adolescents ont très peu évolué entre 1984 et 2004, reproduisant la division sexuée du marché du travail, et que, dans ce domaine, il y a « du mouvement mais pas de changement » (Stevanovic & Mosconi, 2007). Elles ont dégagé quatre courants théoriques dominants dans les recherches qui portent sur les facteurs qui influencent les représentations des filières de formation et des professions : celui de Linda Gottfredson (1981, 2005) qui analyse les représentations professionnelles selon deux axes : masculinité/féminité et niveau de prestige (Guichard & Huteau, 2001); celui de Sandra Bem (1981) qui introduit la notion d'orientation de genre, refusant de catégoriser les individus selon deux catégories binaires masculin-féminin, et qui montre que l'on peut déterminer des degrés de féminité et de masculinité chez les individus (Marro, 2002); celui du choix vocationnel de Holland (1966) et de ses six grandes catégories d'intérêts représentées par l'acronyme RIASEC (Vrignaud, 2005); et celui de la théorie sociale cognitive de Bandura (2003) qui a suscité de nombreuses recherches dans le champ de l'orientation scolaire et professionnelle et qui a mis l'accent sur l'importance des « sentiments d'efficacité personnelle » dans les choix d'études et de professions (Bandura, Betz, Brown, Lent & Pajares, 2009; Lent, 2005, 2008; Vouillot, Blanchard, Marro & Steinbruckner, 2004). C'est à ce dernier courant théorique que se rattache cet article. Rappelons que les sentiments d'efficacité personnelle (SEP) sont des « jugements subjectifs que les personnes portent sur leurs capacités à organiser et à mettre en œuvre les activités adaptées pour atteindre les objectifs qu'on a choisis » (Bandura, 1986, p. 391). Betz et Hackett (Betz & Hackett, 1981; Hackett & Betz, 1981) ont été les premières à s'appuyer sur la théorie des sentiments d'efficacité personnelle (Bandura, 1977) afin de contribuer à expliquer les différences observées, entre les filles et les garçons, à l'égard de la poursuite d'études mathématiques et techniques et de l'exercice des professions dans lesquelles ces connaissances occupent une place majeure. Par la suite, les recherches ont montré que les croyances que les personnes développent sous la forme de SEP jouent un rôle clé dans les choix scolaires et professionnels, non seulement dans le domaine des sciences et des techniques, mais aussi dans ceux de la littérature, des sciences sociales et des arts (Fouad, Smith & Zao, 2002). Dans une revue des recherches sur les effets des SEP, Bandura (2003) dégage les résultats suivants : Les croyances que les personnes développent sous la forme de sentiments d'efficacité personnelle jouent un rôle clé dans la poursuite d'études et dans le choix professionnel. Plus les personnes ont une efficacité perçue répondant aux exigences attachées au niveau scolaire à atteindre et aux fonctions professionnelles à remplir, plus les personnes envisagent avec sérieux un large éventail de choix d'études et plus leurs intérêts relatifs à ces types d'études sont forts [… ]. Les différences liées au sexe ont été examinées sur le plan de l'auto-efficacité perçue en ce qui concerne la réalisation d'activités professionnelles bien circonscrites et le fait d'assumer les fonctions de professions impliquant ces mêmes activités. Les résultats corroborent l'importance du rôle des stéréotypes culturels liés au sexe en ce qui concerne l'activité professionnelle. De façon générale, les femmes se jugent elles -mêmes moins efficaces pour les professions scientifiques que les hommes. (p. 630) Toutefois, il y a une grande diversité au sein du groupe des hommes et des femmes et, de ce fait, « les caractéristiques modales liées au genre relatives à la perception de l'auto-efficacité ne devraient pas être attribuées à tous les membres de chaque groupe de sexe » (Bandura, 2009, p. 27). L'objectif de cet article est de décrire l'évolution, entre 1994 et 2006, des SEP relatifs aux 14 formations et aux 24 professions du « Questionnaire d'estimation de ses compétences » ou QEC (Blanchard & Vrignaud, 1994), chez des lycéennes et des lycéens de terminales de section économique et sociale (ES) et de section scientifique (S), en fonction de deux variables : le sexe des lycéens et la section de terminale suivie. Dans cette enquête, la variable biologique « sexe » est considérée dans sa dimension sociale : dans une société, les hommes et les femmes se voient attribuer des rôles sociaux différenciés. Ainsi, par exemple, les résultats d'enquêtes de l'INED conduites en France, montrent que les femmes prennent plus en charge que les hommes les activités ménagères et l'éducation des enfants. De ce fait, la question de la conciliation des activités domestiques et des activités professionnelles se pose de façon plus critique pour les femmes que pour les hommes. Quant aux professions, elles sont souvent considérées comme « plutôt féminines » ou « masculines ». Si des études ont porté sur l'évolution des intérêts professionnels au cours de ces dernières années (Forner, Lasne-Cordonnier, Mercier & Salhi, 2006) nous n'avons pas trouvé d'articles qui étudient l'évolution des SEP relatifs aux études et aux professions. Rappelons que les premières études sur ces types de SEP ne datent que du début des années 1980 (Betz & Hackett, 1981) alors que les études sur les intérêts professionnels ont commencé au cours des années 1920 (Guichard & Huteau, 2007, p. 269). Les évolutions de la scolarisation et de l'emploi font partie des facteurs qui peuvent influer sur les stéréotypes sexués relatifs aux différents types de formation et de professions, stéréotypes qui exercent eux -mêmes une influence sur les SEP relatifs aux formations et aux professions, en fournissant des modèles de comportement à imiter. Après avoir rappelé quelques grandes tendances des évolutions de la scolarisation des filles et des garçons et de l'emploi féminin et masculin en France au cours des vingt dernières années, nous décrirons les évolutions – au cours de la période allant de 1994 à 2006 – des SEP relatifs à un ensemble de formations et de professions chez des lycéennes et des lycéens de terminales ES et S. L'analyse des évolutions de la scolarisation des filles et des garçons sur la longue durée (générations nées entre 1919 et 1973) permet à Duru-Bellat, Kieffer et Marry (2001) de formuler les conclusions suivantes : Si, en début de période, on observe un certain cumul des inégalités de classe et de sexe, très vite les filles prennent l'avantage dans tous les milieux sociaux. Cette inversion historique des inégalités sexuées renvoie à la transformation du sens qu'elles, leurs familles et la société donnent au diplôme [… ]. Il est devenu, pour toutes, le gage d'une insertion professionnelle, d'une autonomie financière et, au-delà, d'une émancipation individuelle. Cet investissement scolaire a été favorisé par […] la croissance des emplois tertiaires qualifiés, depuis le début du XX e siècle, qui a offert aux jeunes femmes des opportunités d'emploi et parfois de carrière professionnelle. […] L'infléchissement des orientations des filles des études littéraires vers celles de droit, d'économie et de commerce est lié à cette expansion et à cette diversification des emplois tertiaires qualifiés. (p. 275-276) L'évolution récente prolonge ces tendances de long terme. Rosenwald (2006) note qu'en 2004, comme vingt ans auparavant, les parcours scolaires des filles se distinguent de ceux des garçons. Les filles réussissent mieux leurs études [… ], 68 % d'une génération de filles possèdent le baccalauréat contre 56 % des garçons […] Les choix d'orientation divergent à chaque étape de la scolarisation : les filles sont sur-représentées dans les filières littéraires du secondaire et du supérieur, dans les filières professionnelles des services, dans les IUFM et dans les écoles paramédicales et sociales. A contrario, les garçons sont majoritairement présents dans les filières scientifiques et techniques, notamment dans les IUT et les écoles d'ingénieurs. (p. 87) En 2004, à la fin de la classe de seconde, un tiers des garçons vont en S, 17,5 % redoublent, 15 % vont en STI, 12 % en ES et 12 % en STT. Un quart des filles vont en S, 20 % en ES, 17 % en STT, 16 % en L et 15 % redoublent. Commentant ces résultats, Rosenwald souligne le fait qu' à ce niveau « les différences de parcours entre filles et garçons ne s'expliquent plus par des disparités de réussite scolaire mais sont le fruit de décisions liées directement à la différence de sexe ou plus précisément aux rôles sociaux et aux images culturelles qui sont attachés au sexe » (p. 92). En ce qui concerne l'auto-évaluation de leurs capacités en mathématiques et leur intérêt pour les mathématiques et la physique, Duru-Bellat (1994) mentionne les résultats d'études (conduites au cours des années 1970-1980) qui montrent que : les filles doutent plus de leurs capacités en mathématiques que les garçons, se déclarent moins attirées par les maths et moins encore par la physique et la technologie (notons toutefois que l'intérêt pour la physique est plus fort chez les filles de milieu aisé que chez celles de milieu populaire) tandis que les garçons se détournent nettement du français. Quand les filles font preuve d'intérêts scientifiques, ce sont les sciences de la vie et de la nature qui dominent, alors que les intérêts des garçons sont beaucoup plus variés. (p. 126-127) « À partir de l'adolescence, les auto-évaluations des filles de bon niveau, en mathématiques, ne sont plus liées à leur niveau scolaire, et leur confiance dans leurs propres possibilités est systématiquement plus faible que chez les garçons de niveau identique » (Duru-Bellat, 1995, p. 78). Betz et Hackett (1981) ont trouvé des résultats du même type aux États-Unis en évaluant les SEP des étudiantes relatifs à la poursuite d'études mathématiques et techniques. Plus récemment, en rapprochant l'opinion que les filles et les garçons avaient de leur niveau en fin de collège et la série de terminale dans laquelle ils se trouvent en 2002, Rosenwald (2006) fait l'observation suivante : 64 % des filles qui jugeaient avoir un très bon niveau en mathématiques en fin de collège sont allées en terminale S contre 78 % des garçons de même profil. En revanche, 6 % des filles ont opté pour une terminale L contre seulement 1 % des garçons. Les filles vont donc moins en séries scientifiques même si elles s'estiment très bonnes en mathématiques, et elles diversifient plus leur choix. (p. 92) En ce qui concerne les mathématiques, les filles ont donc tendance à auto-évaluer plus sévèrement leurs capacités en mathématiques que les garçons et, lorsqu'elles s'auto-évaluent favorablement, elles sont moins attirées que les garçons par les études mathématiques (et encore moins par les études de physique et de technologie). Toutefois, Fontanini, Costes et Houadec (2008) notent que « la part des filles en classes préparatoires aux grandes écoles tend à progresser de 1995 à 2006/2007 » (p. 66) et que « depuis 1972, la féminisation des écoles d'ingénieurs augmente régulièrement dans tous les domaines, sauf en informatique » (p. 69). En résumé, des différences importantes subsistent encore au début des années 2000 chez les filles et les garçons en ce qui concerne le choix des études de mathématiques, de physique, de technologie, de science et de français. On ne constate donc pas une évolution vraiment significative sur ce plan, au cours des vingt dernières années. Si la part des femmes dans l'emploi est passée de 40,3 % en 1982 à 45,6 % en 2004, Les différences de répartition des hommes et des femmes selon les métiers ont toutefois tendance à se maintenir, malgré les importantes transformations de l'emploi [… ]. La concentration des femmes dans certaines professions demeure très forte et, globalement, la ségrégation des emplois féminins et masculins selon les métiers ne s'estompe pas. (Meron, Okba & Viney, 2006, p. 225) En ce qui concerne les métiers qualifiés, la proportion des femmes cadres est passée de un quart en 1982 à un tiers en 2002. Meron (2008) note : Les femmes sont toujours plus nombreuses dans l'enseignement (65 % de femmes actuellement contre 62 % au début des années quatre-vingt) et plus souvent présentes dans les filières d'expertise que dans l'encadrement; on en trouve de plus en plus dans les métiers administratifs, alors qu'elles sont encore rares parmi les cadres techniques et dans certains domaines comme l'informatique et la recherche. (p. 88) Toutefois, en 20 ans, le taux de féminisation des personnels d'études et de recherche a doublé, passant de 10 % à 20 %. Une question particulièrement importante est celle de l'articulation entre vie familiale et vie professionnelle qui renvoie aux rôles sociaux différenciés remplis par les hommes et par les femmes. Les analyses des résultats de l'enquête « Histoire de vie – Construction des identités », réalisée au printemps 2003 par l'INSEE et de nombreux partenaires, « suggèrent que la famille (notamment la présence d'enfants exigeant soins et temps) a pour effet de diminuer l'importance accordée au travail. Il apparaît que le travail et la famille ne sont pas seulement deux “valeurs ”, mais aussi et surtout deux activités fortement consommatrices de temps entre lesquelles les individus – et notamment les femmes – sont contraints d'arbitrer » (Garner, Méda & Senik, 2006, p. 34). Comme les différents types d'activités des individus constituent des sous-systèmes en interdépendance relative, on ne peut pas analyser de façon séparée les conduites des individus dans leurs différents domaines de vie (Curie, Hajjar, Marquie & Roques, 1990). L'enquête « Famille et employeurs », menée en 2004-2005 par l'INED et l'INSEE, amène à faire le constat d'un partage inégal et lent à évoluer des contraintes de l'articulation famille-travail selon le sexe. Dans la synthèse de cette enquête, Pailhé et Solaz (2009, p. 486-487) mettent l'accent sur « le fait qu'un vecteur de l'amélioration du bien-être serait d'atteindre une égalité en termes de partages des tâches entre hommes et femmes. En ce domaine, les normes de genre sont fortes, tant au niveau individuel qu'au niveau sociétal ». Comme le souligne Huteau (1995), les intentions d'avenir s'élaborant à partir des ingrédients de base que sont les représentations de soi et la représentation du monde social, il n'est pas surprenant qu'elles soient largement déterminées par les caractéristiques identitaires. […] [Or,] l'avenir professionnel est au centre des préoccupations des garçons, tandis que pour les filles cet avenir doit être coordonné à un avenir familial. (p. 169) En résumé, ces données d'enquêtes montrent que les évolutions de la scolarisation des filles et des garçons et de l'emploi des femmes et des hommes depuis 20 ans ont été faibles. De ce fait, on peut penser que les représentations sexuées relatives aux types d'études et d'emplois et, par suite, les sentiments d'efficacité des lycéennes et des lycéens relatifs à un ensemble de formations et de professions de notre questionnaire, ont peu évolué. De ce fait, nous nous attendons à observer, en 2006 comme en 1994 : des différences notables de SEP relatifs aux formations et professions du QEC dans les domaines des activités scientifiques et techniques (SEP plus forts chez les garçons) et des activités sociales, littéraires, artistiques, et de soins (SEP plus forts chez les filles) chez les lycéennes et les lycéens de terminales ES et S; des différences de SEP liées à la section suivie (par exemple, SEP relatifs aux mathématiques et aux sciences plus forts chez les élèves de S que chez les élèves de ES); des minorités de filles qui ont de forts SEP relatifs aux activités scientifiques et techniques et des minorités de garçons qui ont de forts SEP relatifs aux activités littéraires, artistiques et sociales. En effet, comme nous l'avons vu, si les stéréotypes sexués agissent fortement sur les choix scolaires et professionnels des filles et des garçons, leurs effets ne s'exercent pas de la même manière sur toutes les personnes. Nous avons conduit deux enquêtes, la première en 1994 et la seconde en 2006, auprès de lycéens de terminales de filière économique et sociale (ES) et de filière scientifique (S), afin d'évaluer, à l'aide du questionnaire QEC d'estimation de ses compétences, leurs sentiments d'efficacité personnelle (SEP) relatifs à un ensemble d'études et de professions. Nous avons choisi ces deux filières parce que les pourcentages de filles et de garçons y sont moins déséquilibrés que dans la filière littéraire. En 2007, les filles représentaient 62,7 % des élèves de terminale ES, 45,7 % des élèves de terminale S et 79,8 % des terminales littéraires (Vitry, 2008). En 2003, les filles représentaient 64,1 % des élèves de ES et 65,6 % des admis au Bac ES, 44, 8 % des élèves de S et 46,2 % des admis au bac S (RERS, 2004, p. 109 et p. 203), ce qui montre que le niveau scolaire moyen des filles n'est pas inférieur à celui des garçons. Notons enfin qu'entre 1994 et 2006, le nombre de lycéens scolarisés en terminale ES (74 900 en 1995 et 85 900 en 2006) et en terminale S (136 500 en 1995 et 146 000 en 2006) a peu évolué. Nous décrirons les évolutions des SEP relatifs aux formations et aux professions du QEC en fonction de la section de terminale suivie et du sexe des lycéens. En 1993/94, nous avons mené une enquête auprès d'un échantillon de 689 lycéens de terminales de section scientifique (94 filles soit 43 % des S et 124 garçons soit 57 % des S) et de section économique et sociale (318 filles soit 68 % des ES et 153 garçons soit 32 % des ES). En 2005/2006, l'enquête a été reconduite auprès d'un échantillon de 346 lycéens de terminales de section scientifique (92 filles soit 51 % des S; 88 garçons soit 49 % des S) et de section économique et sociale (108 filles soit 65 % des ES; 58 garçons soit 35 % des ES). Les SEP peuvent être évalués à différents niveaux de spécificité (Lent & Brown, 2006, p. 19) selon un continuum allant d'un niveau de spécificité restreint correspondant à une activité bien circonscrite (par exemple, je me sens capable « de me servir d'outils et de machines : perceuse, machine à coudre », « de faire une recherche documentaire ») à des capacités relatives à des ensembles étendus d'activités scolaires (je me sens capable « de suivre des études de droit ») ou professionnelles (je me sens capable « d'exercer plus tard la profession d'infirmier »). C'est à ces sentiments d'efficacité généraux que nous nous sommes intéressés dans notre enquête. Nous avons utilisé le « questionnaire d'estimation de ses compétences » ou QEC (Blanchard & Vrignaud, 1994) qui évalue le sentiment d'efficacité global relatif à 24 professions – choisies parmi les 100 professions d'une version rénovée du « questionnaire d'intérêts professionnel » ou QIP (Aubret, 1989) – et de 14 formations, reprises d'une enquête conduite au début des années 1990 auprès d'un échantillon de terminales (Wach, 1992). Pour chaque profession et pour chaque formation, les élèves devaient estimer le niveau de leurs SEP sur une échelle de Likert en cinq points : « Je pense que je serais 1. très peu compétent(e) dans ce métier; 2. Peu compétent(e); 3. Moyennement compétent(e); 4. Assez compétent(e); 5. bien compétent(e) dans ce métier (ou pour suivre avec succès ce type d'études) ». Une analyse factorielle exploratoire avec rotation oblique sur les réponses aux items du QEC des deux échantillons (celui de 1994 et celui de 2006) réunis, a permis de dégager quatre grandes dimensions (sciences et techniques, administration-gestion, littéraire et artistique, social et soins). Les méthodes d'analyse de la variance nous ont permis de comparer les scores moyens des SEP relatifs à ces quatre grandes dimensions, obtenus par chaque groupe – filles de terminale ES (FES), de terminale S (FS), garçons de terminale ES (GES), de terminale S (GS) – de notre enquête pour l'année 1994 et pour l'année 2006. Nous avons aussi comparé l'évolution des scores moyens de nos groupes au cours de la période 1994-2006. Nous avons fait suivre cette étude des SEP relatifs à ces domaines globaux par une étude plus détaillée en évaluant les changements des moyennes des SEP relatifs à chaque formation ou profession du QEC par les tailles d'effet (d de Cohen). N'ayant aucune hypothèse quant à l'indépendance entre les composantes des SEP relatifs à des professions, mais recherchant une structure dans nos données, nous avons pratiqué des analyses factorielles exploratoires en facteurs communs et uniques avec rotation oblique (méthode promax) qui permet sans l'imposer une corrélation entre les différents facteurs. Nous avons obtenu sur l'échantillon de 1994, puis sur l'échantillon de 2006, une structure satisfaisante en quatre facteurs : elle rend compte de 84 % de la variance commune de l'échantillon de 1994, 83 % de la variance commune de l'échantillon de 2006. Les structures sont équivalentes en ce que les items saturent sur les mêmes facteurs, leur donnant ainsi une même interprétation. Les différences s'observent essentiellement sur les forces de ces saturations. Nous pouvons noter également une stabilité de la consistance interne des dimensions (voir tableau 2). Les corrélations obtenues entre les facteurs sont assez faibles, et de même nature également dans les deux analyses (voir tableau 3). Cette similitude des structures nous permet de réunir les deux échantillons et de refaire une analyse factorielle pour créer des indices évaluant le SEP relatif aux quatre domaines sciences et techniques, administration-gestion, littéraire et artistique, social et soins et d'effectuer nos comparaisons selon des critères communs aux deux années. Sur l'ensemble des réponses aux items des SEP relatifs aux professions et aux formations du QEC (recueillies en 1994 et en 2006, réunies en un seul échantillon), quatre dimensions rendent compte de 86 % de la variance commune (voir tableau 1) : Sciences et techniques (12items : études universitaires scientifiques, technicien de laboratoire, physicien, études de médecine et pharmacie, ingénieur en robotique, écoles d'ingénieurs, technicien en micromécanique, manipulateur en électroradiologie, écoles paramédicales, professeur de biologie, ingénieur des eaux et forêts, DUT industriel), dimension qui rend compte de 36 % de la variance commune (et pour laquelle l'indice de consistance interne [coefficient alpha de Cronbach] est de 0,91). Administration-gestion (10 items : responsable d'une agence bancaire, administrateur de société, expert comptable, secrétaire de direction, écoles de commerce, BTS tertiaire, technicien de bureau d'étude, intendant d'un établissement scolaire, animateur d'une équipe de vente, BTS industriel), dimension qui rend compte de 22 % de la variance expliquée (α = 0,81). Littéraire et artistique (11 items : écoles de journalisme, journaliste, études universitaires de lettres, traducteur-interprète, études universitaires de langues, formations aux métiers artistiques, attaché d'ambassade, études de droit, avocat, styliste en haute couture, bibliothécaire), dimension qui rend compte de 16 % de la variance (α = 0,82). Social et soins (5 items : pédiatre de crèche, éducateur d'enfants handicapés, infirmier, écoles de carrières sociales, directeur de foyer de jeunes travailleurs), dimension qui rend compte de 15 % de la variance (α = 0,72). Les trois premières dimensions sont équilibrées en nombre d'items saturés. La dimension « social et soins » n'a que cinq items mais sa consistance interne est acceptable. Notons le fait que 7 items ont des saturations notables dans deux facteurs. L'item « directeur de foyer de jeunes travailleurs » se rattache à la fois aux dimensions social et soins et administration-gestion. Les items « écoles paramédicales » et « infirmier » (mais curieusement pas « pédiatre de crèche ») se rattachent à la fois aux dimensions sciences et techniques et social et soins. Les items « technicien de bureau d'études », « DUT industriel » et « BTS industriel » se rattachent à la fois aux dimensions administration-gestion et sciences et techniques. L'item « attaché d'ambassade » se rattache à la fois aux dimensions littéraire et artistique et administration-gestion. Cette double saturation de certaines professions peut s'expliquer par le fait qu'elles exigent une double compétence : par exemple, les études paramédicales préparent à des métiers de soins demandant des connaissances scientifiques. Malgré ces rattachements multiples, les corrélations entre les facteurs sont assez faibles, voire très faibles. Nous pouvons constater que le SEP pour le domaine littéraire et artistique peut aller de pair avec un sentiment d'efficacité pour le domaine administration-gestion mais rarement pour le domaine sciences et techniques. Nous pouvons ainsi considérer que les quatre dimensions sont cohérentes et rendent compte de facettes différentes des SEP. Pour chaque élève, nous avons attribué un score sur chaque dimension, selon la méthode d'estimation des vrais scores factoriels (notes en facteurs), à partir de leurs réponses aux items et des saturations des items sur chaque facteur (Reuchlin, 1964, p.159; Hatcher, 1994, p.97). Ainsi, les réponses aux items saturés dans deux dimensions contribuent aux scores sur ces deux dimensions. Ils sont centrés et réduits sur l'ensemble des deux échantillons (1994+2006). Ils constituent des échelles de mesure des SEP pour l'exercice des professions ou le suivi des études dans les domaines définis par chacune des quatre dimensions. En vue de tester l'existence d'une évolution globale des SEP pour chaque dimension entre 1994 et 2006, d'évaluer un effet lié au sexe (F, G) ou à la section suivie (ES, S) nous avons fait une analyse de la variance croisant ces trois facteurs sur l'ensemble de nos échantillons de 1994 et 2006. Un effet de l'année ne s'observe que sur la dimension sciences et techniques et il se traduit par une baisse des moyennes ajustées entre 1994 et 2006 (F = 6,44 p < 0,0113 **), ce qui globalement, en dehors de ce domaine, répond à notre attente de réponses équivalentes en 2006 à celles de 1994. L'effet du sexe est très significatif sur les SEP relatifs aux quatre dimensions du QEC (p < 0,0001 ***, sciences et techniques : F = 65,75; administration-gestion : F = 23,90; littéraire et artistique : F = 29,82; social et soins : F = 241,06) : les garçons ont un SEP plus élevé que les filles pour les dimensions sciences et techniques et administration-gestion et un SEP plus faible que les filles pour les dimensions littéraire et artistique et social et soins. Quant à l'effet de la section, il est aussi très significatif (p < 0,0001 ***) sur trois dimensions (sciences et techniques : F = 658,50; administration-gestion : F = 29,56; littéraire et artistique : F = 98,05) mais pas sur la dimension social et soins. Les lycéens de section ES ont un SEP moyen plus faible que ceux de section S sur la dimension sciences et techniques, et un SEP moyen plus fort que les S sur les dimensions administration-gestion et littéraire et artistique. Sur la dimension social et soins, on observe aussi une interaction entre l'année et le sexe (F = 9,41, p < 0,0022 ***) et une interaction entre l'année et la section (F = 6,48, p = 0,0111 **) ce qui dénote sur cette dimension une évolution différente des SEP des garçons et des filles, d'une part, et des SEP des élèves de section S et ES, d'autre part. Nous avons effectué une comparaison globale des SEP des groupes à l'aide d'une analyse de variance à deux facteurs (année et groupe). Nous retrouvons l'effet de l'année sur la dimension sciences et techniques (F = 6,44, p = 0,0113 **), et une interaction entre année et groupe sur la dimension social et soins (F = 5,04, p < 0,018 ***). Globalement, sur chaque dimension, au moins un groupe se différencie des autres (p < 0,0001 ***, sciences et techniques : F = 283,87; administration-gestion : F = 15,24; littéraire et artistique : F = 50,26; social et soins : F = 86,27). Pour compléter, nous avons comparé les moyennes entre nos quatre groupes, chaque année, par des analyses de variance à un facteur à quatre modalités (FES, FS, GES, GS) sur chaque dimension. Bien que faites par année, ces comparaisons se font sur les scores centrés et réduits sur l'ensemble des deux échantillons. À nouveau, nous constatons que nos échelles de scores opèrent une bonne discrimination de nos groupes de lycéens (1994 : p < 0,01 ***, sciences et techniques : F = 206,89; administration-gestion : F = 6,73; littéraire et artistique : F = 23,29; social et soins : F = 45,18; 2006 : p < 0,01 ***, sciences et techniques : F = 102,09; administration-gestion : F = 9,31; littéraire et artistique : F = 26,56; social et soins : F = 51,51). Les tests a posteriori de Scheffé (à 5 %, pour 1994+2006 : valeur critique de F = 2,6146, pour 1994 : valeur critique de F = 2,62035, pour 2006 : valeur critique de F = 2,63110) nous ont permis de les repérer. Des tests de Student groupe à groupe nous ont permis de déterminer ceux pour lesquels une évolution était significative entre les deux années. Nous avons évalué celle -ci par la taille des effets (d de Cohen). La figure 1 résume les résultats des analyses de la variance comparant les moyennes des SEP des quatre groupes d'élèves pour les quatre dimensions et les deux années : les groupes qui ne se distinguent pas au seuil de 5 % sont dans un même cercle, une évolution significative est figurée par une ligne épaisse sur les graphes. Les moyennes des SEP des filles et des garçons se différencient le plus fortement sur la dimension social et soins. Les moyennes de SEP des filières ES et S se différencient le plus sur la dimension sciences et techniques et elles se différencient le moins sur la dimension administration-gestion. Enfin, les filles de S semblent avoir une plus grande diversité de domaines où elles se sentent compétentes. La dimension sciences et techniques différencie très nettement les lycéens en fonction de la section de terminale fréquentée. C'est pour cette dimension que les filles et les garçons de S obtiennent la moyenne de SEP la plus élevée (M = 0,82). En 1994, sur cette dimension, les terminales S obtenaient les moyennes de SEP les plus élevées (M = 0,93) et les moyennes des garçons et des filles de S n'étaient pas significativement différentes. En 2006, la moyenne du SEP des filles de S pour la dimension sciences et techniques (M = 0,48) baisse fortement (t(171) = 2,98, p < 0,01) soit d' 1/2 écart-type moyen (d Cohen = - 0,49) et devient significativement inférieure à celle des garçons de S (M = 0,94) mais cette moyenne reste de niveau élevé (valeur supérieure ou égale à celle des autres moyennes de SEP que les filles de S obtiennent pour les autres dimensions). Le SEP moyen pour la dimension sciences et techniques des élèves de terminale ES (M = 0,52) est très fortement inférieur à celui des terminales S (M = 0,82; t = - 27,75, p < 0,0001). En 2006, cette dimension différencie tous les groupes (test de Scheffé au seuil de 5 %, valeur critique de F = 2,63110). Les filles de ES obtiennent la moyenne de SEP la plus faible pour cette dimension (M = - 0,68), et c'est pour cette dimension qu'elles obtiennent leur plus faible moyenne. En 2006, au sein de chaque section, les filles ont un SEP plus faible que celui des garçons pour cette dimension. Les SEP moyens relatifs à la dimension administration-gestion se situent dans une zone centrale, ni très élevée, ni très faible, échelonnant sans toujours bien séparer les moyennes des quatre groupes comme suit (voir tableau 4 et figure 1) : garçons de ES, puis filles de ES et garçons de S (très proches l'une de l'autre et formant un bloc intermédiaire) et, enfin, filles de S (dimension sur laquelle les filles de S obtiennent leur moyenne de SEP la plus faible). Ainsi, les moyennes des SEP pour la dimension administration-gestion se différencient moins nettement en fonction de la section fréquentée (ES ou S) que les SEP pour la dimension sciences et techniques. Notons qu'entre 1994 et 2006, on observe une baisse significative du SEP des filles de S sur cette dimension, baisse d'environ 1/3 d'écart-type moyen (t(171) = 2,07, p < 0,05; d Cohen = - 0,34), mais celle -ci n'est pas suffisante pour rendre leur moyenne significativement différente de celle des garçons de S. Pour la dimension littéraire et artistique, les SEP les plus forts restent dans la zone centrale et sont ceux des filles et garçons de ES puis des filles de S. Par contre, les garçons de S ont la moyenne la plus faible, significativement inférieure à celle des filles de S, et c'est une des moyennes de SEP les plus faibles. On notera que pour les SEP relatifs à la dimension littéraire et artistique, l'écart des moyennes est plus grand entre filles et garçons de S qu'entre celles des filles de S et des garçons de ES, qui pour leur part sont similaires. Si les SEP pour la dimension sciences et techniques sont dominants chez les filles de S, leurs SEP relatifs à la dimension littéraire et artistique ne sont pas négligeables, contrairement aux garçons de S (M = - 0,60). Sans que cela change les regroupements, on constate entre 1994 et 2006 une progression des SEP des filles de ES d'un quart d'écart-type moyen (t(375) = - 2,19, p < 0,05; d Cohen = 0,25), qui obtiennent leur plus forte moyenne de SEP sur cette dimension (M = 0,46). Pour les SEP relatifs à la dimension social et soins, les moyennes se différencient assez fortement en fonction du sexe des lycéens, les SEP moyens des filles étant assez élevés (M = 0,34) et les SEP moyens des garçons étant faibles (M = - 0,53). Alors qu'en 1994 les filles ES arrivaient en tête devant les filles de S, en 2006, ce sont les filles de S qui précèdent les filles de ES du fait d'une hausse du SEP moyen des filles de S de plus d'un tiers d'écart-type moyen (t(171) = - 2,47, p < 0,05; d Cohen = 0,37). Déjà faible en 1994, la moyenne du SEP des garçons de ES pour la dimension social et soins (M = - 0,38), diminue encore en 2006 (t(184) = 2,54, p < 0,05; d Cohen = - 0,46), se situant au même niveau que la moyenne du SEP des garçons de S, qui obtiennent ici le plus faible résultat pour cette dimension (M = - 0,73) et pour les quatre dimensions. En 1994 et en 2006, on observe bien l'influence du sexe des lycéens (première attente) et de la section qu'ils fréquentent (deuxième attente) sur les moyennes des SEP des lycéens relatifs aux quatre dimensions du QEC : les garçons et les filles de S ont des SEP relatifs à la dimension sciences et techniques, supérieurs à ceux des garçons et des filles de ES. Les filles de S et de ES ont des SEP relatifs à la dimension social et soins plus élevés que les garçons de S et de ES. Les filles et les garçons de ES obtiennent des moyennes assez élevées de SEP relatifs aux dimensions administration-gestion et littéraire et artistique. L'écart entre les moyennes des filles et des garçons de terminale S au SEP relatif à la dimension sciences et techniques augmente entre 1994 et 2006 dans les échantillons de notre enquête. On constate globalement une tendance à l'accroissement des écarts entre les SEP des filles et des garçons. Pour décrire de façon plus détaillée les évolutions des SEP, observées entre 1994 et 2006, nous comparerons : d'une part, les moyennes observées pour chaque item de notre questionnaire, en 1994 et en 2006, à l'intérieur de chacun des quatre sous-groupes des échantillons de nos enquêtes : filles de section économique (FES), garçons de section économique (GE), filles de section Scientifique (FS), et garçons de section Scientifique (GS) [voir le tableau 5]; d'autre part, les écarts entre les moyennes observées pour chaque item, en 1994 et en 2006, entre filles et garçons scolarisés dans la même section (ES ou S) [voir le tableau 6 ]. Pour les filles de terminale ES, entre 1994 et 2006, les moyennes des items de SEP (voir tableau 5) : sont restées stables (d de Cohen < 0,30) pour 34 des 38items du QEC; ont augmenté pour deux items de la dimension littéraire et artistique (styliste en haute couture : d = 0,31; études universitaires de langues : d = 0,31); ont baissé pour un item de la dimension sciences et techniques (professeur de biologie : d = - 0,36) et pour un item de la dimension social et soins (pédiatre de crèche : d = - 0,32). Pour les garçons de terminale ES, entre 1994 et 2006, les moyennes des items de SEP (voir tableau 5) : sont restées stables (d < 0,30) pour 30 des 38 items du QEC; ont augmenté pour un item de la dimension littéraire et artistique (traducteur-interprète : d = 0,46); ont baissé pour trois items de la dimension sciences et techniques (professeur de biologie : d = - 0,57; ingénieur eaux et forêts : d = - 0,69; technicien de laboratoire : d = - 0,29), pour trois items de la dimension littéraire et artistique (bibliothécaire : d = - 0,51; études de droit : d = - 0,38; études universitaires de lettres : d = - 0,51), pour un item de la dimension social et soins (pédiatre de crèche : d = - 0,30) et de la dimension administration et gestion (intendant scolaire : d = - 0,30). En ce qui concerne les valeurs des écarts entre les moyennes des SEP des filles et des garçons de terminale ES, l'examen du tableau 6 permet de dégager les points suivants. Les moyennes des garçons de terminale ES sont supérieures à celles des filles de ES pour 15 items du QEC en 1994 et pour 9 items en 2006. En 2006 comme en 1994, les garçons de ES ont des moyennes de SEP significativement supérieures à celles des filles pour 7 items – écoles d'ingénieurs, études universitaires de sciences, technicien en micromécanique, ingénieur en robotique (dimension sciences et techniques), BTS et DUT industriel, technicien de bureau d'études (dimensions sciences et techniques et administration-gestion) qui ne représentent pas des débouchés principaux de la filière ES. Les garçons expriment aussi des SEP relatifs aux études en écoles de commerce (dimension administration-gestion), plus forts que ceux des filles. Pour 4 items de la dimension sciences et techniques (ingénieur des eaux et forêts, physicien, technicien de laboratoire, manipulateur en électroradiologie) et pour 2 items de dimension administration et gestion (animateur équipe de vente et administrateur de société) la moyenne des garçons est significativement supérieure à celle des filles en 1994 mais elle ne l'est plus en 2006. Pour 5 de ces 6 items, c'est parce que les moyennes des garçons de ES ont baissé entre 1994 et 2006 que la différence n'est plus significative, les moyennes des filles étant restées stables pendant cette période. Dans un seul cas (animateur d'une équipe de vente), la moyenne des filles de ES a augmenté, la moyenne des garçons étant restée stable. Les filles de terminale ES expriment des SEP dont les moyennes sont significativement supérieures à celles des garçons pour 8 items en 1994 et pour 10 items en 2006. En 2006, cette supériorité des filles s'observe pour 5 items de la dimension littéraire et artistique (études universitaires de lettres, formations aux métiers artistiques, bibliothécaire, styliste en haute couture, études universitaires de langues), pour 3 items de la dimension sociale et soins (écoles de carrière sociale, éducateur d'enfants handicapés, pédiatre de crèche), et pour 2 items de la dimension administration et gestion (secrétariat de direction, intendant d'établissement scolaire). Si, en 1994, les filles de ES exprimaient des SEP plus forts que les garçons relatifs à la profession de traducteur-interprète, ce n'est plus le cas en 2006, la moyenne des SEP des garçons de ES ayant beaucoup augmenté (près d'un demi écart-type) pour se retrouver au même niveau que celle des filles. En 2006, les filles de ES expriment des SEP plus forts que les garçons pour les études universitaires de lettres, ce qui n'était pas le cas en 1994, les SEP des garçons ayant beaucoup baissé entre 1994 et 2006. En résumé, entre 1994 et 2006, certains écarts de moyenne entre garçons et filles se sont réduits (pour 4 items de la dimension sciences et techniques et pour 2 items de la dimension gestion administration) mais d'autres écarts de moyennes subsistent : les garçons ont des moyennes supérieures à celles des filles pour 7 items de la dimension sciences et techniques tandis que les filles ont des moyennes significativement supérieures à celle des garçons pour 5 items de la dimension littéraire et artistique et pour 3items de la dimension social et soins. Pour les garçons de terminale S, entre 1994 et 2006, les moyennes des items de SEP (voir tableau 5) : sont restées stables pour 35 des 38 items du QEC; ont baissé pour deux items de la dimension sciences et techniques (ingénieur des eaux et forêts : d = - 0,47; professeur de biologie : d = - 0,32) et pour un item de la dimension littéraire et artistique (attaché d'ambassade : d = - 0,37). Pour les filles de terminale S, entre 1994 et 2006, les moyennes des items de SEP : sont restées stables pour 30 des 38 items du QEC; ont augmenté pour 2 items de la dimension social et soins (écoles de carrières sociales : d = 0,38; éducateur d'enfants handicapés : d = 0,43); ont diminué pour 4 items de la dimension sciences et techniques (écoles d'ingénieurs : d = - 0,46; ingénieur eaux et forêts : d = - 0,60; physicien : d = - 0,32; manipulateur en électroradiologie : d = - 0,30) et pour deux items de la dimension administration et gestion (technicien de bureau d'études : d = - 0,41; expert comptable : d = - 0,31). On notera l'importance de la baisse des SEP des filles pour des items scientifiques à caractère technique (écoles d'ingénieurs, physicien, technicien de bureau d'études). En ce qui concerne les valeurs des écarts entre les moyennes des SEP des filles et des garçons de terminale S, l'examen du tableau 6 permet de dégager les points suivants. Le nombre de formations et de professions pour lesquelles les garçons de terminale S expriment des SEP significativement supérieurs à ceux des filles de terminale S s'accroît, passant de 6 en 1994 à 11 en 2006. En 2006, les garçons de S ont des SEP supérieurs à ceux des filles de S pour 7 items de la dimension sciences et techniques et 3 items qui sont en partie saturés dans cette dimension (écoles d'ingénieurs, études universitaires scientifiques, physicien, ingénieur en robotique, technicien en micromécanique, ingénieur des eaux et forêts, et manipulateur en électroradiologie, DUT industriel, BTS industriel, technicien de bureau d'études), formations et professions qui constituent des débouchés importants de la filière scientifique. De plus, on observe que les écarts entre les moyennes des SEP des filles et des garçons de S relatifs à ces items scientifiques et techniques, augmentent entre 1994 et 2006, du fait d'une baisse générale des moyennes des SEP des filles relatifs à cette dimension. Les garçons de S expriment aussi un SEP plus fort que celui des filles de S pour la profession d'expert comptable (dimension administration-gestion). Le nombre de formations et de professions pour lesquelles les filles de terminale S expriment des SEP significativement supérieurs à ceux des garçons de terminale S s'accroît, passant de 11 en 1994 à 15 en 2006. En 2006, les filles de S ont des SEP supérieurs à ceux des garçons de S pour les items de la dimension social et soins (écoles de carrières sociales, pédiatre de crèche, éducateur d'enfants handicapés, directeur de foyer de jeunes travailleurs, infirmier), pour 7 items de la dimension littéraire et artistique (formations aux métiers artistiques, études universitaires de lettres, école de journalisme, études universitaires de langues, styliste haute couture, bibliothécaire, traducteur-interprète), pour deux items de la dimension sciences et techniques (professeur de biologie, écoles paramédicales), items qui sont aussi saturés sur la dimension social et soins, et pour un item de la dimension administration-gestion (secrétariat de direction). Si on peut considérer que « les sciences fonctionnent en France comme un simple outil de sélection scolaire, déconnecté de tout enjeu de culture ou de vocation scientifique » (Musset, 2009, p.2) et que la série S « reste une filière élitiste qui ouvre toutes les portes pour accéder à l'enseignement supérieur avec les meilleures chances de réussite, mais qui n'oriente pas suffisamment vers les sciences » (Moussa, Peretti & Secrétan, 2007), on est amené à penser que ces analyses concernent davantage les filles de S que les garçons de S de notre échantillon car nous avons constaté une baisse des SEP relatifs aux items de la dimension sciences et techniques chez les filles de S entre 1994 et 2006. Pour être plus précis, nous avons constaté que les filles ont des SEP plus forts que les garçons pour des professions et des formations scientifiques qui comportent une dimension sociale et de soins (infirmier, pédiatre de crèche, écoles paramédicales, professeur de biologie, études de médecine et pharmacie) tandis que les garçons ont des SEP plus forts que les filles pour des formations et des professions scientifiques de type technique (ingénieur en robotique, écoles d'ingénieurs, technicien de bureau d'études, DUT et BTS industriel), certaines professions et formations occupant une position intermédiaire entre ces deux groupes (manipulateur en électroradiologie, technicien de laboratoire, ingénieur des eaux et forêts, études universitaires scientifiques). Si en 2006 les moyennes des SEP des filles de S relatifs à des formations et des professions de la dimension sciences et techniques sont significativement inférieures à celles des garçons de S, cela ne doit pas masquer le fait qu'il existe, conformément à notre troisième attente, des minorités non négligeables de filles de S (dont le pourcentage varie entre 10 % et 33 %) qui se sentent assez compétentes ou bien compétentes (réponses 4 et 5 sur l'échelle de Likert en 5 points du QEC) pour s'engager dans ces formations et ces professions (écoles d'ingénieurs : 24 %; BTS industriel : 22 %; DUT industriel : 18,5 %; technicien en micromécanique : 10 %; physicien : 33 % [58 % chez les garçons de terminale S]; technicien de bureau d'études : 17 %; ingénieur en robotique : 21 %). Quant aux garçons de terminale S, s'ils obtiennent des moyennes de SEP relatifs à des formations et des professions de la dimension littéraire et artistique et de la dimension social et soins, inférieures à celles des filles de terminale S, certains d'entre eux (dont le pourcentage varie entre 11 % et 34 %) se sentent assez compétents ou bien compétents (réponses 4 et 5 sur l'échelle de Likert en 5 points du QEC) pour des items de la dimension littéraire et artistique (formations aux métiers artistiques : 19 %; études universitaires de lettres : 12,5 %; études universitaires de langues : 26 %; écoles de journalisme : 25 %; styliste haute couture : 11 %; bibliothécaire : 28 %) et pour des items de la dimension social et soins (écoles de carrières sociales : 14 %; éducateur d'enfants handicapés : 23 %; infirmier : 34 % [58 % chez les filles de terminale S]; pédiatre de crèche : 17 %; directeur de foyer de jeunes travailleurs : 16 %). Les résultats que nous avons observés en 1994 et en 2006 sur nos échantillons de terminales ES et S sont conformes à nos attentes : les SEP relatifs à des formations et des professions du QEC sont liés à la fois au sexe des lycéens et à la section de terminale (ES et S) qu'ils fréquentent. Résultat non anticipé, nous avons observé entre 1994 et 2006 une baisse de la moyenne du SEP des filles de S relatif à la dimension sciences et techniques alors que nous nous attendions à observer une stabilité de ces SEP. On notera toutefois que le niveau moyen du SEP des filles relatif à la dimension sciences et techniques demeure assez élevé, du même niveau que leur SEP relatif à la dimension social et soins. Il faut souligner le fait que les SEP ne se présentent pas comme un système de représentation de soi entièrement contraint et immuable. En effet, si les SEP des filles et des garçons relatifs aux formations et aux professions sont, au niveau global, nettement différenciés, il apparaît, d'une part, que des minorités non négligeables de filles et de garçons ont des SEP qui se différencient de la moyenne de leur groupe de sexe, et d'autre part, que les filles de S, par exemple, développent des SEP relatifs à la dimension sciences et techniques qui sont supérieurs à ceux des garçons et des filles de ES, ce qui montre l'effet des expériences d'apprentissage (suivre une section Scientifique) sur le renforcement des SEP. La question de la généralisabilité de nos résultats se pose du fait que les effectifs de nos échantillons sont relativement petits, notamment dans l'enquête de 2006 (effectifs d'échantillons compris entre 58 et 108), et il reste à confirmer ces résultats sur des échantillons dont les effectifs sont plus grands. Par ailleurs, il serait utile de compléter nos données quantitatives par le recueil de données qualitatives concernant notamment : les raisons données par les lycéennes et les lycéens de terminales pour expliquer qu'elles ou qu'ils se sentent capables ou non de s'engager dans telle ou telle formation ou d'exercer plus tard telle ou telle profession; les obstacles que les lycéennes et les lycéens pensent rencontrer au cours de leur orientation, et les soutiens dont ils pensent pouvoir bénéficier (cf. Lent, Brown & Hackett, 2000; Lent et al., 2002). Les ministères de l' Éducation nationale, de l'Enseignement supérieur et de la Recherche, « conscients de l'importance de l'élargissement des choix professionnels des filles, se sont assigné un objectif précis de progression concernant la proportion de filles en classe terminale des filières scientifiques et techniques : passer de 37,5 % en 2004 à 45 % d'ici 2010 » (Nembrini, Hetzel & Vitry, 2009, préface). Or, entre 1994 et 2006, nous avons observé sur notre échantillon une baisse significative du SEP des filles de S relatif à des formations et des professions qui se rattachent à la dimension sciences et techniques. Si l'on ne s'engage pas vers une filière de formation ou vers une profession pour laquelle on a des sentiments d'efficacité personnelle faibles, nous sommes amenés à nous demander comment développer les SEP des lycéennes de S à l'égard des formations et des professions scientifiques et techniques. La théorie sociale cognitive de Bandura (2003) a inspiré la conception et la mise en œuvre de types d'interventions individuelles et institutionnelles qui visent à renforcer les SEP de lycéens et d'étudiants (Betz, 1992; Lent, 2008; Nota, Soresi & Ferrari, 2008; Vouillot, Blanchard, Marro & Steinbruckner, 2004). Les interventions individuelles consistent notamment à aider les 1ycéennes et les lycéens, les étudiantes et les étudiants à renforcer leurs SEP, notamment en analysant leurs expériences de réussite – objectif mis en œuvre dans le cadre des démarches de portfolios et de bilans de compétences (Aubret & Blanchard, 2005) –, en leur proposant de suivre des programmes d'apprentissage aboutissant à la réussite, en leur permettant de participer à des situations d'apprentissage par observation, et en les amenant à prêter attention à leurs émotions en vue de les contrôler grâce à des mécanismes de coping adaptés (Lent et al., 2002). Pour aider des étudiants à s'engager dans des cursus de formation d'ingénieurs, Lent et al. (2005) suggèrent des interventions ayant pour objectifs « de renforcer leurs SEP, d'instiller chez eux des attentes de résultats positives et réalistes, de les aider à développer des stratégies leur permettant de faire face aux obstacles et de mettre en place des systèmes de soutien social pour les groupes d'étudiants sous-représentés, du fait de leur sexe ou de leur origine ethnique » (p.91). La présentation aux enseignants de mathématiques et de physique de résultats d'enquêtes sur les SEP de lycéennes et de lycéens relatifs à des formations et des professions scientifiques et techniques pourrait les inciter à réfléchir aux attitudes susceptibles de contribuer à renforcer chez leurs élèves les SEP relatifs aux mathématiques et à la physique (Costes, Houadec & Lizan, 2008). Au plan des politiques d'établissement scolaire encouragées par les politiques nationales, on peut, par exemple, mettre en place des activités visant à augmenter, à moyen terme, le pourcentage des filles qui s'orientent vers des filières de formations scientifiques et techniques (Bonneau, 1999). Soulignons toutefois les limites d'une réflexion qui se focaliserait uniquement sur les filles, du fait que : La division sexuée de l'orientation touche aussi les choix des garçons. [… ]. [Or,] l'absence des garçons des filières littéraires et sociales, du soin et de l'éducation, ne fait pas question, elle n'est pas une préoccupation sociale et politique. (Vouillot, 2007, p.98) Au plan des politiques de l'emploi, il s'agit aussi de redynamiser l'emploi scientifique, la recherche et l'enseignement, la désaffection pour les études universitaires scientifiques pouvant être liée en partie au manque de débouchés professionnels (voir sur ce point l'étude de Béduwé, Fourcade, Giret & Moullet, 2006). Enfin, l'évolution des choix d'orientation scolaire et professionnelle étant liée à l'évolution des rôles masculins et féminins dans la société, Pailhé et Solaz (2009) soulignent l'importance des politiques publiques et des politiques d'entreprise ayant pour objectif de faciliter l'articulation de la vie familiale et de la vie professionnelle. La construction des choix d'orientation doit faire l'objet d'analyses multiples qui relèvent à la fois de la psychologie, de la psychologie sociale, de la sociologie, de l'économie, des politiques d'entreprises et des politiques sociales nationales. Seules des interventions conjointes conduites à ces différents niveaux ont des chances de se révéler efficaces à moyen terme . | Au cours de deux enquêtes, la première conduite en 1994 et la seconde en 2006, nous avons évalué les sentiments d'efficacité personnelle (SEP) relatifs aux différents types d'études et de professions, de lycéennes et de lycéens de terminales de sections scientifiques (S) et économiques et sociales (ES). Ces SEP varient à la fois en fonction du sexe et de la section de terminale fréquentée. Entre 1994 et 2006, on observe une tendance à un accroissement des écarts entre filles et garçons pour les SEP relatifs aux domaines scientifiques et techniques, littéraires et artistiques, et social et soins. Les variations les plus fortes concernent les SEP des filles de S. | psychologie_10-0285259_tei_947.xml |
termith-738-psychologie | Il existe dans les pays développés une inquiétude sur l'avenir des formations scientifiques reposant sur un constat récurrent de la baisse du nombre d'étudiants inscrits ou diplômés dans ces disciplines (Organisation de coopération et de développement économiques (OCDE), 2005). Bien que la délimitation de ce que chaque pays considère comme scientifique rende les comparaisons délicates, il semble toutefois acquis que la baisse – absolue et relative – du nombre d'étudiants inscrits dans l'enseignement supérieur « scientifique » soit plus importante en France (et en Allemagne) que dans d'autres pays européens ou de l'OCDE (Auriol, 2005). On constate en France une baisse générale du nombre d'étudiants inscrits dans l'enseignement supérieur en sciences (hors santé) c'est-à-dire dans l'ensemble des filières universitaires, instituts universitaires de technologie (IUT), sections de techniciens supérieurs (STS), classes préparatoires aux grandes écoles (CPGE), écoles d'ingénieur qui délivrent des diplômes scientifiques ( 3,3 % entre 2000 et 2005, ministère de l' Éducation nationale, 2006, p. 175). Cette diminution des effectifs est particulièrement sévère en première année universitaire de sciences ( 40 % des flux d'entrée entre 1995 et 2005, Fabre, 2007) et donc en premier cycle de sciences ( 30 % entre 1995 et 2005, Tomasini, 2005). Amorcée en 1995, cette baisse se poursuit inexorablement, notamment parce que les nouveaux bacheliers S, pourtant toujours aussi nombreux, s'inscrivent de moins en moins en diplôme d'études universitaires générales (DEUG, équivalant aux deux premières années de l'actuelle licence) de sciences : 25 % des bacheliers S, contre 40 % dix ans plus tôt, se sont inscrits en DEUG de sciences à la rentrée 2004 (Lemaire & Leseur, 2005). Ils ont préféré poursuivre leurs études dans des filières où l'accès est limité (40 % d'inscrits en CPGE, IUT, STS et 17 % en médecine) ou à l'université mais dans une discipline non scientifique. On observe de plus que la moitié des inscrits en DEUG de sciences (47 %) avait déposé un dossier dans une filière sélective en terminale. Au total, 70 % des bacheliers S de 2004 ont poursuivi des études scientifiques (c'est-à-dire en sciences, santé ou secteur secondaire) contre 80 % dix ans plus tôt. Les formations universitaires de deuxième et troisième cycles en sciences sont pour l'instant moins touchées (Tomasini, 2005), mais la présence d'un nombre important d'étudiants étrangers explique largement ce constat (Girardot, 2006). Il semble donc préférable de ne parler de « désaffection pour les sciences » en France qu' à propos du premier cycle universitaire de sciences que les (meilleurs) bacheliers S préfèrent contourner (via les filières sélectives) avant de revenir, éventuellement, à l'université, mais en deuxième cycle. Ces filières sélectives dispensent des enseignements où les sciences appliquées dominent, soit dès l'entrée (IUT, STS, écoles d'ingénieur recrutant au niveau du baccalauréat) soit à terme (CPGE d'ingénieurs). Le premier cycle universitaire dispense, lui, des enseignements de sciences fondamentales (maths, physique, chimie, biologie). Ainsi voit-on les élèves les plus aptes à suivre des enseignements théoriques s'orienter vers des filières tournées vers les sciences appliquées tandis que l'université accueille dans ses cursus académiques, réputés plus difficiles du fait des connaissances à acquérir et qui pâtissent du manque d'encadrement relatif des étudiants, une part importante de jeunes mal préparés pour ce type d'études (Convert, 2003; Convert & Gugenheim, 2005). Le premier cycle universitaire apparaît comme le grand perdant de ce fonctionnement : il accueille de moins en moins d'étudiants, perd une partie des meilleurs ou des plus aptes et fait face à une hétérogénéité grandissante des capacités scientifiques de ses étudiants. Par ailleurs, et bien que l'on dispose de peu d'informations sur les parcours de formation au sein de l'enseignement supérieur, les orientations en cours de cursus se font plutôt des sciences fondamentales vers les sciences appliquées. Ce faisant, on constate que ce sont les enseignements en sciences fondamentales qui perdent des étudiants, tandis que ceux de sciences appliquées ou sciences technologiques se portent bien. Cette distinction en termes de spécialité de formation et/ou de diplôme recouvre de fait très largement celle qui existe entre les formations ouvertes à tous et les filières sélectives, y compris à l'université. Il nous a paru important de tenir compte de ces différents aspects dans l'évaluation des formations scientifiques. Nos résultats s'appuient sur les données d'enquête du Centre d'études et de recherches sur les qualifications (CEREQ) auprès des sortants de l'enseignement supérieur (voir annexe A). Dans ces enquêtes statistiques, les jeunes sont interrogés sur la base du dernier diplôme obtenu. Ce diplôme est repéré par son type (DUT, BTS, licence, diplôme d'ingénieur. ..) et sa spécialité ou sa discipline (technologie industrielle, maths-info. ..) Pour cette étude, nous nous sommes intéressés à l'ensemble des jeunes qui sortent de l'enseignement supérieur avec un diplôme doté d'une spécialité/discipline scientifique, quel que soit le niveau ou le type de diplôme atteint. Notre objectif est d'étudier le lien entre la spécialité scientifique d'une formation et celle des emplois auxquels elle conduit. Ce lien passe par l'identification des savoirs acquis en formation et de ceux requis par l'emploi. Du côté de la formation, ces savoirs ou compétences sont signalés par le diplôme, son type et sa spécialité. Les diplômés en sciences fondamentales n'ont donc pas les mêmes savoirs que leurs homologues de sciences appliquées ou technologiques. Du côté de l'emploi, on a également divisé les emplois en deux groupes : ceux de la recherche et de l'enseignement d'une part et les emplois à caractère technologique d'autre part. L'enjeu est de comparer les débouchés de chaque population de scientifiques et d'analyser les zones de concurrences. Les spécialités scientifiques ont été divisées en deux groupes : les sciences fondamentales qui regroupent les mathématiques, la physique, la chimie et les sciences de la nature ou de la vie; les sciences appliquées ou technologiques qui désignent les sciences de l'ingénieur, les sciences techniques et technologiques, y compris l'informatique et l'agronomie. Les formations en sciences fondamentales conduisent à des diplômes délivrés principalement par les universités (y compris des DESS), tandis que les sciences appliquées mènent aussi bien à des diplômes universitaires (licences professionnelles ou DESS par exemple) qu' à des diplômes universitaires de technologie (DUT), des brevets de technicien supérieur (BTS) et des diplômes d'ingénieur. Les diplômes d'école d'ingénieur ont donc été classés, par convention, dans le domaine des sciences appliquées. La santé, souvent considérée comme faisant partie des disciplines scientifiques, ne fait pas partie de l'étude parce qu'elle relève d'une problématique d'insertion professionnelle bien à part. L'affectation de chaque diplôme dans un des deux groupes est largement conventionnelle. Elle n'échappe pas aux critiques. Ainsi, certaines écoles d'ingénieur délivrent des enseignements très généralistes et, inversement, certains diplômes universitaires de physique ou de chimie, désignés comme sciences fondamentales, peuvent contenir des unités d'enseignement très appliquées. Par ailleurs, la distinction entre sciences fondamentales et sciences appliquées repose, dans notre analyse, sur la spécialité du diplôme final de l'étudiant. Elle ne prend pas en considération, faute de données, la spécificité du cursus individuel de formation. Un même diplôme peut couronner des parcours individuels différents, où enseignements en sciences fondamentales et appliquées peuvent coexister. On ne sait pas grand-chose sur les passages entre différentes filières à l'intérieur du système de formation supérieure. Plus un diplôme est de niveau élevé, plus il a de chances de certifier des connaissances simultanées en sciences fondamentales et appliquées. Mais l'insertion d'un diplômé est « évaluée » à l'aune de la spécialité de son diplôme final. Ce qui est dit sur l'insertion des diplômés ne peut donc être directement transposé pour évaluer une formation, encore moins une filière de formation. Autrement dit, la filière sciences fondamentales à l'université ne peut être évaluée à la seule mesure de l'insertion des jeunes qui la quittent. Enfin, les sciences appliquées, comparativement aux sciences fondamentales, sont elles -mêmes le regroupement de spécialités plus fines dont l'analyse détaillée ferait sans doute apparaître de nouvelles hiérarchies (on sait par exemple que les sciences de la nature et de la vie posent plus de « problèmes » que les autres spécialités fondamentales de sciences (Giret, Moullet & Thomas, 2003; Giret, Molinari-Perrier & Moullet, 2006). Il n'a pas été possible d'en tenir compte dans cette étude. Au total, l'interprétation des résultats quant à l'insertion professionnelle de ces deux groupes de diplômés, pourtant tranchés, doit être menée avec une certaine prudence. Notons que les raisons d'une désaffection pour les sciences sont apparemment profondes (OCDE, 2005; Lille, 2005) et ne dépendent pas seulement du système de sélection à l'entrée dans l'enseignement supérieur. En France comme dans la plupart des pays de l'OCDE, il semble que la science ne soit plus toujours vue comme une source de progrès : cette perte de prestige amènerait les jeunes à se désintéresser des matières scientifiques et pèserait sur leurs choix d'orientation et d'étude. Ainsi, seuls 39 % des bacheliers S inscrits en CPGE scientifique et 46 % de ceux entamant un DEUG de sciences disent avoir choisi ces filières pour le contenu des études. À titre de comparaison, le contenu des études est la raison évoquée par 83 % de ceux qui choisissent une CPGE littéraire et par 61 % des inscrits en DEUG de lettres et sciences humaines (Lemaire & Leseur, 2005). La question des débouchés professionnels est parfois évoquée pour expliquer le désintérêt des jeunes pour les enseignements scientifiques : ceux -ci manqueraient d'information sur la diversité des métiers et des carrières à l'issue d'une formation scientifique. Ici aussi il paraît important de distinguer les formations/diplômes en sciences selon qu'ils relèvent d'une spécialité scientifique générale ou technologique et appliquée. Sur le marché du travail, les filières sélectives sont aussi celles qui affichent une forte vocation professionnelle. On sait (Giret, Moullet & Thomas, 2003, mars) qu'elles offrent des insertions professionnelles plus rapides et plus réussies que n'importe quelle autre formation supérieure aux jeunes qui en obtiennent le diplôme terminal. Sélectivité et professionnalisation renforcent l'attractivité de ces filières en offrant la perspective de meilleurs débouchés. Les formations en sciences appliquées et les diplômes qui les sanctionnent cumulent le plus souvent ces deux avantages. Les étudiants le savent. De fait, 39 % des bacheliers S inscrits en CPGE scientifique disent que la question des débouchés a motivé leur choix, pour seulement 18 % des inscrits en DEUG de sciences fondamentales et 9 % en DEUG de sciences de la vie (Lemaire & Leseur, 2005). Pourtant, les jeunes inscrits en DEUG de sciences sont plus nombreux (50 %) que les étudiants en CPGE scientifique (41 %) à s' être engagés dans leur filière au motif que cela correspondait à leur projet professionnel. Ainsi, les élèves qui s'engagent dans des études en sciences fondamentales savent pourquoi ils y vont mais ne sont pas très confiants sur les possibilités de débouchés. .. Information à mettre en rapport avec le tiers des jeunes bacheliers S qui dit ne pas avoir poursuivi en DEUG de sciences parce que ces études mènent uniquement à l'enseignement et à la recherche (Tomasini, 2005). Chacun sait que l'accès à ces métiers est hautement sélectif et qu'ils sont – malgré leur prestige qui semble intact – relativement mal payés, ce qui n'encourage pas à entamer des études longues et difficiles. Qu'en est-il réellement ? Les étudiants ont-ils une vision faussée ou tout au moins tronquée des débouchés possibles après de telles études ? Il a paru légitime, sur la base de ces statistiques, de s'interroger sur la nature exacte des débouchés offerts aux jeunes qui s'engagent dans les formations scientifiques. Les études en sciences fondamentales restent-elles essentiellement tournées vers l'enseignement et la recherche, métiers pour lesquels elles ont été conçues, ou mènent-elles à une diversité d'emplois où les compétences scientifiques chèrement acquises sont reconnues et donc correctement valorisées ? Pour répondre à cette question nous avons procédé en trois étapes. La première est un bilan de l'insertion professionnelle de l'ensemble des diplômés universitaires en sciences depuis une vingtaine d'années. Longtemps considérées, toutes spécialités scientifiques confondues, comme les filières les plus performantes de l'enseignement supérieur, comment ont-elles résisté à la massification des études supérieures et aux aléas de la conjoncture ? On verra que les cursus scientifiques ont profondément évolué du fait notamment des exigences de professionnalisation assignées aux diplômes. Paradoxalement, ceci peut engendrer des concurrences entre types de diplômés mais aussi entre spécialités. La deuxième étape porte donc sur les emplois occupés aujourd'hui par les diplômés en sciences fondamentales et sur leur place – relativement aux diplômés en sciences appliquées – au sein des emplois à caractère « scientifique ». Enfin, la troisième étape est consacrée à la valorisation de ces études et surtout aux différences de rémunération, à diplôme égal, entre sciences fondamentales et sciences appliquées. L'ensemble de ces résultats nous permettra d'avancer quelques pistes de réflexion sur la désaffection pour ces études. Les données utilisées sont issues des enquêtes que le CEREQ mène depuis 30 ans auprès des sortants de l'enseignement supérieur et, plus particulièrement, de l'enquête « Génération 98 » réalisée en 2001 qui, grâce à son très gros échantillon, permet de distinguer les différentes spécialités scientifiques. Ces trente dernières années ont vu le chômage toucher une part croissante des diplômés de l'enseignement supérieur, avec deux « pics » : l'un au milieu des années quatre-vingt-dix et l'autre, tout récemment, après la relative embellie de 2001. Dans cette conjoncture « chahutée », on peut affirmer, grâce aux enquêtes du CEREQ (voir annexe A), que les diplômés des filières universitaires scientifiques – de deuxième et troisième cycles, toutes spécialités confondues – s'en sortent légèrement mieux que ceux de lettres et sciences humaines ou de droit et sciences économiques (voir figures 1 et 2) : leur taux de chômage 3 ans après la fin de leurs études est généralement plus faible, et ce depuis le début des années quatre-vingt. Cet avantage demeure cependant limité et, surtout, il s'estompe en 1995 et 1997 puis en 2000, c'est-à-dire lorsque le marché du travail se détériore. À l'inverse, les diplômés de sciences s'insèrent mieux quand le contexte économique est favorable (notamment à la fin des années quatre-vingt-dix et au tout début des années 2000). Cette « surréaction » à la conjoncture est encore plus marquée pour les diplômés de deuxième cycle. Elle peut s'expliquer par le fait que la conjoncture affecte principalement l'emploi industriel qui est devenu, au fil du temps, un débouché important sinon principal des diplômés en sciences. On va voir pourquoi et dans quelles conditions. Note. Les estimations 2001 et 2004 issues des enquêtes « Génération » de 1998 et 2001 ne sont pas strictement comparables aux enquêtes précédentes. Les premières études du CEREQ consacrées aux diplômés en sciences de l'université et des écoles d'ingénieur datent des années quatre-vingt et portaient sur les générations sorties en 1975, 1978 et 1984 (Pottier, 1985; Charlot & Pottier, 1989). Les formations scientifiques affichaient – globalement – un pourcentage de chômeurs de plus d'un an deux fois moindre que les autres spécialités, un accès plus rapide à l'emploi (et même un « taux d'emploi avant diplôme » deux fois supérieur) (Charlot & Pottier 1989, p. 7). Par ailleurs, les relations très fortes entre formations générales en sciences et métiers de l'enseignement d'une part, entre formations scientifiques spécialisées (universitaires ou en école d'ingénieurs) et carrières d'ingénieur d'autre part, étaient clairement établies. Ces relations sont restées fortes grâce à la croissance soutenue des emplois de cadres techniques et au maintien des recrutements d'enseignants, au prix d'un recours plus ou moins important aux postes d'auxiliaires. Elles doivent aussi beaucoup à l'évolution de l'offre de formation qui s'est traduite par un « déplacement constant, depuis plus de dix ans, des étudiants des filières de formation scientifique traditionnelle préparant à l'enseignement et la recherche vers les formations en sciences de l'ingénieur et de la vie qui débouchent essentiellement sur les emplois d'ingénieurs et de cadres techniques des entreprises » (Charlot & Pottier, 1989, p. 3). Ces emplois type de cadre (« enseignement/recherche » et « ingénieurs/cadres techniques »), auxquels sont venus s'ajouter ceux de techniciens, apparaissaient comme les débouchés « naturels » des formations scientifiques. L'adéquation quantitative entre flux de formés et flux de recrutements était grande. Les auteurs soulignaient cependant que ces fortes relations étaient dues à des « marchés fortement cloisonnés », ce qui rendait les insertions professionnelles des diplômés dépendantes des évolutions de ces marchés. Ainsi expliquaient-ils les difficultés d'insertion des diplômés en sciences de la vie qui ne possédaient pas de tels débouchés. Les études conduites dans les quinze ans qui ont suivi (1990-2005) ont montré que les évolutions conjoncturelles ont plus affecté l'accès à l'emploi des scientifiques diplômés de l'université que les relations entre formation et emploi (Martinelli & Vergnies, 1995; Martinelli, Sigot & Vergnies, 1997; Martinelli & Molinari, 2000; Giret, Moullet & Thomas, 2003, juin). Ces relations se sont globalement maintenues malgré les fluctuations de la conjoncture qui ont vu les scientifiques perdre puis retrouver leur avantage relatif en termes de taux de chômage. Ainsi, les accès à des emplois de niveau cadre sont restés stables sur toute la période. Plus finement, les enquêtes successives montrent, in fine, une grande stabilité de la proportion d'insérés sur des emplois d'ingénieur, de cadre technique, d'enseignant et de technicien entre 1975 et 2001. Les seuls accrocs notoires à cette apparente stabilité professionnelle ont eu lieu en 1994 (sortants 1992) et 2004 (sortants 2001), avec une perte des avantages relatifs des diplômés de sciences (Martinelli & Vergnies, 1995) et le déclassement des diplômés de troisième cycle (Giret, Molinari-Perrier & Moullet, 2006). Ce sont des années de très mauvaise conjoncture. Ces résultats masquent la recomposition profonde de la population des diplômés du supérieur en sciences, ou au contraire en témoignent, selon les cas. Ces trente dernières années ont vu l'offre de formation supérieure se transformer en profondeur, à la fois quantitativement et qualitativement, du fait de la « massification » de l'université et de la professionnalisation des enseignements. Il existe aujourd'hui une grande diversité des formations scientifiques qui, par le jeu des réorientations et des poursuites d'études, aboutit à une non moins grande diversité dans les cursus des diplômés scientifiques. La majorité des diplômes délivrés relèvent aujourd'hui des sciences appliquées ou technologiques et sont construits, à tous les niveaux, dans un objectif d'entrée sur le marché du travail. Ils sont d'un niveau de plus en plus élevé et peuvent être obtenus à la suite de parcours de formation diversifiés. L'université a développé, à côté de ses diplômes traditionnels, des filières ingénieur qui contribuent significativement à la croissance des diplômes d'ingénieur délivrés (Béduwé, Fourcade, Giret & Moullet, 2006, p. 49). La préparation aux métiers de l'enseignement se situe essentiellement au sein des instituts universitaires de formation des maîtres (IUFM) auxquels on accède par concours bien que tous les étudiants ne choisissent pas cette voie. Ainsi, le poids des formations académiques ou générales au sein de l'université est en nette baisse, contribuant largement à la baisse tendancielle des étudiants en sciences (hors santé) (ministère de l' Éducation nationale, 2006, p. 175). Les enquêtes du CEREQ permettent une évaluation fine des sorties de l'enseignement supérieur et donc des entrées sur le marché du travail de diplômés en sciences, par type de diplôme et par groupe de discipline (voir tableau 1). En 1998, les diplômés en sciences fondamentales (DEUG et plus) ne constituent effectivement qu'une minorité des diplômés sortants d'une formation en sciences (23 %). Parmi eux, les sortants d'IUFM – qu'ils aient réussi un concours ou non – ne représentaient « que » 38 %. Les poursuites d'études en thèse, diplôme plus que jamais nécessaire pour espérer entrer dans la recherche, ne concernent qu'une minorité d'étudiants (12 % des diplômés). D'après l'estimation des sorties en 1998 permise par l'enquête « Génération 98 », environ 27,5 % des jeunes diplômés en sciences fondamentales sortent après avoir réussi un concours de l'enseignement ou obtenu le doctorat, soit une des clés pour accéder aux métiers de l'enseignement et de la recherche dans les meilleures conditions. Près de trois diplômés sur quatre sortent sans avoir obtenu la clé d'entrée dans une des professions (enseignement et recherche) auxquelles mène – a priori – leur formation. Que font-ils ? Les formations scientifiques désignent le plus souvent des formations dispensées au-delà du niveau bac + 2 (quand il ne s'agit pas uniquement des troisième cycles voire des doctorats). Il est sans doute abusif de qualifier de « scientifique » la formation de jeunes qui sortent de l'université après plusieurs années de DEUG de sciences non validées. Mais il est important de savoir, surtout quand on s'inquiète de la désaffection pour ces études, que ces sorties sur échec représentent 19 % de l'ensemble des sortants de sciences fondamentales (voir tableau 1), que cette proportion est comparable à celle des sortants de sciences appliquées compte tenu de l'importance des échecs en diplôme universitaire de technologie (DUT) ou brevet de technicien supérieur (BTS). Enfin, elle est deux fois plus faible que pour les spécialités de lettres et sciences humaines et légèrement inférieure à la moyenne de l'ensemble de l'enseignement supérieur. C'est un élément du bilan de ces formations. Réciproquement, ne considérer comme scientifiques que les formations doctorales conduit à ne s'intéresser qu' à 9,5 % des sortants avec une spécialité de sciences fondamentales de l'enseignement supérieur. De fait, ces sorties se font à tous les niveaux, du DEUG au doctorat en passant par la licence, la maîtrise, les diplôme d'études appliquées (DEA) et diplôme d'études supérieures spécialisées (DESS). En moyenne, 46 % des jeunes sortants en sciences fondamentales disent avoir atteint le niveau souhaité et 13 % ont abandonné faute d' être pris dans le niveau supérieur. En comparaison, ces taux s'élèvent à 68 % et 5 % chez les sortants de sciences appliquées. .. Les études en sciences fondamentales sont effectivement vécues comme beaucoup plus difficiles. Les modifications de flux survenues depuis trente ans s'accompagnent de changements profonds dans les publics d'étudiants : d'origines plus diverses sinon plus modestes (Convert, 2003), les jeunes bacheliers en sciences privilégient les filières en sciences appliquées, mieux finalisées professionnellement, et ne s'inscrivent bien souvent en sciences fondamentales que faute de mieux. Ceux -ci côtoient en première année du premier cycle des étudiants brillants, attirés par les matières scientifiques et peu enclins à passer par les CPGE. Le public entrant dans la filière sciences fondamentales est donc très hétérogène, aussi bien du fait de ses motivations à suivre des études scientifiques que dans ses capacités à le faire avec succès et dans ses chances de réussir les sélections successives. En deuxième cycle, ces formations en sciences fondamentales accueillent par ailleurs des élèves de l' École normale supérieure, d'IUT ou d'écoles d'ingénieur qui peuvent poursuivre leurs études dans le cadre universitaire, directement ou en parallèle. Du fait de cette hétérogénéité, le cursus en sciences fondamentales se révèle extrêmement sélectif tout au long des études, seuls les « meilleurs » arrivant au bout de la filière universitaire. Ainsi, 20 % des docteurs en sciences fondamentales disent posséder par ailleurs un diplôme d'ingénieur et 7 % un DUT; ils ne sont qu'un sur deux à avoir commencé leurs études en DEUG à l'université, les autres ayant – d'une manière ou d'une autre – contourné le premier cycle par une CPGE, un IUT, une première année de médecine, etc. Les formations en sciences appliquées, écoles d'ingénieur, IUT, STS ou même les formations universitaires (institut universitaire professionnalisé (IUP), licence professionnelle, DESS. ..) sont au contraire sélectives à l'entrée, ce qui évite les échecs trop nombreux en cours de cursus. Ces modes de sélection, explicite et implicite, sont à la fois très présents et très complexes au sein de l'enseignement supérieur. Ils influencent les choix d'orientation des (bons) bacheliers puis de poursuite d'études des (bons) étudiants entre les différentes filières (Vincens, 1994). Ils contribuent de ce fait à établir une hiérarchie des filières/spécialités à travers les performances d'insertion de leurs diplômés. Hiérarchie qui, à son tour, influe sur l'orientation des étudiants. La désaffection pour les études en sciences fondamentales, que manifeste la diminution des flux en premier cycle, paraît relativement compensée par le développement des formations scientifiques technologiques et appliquées, y compris au sein de l'université. Les connaissances en sciences fondamentales dispensées par ces dernières sont évidemment très variables. Les grandes écoles d'ingénieur – au moins elles – délivrent des enseignements fondamentaux qui permettent à certains de leurs diplômés de poursuivre en thèse à l'université. Ces évolutions posent cependant la question – importante – de la taille mais aussi de la qualité du vivier d'étudiants susceptibles de devenir les chercheurs scientifiques de demain. C'est sans doute l'aspect qui suscite le plus d'inquiétudes sur l'avenir de la filière scientifique. L'évolution de l'offre de formation scientifique aboutit à une transformation qualitative et quantitative des nouvelles générations de diplômés en sciences fondamentales. Bien que moins nombreux, ils n'ont pas tous, loin s'en faut, le niveau pour accéder aux emplois de la recherche et de l'enseignement qui constituent leur cible professionnelle. Ceci ne peut que modifier les conditions de leur insertion professionnelle, à la fois en termes de rapidité d'accès à l'emploi et de diversité des emplois occupés. Sur le premier aspect, il existe effectivement des écarts de taux de chômage entre diplômés universitaires de sciences fondamentales et sciences appliquées assez considérables, seulement mesurables pour les sortis en 1998 et observés en 2001 (voir figures 1 et 2). Du fait de l'accroissement de l'emploi industriel et de la bonne conjoncture ces années -là, les diplômés de sciences appliquées, tous niveaux confondus, ont connu un taux de chômage quasiment nul. En revanche, les diplômés de deuxième cycle en sciences fondamentales s'en sortaient à peine mieux que les autres disciplines de l'enseignement supérieur et les troisièmes cycles de sciences fondamentales ont eu plus de difficultés que les diplômés de sciences économiques et les juristes. Depuis, l'accès à l'emploi des diplômés scientifiques dans leur ensemble s'est fortement dégradé (« Génération 2001 ») même s'ils semblent conserver globalement des avantages nets en termes de salaire, de statut de l'emploi et de catégorie sociale par rapport aux autres disciplines de l'enseignement supérieur (Béduwé et al., 2006). Faute d'effectifs suffisants, on ne peut savoir dans quelle mesure les sciences fondamentales ont contribué à cette forte dégradation. Tout pousse cependant à croire que les différences observées au sein des scientifiques se sont maintenues. Sur la question des emplois occupés, les résultats globaux de l'enquête « Génération 98 » (Giret et al., 2003) ont montré que, toutes disciplines scientifiques confondues, le taux d'emplois de cadres n'était maximum (90 %) que pour les docteurs, que des emplois de cadre commercial apparaissaient parmi les emplois occupés par les diplômés de troisième cycle en sciences et enfin que les emplois d'ingénieur et de technicien ne représentaient plus que 45 % des emplois de deuxième cycle. Cette enquête, réalisée dans une période conjoncturelle très favorable aux scientifiques, montrait ainsi un certain « relâchement » de leur relation formation-emploi, en termes de niveau d'emploi mais aussi de champ professionnel. Il est possible que la tertiarisation toujours croissante de l'économie amène des scientifiques vers des fonctions connexes de la production. Mais de quels scientifiques s'agit-il ? Les diplômés de sciences fondamentales, a priori formés pour d'autres fonctions, y trouvent-ils leur place ? Ces deux points militent pour une analyse comparée de l'insertion professionnelle des deux groupes de scientifiques. Un troisième point, lié à leurs compétences communes, incite à aller encore plus loin et à conduire l'analyse en termes de concurrences entre les deux groupes. Les formations en sciences fondamentales délivrent des connaissances dans le domaine des maths, physique, chimie et sciences de la vie. Mais ces connaissances peuvent avoir été acquises – au moins partiellement – dans des formations en sciences appliquées ou même dans des formations exclues a priori du champ scientifique (santé, économie, etc.) Réciproquement, certaines formations en sciences appliquées contiennent des enseignements fondamentaux (maths en informatique). Certaines connaissances scientifiques sont donc communes aux différentes formations. D'autre part, les compétences d'un individu sont constituées à la fois de ses connaissances directement disponibles – acquises en formation dans le cas des débutants – et de ses capacités d'adaptation, d'autant plus grandes qu'elles sont générales et de niveau élevé. Ainsi, toutes les formations supérieures en sciences dispensent, à niveau donné, des connaissances et des capacités communes qui peuvent intéresser les employeurs. Les diplômés de ces formations ont alors toutes les chances de se trouver en concurrence sur les emplois qui nécessitent ces compétences. « L'emploi scientifique » est une notion polysémique. L'Observatoire de l'emploi scientifique en propose une définition largement statutaire en désignant par ce terme l'ensemble des personnels travaillant directement sur des projets de recherche et développement (R & D), tant dans le secteur public que privé : chercheurs, doctorants et personnels de soutien à la recherche. Nous sommes partis d'une définition substantielle de l'activité scientifique : un emploi sera dit scientifique s'il concerne une activité qui implique l'utilisation, la production ou la diffusion de connaissances ou savoirs scientifiques ou toute combinaison de ces trois activités. Le terme « scientifique » renvoie ici à la nature des connaissances ou savoirs ou compétences mises en œuvre dans l'activité professionnelle. Ces emplois englobent les activités de recherche et développement mais ne s'y réduisent pas. La mise en œuvre de cette définition dans les travaux statistiques est difficile car la notion de connaissance scientifique n'est pas prise en compte dans le repérage et le classement des emplois en France. La frontière entre les différents emplois selon qu'ils nécessitent ou non des connaissances scientifiques est, de ce fait, en partie arbitraire. Se plier à cet exercice est cependant incontournable si l'on veut proposer une liste des emplois occupés par les jeunes scientifiques qui fasse sens en termes de compétences ou de savoirs échangés, c'est-à-dire acquis en formation et requis par l'exercice de l'activité. L'approche la plus utilisée dans les analyses de débouchés professionnels d'une formation recense les emplois pour lesquels les formations ont été construites et qui sont connus a priori pour utiliser des connaissances scientifiques (enseignants, chercheurs, ingénieurs et techniciens). Elle est qualifiée de normative parce qu'elle repose sur une mise en correspondance formelle des formations et des emplois issue des référentiels de formation, eux -mêmes élaborés à partir d'analyses d'experts. C'est l'approche que nous retenons dans cet article. D'autres approches sont possibles. Concrètement, l'approche retenue distingue deux sous-ensembles d'emplois connus (à partir de dires d'experts) pour nécessiter des compétences scientifiques : les emplois de la recherche et de l'enseignement (secteurs public et privé) d'une part, les emplois de cadre technique, d'ingénieur ou de technicien d'autre part. Les premiers produisent et/ou diffusent des connaissances ou savoirs scientifiques et sont, a priori, destinés aux diplômés en sciences fondamentales; les seconds demandent des connaissances techniques ou technologiques utiles à l'exercice de l'activité. Ces emplois, dont les seuils techniques peuvent être très divers, constituent la cible professionnelle des sciences appliquées. Le caractère technologique ou technique de ces emplois est entendu au sens large : il s'agit de toutes les activités qui participent aux processus de fabrication technologique ou industrielle mais aussi des fonctions connexes de la production voire technico-commerciales. Le choix a été fait de n'écarter aucune activité pouvant a priori nécessiter des connaissances technologiques sinon scientifiques. On trouve ainsi des emplois de niveau cadre, ingénieur ou technicien mais également de niveau ouvrier qualifié (OQ) dans les deux groupes d'emploi constituant l'emploi « scientifique » (voir tableau 2). Un troisième groupe est constitué des « autres emplois », c'est-à-dire les emplois non scientifiques qui, du fait de leur extrême diversité, n'ont pas été détaillés dans les résultats présentés ici (voir Béduwé et al., 2006). Avec ces conventions, on observe que 60 % de l'ensemble des sortants d'une formation en sciences fondamentales en 1998 (diplômés ou non de l'université) se sont insérés sur un emploi scientifique, entendu au sens large. A contrario, 40 % des jeunes scientifiques s'insèrent sur un emploi qui n'a, semble -t-il, rien à voir avec leur formation. Il existe bien sûr de grandes différences, sur lesquelles nous reviendrons, par type et niveau de diplôme. La correspondance entre spécialité de formation et spécialité d'emploi est globalement plus forte pour les sortants d'une formation en sciences appliquées (diplômés ou non, toutes filières confondues) puisqu'elle s'élève à 68 % (voir tableau 3). Elle est plus forte à tous les niveaux de diplôme, y compris au sein des diplômes universitaires, même s'il existe aussi de grandes différences entre types de diplôme. Ces premiers résultats montrent également que peu de diplômés en sciences fondamentales s'insèrent sur des emplois scientifiques qui ne soient pas dans la recherche ou l'enseignement. Les emplois de la recherche publique et de l'enseignement supérieur ne sont réellement accessibles qu'aux docteurs et aux lauréats des concours d'enseignement (voir tableau 2). La thèse ou la réussite aux concours de l'enseignement du secondaire (certificat d'aptitude au professorat de l'enseignement du second degré (CAPES), agrégation) sont des conditions nécessaires sinon suffisantes pour accéder au « cœur de métier » de la filière universitaire en sciences fondamentales. Ces débouchés sont toutefois dépendants du nombre de postes offerts aux différents concours de la fonction publique si bien que l'engagement dans ces filières est marqué du sceau de l'aléa. Qui plus est, ces études longues et difficiles débouchent souvent sur la précarité, comme en témoigne le nombre de chercheurs du public non stabilisés au bout de trois ans (24 % de l'ensemble des docteurs (Giret, 2005) et la proportion élevée de jeunes docteurs insatisfaits de leur situation professionnelle (30 %) ou inquiets pour leur avenir (27 %) (Giret, 2007). La proportion de chercheurs et d'enseignants-chercheurs du secteur public parmi les docteurs en sciences fondamentales ne cesse effectivement de fluctuer alors que les débouchés sur des postes de chercheurs du secteur privé (recherche et développement), bien qu'en augmentation, ne compensent pas ces fluctuations (Béret, Giret & Recotillet, 2004). Compte tenu des insertions sur ces emplois R & D, 70 % des docteurs en sciences fondamentales et 65 % des docteurs en sciences appliquées occupent un emploi dans l'enseignement supérieur et la recherche, publique ou privée. En revanche, ils subissent, notamment dans la R & D, la concurrence des diplômés d'écoles d'ingénieur qui, même s'ils ne sont qu'un tiers à occuper ce type d'emploi, ont des effectifs bien supérieurs (voir tableau 3). Beltramo, Paul et Perret (2001) ou Béret (2002) ont montré l'intérêt pour l'entreprise à recruter des ingénieurs plutôt que des docteurs sur des postes de recherche. On note d'ailleurs que plus d'un tiers des docteurs (41 % des docteurs en sciences appliquées ou technologiques (SAT) et 20 % des docteurs en sciences fondamentales) déclare posséder un diplôme d'ingénieur, ce qui montre que cette concurrence se fait, sans doute, entre diplômés de grande école, certains ayant poursuivi en thèse. En dessous du doctorat, au niveau bac + 5, la relation formation-emploi des diplômés en sciences fondamentales apparaît plus floue. Est -ce une marque de polyvalence des formations et des diplômés ? Les étudiants ayant obtenu un DEA – ou un DESS – en sciences fondamentales s'insèrent majoritairement sur des emplois scientifiques (73 %; 61 %), plus souvent sur des fonctions techniques d'entreprise (50 %; 32 %) que sur des emplois d'enseignement ou de recherche publics ou privés (23 %; 29 %). L'informatique représente ainsi un gros débouché pour les jeunes diplômés ayant au moins la maîtrise (notamment les étudiants ayant obtenu un DEA de maths). Les connaissances scientifiques délivrées en DEA ou en DESS de sciences fondamentales donnent donc accès aux emplois technologiques mais pas toujours au statut de cadre (73 %; 56 %). Ces emplois technologiques de production sont en effet loin de leur être réservés. La concurrence des jeunes titulaires d'un DESS en sciences appliquées ou technologiques, et bien sûr celle des diplômés d'écoles d'ingénieur y est grande. Enfin, un tiers des titulaires d'un DESS et un quart des titulaires d'un DEA s'insèrent sur un emploi non scientifique, le plus souvent de niveau employé (surveillants, animateurs, fonctions commerciales – non scientifiques – ou administratives). La relation formation-emploi apparaît moins ciblée que pour les docteurs ou les sortants d'IUFM et plus floue dans la qualité scientifique des positions professionnelles atteintes. On peut aussi la considérer comme moins rigide puisque ouverte sur plusieurs horizons. En deçà d'un diplôme bac + 5 en sciences fondamentales, la proportion d'emplois non scientifiques dépasse les 40 % : 43 % des diplômés de maîtrise, 45 % des diplômés de licence et 59 % des diplômés de DEUG s'insèrent sur des emplois qui n'ont apparemment rien à voir avec leur spécialisation. Ces emplois relèvent de secteurs et de fonctions très diverses, témoignant d'une relation formation-emploi nettement plus lâche que pour les niveaux supérieurs. Ceci ne veut pas dire que leurs compétences scientifiques n'y sont pas reconnues ou utiles mais elles ne sont manifestement pas indispensables. La proportion d'emplois de niveau cadre est inférieure à un tiers. Ces résultats tranchent avec ceux observés dans les années quatre-vingt (Pottier, 1985). Ils montrent que le seuil d'une formation scientifique garantissant une forte relation formation-emploi s'est déplacé vers le niveau bac + 5 (voire bac + 8). À niveaux d'étude et diplômes comparables, les jeunes issus de filières scientifiques appliquées occupent plus souvent des emplois en correspondance avec leur domaine de formation : l'insertion sur des emplois scientifiques est supérieure à 60 % pour tous les diplômés, grâce aux insertions sur des emplois à caractère technologique. Ces résultats s'expliquent par le souci constant de professionnalisation de ces formations, lui -même porté par le développement des emplois technologiques du secteur privé. Il vient aussi du fait que l'on considère les secteurs professionnels de la technologie et des sciences appliquées dans leur ensemble et non métier par métier. Par ailleurs, 55 % des sortants après échec au BTS ou au DUT obtiennent un emploi scientifique, proportion nettement supérieure à celle des sortants après échec au DEUG en sciences fondamentales. L'échec en premier cycle n'a manifestement pas les mêmes conséquences sur le marché du travail selon la filière choisie (Thomas, 2003; Béduwé, 2006). L'analyse comparée des emplois occupés par les diplômés en sciences fondamentales comparativement à ceux des sciences appliquées montre le relatif monopole des premiers sur les fonctions d'enseignement et de recherche publique et la concurrence entre diplômés des deux spécialités sur les emplois du secteur privé. Ces emplois technologiques sont visés à la fois par les diplômés universitaires, en sciences fondamentales et en sciences appliquées, et par les diplômés d'écoles d'ingénieur. Les performances d'insertion de ces derniers, excellentes (Giret et al., 2003 juin, 2006) doivent beaucoup à un mode de sélection des étudiants et d'encadrement des études qui biaise la comparaison avec les diplômés universitaires. En revanche, la concurrence entre diplômés universitaires, selon qu'ils ont une spécialisation en sciences fondamentales ou en sciences appliquées, mérite d' être creusée. Posséder un diplôme scientifique est donc utile sinon nécessaire pour accéder aux emplois scientifiques. Mais quel(s) avantage(s) les scientifiques en tirent-ils ? Leurs compétences sont-elles reconnues en dehors de ces emplois ? Enfin, la concurrence pour l'accès aux emplois entre diplômés de sciences fondamentales et appliquées s'accompagne -t-elle d'une égalité de traitement ? Pour répondre à ces questions, nous avons confronté les conditions d'insertion, et notamment les salaires, des jeunes diplômés de l'université dans chaque groupe de spécialité, de niveau bac + 5 (DEA et DESS) d'une part et de niveau bac + 3 et bac + 4 (licence, maîtrise) d'autre part. Les diplômés d'écoles d'ingénieur et les sortants de l'IUFM, trop spécifiques à chacun des champs, ont été retirés de cette analyse comparative. Quels que soient leur niveau de diplôme et leur spécialité, les scientifiques ont tout intérêt à s'insérer sur un emploi scientifique (voir tableaux 4 et 5) : vitesse d'accès à l'emploi, stabilité, qualification, salaire mais aussi satisfaction sont bien meilleurs que lorsqu'ils s'insèrent sur un emploi non scientifique. On peut donc considérer que pour tous les scientifiques, trouver un emploi dans le champ de leur formation offre un net avantage. À bac + 5, les jeunes titulaires d'un DEA ou d'un DESS en sciences technologiques ou appliquées bénéficient de meilleures conditions d'insertion que leurs homologues en sciences fondamentales. C'est particulièrement net lorsqu'ils accèdent à un emploi scientifique : accès deux fois plus rapide au premier emploi, taux de cadres plus élevé (91 % contre 78 %), rémunérations médianes mensuelles nettes d'environ 2 000 euros, soit 250 euros de plus que pour les sciences fondamentales, deux fois moins d'emplois précaires (voir tableau 4). Ils sont beaucoup plus rarement employés dans le secteur public et, comme nous l'avons vu, plus souvent sur des fonctions techniques de l'entreprise, de niveau cadre ou ingénieur. De plus, au vu de ces indicateurs, l'accès à des emplois non scientifiques n'est pour eux que faiblement pénalisant. Ce n'est pas le cas des jeunes diplômés de niveau bac + 5 en sciences fondamentales pour qui ne pas obtenir d'emploi scientifique diminue grandement la qualité des conditions d'insertion : le taux d'emplois à durée déterminée s'en trouve doublé (plus d'un diplômé sur trois), le taux d'accès au statut cadre est divisé par deux (il passe à 42 %) ce qui explique une diminution du salaire moyen de 250 euros. Ces mauvaises performances ont un effet sur la satisfaction professionnelle de ces diplômés : les proportions de jeunes disant se réaliser professionnellement et/ou être employés à leur niveau de compétences baissent d'une vingtaine de points lorsque l'emploi obtenu n'est pas scientifique, alors que ceci n'a pratiquement pas d'impact sur la satisfaction des sortants de filières technologiques. L'ensemble de ces indicateurs, objectifs et subjectifs, témoigne de conditions d'insertion à la fois plus difficiles et plus dépendantes de l'emploi atteint pour les diplômés en sciences fondamentales. L'analyse des conditions d'insertion des diplômés de niveaux bac + 3 et bac + 4 (voir tableau 5) confirme que les scientifiques des deux groupes de spécialité ont tout intérêt à s'insérer sur un emploi scientifique, en termes de vitesse d'accès à l'emploi, de précarité, de qualification et donc de salaire. Les diplômés d'une spécialité technologique sont toujours moins pénalisés par un accès à un emploi non scientifique que les diplômés en sciences fondamentales (de manière moins flagrante que pour les bac + 5 toutefois). Qui plus est, ils sont en bien meilleure position sur ces emplois non scientifiques que les jeunes diplômés en sciences humaines et sociales (voir tableau 5). Ce qui laisse penser que leur formation scientifique est vue comme un plus de la part des employeurs pour occuper ces emplois pourtant non scientifiques. Pour approfondir la question de la valorisation des études universitaires scientifiques et des concurrences entre sciences fondamentales et sciences appliquées ou technologiques, nous recourons aux techniques économétriques, « toutes choses égales par ailleurs ». Dans un premier temps, il s'agit de mesurer la différence nette de rémunération entre un diplômé en sciences fondamentales et un diplômé (de même niveau et même type de diplôme) en sciences technologiques et appliquées. Nous cherchons ensuite si ces différences nettes de gains obtenus, par les uns et les autres, perdurent et avec quelle importance, lorsque l'emploi occupé est scientifique. Pour expliquer le salaire obtenu trois ans après leur sortie par ces diplômés de l'université en sciences, nous avons introduit dans le modèle les principaux types de diplômes de niveau bac + 3 à bac + 5 en fonction de leur spécialité, l'ancienneté sur le marché du travail, l'expérience (ancienneté) dans l'entreprise, le temps de travail, le secteur public ou privé de l'emploi, ainsi que le sexe (voir tableau 6). Les estimations de la première colonne portent sur l'ensemble des emplois occupés. Celles des deuxième et troisième colonnes concernent respectivement les diplômés occupant un emploi défini comme scientifique et les diplômés occupant un emploi défini comme non scientifique. Globalement (colonne 1), les résultats montrent que « toutes choses égales par ailleurs », les diplômés en sciences dans les spécialités technologiques sont mieux rémunérés que leurs collègues des spécialités fondamentales. À diplôme équivalent, l'avantage salarial des diplômés en sciences appliquées est d'environ dix points. Ce résultat vaut également pour les DESS qui sont, quelle que soit la discipline, des diplômes professionnalisés et donc tournés vers l'emploi. S'insérer avec un diplôme à connotation appliquée ou technologique (plutôt que fondamentale) permet donc – à sexe, ancienneté, expérience, temps de travail et secteur d'activité identiques – d'obtenir un salaire plus élevé, croissant avec le niveau d'études. Lorsque l'emploi possède un caractère scientifique (colonne 2), les écarts de salaire entre les deux groupes de spécialités sont un peu moins élevés mais toujours à l'avantage des jeunes issus de filières technologiques. Comme l'indiquaient les premières statistiques descriptives, les jeunes diplômés en sciences fondamentales sont effectivement moins désavantagés sur des emplois faisant appel à leurs compétences scientifiques. Ces résultats s'expliquent en partie par le type d'emploi scientifique occupé : les diplômés de niveau bac + 4 ou bac + 5 en sciences appliquées occupent essentiellement des postes d'ingénieur dont on sait qu'ils sont bien rémunérés. Les sciences fondamentales, à diplôme équivalent, occupent des emplois scientifiques plus diversifiés, d'ingénieur mais aussi d'enseignant, voire de technicien, où les salaires sont moindres. On note cependant que ce résultat ne dépend pas du secteur d'activité public ou privé. L'écart de salaire entre spécialités technologiques et spécialités fondamentales est, à l'exception des titulaires d'un DEA, beaucoup plus important lorsque les jeunes diplômés n'occupent pas d'emploi scientifique (colonne 3). Autrement dit, c'est lorsqu'ils sont employés dans une profession sans lien direct avec les sciences que l'avantage des sciences appliquées ou technologiques sur leurs homologues en sciences fondamentales est le plus flagrant. Cet avantage relatif des jeunes issus de filières appliquées ou technologiques sur des emplois non scientifiques existe pour tous les niveaux de diplôme. Ici encore ce résultat peut s'expliquer par une structure d'emploi plus favorable des diplômés en sciences appliquées. Ils accèdent plus souvent à des emplois de niveau cadre (notamment de cadre administratif ou commercial) que les jeunes de sciences fondamentales. L'exception notable des titulaires d'un DEA en sciences fondamentales s'explique par le fait qu'il s'agit souvent de jeunes diplômés de médecine, exerçant en milieu hospitalier, et ayant poursuivi leurs études par un DEA de biologie (diplôme au titre duquel ils sont interrogés). Leur salaire est en moyenne plus élevé que celui des titulaires d'un DEA de sciences appliquées. Les diplômés universitaires en sciences fondamentales sont donc, « toutes choses égales par ailleurs », moins bien rémunérés que ceux de sciences appliquées. Trois explications peuvent être avancées. La première, nous l'avons vu, vient du fait que les diplômés en sciences fondamentales n'occupent pas rigoureusement les mêmes emplois que leurs collègues de sciences appliquées, et notamment pas ceux qui sont les plus rémunérateurs. Ceci semble vrai y compris au sein des emplois scientifiques du secteur public, c'est-à-dire au sein des emplois de la recherche et de l'enseignement, cœur de métier des sciences fondamentales. Une seconde explication vient sans doute du caractère plus appliqué des formations technologiques qui rend les diplômés à la fois plus rapidement opérationnels (on les juge plus proches de l'emploi) et, du fait d'enseignements complémentaires (en management par exemple), plus polyvalents. Ils peuvent évoluer plus facilement vers des fonctions moins techniques, ce que semble indiquer leur avantage dans les formations non scientifiques. Il est enfin possible que cet avantage soit lié à la sélection souvent plus importante des étudiants à l'entrée dans ces formations. Les diplômés sont, de ce fait, considérés comme plus homogènes par les employeurs, voire meilleurs. Quel lien peut-on faire entre la baisse des inscriptions en DEUG de sciences fondamentales et l'insertion professionnelle des diplômés de cette filière universitaire ? L'analyse des conditions d'insertion professionnelle, de la qualité des emplois occupés et de la valorisation des études entreprises par les diplômés en sciences fondamentales aboutit à un constat clair : depuis toujours, cette filière universitaire conduit principalement, et dans de bonnes conditions, aux métiers de l'enseignement et de la recherche, principalement publique. C'est bien l'objectif de ces formations construites autour du développement et de la diffusion des savoirs fondamentaux. Un premier problème de cette filière viendrait alors de ce que les jeunes, au moment d'entamer des études qu'ils savent longues et difficiles, n'ont qu'une faible visibilité du nombre de postes qui seront ouverts aux concours au moment où ils décrocheront leur diplôme. La précarité et les faibles salaires offerts aux chercheurs débutants ne sont guère incitatifs. L'ouverture des doctorats en sciences fondamentales sur la recherche et le développement existe même si elle reste faible par rapport aux sciences appliquées. Elle pourrait être développée et encouragée dans le cadre de bourses CIFRE (Giret, 2005; Duhautbois & Maublanc, 2006). Attirer les jeunes vers les sciences fondamentales et augmenter la qualité du vivier pour les métiers scientifiques par excellence passe au minimum par une information claire sur les possibilités de recrutement d'enseignants, d'enseignants-chercheurs et de chercheurs par la revalorisation des carrières offertes aux chercheurs débutants et l'ouverture de ces formations sur la recherche et le développement. Pour les étudiants qui ne peuvent ou ne veulent se diriger vers ces métiers, il existe de nombreuses possibilités de s'orienter en cours de cursus vers des formations spécialisées. Mais les accès à ces formations sont souvent sélectifs (licences professionnelles, masters spécialisés. ..) ce qui contraint les jeunes les plus en difficulté à abandonner leurs études. Or ce sont ces sorties avec diplôme universitaire général qui – relativement aux autres formations scientifiques – conduisent aux insertions professionnelles les plus difficiles. Un second problème pour cette filière est de maintenir son niveau d'excellence tout en évitant des taux d'échec très élevés à chaque cycle. Il s'agit là d'un problème d'orientation en cours de cursus. La désaffection pour les études scientifiques tient donc beaucoup au fonctionnement du système d'enseignement supérieur qui, par le jeu des filières sélectives et des réorientations, influe fortement sur les choix d'études des bacheliers scientifiques. Sensibles à la question des débouchés, ceux qui peuvent choisir leur filière mettent en œuvre des stratégies de poursuite d'études qui leur garantissent le meilleur accès à l'emploi qualifié. Les filières de sciences appliquées développées au sein des universités, objets de toutes les attentions et pour lesquelles la question du lien à l'emploi est travaillée, obtiennent un succès grandissant. À l'inverse, les filières de sciences fondamentales assument la double mission, largement paradoxale, de former « l'élite » scientifique pour assurer le renouvellement des enseignants-chercheurs et des chercheurs et d'accueillir et former ceux qui, attirés par les sciences, n'ont pu s'inscrire ailleurs. Les étudiants de premier cycle sont à l'évidence très hétérogènes quant à leurs connaissances et leurs motivations pour les études scientifiques. D'où la sélection en cours de cursus qui produit des sorties importantes à tous les niveaux. L'insertion professionnelle de ces sortants, diplômés en sciences fondamentales, va évidemment dépendre du niveau et du type de diplôme avec lequel ils abordent le marché du travail. Ceux qui sortent avec un diplôme supérieur à la licence ont des compétences/connaissances scientifiques qu'ils peuvent faire valoir pour accéder à des emplois scientifiques. Mais ils vont alors subir la double concurrence, notamment sur les emplois à caractère technologique, des jeunes issus de l'université dans des spécialités technologiques ou appliquées et des diplômés des écoles d'ingénieur. À formation égale, les diplômés en sciences appliquées de l'université, sans doute parce qu'ils sont mieux préparés qu'eux (plus opérationnels) à ces fonctions, semblent plus appréciés par les employeurs et mieux rémunérés. Enfin, ceux qui sortent avec un diplôme en sciences fondamentales en deçà de la licence peuvent difficilement revendiquer une formation scientifique. La revalorisation de la filière auprès des bacheliers scientifiques ne peut donc s'en tenir à développer l'information sur la diversité des débouchés, sauf à méconnaître la réalité de l'accès aux emplois de ces étudiants. Les étudiants savent ce qui les attend à l'issue de ces formations : ceux qui disent que ces filières mènent essentiellement aux emplois de l'enseignement et de la recherche ne se trompent pas beaucoup. En revanche, ils ne sont peut être pas suffisamment au courant des possibilités d'orientation et de réorientation vers des sciences appliquées à l'issue d'une formation en sciences fondamentales. Développer ces possibilités et les rendre accessibles aux jeunes en difficulté dans les filières fondamentales paraît important. Il faut manifestement éviter de laisser les jeunes sortir sur le marché du travail concurrentiel avec un diplôme trop généraliste. Cette recommandation nécessite d' être nuancée. Tous les résultats produits proviennent d'observations menées sur trois ans d'insertion professionnelle. On ne peut encore parler de carrière. Il est possible que les différences observées entre diplômés de sciences fondamentales et diplômés de sciences appliquées – nettes en début de carrière – s'estompent avec le temps. Les capacités d'adaptation de ces jeunes, qu'elles soient dues à la nature fondamentale de leurs savoirs scientifiques et/ou à leur formation supérieure, sont a priori tout aussi grandes que celles des jeunes issus de filières spécialisées . | La désaffection des étudiants en sciences, nette en premier cycle universitaire de sciences fondamentales, nourrit l'inquiétude sur l'avenir des formations scientifiques. Si l'accès à l'emploi se dégrade davantage pour les diplômés de sciences que pour les autres universitaires lorsque la conjoncture devient défavorable, les scientifiques conservent un avantage net en termes de salaire et de statut d'emploi. Mais les diplômés en sciences fondamentales ont des conditions d'insertion plus difficiles que ceux issus de spécialités appliquées. Concurrencés par ces derniers dans l'accès aux emplois scientifiques du secteur privé, ils connaissent également une moindre valorisation salariale de leur formation. La « crise des sciences » semble ainsi tenir au caractère paradoxal de la mission des filières de sciences fondamentales: former « l'élite » destinée aux prestigieux métiers de chercheur et d'enseignant-chercheur tout en accueillant et formant ceux qui, attirés par les sciences, n'ont pu s'inscrire dans les filières plus sélectives de sciences appliquées. | psychologie_08-0352474_tei_982.xml |
termith-739-psychologie | Au cours de ces dernières décennies, les inscriptions dans l'enseignement supérieur en Communauté française de Belgique ont augmenté, de sorte qu'elle compte parmi les pays et régions ayant les plus hauts taux de participation dans l'enseignement supérieur au monde (Vandenberghe, 2000). Même si ces chiffres peuvent être considérés comme des indices de démocratisation de l'enseignement supérieur, deux ombres subsistent au tableau. D'une part, bien que la Communauté française de Belgique se distingue par une liberté d'accès et une absence quasi complète de sélection à l'entrée à l'université, le public présent n'en reste pas moins majoritairement issu de groupes sociaux favorisés (Vermandele et al., 2010). D'autre part, plusieurs études (Arulampalam, Hayor, & Smith, 2004; Romainville, 2000) montrent que l'échec à l'Université, particulièrement massif en première année, est en partie lié aux ressources socioculturelles et financières du milieu familial des étudiants. Par conséquent, l'élargissement de l'accès aux études universitaires n'induit pas l'égalité au niveau des chances de réussite. Le présent article s'interroge sur les processus explicatifs de l'influence de l'origine sociale des étudiants sur leur réussite académique. Au vu de la littérature scientifique, quatre processus potentiellement médiateurs peuvent être pointés : l'effet établissement, l'effet filière d'étude, l'effet options et l'effet de la maîtrise des prérequis universitaires. Les trois premiers processus soulignent la diversité des carrières scolaires en fonction de l'établissement scolaire fréquenté en secondaire, de la filière d'étude et des options suivies (Dumay & Dupriez, 2004a). Dans une logique chronologique, ce passé scolaire de l'étudiant détermine notre quatrième variable d'intérêt : l'effet de la maîtrise des prérequis universitaires, qui concerne la possession de certaines compétences normalement acquises avant l'entrée à l'université et jugées critiques pour la réussite dans l'enseignement supérieur. L'argumentation développée ci-après débutera par une analyse du lien entre position sociale et réussite scolaire. Nous recenserons ensuite les recherches portant sur nos variables médiatrices, à savoir l'effet établissement, l'effet filière, l'effet options, et l'effet relatif à la maîtrise des prérequis universitaires. Ceci fait, nous présenterons la méthodologie et les résultats de notre travail empirique. Enfin, ces derniers seront discutés et mis en perspective. Le débat autour des inégalités se nourrit du décalage entre, d'une part, le postulat d'égalité entre les individus et, d'autre part, les inégalités réelles, patentes et persistantes. Ces inégalités (e.g., de revenus, de conditions de travail, de logement, d'éducation) sont souvent liées entre elles, se cumulent et tendent à former un véritable système (Duru-Bellat, 2005). L'inégalité des chances reflète donc le rapport entre, d'un côté, le classement des individus d'après des caractéristiques dont ils ne sont aucunement responsables parce qu'elles leur ont été imposées à la naissance (e.g., sexe, ethnie, catégorie sociale des parents) et, de l'autre côté, ce que la vie leur procure ensuite (Girod, 1989). Deux théories pionnières ont particulièrement marqué l'étude des inégalités sociales face à l'éducation : les théories de Bourdieu (1964, 1966) et de Boudon (1973, 2001). Bourdieu et Passeron (1964) ont étudié les inégalités d'accès et de réussite des enfants en milieu scolaire et ont remis en cause le fonctionnement de l'école. Premièrement, ils considèrent que des différences de « capital » ou « d'héritage culturel » entre les enfants de milieu favorisé et les enfants de milieu défavorisé expliquent leurs différences de réussite scolaire. Ainsi, selon leur milieu social d'appartenance, les élèves hériteraient de certains traits culturels, que les auteurs nomment « habitus », c'est-à-dire « un ensemble de dispositions culturelles durables associées à une position sociale et résultant d'un processus d'inculcation » (Van Campenhoudt, 2001, p. 250). Cette différence « culturelle » aurait pour implication majeure une adaptation différente à l'école en fonction du milieu d'origine. Ainsi, ces auteurs avancent que les enfants de milieu défavorisé ont moins accès aux pratiques culturelles qui sont valorisées à l'école (e.g., langage, prérequis). Dès lors, ils présentent plus de difficultés face aux activités scolaires. Par ailleurs, ces mêmes auteurs affirment que l'école agit selon une logique « méritocratique ». Comme écrit précédemment, les élèves de milieu aisé ont davantage accès à des pratiques culturelles (e.g., visite de musées, lecture, maîtrise du langage oral et écrit) largement appréciées par leurs professeurs, et bénéficient ainsi de facilités à l'école. Les professionnels de l'éducation associeraient cette facilité à un « don naturel » ou un mérite, et percevraient l'échec scolaire comme un manque d'intelligence ou de travail, les élèves de milieu défavorisé étant alors souvent perçus comme les moins doués. De son côté, Boudon (1973, 2001) se réfère à une théorie économique afin d'expliquer le processus d'inégalité sociale face à l'éducation. Cette théorie postule que face à un choix d'orientation, l'individu évalue les coûts et les avantages des alternatives envisagées. Dans le domaine scolaire, cette évaluation diffère en fonction du milieu d'appartenance de l'étudiant, les coûts d'études supérieures étant généralement estimés trop élevés par les étudiants de milieu défavorisé par rapport aux avantages espérés. De ce fait, ces derniers envisageraient préférentiellement des études techniques ou professionnelles durant leurs secondaires, ou éventuellement des études supérieures courtes. Dans les deux cas, le choix s'expliquerait par le fait que d'une part, ces études coûtent moins cher que des études universitaires et, d'autre part, qu'elles ont l'avantage de permettre un accès rapide à l'emploi. L'accumulation de ces choix d'orientation a pour conséquence une homogénéisation sociale progressive de la population estudiantine dans les différentes filières d'études secondaires et supérieures. Dès lors, au fur et à mesure de l'avancée dans le cursus scolaire, la relation entre classe sociale d'appartenance et réussite tend à s'atténuer et à disparaître (Boudon, 2001; Duru-Bellat, 2005). Afin de limiter le phénomène d'inégalité des chances à l'école, Boudon (2001) propose que les choix des familles quant au cursus scolaire soient moins décisifs, ce qui serait rendu possible par l'allongement du tronc commun dans l'enseignement secondaire. Dans le cadre de cette étude, vu le statut particulier des étudiants (non travailleurs), leur origine sociale sera évaluée à partir du niveau d'étude de leurs parents. Trois raisons expliquent notre choix méthodologique. Premièrement, les sociologues (Bourdieu, 1994; Thélot & Valet, 2000) montrent que le parcours scolaire est majoritairement influencé par le capital culturel de la famille, en comparaison au capital économique. Ce capital culturel peut dès lors être évalué par le niveau d'études des deux parents. Deuxièmement, ces deux variables indépendantes sont conceptuellement proches de notre variable dépendante, à savoir la réussite académique. Enfin, la variable « niveau d'études » s'avère beaucoup plus objective que la variable « profession », complexe à catégoriser objectivement et donc peu utilisable (Burnod & Chenu, 2001). Avant de présenter les médiateurs potentiels, il importe de contextualiser nos propos en faisant état des particularités de l'enseignement secondaire en Communauté française de Belgique. Les études (Boudon, 2001; Bourdieu, 1966; Duru-Bellat, 2005) montrent en effet le rôle majeur du fonctionnement de l'enseignement secondaire dans la pérennisation des inégalités sociales. Actuellement, une progression du niveau des acquis des différents groupes sociaux est observée dans le système scolaire. Toutefois, plusieurs années après les constatations de Bourdieu et de Boudon, les études (Vandenberghe, 2000) continuent à souligner un différentiel de croissance en fonction des groupes sociaux, avec un désavantage manifeste des élèves de milieu défavorisé. Accepter de considérer l'échec des élèves de milieu défavorisé comme étant aussi le reflet d'un mode de fonctionnement organisationnel et institutionnel, et pas seulement comme le reflet des caractéristiques de l'élève, nous permettrait de mieux comprendre la stabilité de cette situation (Galand, Neuville, & Frenay, 2005). C'est pourquoi nous allons nous pencher sur quelques aspects du fonctionnement de l'enseignement secondaire en Communauté française de Belgique. En Europe, plusieurs types de modèle d'enseignement peuvent être identifiés, allant de l'intégration (Danemark, Islande, Finlande et Suède) à la séparation (Allemagne, Autriche, Suisse, Belgique) (Draelants, Dupriez, & Maroy, 2003). Le système scolaire belge suit clairement le modèle de la séparation : des filières organisées de manière précoce, un recours important aux orientations et aux options, et un usage fréquent du redoublement comme outil de gestion des parcours scolaires (Dupriez & Dumay, 2004b). Dans cette logique, l'enseignement secondaire en Communauté française de Belgique tend à recourir massivement au redoublement lors de difficultés d'apprentissage. Cela concerne surtout les élèves à profil socio-économique plus faible (Vandenberghe, 1996), et entraîne dès lors une certaine homogénéité au sein des classes (Delvaux, 2000). Pourtant, Duru-Bellat et Mingat (1997) ont montré que favoriser l'hétérogénéité au sein d'une classe augmente l'efficacité et l'équité du système. Le système en Communauté française de Belgique se caractérise également par une évaluation scolaire décentralisée. Il s'agit d'un jugement de valeur posé par des acteurs scolaires plutôt qu'une réalité objective (Crahay, 1996). Cette décentralisation de l'évaluation comporte un certain nombre de risques en termes d'égalité de traitement. L'échec peut ainsi éventuellement sanctionner, d'un établissement scolaire à l'autre, des niveaux d'insuffisance fort variables (Draelants, 2002). En conclusion, les études (Draelants et al., 2003) indiquent que le modèle de la séparation, tel qu'appliqué en Belgique, entraîne la plus forte relation entre le milieu social et culturel des élèves et leur réussite scolaire. Nous allons à présent développer les processus médiateurs qui peuvent générer des différences de réussite à l'université en fonction de l'origine sociale de l'apprenant. L'effet établissement se définit par une capacité différenciée des établissements de l'enseignement secondaire à faire acquérir des connaissances (Dumay & Dupriez, 2004a). Il se traduit par des progressions inégales et des carrières académiques variables en fonction de l'institution scolaire fréquentée. Ce phénomène est clairement observé dans l'enseignement suivant le modèle de la séparation, c'est-à-dire notamment en Communauté française de Belgique (Grisay, 2006). Ce système gère en effet les différences d'aptitudes en orientant les élèves vers des institutions différentes, ce qui maximise l'homogénéité au sein de chacun des établissements. À l'opposé, dans les systèmes scolaires de type intégré, l'effet établissement est de moindre ampleur; l'hétérogénéité de niveau des étudiants se situe alors essentiellement au sein des établissements scolaires, et non entre ceux -ci. Ces différences de progression en fonction de l'établissement scolaire peuvent s'expliquer par l'influence conjointe de trois facteurs. Le premier facteur fait référence aux pratiques pédagogiques et au climat de l'établissement scolaire (Dumay & Dupriez, 2004a). À aptitudes égales au départ, les étudiants progressent mieux s'ils prennent part à un apprentissage de qualité, réalisé par des enseignants compétents dans une ambiance calme, plutôt que s'ils sont exposés à des enseignants peu motivés et aux multiples problèmes d'un établissement en crise. Le deuxième facteur fait référence à une sévérité inégale des institutions scolaires. Ainsi, certains établissements se montrent bien plus sévères que d'autres en matière de notation. Cette différence de notation dépend en réalité du public accueilli par l'institution : lorsque le public est majoritairement faible, la notation est plus indulgente tandis que l'on note plus sévèrement un public de bon niveau scolaire (Duru-Bellat & Mingat, 1988). Cette constatation nous amène au dernier déterminant de ce phénomène : l'effet de composition, c'est-à-dire l'effet des caractéristiques agrégées de la population des établissements scolaires (e.g., niveau moyen des ressources culturelles de la famille, niveau moyen des compétences des élèves) sur les différences de progressions entre ces établissements (Dumay & Dupriez, 2004a; Grisay, 2006). D'une part, on constate que les institutions scolaires présentent un public socialement homogène. En fonction de leur origine sociale, les élèves se dirigent vers certaines institutions scolaires plutôt que d'autres. D'autre part, les établissements qui accueillent des élèves de milieu défavorisé sont d'un niveau faible, tandis que le cas inverse est observé pour les établissements qui présentent un public de milieu aisé (Grisay, 2006), ce qui a pour corollaire des différences de progression entre ces établissements. Relativement tôt dans le cursus, les familles de la Communauté française de Belgique sont amenées à faire des choix d'options et de filières qui auront un impact majeur sur la carrière académique de leur enfant. Ce fonctionnement entraîne un effet interfilière et un effet options. Ces effets, dont la similarité nous a amené à les rapprocher, suivent le même principe que l'effet établissement, et se définissent par une capacité différenciée à faire acquérir des connaissances en fonction de la filière d'étude fréquentée (générale, technique ou professionnelle), ainsi qu'en fonction des options poursuivies (e.g., mathématiques fortes/faibles, sciences fortes/faibles, sciences sociales). Des études (Duru-Bellat, 2005; Forget, 2002; Thiéry, Zachary, De Villé, & Vandenberghe, 1999) montrent que les différentes filières et options rassemblent un public homogène au niveau social ainsi qu'au niveau des compétences. Ainsi, les élèves qui suivent l'enseignement professionnel proviennent majoritairement d'un milieu moyen à bas et s'y retrouvent généralement au terme de redoublements successifs. Dans le cadre de cette étude, ne niant pas l'intérêt de l'effet filière, nous nous centrerons sur l'effet options. De fait, étant donné que les étudiants en première année à l'université sont essentiellement issus de l'enseignement général (de Kerchove & Lambert, 1996), nous ne serons pas en mesure d'évaluer des différences selon la filière. En définitive, deux types d'option seront identifiés. Primo, les options dites « générales » (e.g., mathématiques, sciences, latin-grec) permettent aux élèves du secondaire d'acquérir des connaissances larges et variées. Secundo, les options plus « spécifiques » (e.g., sciences sociales, sciences économiques, informatique) contribuent au développement de connaissances liées à un domaine en particulier (de Kerchove & Lambert, 1996). Plusieurs études (Beguin, 1991; de Kerchove & Lambert, 1996; Droesbeke, Hecquet, & Wattelar, 2001) font état d'un lien entre les options suivies au sein -même de la filière générale et la réussite universitaire. Ainsi, les options dites « générales » ont tendance à davantage répondre et préparer les élèves aux exigences universitaires. De ce fait, sans jugement de valeur, nous les qualifierons de « fortes » (options générales) versus « faibles » (options spécifiques), au vu uniquement de leurs apports en termes de préparation à l'université. La notion de prérequis universitaires désigne « toute connaissance ou compétence s'avérant cruciale pour la maîtrise d'un cours, et qui est considérée comme devant être acquise préalablement à l'entrée des études universitaires ou au cours de ces études indépendamment d'un enseignement systématique et explicite » (Romainville, Houart, & Schmetz, 2006). Les études (Galand, Frenay, & Bourgeois, 2004; Robbins, Lauver, Le, Davis, & Langley, 2004) montrent que la réussite est notamment liée au niveau de compétence des étudiants à leur entrée dans le supérieur, et plus précisément à leurs compétences acquises dans le secondaire. D'ailleurs, Romainville note un écart non négligeable entre ce que certains enseignants supposent connus par leurs nouveaux étudiants et ce que ceux -ci savent réellement (Romainville, 2006). Ceci nous amène à postuler que les prérequis, définis par les enseignants universitaires, ne sont pas maîtrisés également par tous les étudiants, et que des différences notoires existent en fonction du passé scolaire de ceux -ci. Le projet « Explicitation des prérequis et mesure de leur maîtrise » mené par Romainville (2006) porte principalement sur ces problématiques, et tente d'évaluer la maîtrise des prérequis chez les étudiants entrant en première année à l'université. Des questionnaires, élaborés en collaboration avec les enseignants, sont administrés aux étudiants afin de mesurer ce qu'ils savent effectivement faire. Par le biais de ce dispositif, trois objectifs sont poursuivis. Primo, ce projet tente de révéler les compétences et les connaissances initiales exigées à l'université. Secundo, il vise à mesurer l'adéquation des connaissances et compétences des étudiants face à ces exigences universitaires (Romainville et al., 2006). Tertio, il tente de diminuer l'influence des préacquis sur la réussite académique de deux manières différentes. Tout d'abord, les professeurs sont informés des résultats des tests, afin de pouvoir adapter leur manière d'enseigner et inviter les étudiants à s'engager dans un travail de remédiation. Ensuite, les étudiants prennent connaissance de leurs résultats au test. Cela leur permet de prendre conscience de leurs lacunes, de modifier leurs méthodes de travail en conséquence et d'améliorer leurs compétences en prenant part, notamment, aux dispositifs de remédiation. Par ailleurs, notons que la réussite à ces tests a un effet stimulant et provoque une augmentation du sentiment de compétence de ces étudiants, facteur non négligeable de réussite universitaire. Au terme de ce développement théorique, trois catégories d'hypothèses peuvent être formulées. La première reprend celles qui vérifieront l'existence d'influences directes entre nos variables d'intérêt et la réussite universitaire. Hypothèse 1 : L'origine sociale des étudiants influence leur réussite en première année à l'université. Hypothèse 2 : L'établissement scolaire dans lequel les étudiants ont évolué en secondaire influence leur réussite universitaire. Hypothèse 3 : Les options enseignées aux étudiants en secondaire influencent leur réussite universitaire. Hypothèse 4 : Le degré de maîtrise de certains prérequis universitaires par les étudiants à l'entrée à l'université influence leur réussite universitaire. De son côté, notre second groupe d'hypothèses examinera la présence de processus médiateurs explicatifs du lien entre origine sociale des étudiants et réussite universitaire. Hypothèse 5 : L'établissement scolaire dans lequel les études secondaires ont été effectuées joue un rôle médiateur dans le lien entre l'origine sociale et la réussite universitaire. Hypothèse 6 : Les options choisies dans l'enseignement secondaire jouent un rôle médiateur dans le lien entre l'origine sociale et la réussite universitaire. Hypothèse 7 : La maîtrise des prérequis universitaires joue un rôle médiateur dans le lien entre l'origine sociale et la réussite universitaire. Enfin, en vue de comparer les effets respectifs de nos variables, une dernière hypothèse vérifiera l'influence conjointe de nos facteurs sur la réussite universitaire. Hypothèse 8 : L'originale sociale, l'établissement scolaire, les options choisies dans l'enseignement secondaire et la maîtrise des prérequis universitaires influencent la réussite universitaire. Nos 525 participants primo-arrivants, dont 238 de sexe masculin (45,3 %) et 287 de sexe féminin (54,7 %), provenaient tous de la population estudiantine de première année d'une des sept institutions universitaires de la Communauté française de Belgique. Ils étaient âgés de 17 à 23 ans (M = 18,47). Quatre Facultés / filières d'étude étaient représentées : Le droit (n = 202), les sciences économiques et de gestion (n = 153), les sciences politiques et sociales (n = 130), et les lettres (n = 40). Notons que seuls 34 étudiants (6,48 %) provenaient de l'enseignement secondaire technique, alors que tous les autres provenaient de l'enseignement général. Le questionnaire administré se composait de deux parties. La première était constituée d'une série d'items permettant de dresser le profil sociodémographique et la trajectoire scolaire des participants. Outre les informations classiques (âge, genre, programme d'étude, etc.), il était demandé aux étudiants d'indiquer le nom ainsi que la localisation de leur établissement secondaire. Aux fins d'opérer un classement entre ces établissements, nous nous sommes basés sur les statistiques de réussite en première année universitaire des étudiants sortant de ces écoles au cours des deux dernières années. Cela nous a permis d'ordonner ces établissements de manière décroissante. Nous avons alors pu constituer trois catégories, comprenant chacune un nombre quasi identique de participants : les établissements scolaires (a) de niveau élevé, (b) de niveau moyen, et (c) de niveau faible. En ce qui concerne le choix des options durant les études secondaires, les participants ont dû indiquer le nombre d'heures par semaine et le type d'options suivies durant les dernières années de leur cursus dans l'enseignement secondaire. Sur base de la littérature (de Kerchove & Lambert, 1996), deux catégories d'options ont été définies : les options générales/fortes (e.g., mathématiques fortes, sciences fortes, latin grec) et les options spécifiques/faibles (e.g., sciences sociales, sciences économiques, informatique). L'origine sociale des participants était estimée à partir du niveau d'études de leur père et de leur mère. Sur la base de la littérature empirique existante (Colicis et al., 2004), trois niveaux d'études ont été distingués selon le plus haut diplôme obtenu : primaire, secondaire ou supérieur. La seconde partie du questionnaire a été développée par l'équipe de Romainville aux Facultés Universitaires Notre-Dame de la Paix à Namur. Il s'agit de tests, dénommés « Passeport pour le Bac », qui visent à mesurer la maîtrise des prérequis universitaires des étudiants entrants. Ces « Passeports pour le Bac » évaluent des savoirs et des savoir-faire variés, tant disciplinaires que transversaux. Ils ont été utilisés à plusieurs reprises avant la présente recherche, ce qui a permis d'en éprouver la validité auprès d'un grand nombre d'étudiants (Romainville, 2006). Au vu de la spécificité de notre échantillon en termes de programmes d'études choisis, trois de ces passeports ont été utilisés. Les étudiants inscrits en Faculté de droit ont dû remplir le passeport de compréhension en profondeur d'un texte juridique. Les étudiants des filières d'économie et de gestion ont été confrontés au passeport en mathématiques. Les étudiants des filières lettres et sciences politiques et sociales ont reçu le passeport de compréhension en profondeur d'un texte des sciences humaines. Enfin, pour chaque étudiant, nous avons obtenu de la part des autorités facultaires leurs résultats moyens (sur 20) aux examens de la session de janvier. La récolte de données a eu lieu lors de la rentrée académique 2007-2008, au début du mois d'octobre. Les étudiants ont complété collectivement les questionnaires, en lieu et place d'un cours de deux heures. Au total, 153 passeports de mathématiques, 202 passeports de compréhension en profondeur d'un texte de droit et 170 passeports de compréhension en profondeur d'un texte de sciences humaines ont été dûment complétés. Outre les consignes de remplissage classiques, les étudiants étaient informés du fait que leurs prérequis allaient être évalués, avec l'objectif avéré de leur faire prendre conscience de leurs lacunes éventuelles dès le début de l'année. Il leur était également indiqué que les résultats moyens de leur auditoire constitueraient une base d'information pour les enseignants, leur permettant d'adapter leur enseignement en fonction de la maîtrise ou non de certaines compétences supposées acquises. Par ailleurs, les étudiants apprenaient que des activités de remédiation allaient leur être proposées suivant leurs résultats, confidentiels. Enfin, les étudiants ont pu prendre connaissance de leur note au passeport au cours du mois de novembre 2007. Au total, cinq variables ont fait l'objet d'analyses. Le tableau ci-après reprend quelques statistiques descriptives, permettant au lecteur d'apprécier la répartition des participants à notre recherche dans les différents niveaux de ces variables. Note. * Les nombres rapportés sont vrais; ceci implique qu'en cas de données manquantes, le pourcentage total peut ne pas équivaloir 100 %. Au vu du tableau 1, nous constatons une bonne répartition de nos participants dans les différents niveaux des variables relatives à l'établissement secondaire fréquenté ainsi qu'au type d'options suivies dans l'enseignement secondaire. Par contre, une certaine asymétrie caractérise nos variables relatives aux niveaux d'études des parents, avec une sous représentation des niveaux d'études plus faibles. Ceci mérite d' être souligné : la plupart des parents d'étudiants universitaires sont eux -mêmes diplômés de l'enseignement supérieur. Pour vérifier l'éventuelle redondance de nos deux indicateurs d'origine sociale, nous avons calculé un χ 2 de Pearson qui s'est avéré largement significatif (χ 2 (4) = 155,12, p < .001). En d'autres termes, il existe une forte association entre les niveaux d'études des deux parents de nos participants. Dès lors, afin d'éviter toute colinéarité, nous privilégierons le niveau d'études de la mère comme indicateur de l'origine sociale de nos participants dans nos analyses ultérieures. En effet, Tinto (1997) a montré que le niveau d'éducation de la mère avait une influence significative supérieure sur les résultats en première année universitaire. Concernant nos deux variables purement quantitatives, deux premiers résultats simples quoique pertinents méritent d' être mis en évidence. Primo, le score moyen de l'échantillon (M = 11,15, ET = 3,22) aux passeports mesurant les prérequis (dont le maximum est 20) est inférieur à 12 (t (524) = - 6,04, p < 0.001). En moyenne, les étudiants ne possèdent donc pas les prérequis attendus par leurs nouveaux professeurs à l'université, si on se base sur la barrière classique de la réussite, fixée à douze sur vingt. Secundo, les résultats moyens de l'échantillon (M = 10,17, ET = 3,13) à la session d'examens de janvier (sur 20) sont également inférieurs à 12 (t (524) = - 13,39, p < 0.001). En moyenne, les étudiants n'ont donc pas satisfait aux exigences de réussite de la session de janvier. Notons enfin que nos variables « prérequis » et « réussite » suivent toutes deux une loi normale. Enfin, les dernières analyses préliminaires ont consisté en une description des résultats aux examens de janvier selon les catégories de nos variables d'intérêt, c'est-à-dire le niveau d'études de la mère, l'établissement scolaire fréquenté en secondaire et les options qui y ont été choisies. Ainsi, les étudiants dont la mère est diplômée de l'enseignement supérieur, qui viennent d'un établissement scolaire dont le niveau est élevé ou dont les options secondaires sont générales, ont tendance à présenter des résultats plus élevés aux examens de janvier (tableau 2). La première section de nos analyses cherchera à vérifier l'influence directe (hypothèses 1 à 4) de l'origine sociale, de l'établissement scolaire fréquenté en secondaire, des options qui y ont été choisies ainsi que de la maîtrise des prérequis universitaires sur la réussite des étudiants de premier baccalauréat à l'université (figure 1). Ensuite, une seconde section testera les influences indirectes du modèle (hypothèses 5 à 7), autrement dit les effets médiateurs (1) du niveau de l'établissement secondaire fréquenté par les participants, (2) du type d'options qu'ils ont suivies en secondaire et (3) de leurs maîtrise des prérequis, dans la relation entre leur origine sociale et leur réussite académique (figure 2). Il nous paraît important de distinguer ici médiation complète et partielle. Une médiation est dite complète lorsque l'effet de la variable indépendante (VI) sur la variable dépendante (VD) passe complètement par la variable médiatrice (VM). Dans ce cas, l'effet direct devient non significatif dès lors que le médiateur est intégré dans le modèle. De son côté, la médiation partielle ne nie pas l'impact direct de la VI sur la VD. Toutefois, elle postule que l'effet direct diminuera une fois le médiateur pris en compte dans l'équation (Frazier, Tix & Barron, 2004). Notre modèle théorique énonçant à la fois des influences directes et indirectes, les médiations qui seront testées dans les sections suivantes seront toutes à considérer a priori comme étant partielles. Soit OS (le niveau d'origine sociale, indiqué par le niveau d'études de la mère), ETA (le niveau de l'établissement secondaire fréquenté), OP (le type d'options suivies dans le secondaire), PRE (le score obtenu au test de prérequis universitaires) et RES (les résultats moyens obtenus aux examens de janvier). Le tableau 3 rapporte les coefficients relatifs aux influences directes observées entre nos 4 variables et la réussite universitaire (RES). Le tableau 3 nous permet de confirmer les hypothèses 1 à 4. L'origine sociale, l'établissement fréquenté en secondaires, le type d'option qui y a été suivie ainsi que la maîtrise des prérequis universitaires exercent tous une influence significative sur la réussite universitaire. Il nous semble utile de rappeler les conditions nécessaires à la mise en évidence d'une médiation (Baron & Kenny, 1986). Tout d'abord, la variable indépendante (VI) doit exercer un effet direct sur la variable dépendante (VD). Ensuite, l'effet indirect entre la variable indépendante et la variable dépendante doit passer par la variable médiatrice (VM). En d'autres termes, la relation entre VI et VM puis entre VM et VD doit être significative. Enfin, l'effet indirect doit être supérieur à l'effet direct. Une fois ces conditions remplies, il convient de valider la suspicion de médiation. Pour ce faire, nous opterons pour le test de Sobel. Celui -ci permet de vérifier que l'effet indirect de la variable indépendante (VI) sur la variable dépendante (VD) par le biais du médiateur (VM) est significativement différent de zéro (Baron & Kenny, 1986). Largement usité dans la littérature (MacKinnon, Warsi, & Dwyer, 1995), il s'avère adéquat en présence de grands échantillons (Kline, 2005), comme c'est le cas dans la présente étude. Notre modèle théorique postule l'existence d'influences indirectes (hypothèses 5 à 7), autrement dit d'effets médiateurs (1) du niveau de l'établissement secondaire fréquenté par les participants, (2) du type d'options qu'ils ont suivies en secondaire et (3) de leur maîtrise des prérequis, dans la relation entre leur origine sociale et leur réussite académique (figure 2). Dans le but de vérifier les conditions nécessaires à la mise en évidence d'une médiation (Baron & Kenny, 1986), le tableau 4 reprend les coefficients relatifs aux influences directes exercées par la variable indépendante sur les variables médiatrices. Nous constatons que l'origine sociale exerce une influence sur (a) l'établissement fréquenté durant l'enseignement secondaire, (b) le type d'options choisies et (c) le score obtenu au test évaluant les prérequis universitaires. Ensuite, le tableau 5 reprend les trois médiations simples et indique, pour chacune d'elles, le coefficient β de la variable indépendante (VI) obtenu après contrôle de l'effet de la variable médiatrice (VM) sur la variable dépendante (VD). Ceci nous permet de vérifier la troisième condition de Baron et Kenny (1986), qui implique une diminution du β de la VI sur la VD après contrôle de la VM. Enfin, pour vérifier le degré de signification de cette diminution, le tableau 4 renseigne également les indices de Sobel. En définitive, les analyses rapportées dans le tableau 4 confirment les hypothèses 5 à 7. L'établissement fréquenté en secondaire, les options suivies ainsi que la maîtrise des prérequis sont des médiateurs significatifs du lien entre l'origine sociale et la réussite académique. Note. * Ces coefficients renseignent l'effet (ß), la signification (p) et l'erreur de mesure de chaque VI concernée; ** Ces coefficients renseignent le pouvoir explicatif (R 2) de chaque modèle médiateur complet; *** Ces coefficients renseignent la puissance (Z) et le degré de signification (p) du test de Sobel. En vue d'analyser l'influence respective de notre variable indépendante et de nos variables médiatrices sur la réussite académique, une régression multiple a été réalisée. Les facteurs ont été ajoutés un à un au modèle, en respectant l'ordre chronologique. Ainsi, les variables ETA et OP sont insérées avant la variable PRE. En effet, la fréquentation d'un établissement scolaire ainsi que le choix d'options dans l'enseignement secondaire sont des événements se produisant lors des études secondaires, tandis que la maîtrise des prérequis est liée au moment de l'entrée à l'université. Le tableau 6 reprend les 4 modèles de régression obtenus. Chaque modèle s'est vu ajouter une nouvelle variable. Ainsi, le modèle 1 analyse uniquement la relation entre OS et RES, le modèle 2 intègre ETA et le modèle 3 OP. Enfin, le modèle 4 comprend OS, ETA, OP et PRE. Au fur et à mesure de l'ajout des facteurs, nous pouvons constater que l'influence de l'origine sociale diminue, jusqu' à devenir non-significative dans le dernier modèle. Par ailleurs, ce tableau nous permet d'observer que les deux médiateurs les plus importants sont l'établissement fréquenté en secondaire ainsi que les prérequis. Note. *Ce coefficient renseigne la signification du changement entre les modèles. Au vu de ces résultats, des analyses supplémentaires ont été réalisées afin d'observer si une double médiation de (a) l'établissement scolaire et (b) des prérequis dans la relation entre origine sociale et réussite universitaire, pouvait survenir. Les liens suivants ont donc été testés : OS → ETA → PRE → RES. Toutefois, aucun effet significatif n'a été observé entre l'établissement scolaire et les prérequis, ce qui empêche de conclure à une éventuelle double médiation. L'objectif assigné à la recherche présentée ici était de vérifier que le lien entre l'origine sociale des étudiants et leur réussite en première année à l'université pouvait en partie être expliqué par trois processus ou effets médiateurs : (1) l'effet lié à l'établissement scolaire fréquenté pendant les études secondaires, (2) l'effet du choix des options pendant ces études, et (3) l'influence de la maîtrise des prérequis universitaires en début de première année académique. Pour chacun de ces effets, des hypothèses spécifiant des relations directes et indirectes (médiations) ainsi qu'une hypothèse reprenant l'ensemble de nos variables ont été énoncées et testées auprès d'un échantillon de 525 étudiants primo-arrivants en première année universitaire dans quatre filières d'études différentes. Avant d'entrer dans la discussion des résultats liés à ces hypothèses, deux constats préliminaires peuvent être dressés. Le premier provient de la description du profil des participants à la recherche, reprise dans le tableau 1. Les trois quarts de ces participants ont au moins un parent porteur d'un diplôme de l'enseignement supérieur. Cette observation est tout à fait cohérente au vu de la littérature récente relative à l'accès à l'université en Communauté française de Belgique, qui confirme que cet accès demeure en bonne partie réservé à des étudiants issus d'un milieu privilégié (Vermandele et al., 2010). Le deuxième constat porte sur les résultats obtenus aux tests mesurant la maîtrise des prérequis universitaires en début d'année académique. Il s'avère que la moyenne des résultats obtenus à ces tests est inférieure au seuil classique de 12/20, ce qui signale l'existence d'un décalage entre ce que les enseignants universitaires estiment devoir être acquis par les étudiants en arrivant à l'université et les acquis réels de ces étudiants. Ce décalage avait déjà été observé par Leclercq (2003) dans le cadre du projet Mohican. Le premier groupe des hypothèses testées portait sur les influences directes de l'origine sociale, de l'établissement d'enseignement fréquenté durant les études secondaires, des options suivies durant le secondaire et de la maîtrise des prérequis universitaires sur la réussite lors de la session d'examens de janvier. Au vu des résultats obtenus, il apparaît sans ambigüité que ces quatre variables influencent significativement la réussite aux examens universitaires en première année. Plus précisément, la lecture des pourcentages de variance expliquée par chacune de ces variables indique que la maîtrise des prérequis universitaires influence de manière plus importante la réussite académique et que l'origine sociale a un impact direct plus limité. Cette dernière observation peut s'expliquer d'au moins trois manières. Premièrement, il est possible, en effet, que le poids de l'origine sociale sur la réussite académique soit modeste, ce qu'affirment des auteurs comme Galand et al. (2005). Deuxièmement, le faible taux de variance expliquée peut être dû à l'homogénéité de l'échantillon au niveau de l'origine sociale des participants, facteur qui peut diminuer la taille des effets observés (Howell, 1998, p. 254; Van Campenhoudt, Dell'Aquila, & Dupriez, 2008). Troisièmement, des processus ou effets médiateurs peuvent diminuer le lien direct entre l'origine sociale et la réussite académique, ce qui constitue l'élément central de notre raisonnement, dont les arguments empiriques sont discutés ci-après. En effet, le deuxième groupe des hypothèses testées portait sur les effets médiateurs potentiels de l'établissement scolaire fréquenté, des options choisies durant les études secondaires et de la maîtrise des prérequis universitaires sur le lien entre origine sociale et réussite académique. Les résultats repris dans les tableaux 4 et 5 attestent que les critères à remplir pour valider des modèles de médiation sont satisfaits pour ces trois variables, ce qui permet de conclure à leur rôle de variable médiatrice dans le lien entre origine sociale et réussite en première année universitaire. Autrement dit, l'origine sociale des étudiants influence indirectement leur réussite académique via (1) l'établissement d'études secondaires qu'ils ont fréquenté, (2) les options qu'ils ont choisies pendant leurs études secondaires et (3) leur maîtrise des prérequis universitaires. Les deux premières relations de médiation avaient déjà été mises en évidence dans des travaux antérieurs, recensés notamment par Van Campenhoudt et al. (2008). Par contre, le statut de médiateur de la maîtrise des prérequis universitaires n'avaient jamais, à notre connaissance, fait l'objet d'une investigation empirique publiée. La dernière hypothèse testée visait à appréhender les poids relatifs des quatre variables d'intérêt sur la réussite académique. Il ressort ici que l'établissement scolaire fréquenté et la maîtrise des prérequis universitaires sont les deux déterminants les plus importants de la réussite académique. Par ailleurs, lorsque l'origine sociale est intégrée dans un modèle de régression complet, son influence n'est plus significative. Avant de souligner les apports théoriques et pratiques de cette recherche, il convient d'en indiquer les limites. Les deux premières d'entre elles ont trait à la généralisabilité des résultats obtenus. En effet, ceux -ci ont été récoltés d'une part dans une seule université de la Communauté française de Belgique, et d'autre part dans un seul secteur d'études, celui des sciences humaines. Deux raisons ont présidé au choix d'une seule institution universitaire. La première tient à la facilité à récolter des données dans cette institution vu l'affiliation des auteurs. La seconde est basée sur le public estudiantin de cette institution, plus hétérogène au niveau de l'origine sociale si on la compare aux autres institutions universitaires en Communauté française de Belgique. Pour ce qui est du choix du secteur des sciences humaines, c'est à nouveau pour nous assurer de l'hétérogénéité de la population estudiantine que les secteurs des sciences et techniques et des sciences de la vie, beaucoup plus homogènes sur le plan de l'origine sociale (Delvaux, 2004; de Kerkhove & Lambert, 1996), ont été écartés. Enfin, la dernière limite à épingler concerne la mesure de la réussite académique. Dans l'interprétation donnée aux résultats de la recherche, c'est la réussite en première année universitaire qui est mentionnée alors que l'évaluation de la réussite ne porte que sur les examens de la première session de l'année. Deux éléments permettent de justifier cela. D'un côté, les tests portant sur la maîtrise des prérequis universitaires étaient associés à des cours qui sont dispensés en première partie d'année académique et évalués lors de la session d'examens de janvier. D'un autre côté, même si la réussite de l'année universitaire n'est pas entièrement prédite lors de la première session d'examens, il n'en demeure pas moins que l'on observe une corrélation de plus de .80 entre les résultats obtenus à cette session et ceux obtenus lors des sessions de juin et de septembre (de Ketele, Draime, Lebrun, & Solé-Tulkens, 1991). Malgré ces limites méthodologiques, les constats empiriques dressés dans cette recherche s'avèrent pertinents pour alimenter la compréhension des déterminismes sociaux liés à la problématique de la réussite à l'université et fournir des éléments pour tenter de les endiguer. Tout d'abord, nos résultats montrent, plus de quarante ans après la parution de l'ouvrage « Les héritiers » (Bourdieu & Passeron, 1964), que la problématique de l'égalité des chances de réussite à l'université est toujours présente. Toutefois, en concordance avec d'autres travaux empiriques réalisés en Communauté française de Belgique (Galand, Neuville, & Frenay, 2005; Parmentier, 2005), nos observations attestent que l'origine sociale des étudiants, prise individuellement, est loin d'épuiser l'explication du phénomène d'échec. Ainsi, deux processus inhérents aux études secondaires permettent davantage d'expliquer l'influence indirecte de l'origine sociale sur la réussite universitaire : l'effet établissement et l'effet options. Effectivement, en fonction de leur origine sociale, les jeunes s'orientent vers des établissements d'enseignement secondaire qui les préparent inégalement aux études universitaires et choisissent des options qui influencent aussi leur réussite en première année à l'université. Comme indiqué plus tôt, des pistes existent pour diminuer l'influence de tels processus, tels que l'allongement du tronc commun durant les études secondaires et la centralisation des évaluations. Par ailleurs, un décret adopté récemment en Communauté française devrait limiter l'effet lié à l'établissement secondaire fréquenté en assurant davantage de mixité sociale et culturelle en son sein. Enfin, il a été possible d'objectiver via des tests évaluant la maîtrise de certains prérequis universitaires en début de cursus académique, que celle -ci varie en fonction de l'origine sociale des étudiants, et qu'elle a une forte influence sur la réussite en première année à l'université. À notre connaissance, aucune publication empirique n'avait vérifié jusqu' à présent la distribution socialement inégale de la maîtrise de compétences spécifiques et critiques pour la réussite au début d'un parcours universitaire. Or, une des particularités de ces compétences spécifiques, lorsqu'elles sont comparées à des habiletés plus générales telles que celles évaluées par les tests d'intelligence, réside dans leur potentiel de transformation, notamment via l'apprentissage (Grégoire & Nils, 2008). Cela ouvre dès lors la porte à toutes les initiatives en matière de remédiation ou de mise à niveau une fois que des lacunes ont pu être repérées, ce qui n'est pas le cas pour des habiletés plus générales, et donc plus stables (Carroll, 1997). Autrement dit, nous disposons peut-être là d'un autre levier pour diminuer les inégalités sociales face à la réussite à l'université, par exemple via l'évaluation précoce d'éventuelles lacunes par rapport à ces compétences critiques, et la mise en place de dispositifs de remédiation ciblés. Pour ce faire, un partenariat entre les universités, les centres d'orientation et les écoles secondaires devrait déboucher sur (1) l'explicitation des compétences jugées critiques pour la réussite en première année d'université dans l'ensemble des filières d'enseignement proposées, (2) l'élaboration d'outils permettant de diagnostiquer le niveau de maîtrise de ces compétences et (3) la conception et l'organisation de formules de remédiation à destination d'élèves chez qui des faiblesses auraient été identifiées. Une telle procédure a d'ailleurs vu le jour récemment sous l'impulsion de Marc Romainville dans des écoles secondaires à discrimination positive de la Communauté française de Belgique . | Plusieurs études confirment que l'échec en première année à l'université demeure lié aux ressources socioculturelles et financières du milieu familial des étudiants. Dans une recherche par questionnaire menée auprès de 525 étudiants, l'existence de trois processus expliquant cette influence a été testée: l'effet établissement, l'effet options et l'effet du niveau de maîtrise de certains prérequis critiques à l'entrée à l'université. Les résultats indiquent clairement que ces trois variables influencent la réussite universitaire initiale, et qu'elles sont, au moins en partie, socialement déterminées, ce qui leur confère le statut de médiateur dans le lien entre l'origine sociale des étudiants et leur réussite académique. | psychologie_12-0384864_tei_897.xml |
termith-740-psychologie | L'école, dans nos sociétés, est devenue aujourd'hui, un lieu très important de l'expérience juvénile, un lieu de relations aux autres, mais également un parcours « initiatique » où l'on change de classe, où l'on franchit des niveaux, où l'on change de filière et où l'on est amené à passer des diplômes qui valident nos parcours et nous ouvrent, en général, certains horizons. C'est aussi un lieu de mise à l'épreuve de soi, un lieu d'évaluations permanentes, à la fois formelles et informelles (Perrenoud, 1984). Informelles par rapport aux jugements des uns sur les autres, des élèves entre eux, du professeur à l'égard des élèves et de leurs conduites en classe, en regard des normes institutionnelles, etc. Formelles parce que l'école est aussi un lieu d'évaluations mesurables, qui fixent « officiellement le niveau d'excellence reconnu à chaque élève » (Perrenoud, 1984, p.137). Il existe deux types d'évaluations formelles continues : L'évaluation sommative qui consiste à évaluer un niveau de l'élève. Ce dernier obtient une note à la fin de chaque apprentissage, puis une note moyenne sur la totalité des notes acquises à chaque apprentissage. Cette évaluation permet de comparer les élèves les uns par rapport aux autres, et finalement de les classer ou encore de les sélectionner (Minder, 1999). L'évaluation formative a une visée plus pédagogique. Elle mesure les progrès de l'élève. Le professeur se sert des erreurs mesurées pour formaliser sa pédagogie auprès de l'élève. Il n'y a pas de classement dans ce type de notation, cette dernière est individuelle. Le but est de dépasser les lacunes de l'élève (Perrenoud, 1998). L'enfant devient acteur de son apprentissage et devient capable de s'évaluer lui -même (BIOP, 2009). Ce type d'évaluation permet donc de participer à l'autonomisation de l'adolescent. L'évaluation sommative est la plus usitée dans l'enseignement secondaire actuel et elle est à la base des inégalités selon Perrenoud (1997). Elle participe à la sélection « des meilleurs » (Perrenoud, 1984), et ce dès le primaire (Baudelot & Establet, 1975). Perrenoud (1984) note l'importance que peuvent prendre ces évaluations en classe. Il distingue ce moment particulier de notation par une certaine « dramatisation » (p.147) en comparaison aux autres moments de travail. Et si, pour certains élèves du primaire, cette dramatisation engendre une implication favorable à la réussite de l'évaluation, pour d'autres, elle engendre un stress qui peut entraver son bon déroulement. Les évaluations ont donc une importance considérable dans la scolarité des jeunes, d'autant qu'elles contribuent à une évaluation plus globale de l'élève, de par sa simple moyenne, preuve de réussite ou d'échec. Selon Perrenoud (1984, p. 163), « les notes fonctionnent comme des indices qui annoncent soit que tout va bien, que la carrière scolaire suit son cours, que l'élève travaille normalement; soit qu'il faut commencer à s'inquiéter, que l'échec scolaire menace ». Si les notes questionnent les professeurs, elles permettent aussi aux jeunes de se positionner par rapport aux autres. Ce sont des indices objectifs de comparaison des élèves entre eux. De ce fait, si elles sont valorisantes pour certains, elles peuvent être la base de dépréciations chez d'autres (Coslin, 2006). C'est d'ailleurs, selon Perrenoud (1992), l'un des trois mécanismes de la fabrication de l'échec scolaire. D'autres facteurs sont susceptibles d'influencer la scolarité des jeunes. Selon Cocouault et Oeuvrard (2003), le retard scolaire est déterminant. Ne pas prendre de retard est une stratégie indispensable pour les jeunes afin de parvenir le plus loin possible dans les études. Le redoublement est visiblement perçu comme un échec plutôt qu'une chance de rattraper ses difficultés. L'enfant redoublant perd confiance en lui (Perrenoud, 1996), et ce parce qu'il se sent jugé négativement (Paradis & Potvin, 1993) particulièrement par ses proches, ses parents, ses amis ou encore par ses professeurs (Keslair, 2007). Le redoublant se décrit comme « mauvais élève », il ne se pense « pas fait pour les études » (Perrenoud, 1996). Le choix de s'évaluer, dans notre société, apparaît comme un besoin fondamental. Cependant, l'évaluation de soi dépend de ce que les autres pensent de nous. James (1890) est un des premiers à apporter au Soi une dimension sociale. Le soi renvoie à : the recognition which he gets from his mates (op. cit., p.293). Mead (1934) conçoit le Soi comme une combinaison du Moi social (intégration des normes sociales), et du Je personnel (actions spontanées). Cooley (1902) a défini plus particulièrement l'estime de soi comme un sentiment de valeur sur soi, qui naît d'une construction sociale. Ce sont les interactions avec Autrui qui nous permettent de développer une estime de soi. Cette dernière dépendrait finalement de ce que les autres pensent de nous que nous intériorisons. Les Autres reflètent ce que Je suis. Cooley parle alors de looking-glass self. Selon Cooley (1902) et Mead (1934), l'approbation ou la désapprobation des autres est incorporée dans l'évaluation du soi. Harter (1986), à l'instar de James (1890) et Cooley (1902), considère que le Soi est une construction sociale, le reflet de ce que pensent les autres. Elle constate d'ailleurs que c'est surtout vrai pour les jeunes de 11 à 14 ans. Pour Harter (1978), en effet, cette approbation des autres et leurs feed-backs, sont indispensables à l'enfant pour agir convenablement. L'estime de soi se construit au travers des jugements positifs ou négatifs que l'individu porte sur lui, sur ses capacités et attributions (Oubrayrie, de Léonardis & Safont, 1994). Les autres, par les feed-backs mais aussi les attentes qu'ils ont sur nous et qu'ils nous renvoient, orientent la manière dont nous nous évaluons (Markus & Cross, 1990). Le processus de comparaison sociale nous permet également de nous évaluer par rapport à Autrui (Martinot, 2008). Le sujet intériorise particulièrement les évaluations des Autrui significatifs (famille, pairs, enseignants) (Harter, 1999). Pour Coslin (2006), ce sentiment de valeur sur soi se construit dès l'enfance au travers des relations que nous entretenons avec nos premiers liens affectifs, à savoir nos parents (Coslin, 2006). Ainsi, Coopersmith (1967) montre que la qualité de la relation avec ses parents joue un rôle capital par rapport à l'estime de soi. Harter (1978) note qu'effectivement, jusqu' à trois ans, les Autrui les plus significatifs sont les parents, mais que, progressivement, les pairs prennent une place plus centrale, surtout lorsque les jeunes quittent la maison (Harter, 1998a). Les jeunes deviennent alors plus autonomes et choisissent d'ailleurs eux -mêmes leurs Autrui significatifs. La construction de l'estime de soi au sein de l'école, lieu d'évaluations permanentes, mérite par conséquent une attention particulière. Est -ce que, pour autant, la promotion de l'estime de soi doit être centrale dans la pratique scolaire ? L'estime de soi est un thème qui depuis James (1890) a déclenché beaucoup d'intérêt dans la recherche en psychologie sociale, développementale, cognitive ou encore sportive (Barbot, 2008; Fortes, 2003; Nurra, 2008) mais elle a aussi suscité beaucoup d'intérêt dans le monde éducatif, de l'entreprise, la psychologie de l'enfant, et le domaine de la santé (Famose & Bertsch, 2009). Les programmes pour rehausser l'estime de soi se développent ainsi. Sont-ils réellement efficaces ? Harter (1986) les nomme d'ailleurs camelot-like ventures (p.137). Dans la littérature scientifique, l'estime de soi a fait l'objet de nombreux travaux. Cependant, les résultats à ce sujet sont contradictoires et les chercheurs rencontrent des difficultés méthodologiques quant à la mesure de l'estime de soi. Cette dernière est en effet décrite comme facteur explicatif de plus ou moins bons comportements, de troubles émotionnels et comportementaux : dépression, suicide, délinquance, problèmes d'apprentissage scolaire, grossesse précoce, etc. (Baumeister, 1990; Harter, 1998a). Une bonne estime de soi, est quant à elle, associée à une bonne santé mentale, physique et émotionnelle (Martinot, 1995). Selon Baumeister, Campbell, Krueger et Vohs (2003), les sujets à haute estime de soi sont aussi plus aimables, ont de meilleures relations sociales, donnent une meilleure impression et semblent plus heureux. En ce qui concerne le domaine scolaire, Bourcet (1997) constate que les élèves de collège qui ont une estime de soi élevée utilisent des modalités d'ajustements fonctionnels du type sérénité et confiance en soi sur un plan affectif, anticipation positive de l'avenir sur le plan cognitif, et recherche de soutien social sur le plan comportemental. Les élèves qui ont une estime de soi faible utilisent au contraire des modalités d'ajustements dysfonctionnels du type tristesse, fatalisme, etc. Si l'estime de soi est particulièrement reliée au bien-être psychologique des individus, aux États-Unis, elle est décrite comme ayant des « vertus miraculeuses » permettant d'éviter les grossesses non désirées, la violence, l'échec scolaire, l'abus de drogue, etc. (Martinot, 2008, p.64; Nurra, 2008). Cependant, les résultats issus de la recherche scientifique ne vont pas forcément dans cette direction. Les chercheurs mettent, en effet, en exergue des corrélations et il semble difficile d'établir le sens de la relation : est -ce que c'est l'estime de soi qui guide les comportements ou, au contraire, les comportements qui orientent l'estime de soi ? Dans ce sens, de nombreux chercheurs ont voulu montrer le lien entre estime de soi et réussite et il semblerait que cette relation apparaisse comme finalement faible (Judge & Bono, 2001). L'estime de soi n'expliquerait pas la réussite scolaire ou professionnelle des individus. À l'heure actuelle, conclure à un lien entre ces deux variables serait qualifié de peu fiable selon Martinot (2008). Baumeister et al. (2003) constatent que l'estime de soi n'influence pas favorablement les résultats scolaires. Augmenter l'estime de soi n'aurait donc pas d'effet bénéfique à l'école, au contraire, cette méthode pourrait avoir des effets contre-productifs. Il apparaît que les sujets à haute estime de soi seraient désagréables dans des situations menaçantes pour eux -mêmes (Heatherton & Vohs, 2000), narcissiques selon Famose et Bertsch (2009). Encourager un sujet, le revaloriser simplement pour ce qu'il est, et non ce qu'il fait (effort, etc.) peut aboutir à des effets contraires à ceux escomptés à savoir une baisse des performances (Baumeister et al., 2003). Il ne semble donc pas judicieux d'adopter une démarche unidimensionnelle dans l'approche de l'estime de soi. Les recherches actuelles conçoivent que plusieurs domaines de vie influencent l'estime de soi globale des sujets (Harter, 1998b; Marsh, Byrne & Yeung, 1999; Levesque, 2001; Pelham & Swann, 1989; Rosenberg, Schoenbach, Schooler & Rosenberg, 1995). L'estime de soi, dimension affective du Soi (Martinot, 1995), a ainsi été décrite de façon plus complexe ces dernières années. Elle serait composée de sous-évaluations dans différents domaines de vie tels que les domaines émotionnel, social, scolaire, physique et futur par exemple (Oubrayrie et al., 1994). Ainsi, de nombreux chercheurs se sont interrogés sur les évaluations spécifiques de soi dans certains domaines de vie et de leur influence possible sur le niveau d'estime de soi générale. Le domaine scolaire est ainsi particulièrement important dans notre société (Harter, 1998b). Rosenberg et al. (1995) ont d'ailleurs montré une influence réciproque entre estime de soi globale et estime de soi scolaire. Cependant, cette relation ne semble pas linéaire. Considérer la multidimensionnalité de l'estime de soi n'est pas suffisant pour expliquer la relation entre estime de soi scolaire et globale. Cette dernière n'est en effet pas la simple somme de ses sous-parties (Fortès, 2003; Martinot, 2008; Nurra, 2008). Selon Rosenberg et al. (1995), ces différentes dimensions n'auraient pas le même poids selon chaque individu. L'estime de soi globale semblerait également rester relativement élevée chez tous les individus. Harter (1986) a d'ailleurs constaté qu'un individu pouvait présenter une estime de soi globale satisfaisante alors qu'il avait des conceptions de soi négatives par rapport au domaine sportif par exemple. Kaplan (1980) a même observé que les jeunes délinquants avaient une estime de soi plus élevée quand ils faisaient partie de gang. Nous nous interrogeons sur cette variation de pondération qui différencie les individus et sur cette tendance à la valorisation de soi. Les recherches sur le soi attestent d'un besoin pour chaque individu d'avoir une bonne estime de soi (Tesser, Pilkington & McIntosh, 1989). Les individus ont en effet tendance à agir pour maintenir ou rehausser cette dernière, tout en préservant une certaine continuité, nécessaire pour fonctionner efficacement dans la société (Martinot, 1995). Ainsi, l'estime de soi influence l'interprétation que le sujet donne aux situations qu'il rencontre et intervient dans la détermination de ses réponses au plan émotionnel, cognitif et comportemental. La stratégie d'auto-handicap est une stratégie de protection de soi qui a suscité de nombreuses études ces dernières années (Martinot, 2004; 2008). Plusieurs types de conduites sont décrites pour la définir (Strube, 1986; Thill, 1999; Thompson & Dinnel, 2003) en termes de prise de drogue ou d'alcool, d'un manque d'entraînement, d'anxiété, de timidité, de symptômes physiques, ou encore par la réduction d'efforts. Strube (1986) utilise des items tels que : « j'ai tendance à faire les choses à la dernière minute », « quand j'échoue, j'ai tendance à chercher des excuses », pour identifier les jeunes utilisant des stratégies d'auto-handicap. Concernant le domaine scolaire, dans leurs travaux, Midgley, Arunkumar et Urdan (1996) décrivent les jeunes utilisant ce type de stratégie par le fait qu'ils ne fournissent pas d'effort permettant la réussite scolaire et ce, délibérément. Urdan et Midgley (2001) évoquent des jeunes qui disent travailler au dernier moment, ou qui disent passer plus de temps avec leurs amis au lieu de travailler. Ces stratégies naissent de l'anticipation d'un échec éventuel à une performance particulière, et se définissent par la création par le sujet d'un obstacle à cette performance. Ainsi, si le sujet obtient effectivement une performance faible alors il pourra mettre en cause l'obstacle établi délibérément plutôt que de mettre en cause ses habiletés personnelles (Martinot, 2001; Thill, 1999; Thompson, Davidson & Barber, 1995). Covington (1992) les décrit plus clairement comme des stratégies de protection de l'image de soi, dans le but d'éviter de paraître stupide aux yeux d'autrui. Il décrit d'ailleurs dans ce sens la procrastination comme une stratégie auto-handicapante. Quoi qu'il arrive, le sujet se retrouve alors dans une « position gagnante » (op. cit., p.423). S'il échoue, il pourra protéger son image grâce aux stratégies auto-handicapantes en évoquant le fait qu'il n'a pas travaillé par exemple. S'il réussit, son entourage pourra alors le percevoir comme particulièrement performant (puisqu'il réussit sans le moindre effort). Par exemple, le sujet utilisant ce type de stratégies, peut ne pas travailler son contrôle, ou travailler à la dernière minute, ou encore se laisser distraire par ses amis en classe (Midgley et al. 1996). Il s'agit de fournir le moindre effort dans le but d'excuser un éventuel échec autrement que par le manque d'habiletés. Dans ce sens, une personne utilisant ce type de stratégies est susceptible d'obtenir des résultats en conséquence de cet effort, c'est-à-dire faibles (Martinot, 2001). Ce type de stratégies identitaires a donc un coût : causées par des expériences scolaires négatives, elles conduisent alors à un risque accru d'obtenir des performances futures faibles. Kaplan, Peck et Kaplan (1994) décrivent très bien ce mécanisme circulaire : l'échec cause la dévalorisation de l'estime de soi, qui conduit le jeune à une démotivation, qui cause un nouvel échec, et ainsi de suite. À partir de l'étude de Midgley et Urdan (1995) et de Midgley et al. (1996), nous constatons que les jeunes les plus faibles scolairement utilisent plus de stratégies d'auto-handicap que les autres. Les sujets à faibles performances tendent ainsi à vouloir expliciter ces faibles performances par un manque de travail plutôt que par un manque de capacités. D'après Garcia et Pintrich, (1994), les stratégies d'auto-handicap sont particulièrement reliées aux représentations des jeunes. En effet, les jeunes qui ont tendance à se définir comme de bons étudiants utilisent moins de stratégies d'auto-handicap que les jeunes qui ont tendance à se définir comme de mauvais étudiants. Si de nombreuses études ont montré que l'estime de soi était intimement liée aux stratégies identitaires, nous constatons cependant qu'autant les sujets à forte estime de soi que ceux à faible estime de soi utilisent les stratégies d'auto-handicap. Certains auteurs (Midgley et al., 1996) émettent alors l'hypothèse, que les sujets à forte estime de soi les utilisent dans le but de rehausser leur estime de soi. La réussite sans effort aurait des effets plus bénéfiques sur l'estime de soi, que la réussite avec effort. Concernant les sujets à faible estime de soi, les stratégies d'auto-handicap leur permettent de protéger leur image de soi dans le cas probable de faibles performances futures. L'estime de soi est ainsi particulièrement reliée aux stratégies d'auto-handicap. Toutefois, à partir d'une analyse de régressions multiples incluant d'autres facteurs, l'estime de soi n'apparaît plus saillante comme prédicteur des stratégies d'auto-handicap (Midgley & Urdan, 1995). Ces auteurs ont donc utilisé une nouvelle mesure de l'estime de soi, la dichotomisant en une faible et une forte estime de soi. Les résultats montrent alors que les sujets à faible estime de soi utilisent plus de stratégies d'auto-handicap que les sujets à forte estime de soi, témoignant aussi de l'importance de différencier les deux groupes. Et plus encore, Midgley et al. concluent leur étude de 1996, en insistant sur la nécessité dans des recherches ultérieures de comparer les sujets à forte et à faible estime de soi scolaire. En effet, les spécificités des différents domaines de vie ont tout leur intérêt pour l'étude de l'estime de soi comme le soulignait déjà Marsh en 1986. Les jeunes, tout au long de leur scolarité, sont confrontés à une multitude d'évaluations par leurs proches (parents, professeurs, pairs, etc.), et ce particulièrement dans le cadre scolaire. Or, l'estime de soi est le reflet de ce parcours scolaire. Nous nous interrogeons tout d'abord, dans cette étude, sur l'impact de ces évaluations scolaires sur les représentations de soi des jeunes. Le point de vue de l'adolescent est un des meilleurs indicateurs de la réalité sociale (Claes, 2004). Nous nous centrons donc sur l'intériorisation des notes par l'élève plutôt que par la prise en compte d'une note réelle. Ce point de vue de l'adolescent peut ainsi refléter des évaluations formelles mais aussi informelles significatives rencontrées dans sa scolarité. D'autres facteurs sont susceptibles d'influencer la représentation des jeunes. Dans ce sens, nous nous sommes également intéressés au redoublement. Si la relation entre estime de soi globale et différents indicateurs de performance scolaire a suscité de nombreuses recherches, à l'heure actuelle, les résultats font encore place à un long débat théorique (Byrne & Bracken, 1996; Marsh et al., 1999; Régner & Loose, 2006; Verkuyten & Thijs, 2004). Considérant la multidimensionnalité de l'estime de soi, nous incluons l'estime de soi scolaire dans l'étude de cette relation. Afin de protéger leur estime de soi mise en jeu à l'école, nous supposons que les jeunes vont développer des stratégies, particulièrement dans le cas d'une faible estime de soi scolaire. Nous nous centrons particulièrement sur la stratégie comportementale d'auto-handicap qui se traduit par le fait de fournir un moindre effort à l'école (Midgley & Urdan, 1995; Midgley et al., 1996). Par conséquent, nous considérons que dans le cas d'une faible estime de soi scolaire, la stratégie d'auto-handicap va moduler la relation entre l'estime de soi scolaire et globale. Moins les jeunes fourniront d'effort à l'école, moins leur estime de soi globale sera affectée par une faible estime de soi scolaire. Alors que pour les sujets présentant une haute estime de soi scolaire, cette dernière va influencer l'estime de soi globale indépendamment de l'auto-handicap. Ils se retrouvent dans une situation non menaçante pour leur estime de soi globale et n'ont donc pas besoin de la protéger de l'influence de l'estime de soi scolaire. Cette dernière leur permet de rehausser leur estime de soi globale. L'objectif de cette étude est finalement d'analyser la relation entre facteurs scolaires (moyenne déclarée par le jeune et redoublement) et estime de soi globale, en considérant d'une part, l'estime de soi scolaire et d'autre part, la stratégie d'auto-handicap. Cette recherche répond à une demande sociale dans le cadre d'une Convention Industrielle de Formation par la REcherche (CIFRE) au sein de l'entreprise Family Sphere. Ce type de contrat subventionné par l'Agence Nationale de Recherche Technique (ANRT) a pour objectif de promouvoir le développement d'une entreprise par le biais de la recherche. L'entreprise d'accueil est une entreprise nationale de soutien scolaire. Nous avons construit un outil pour l'entreprise afin d'analyser la problématique de l'enfant et ainsi proposer à ce dernier un professeur adapté à son profiltype. L'outil a été inspiré de questionnaires reconnus et utilisés dans la communauté scientifique tels que le Rosenberg SElf-Esteem (RSE, 1965), l'échelle SDQII de Marsh (1992; 1996), ou encore le Self-Concept Profil for Children d'Harter (1985) pour l'estime de soi, et le questionnaire de Strube (1986), le questionnaire français de Thill (1999), et celui de Midgley et al. (1996) pour l'auto-handicap.Nous avons validé les outils à l'aide d'analyses factorielles exploratoires et confirmatoires sur une population française de 1420 jeunes (Leyrit, 2010) issus de collèges (N = 647, 46 %), et de lycées (N = 773, 54 %) généraux (N = 440), techniques (N = 130) ou professionnels (N = 203). Les outils mesurant l'auto-handicap et l'estime de soi (scolaire et globale) sont sous la forme d'une échelle de likert en 5 points (1 = « pas du tout d'accord » à 5 = « tout à fait d'accord »). L'échelle d'estime de soi scolaire comporte 10 items (alpha de Cronbach = 0.91, N = 1294, p < .001; ex. : « Je pense que je suis un bon élève »). L'échelle d'estime de soi globale se compose aussi de 10 items (alpha de Cronbach = 0.81, N = 1256; ex. : « Je pense que je suis quelqu'un de bien »). Nous avons mesuré l'auto-handicap par une échelle de 19 items (alpha de Cronbach = 0.90, N = 1 240) composée de 4 sous-dimensions : L'auto-handicap lors des devoirs et leçons (alpha de Cronbach = 0.86, N = 1333; ex. : « J'oublie de faire mes devoirs quelquefois »). L'organisation (alpha de Cronbach = 0.78, N = 1361; ex. : « Mes cours sont soignés »). L'attention (alpha de Cronbach = 0.73, N = 1360; ex. : « Je bavarde souvent en classe »). L'envie/l'intérêt à l'égard du travail scolaire (alpha de Cronbach = 0.65, N = 1379; ex. : « J'ai du mal à commencer à faire mes devoirs »). La moyenne scolaire est définie par la moyenne générale obtenue et déclarée par le jeune (1 = moyenne inférieure à 8; 2 = entre 8 et 10; 3 = entre 10 et 12; 4 = entre 12 et 14; 5 = moyenne supérieure à 14). Les notes d'une classe sont étalonnées de telle sorte qu'il y ait une symétrie par rapport à la moyenne et donc autant de bons que de mauvais élèves. Ce système de notation implicite suit finalement le raisonnement de l'école de la sélection. Antibi (2003) évoque une « constante macabre ». Ce raisonnement montre une universalité du niveau de l'élève à travers les notes. Un élève qui obtient une moyenne de 12/20 dans une classe ZEP sera moyen. Un élève d'une classe non ZEP qui obtient une moyenne de 12/20 sera aussi un élève moyen. Le niveau de l'élève s'établit donc au regard du même point de comparaison commun entre les élèves, la note de 10/20. Le contexte influence peu la valeur réelle de la note. D'ailleurs, quand les parents demandent la note de leur enfant à un contrôle, s'intéressent -t-ils généralement à la moyenne de la classe ou seulement à la note brute ? Nous nous intéressons aussi au redoublement, variable à deux indicateurs (oui/non). Notre échantillon de départ était composé de 1420 jeunes scolarisés de la classe de sixième au collège jusqu' à la classe de terminale au lycée. Après avoir écarté les valeurs extrêmes d' âge, nous obtenons trois groupes : les jeunes de 10 à 13 ans (N = 306), les jeunes de 14 à 17 ans (N = 870) et enfin les jeunes de 18 à 20 ans (N = 231). Dans une perspective développementale, nous avons recentré notre étude sur un échantillon d'adolescent(es) de 14 à 17 ans, période où apparaissent des valeurs extrêmes d'estime de soi et d'auto-handicap (Leyrit, 2010). Cette étude concerne donc 870 jeunes. Parmi les 14-17 ans, 333 fréquentent le collège (38,3 %), 537 le lycée (61,7 %). Parmi ces lycéens, 371 sont au lycée général (69,1 %), 51 au lycée technique (9,5 %), et 115 au lycée professionnel (21,4 %). Majoritairement, ces jeunes fréquentent soit la classe de seconde au lycée (F = 249, 28,6 %), soit la dernière année de collège, c'est-à-dire la classe de troisième (F = 148, 17 %), puis les classes proches telles que la classe de 4 e (F = 137, 15,7 %) ou 1 re (F = 117, 13,4 %). 93 sont en première année de BEP (10,7 %). 333 jeunes sont issus du collège, 422 du lycée dont 51 en lycée général, et 371 en lycée professionnel. Les filles sont plus nombreuses que les garçons, 59,7 % de filles (N = 515) contre 40,3 % de garçons (N = 348). Nous remarquons que les filles et les garçons sont bien répartis selon l' âge : 11,6 % des filles ont 14 ans (N = 100), 16,1 % ont 15 ans (N = 139), 17,1 % ont 16 ans (N = 148), 14,8 % ont 17 ans (N = 128). 11,5 % des garçons ont 14 ans (N = 99), 9,3 % ont 15 ans (N = 80), 10,8 % ont 16 ans (N = 76), 10,8 % ont 17 ans (N = 93). Parmi ces 870 jeunes, 32,4 % ont déjà redoublé (N = 282), alors que 67,5 % n'ont jamais redoublé (N = 587), un seul élève n'a pas précisé s'il avait redoublé ou non. Ils ont majoritairement redoublé la classe de troisième (17,3 %) puis la classe de 4 e et seconde (15,5 %). Ces résultats montrent l'enjeu de ces classes -ci. Ils sont 19 à avoir redoublé au moins 2 fois. Une analyse de variance par comparaison de moyennes (Anova, tableau 1), montre que l'estime de soi scolaire augmente linéairement en fonction de la moyenne scolaire déclarée par le jeune (F (4.779) = 127.38; p < .001). Plus les jeunes déclarent avoir de bonnes notes, meilleure est leur estime de soi scolaire. Les écarts-types semblent assez similaires et le test de Levene nous montre que les variances des 5 groupes ne sont pas significativement différentes (score au test de Levene = 1.41; p = .23). La moyenne déclarée par le jeune explique 39,5 % des variations de l'estime de soi scolaire (ŋ 2 = 0.395). Concernant l'estime de soi globale, il n'y a pas de différence significative par rapport à la moyenne déclarée par le jeune (F (4.760) = 2.02; ns). Dans le sens de nos prédictions, la moyenne scolaire déclarée par le jeune ne semble pas varier avec l'estime de soi globale. Cependant, il y a une différence significative observée avec l'estime de soi globale dévalorisée (F (4.801) = 2.70; p < .05). Nous observons également que les jeunes ayant une moyenne inférieure à 8 ont une estime de soi globale totale ainsi que valorisée et dévalorisée plus faibles par rapport aux jeunes des autres groupes. Nous avons donc comparé ce groupe aux autres groupes. Il apparaît que ces différences de moyennes (test de Student) sont significatives pour l'estime de soi globale (t (16.34) = 2.18; p < .05), pour l'estime de soi valorisée (t (763) = 2.68; p < .05) et l'estime de soi dévalorisée (t (783) = 4.465; p < .001). Ces jeunes dont la moyenne est très faible semblent tout de même affectés par une moyenne générale faible même si c'est de façon modérée. Il apparaît les mêmes résultats que ceux obtenus avec la moyenne générale déclarée par le jeune (tableau 2). Tout d'abord, les jeunes qui n'ont jamais redoublé ont une estime de soi scolaire plus valorisée par rapport aux jeunes redoublants qui ont une estime de soi scolaire plus faible. Cette différence (test de Student) est significative (t (785) = 4.93; p < .001). De même, conformément à nos attentes, l'estime de soi globale t (765) = 0.044; ns) et ses sous-dimensions ne varient pas en fonction du redoublement (tableau 2). Les redoublants (M = 34.03; ET = 7.88) et les non-redoublants (M = 34.06; ET = 7.52) obtiennent des moyennes d'estime de soi globale similaires. Concernant l'estime de soi globale valorisée et non valorisée, les différences de moyennes (test de Student) ne sont pas significatives (réciproquement, t (806) = 1.33; t (817) = 1.19). La moyenne et le redoublement sont particulièrement reliés à l'estime de soi scolaire. Pour se protéger d'une influence néfaste possible de cette dernière sur l'estime de soi globale, les jeunes à faible estime de soi scolaire vont devoir agir pour la protéger. À cette fin, nous supposons que ces jeunes vont utiliser la stratégie d'auto-handicap. Cette dernière va ainsi modérer l'effet de l'estime de soi scolaire sur l'estime de soi globale. Afin de tester cette hypothèse, nous avons choisi de dichotomiser l'estime de soi scolaire par rapport à la moyenne (M = 31.56; ET = 8.63; p < .001) en estime de soi à valence positive et estime de soi à valence négative comme le préconisaient Midgley et al. (1996), et Urdan et Migdley (2001). Tout d'abord, les jeunes dont l'estime de soi scolaire est faible s'auto-handicapent plus (M = 50.66; ET = 13.13; p < .001) comparativement aux jeunes dont l'estime de soi est forte qui s'auto-handicapent moins (M = 61.38; ET = 12.56; p < .001). Cette différence de moyenne (test de Student) est significative (t (699) = 10.98; p < .001). L'estime de soi scolaire augmente significativement avec l'auto-handicap mais aussi avec ses sous-dimensions (tableau 3). Les jeunes à faible estime de soi scolaire sont moins impliqués dans leurs devoirs et leçons, sont moins organisés, moins attentifs à l'école, et montrent moins d'intérêt à l'égard du travail scolaire par rapport aux jeunes qui ont une estime de soi scolaire valorisée. Nous avons affiné nos résultats par rapport aux deux groupes d'individus, à faible et à haute estime de soi scolaire, par des régressions linéaires qui nous permettent d'analyser le rôle modérateur de l'auto-handicap (Brauer, 2000). Nous nous intéressons dans un premier temps aux jeunes dont l'estime de soi scolaire est forte (≥ 31.56). Si nous considérons que l'estime de soi scolaire influence l'estime de soi globale, et que tout individu a besoin d'avoir une bonne estime de soi (Tesser et al., 1989) alors les élèves à forte estime de soi scolaire (≥ 31.56) se retrouvent dans une situation valorisante pour leur estime de soi. Ils n'ont pas besoin de se protéger d'un domaine qui leur est favorable. Ils ne vont donc pas avoir recours à des stratégies de protection de soi. Nous supposons par conséquent que pour ces jeunes dont l'estime de soi scolaire est forte, celle -ci va influencer l'estime de soi globale indépendamment des stratégies de protection de soi, plus précisément d'auto-handicap. Nous avons vérifié cette hypothèse grâce à une analyse de régression linéaire pas à pas, en insérant en variables indépendantes, l'estime de soi scolaire et la stratégie d'auto-handicap. Aucun modèle n'a été retenu pour expliquer l'estime de soi globale. Pour les 14-17 ans, ni l'estime de soi scolaire ni l'auto-handicap n'expliquent l'estime de soi globale. En effet, l'estime de soi scolaire n'est pas saillante pour expliquer l'estime de soi globale des jeunes, et cela curieusement pour les jeunes à forte estime de soi scolaire. Nous avons alors effectué les mêmes analyses sur le groupe d'enfants plus jeunes, âgés de moins de 14 ans (11 âge 13 ans), et pour le groupe de jeunes de plus de 17 ans (20 ≥ âge ≥ 18 ans). Les mêmes résultats caractérisent le groupe des plus âgés et celui des 14-17 ans. Autrement dit, aucun modèle explicatif ne permet d'expliquer l'estime de soi globale de ces deux groupes. L'estime de soi scolaire et les stratégies de protection de soi n'influencent pas l'estime de soi globale de ces jeunes. Cependant, pour les plus jeunes, un seul modèle explicatif a été retenu. Celui -ci va dans le sens de notre hypothèse : un lien positif significatif, par une régression linéaire pas à pas, a été mis à jour entre l'estime de soi scolaire et l'estime de soi globale. La corrélation entre ces deux variables (coefficient de Pearson) est d'ailleurs beaucoup plus saillante chez les plus jeunes, et elle tend à diminuer avec l' âge (corrélations de Pearson) : pour le groupe des moins de 14 ans (âge < 14) : r = 0.30; p < .001; pour le groupe des 14-17 ans (14 âge 17) : r = 0.09; ns; pour les jeunes de plus de 18 ans (âge ≥ 18) : r = - 0.035; ns. Pour les plus jeunes (âge < 14), le coefficient de régression associé à l'estime de soi scolaire est significativement positif (ß = 0.46; t = 3.295; p .001). Par conséquent, conformément à notre hypothèse, les stratégies de protection de soi ont été exclues du modèle explicatif de l'estime de soi globale pour les jeunes à forte estime de soi scolaire âgés de 13 ans ou moins. Pour ces adolescents, les stratégies de protection de soi ne participent pas à la relation entre estime de soi scolaire et estime de soi globale. L'estime de soi scolaire influence donc l'estime de soi globale indépendamment de l'auto-handicap lorsque les jeunes manifestent une forte estime de soi scolaire. En conclusion, d'après les résultats, les stratégies de protection de soi ne sont pas pertinentes pour expliquer la relation entre estime de soi scolaire et globale comme nous le prédisions chez les trois groupes de jeunes. L'estime de soi scolaire explique l'estime de soi globale chez les plus jeunes. Cependant, ce résultat doit être nuancé en fonction de l' âge : plus ces jeunes grandissent, moins leur estime de soi scolaire est reliée à l'estime de soi globale (corrélations de Pearson). À partir de 14 ans, les élèves semblent se détacher progressivement du domaine scolaire. Nous nous intéressons également aux jeunes dont l'estime de soi scolaire est faible ( 31.56). Ces jeunes se retrouvent dans une position risquant de fragiliser leur estime de soi. Cette situation menaçante les pousse à adopter des stratégies de protection de soi. Nous supposons alors que ces jeunes vont s'auto-handicaper plus que les autres et ce, afin de minimiser l'influence de l'estime de soi scolaire faible sur l'estime de soi globale. Nous avons utilisé la même procédure que pour les jeunes à forte estime de soi scolaire. Ainsi, une régression linéaire pas à pas, incluant en variables indépendantes l'auto-handicap et l'estime de soi scolaire, nous propose deux modèles explicatifs de l'estime de soi globale (tableau 4). Le premier modèle fait ressortir la stratégie d'auto-handicap comme seule variable explicative (r = 0.151; t = - 2.48; p < .05; ß = - 0.1). Le deuxième modèle, plus significatif, que nous retenons, est composé de deux variables prédictives de l'estime de soi globale à savoir l'estime de soi scolaire et la stratégie d'auto-handicap (r = 0.27). La stratégie d'auto-handicap (ß = - 0.16; t = - 3.88; p < .001) est liée négativement et de façon plus discriminante à l'estime de soi globale que l'estime de soi scolaire qui est liée positivement à cette dernière (ß = 0.36, t = - 3.69; p < .001). Ces résultats (tableau 5) nous suggèrent que l'estime de soi scolaire et surtout la stratégie d'auto-handicap sont des facteurs discriminants à l'égard de l'estime de soi globale : plus le sujet s'auto-handicape, c'est-à-dire, plus le sujet se comporte négativement à l'égard de l'école, moins sa faible estime de soi scolaire va influencer son estime de soi globale. Nous avions pour objectif d'analyser la relation entre facteurs scolaires et estime de soi. Les résultats mettent en exergue la multidimensionnalité de l'estime de soi. Ils attestent en particulier d'une relation plus forte entre moyenne générale-déclarée par le jeune et estime de soi scolaire qu'entre moyenne et estime de soi globale. En effet, cette moyenne scolaire mais aussi le redoublement ne rendent pas compte des variations de l'estime de soi globale auprès de notre échantillon d'étude. L'estime de soi scolaire permet ainsi de mieux appréhender la relation complexe entre facteurs scolaires et estime de soi globale. La stratégie d'auto-handicap semble également varier avec l'estime de soi scolaire. Ces résultats remettent en question la « tradition regrettable » décrite par Antibi (2003), qui consiste à penser que « l'élève, en situation d'échec, travaillerait davantage » (p.83). Cette étude avance des conclusions différentes. Des résultats scolaires médiocres, autrement dit, une moyenne déclarée faible, peuvent amener les jeunes à s'estimer scolairement de façon moindre et les conduire à s'auto-handicaper à l'école. Les élèves ont, en effet, plutôt tendance à agir pour protéger leur soi. Nous décrivons alors des jeunes moins organisés, moins impliqués dans leurs devoirs, ayant moins envie de travailler, ou encore moins attentifs. Ainsi, cette stratégie leur permet, s'ils obtiennent effectivement de faibles notes par la suite, ou s'ils doivent redoubler, d'évoquer l'auto-handicap, établi délibérément, comme cause d'échec plutôt que d'évoquer leurs habiletés personnelles (Martinot, 2001; Thill, 1999; Thompson et al., 1995). De manière générale, une situation où la menace d' être jugé sur ses capacités intellectuelles est grande (dans le cas de contrôles en classe par exemple) suscite chez les jeunes le recours à des stratégies protectrices (Thompson, 1995). L'école peut donc être un lieu menaçant pour le soi des adolescents. Les évaluations normatives peuvent dans ce sens jouer un rôle négatif dans la scolarisation des jeunes (Antibi, 2003; Perrenoud, 1998). Les jeunes seront plus enclins à utiliser des stratégies de protection de soi, particulièrement dans le cas de performances passées faibles. Nous présumons dès lors, qu'ils auront alors une probabilité plus grande d'échouer dans le futur. Une dynamique d'échec peut s'installer à long terme (Kaplan et al., 1994). Martinot (2001) souligne un point particulièrement important à prendre en compte dans l'étude des stratégies identitaires : « la désidentification par rapport à une dimension s'accompagne souvent d'une valorisation de nouvelles dimensions » (2001, p.495). Le domaine scolaire devient menaçant pour le soi des jeunes en échec. Ils ne peuvent en effet ni rehausser ni préserver leur estime de soi. Ils pourraient donc, investir d'autres domaines pour rehausser ou préserver leur estime de soi globale. Ainsi, peut s'opérer un déplacement de l'investissement du domaine scolaire vers le domaine social et l'adhésion à certaines normes, pratiques, valeurs et attentes de groupes sociaux de pairs, pouvant également parfois être synonyme d'éloignement vis-à-vis de l'école (Michinov, 2004; Millet & Thin, 2007) L'investissement d'autres domaines par les élèves scolairement en échec peut constituer une piste de recherche future. C'est ainsi, comme l'explique Martinot (1995), qu' « un élève faible pourrait préférer être meneur d'un petit groupe de “cancres” plutôt qu'anonyme en échec scolaire dans le groupe plus général des élèves » (p.496). Plus encore, pour rehausser leur estime de soi, les jeunes peuvent être amenés à adhérer à des valeurs antiscolaires voire antisociales (Malewska-Peyre, 1990; Bourcet, 1997, 1998; Martinot, 2001), plutôt qu'investir le domaine scolaire devenu trop menaçant pour Soi. C'est d'ailleurs parce que les individus agissent sur leur milieu pour préserver leur estime de soi, qu'il paraît difficile de comparer leur estime de soi globale. En effet, les stratégies de protection de soi, peuvent conduire des élèves en échec à avoir une bonne estime globale (Crocker & Wolfe, 2001). La présente étude souligne cette nécessité de s'attacher à l'estime de soi scolaire plutôt que globale afin d'analyser les stratégies de protection de soi utilisées par les jeunes. À l'instar de Martinot (2008) et Toczek (2005), cette recherche nous invite aussi à rester prudents quant à l'approche en vogue qui consiste à revaloriser l'estime de soi des jeunes. L'estime de soi globale tend à rester stable et élevée pour tous les individus, excepté ceux qui sont en échec massif dont l'estime de soi globale est significativement plus faible. Tenter de favoriser une haute estime de soi peut d'ailleurs avoir l'effet contraire à celui escompté. Nous pouvons supposer que plus un individu à une haute estime de soi globale, plus il sera amené à la protéger, et donc à utiliser des stratégies de protection de soi (Baumeister & Tice, 1985; Baumeister, Heatherton & Tice, 1993). Nous souhaitions dans cette étude analyser le rôle modérateur de la stratégie d'auto-handicap. Pour les sujets à forte estime de soi scolaire, ils se retrouvent dans une situation leur permettant de rehausser ou préserver leur estime de soi globale. En accord avec notre hypothèse, les stratégies de protection de soi n'entrent pas en jeu dans la relation entre estime de soi scolaire et globale. Cependant, pour ces jeunes de 14 à 17 ans, l'estime de soi scolaire n'explique pas l'estime de soi globale. Nous avons abouti aux mêmes résultats avec le groupe des plus de 18 ans. Par contre, chez les enfants plus jeunes (< 14 ans), les résultats confirment nos hypothèses : l'estime de soi scolaire influence l'estime de soi globale indépendamment des stratégies de protection de soi. La relation entre estime de soi scolaire et globale tend à diminuer au fil des années chez les jeunes de notre étude. Nous pouvons supposer que les jeunes en grandissant tendent à intégrer d'autres domaines plus signifiants pour leur Soi. Les évaluations permanentes à l'école peuvent d'ailleurs en être la cause. Elles tendent à véhiculer une image négative et menaçante de l'école. Il s'agit d'un domaine important comme le soulignait Harter (1998b) mais sans doute éprouvant (Merle, 1996, 2007; Perrenoud, 1998). Concernant les adolescents à faible estime de soi scolaire, l'auto-handicap module la relation entre estime de soi scolaire et globale chez les 14-17 ans. Plus les jeunes s'auto-handicapent, et déclarent ne pas travailler par exemple, moins leur faible estime de soi scolaire va influencer leur estime de soi globale. L'auto-handicap représente une variable signifiante pour expliquer l'effet moindre de l'estime de soi scolaire faible sur l'estime de soi globale. Les résultats de cette étude permettent donc d'apporter un éclairage sur l'importance du degré d'estime de soi scolaire, par rapport à l'estime de soi globale nécessitant ou pas la mise en place de stratégies d'auto-handicap de la part des adolescents. En ce sens, l'objectif principal de cette étude était de concevoir un questionnaire permettant de repérer un profil d'adolescent par rapport aux stratégies d'auto-handicap, et par rapport à l'estime de soi scolaire et globale. L'objectif est ainsi de pouvoir proposer au sein du pôle de soutien scolaire en plein développement de l'entreprise Family Sphere, un professeur particulier adapté à un profil d'adolescent ainsi repéré via le questionnaire (Leyrit, 2010). Le professeur peut ainsi orienter son travail sur la revalorisation de l'estime de soi scolaire et peut permettre à l'enfant de limiter l'usage de stratégies d'auto-handicap. Dans cette perspective, une formation adaptée aux attentes pédagogiques de l'entreprise est également proposée au professeur . | Cette recherche se centre sur les stratégies utilisées par les adolescents afin de protéger leur estime de soi mise en jeu à l'école. Considérant la multidimensionnalité de l'estime de soi, nous supposons que les facteurs scolaires opérationnalisés dans notre étude par le redoublement et la moyenne scolaire déclarée par le jeune vont influencer l'estime de soi scolaire de ce dernier. Afin de protéger son estime de soi globale d'une possible influence néfaste de l'estime de soi scolaire faible, l'adolescent va user de stratégies pour modérer cet effet. Nous analysons précisément la stratégie d'auto-handicap qui se définit en termes d'efforts à l'égard du travail scolaire. Les jeunes à haute estime de soi scolaire se retrouvent quant à eux dans une situation valorisante, nous considérons alors que l'estime de soi scolaire va influencer l'estime de soi globale indépendamment de la stratégie d'auto-handicap. Afin de tester nos hypothèses, une enquête par questionnaires a été menée auprès de 870 jeunes de 14 à 17 ans. Elle a été réalisée dans le cadre d'une recherche-action par Convention Industrielle de Formation par la REcherche (CIFRE). Nous discutons ainsi brièvement de ses aboutissements dans l'entreprise de soutien scolaire. | psychologie_11-0465192_tei_920.xml |
termith-741-psychologie | L'illettrisme est un problème de société majeur pour l'éducation et l'insertion qui est maintenant reconnu sur le plan national et international. En France, à l'heure actuelle, il touche 9 à 12 % de la population de langue maternelle française (ANLCI, 2010; Ferry, 2009). L'illettrisme est défini comme la situation des « hommes et femmes de plus de 16 ans, ayant été scolarisés, et ne maîtrisant pas suffisamment l'écrit pour faire face aux exigences minimales requises dans leur vie professionnelle, sociale, culturelle et personnelle ». Cette définition, donnée en 1995 par le Groupe permanent de lutte contre l'illettrisme (GPLI), et largement reprise depuis, distingue l'illettrisme de l'analphabétisme, lequel qualifie le fait de n'avoir jamais été scolarisé et de n'avoir jamais appris à lire. Elle est proche en revanche de la définition que l'UNESCO en 1958 donne de « l'analphabétisme fonctionnel » pour désigner l'incapacité de lire et écrire, en le comprenant, un exposé simple et bref de faits en rapport avec sa vie quotidienne. Ainsi, l'illettrisme qualifie des individus qui ont un usage relativement limité de l'écrit : ils peuvent remplir un papier d'identité et se servir d'un programme de télévision par exemple, mais ne parviennent pas à lire et à comprendre un texte portant sur des situations de leur vie quotidienne (tel qu'une notice de médicament), et/ou ne parviennent pas à écrire pour transmettre des informations simples (rédiger un chèque par exemple) (Besse, 2004). L'illettrisme correspond donc à un échec de l'acquisition fonctionnelle de la langue écrite puisqu'il désigne des personnes à qui on a enseigné la langue écrite dans le cadre de l'école mais qui ont peu ou mal acquis ce savoir pour des raisons sociales, familiales ou fonctionnelles (GPLI, 1995). Les personnes en situation d'illettrisme ont acquis de l'expérience, des compétences et une culture, mais sans s'appuyer, ou pratiquement pas, sur l'écrit (Besse, 2004). Cette situation a évidemment des implications pour l'insertion professionnelle mais également pour le développement personnel et la vie sociale. L'absence de maîtrise de la lecture est indiscutablement un problème de société dans la mesure où l'équilibre économique tient à la possibilité des hommes et femmes actifs de traiter l'information écrite de façon utile. Le niveau scolaire et le taux d'utilisation de l'écrit ne cessent de s'accroître en moyenne, pour répondre aux évolutions technologiques de notre société. Mais en même temps la demande sociale en matière de lecture et d'écriture augmente encore plus vite. Les demandes de formation et d'information sont de plus en plus nombreuses. Les postes de travail non qualifiés diminuent. Les postes de travail qualifiés, y compris de travail manuel, demandent un apprentissage théorique. Même si certains adultes illettrés ont pu s'engager dans le monde du travail sur la base de leurs expériences et de leurs compétences, beaucoup se trouvent dans des situations de risque de marginalisation, d'exclusion, et d'autodévalorisation, par rapport aux exigences de la technologie actuelle (qu'Internet ne fait probablement qu'accentuer). L'enquête nationale Information et Vie Quotidienne menée par l'INSEE en 2004 (ANLCI, 2010) montre qu'un pourcentage important de la population repérée en difficultés avec l'écrit est sans emploi (43 %). En outre, les personnes en situation d'illettrisme représentent 26 % des allocataires du RMI. Les parcours scolaires sont variables, mais n'ont pas permis l'accès à un diplôme, et il est souvent difficile d'en retracer les étapes; 46 % auraient un niveau primaire et 26 % un niveau de secondaire technique ou professionnelle (Leclercq, 2007). Les enjeux pour la formation sont que d'une part les personnes en situation d'illettrisme ne sont pas conscientes de leurs acquis et se considèrent elles -mêmes comme « ne sachant pas lire », avec ce que cela entraîne comme difficultés et appréhension à se remettre dans un processus de lecture. D'autre part, les adultes illettrés ne peuvent progresser de manière autonome dans la mesure où des stratégies peu efficaces sont installées, qui empêchent les acquisitions nouvelles (par exemple, les liens ne sont pas faits entre l'écrit et l'oral, entre ce qu'on lit et ce qu'on dit, ou que les autres disent; la lecture est réduite à un exercice de déchiffrage laborieux, monocorde, sans recherche de sens). L'illettrisme pouvant être défini comme un problème d'acquisition, l'objectif de cet article est de présenter un bilan des études ayant porté sur l'analyse des composantes cognitives et linguistiques des difficultés de lecture rencontrées par les personnes en situation d'illettrisme. Si on a souvent rapporté l'illettrisme à un handicap socioculturel, on peut aussi se demander si l'échec de certains adultes dans l'acquisition de la langue écrite n'est pas lié à des difficultés dans les compétences sous-jacentes à cette acquisition. Sur un plan théorique, cette question renvoie aux relations entre le développement cognitif et langagier d'une part et l'accès à la langue écrite d'autre part. Sur un plan pratique, elle ouvre de nouvelles pistes pour la mise en place de formations centrées sur le fonctionnement des individus, ce qui est vraiment central pour l'insertion socioprofessionnelle. Pour des raisons idéologiques et politiques, et malgré l'ampleur du phénomène, la reconnaissance publique de l'illettrisme s'est faite assez tard dans notre pays, la question de l'analphabétisme étant considérée comme résolue avec l'école obligatoire. Le terme « illettrisme » est apparu en 1978 dans le rapport moral du mouvement ATD quart-monde, et la prise de conscience au niveau gouvernemental peut être datée de 1984 avec le rapport Des illettrés en France (Geoffroy & Grasset-Morel, 2003). Aujourd'hui, la lutte contre l'illettrisme est déclarée « priorité nationale » par la loi d'orientation de lutte contre les exclusions du 29 juillet 1998, et l'organisation en est confiée à une Agence nationale de lutte contre l'illettrisme (ANLCI), qui a succédé au GPLI en 2000. La prise de conscience du taux d'échec en lecture à la sortie du système scolaire, et la mise en œuvre de moyens pour y remédier se sont effectuées au niveau international, comme en témoignent les rapports de l'Organisation de coopération et de développement économiques (OCDE) sur la littératie dans le monde, et la mise en place du Programme international pour le suivi des acquis des élèves de 15 ans (PISA). Aux États-Unis, l'illettrisme fonctionnel concernerait 43 % de la population, ce qui représente environ 130 millions de personnes qui ne seraient pas capables d'exécuter des tâches fondamentales de lecture (US Department of Education, 2003, cité par Binder, Chace & Manning, 2007). En Europe, les estimations vont de 8 % (en Suède) à 40 % (au Portugal) selon les pays et les enquêtes (OCDE & Statistique Canada, 2000). De nombreuses campagnes nationales ont été mises en place et d'importants efforts déployés pour augmenter le niveau de littératie, les enquêtes s'intéressant principalement au nombre de personnes atteintes par les campagnes et aux liens entre illettrisme et environnement. Ainsi on sait que l'illettrisme est souvent associé à des caractéristiques sociofamiliales particulières ou à des méthodes d'apprentissage non adaptées (Bentolila, 1996; Gottesman, Bennett, Nathan & Kelly, 1996; Espérandieu & Vogler, 2000). Les personnes illettrées proviennent souvent des minorités ethniques, ou de milieux très défavorisés sur les plans économique et culturel. Beaucoup ont souffert de perturbations dans leur scolarité (redoublement, orientations, absentéisme), ou dans leur histoire familiale (maltraitance, invalidité des parents, familles nombreuses). En termes d'apprentissage, la méthode globale a été largement mise en cause pour expliquer l'échec en lecture (Dehaene, 2007). Mais d'une part, tous les cas d'illettrisme ne relèvent pas de ces contextes particuliers, d'autre part, ces variables n'expliquent pas en elles -mêmes l'évolution vers l'illettrisme qui ne peut pas être réduit à un facteur unique (Lemmel & Meljac, 1995). Une limite à ce type d'études est qu'elles ne s'interrogent pas sur le fonctionnement cognitif des personnes qui pourrait à la fois expliquer leurs difficultés d'apprentissage et donner des indications pour tenter d'apporter des solutions. Ces dernières années, des études en psychologie du développement et de l'éducation ont été conduites pour décrire les compétences cognitives et les processus d'apprentissage de cette population d'adultes qui, bien qu'ayant théoriquement reçu un enseignement de la lecture, n'ont jamais réussi à apprendre à lire. En effet, on peut s'attendre à ce que les adultes qui ont échoué dans l'apprentissage de la lecture présentent un déficit dans les compétences sous-jacentes à l'acquisition du langage écrit (langage oral, mémoire, attention, etc.) (Greenberg, Ehri & Perin, 1997, 2002; Eme, 2006). De nombreux travaux chez l'enfant faible lecteur mettent en évidence des déficits dans les compétences sous-jacentes à l'acquisition du langage écrit, en langage oral notamment (dans différents domaines : la phonologie, la compréhension orale, la grammaire; Catts, Adlof & Weismer, 2006; Nation, Clarke, Marshall & Durand, 2004; Vellutino, Fletcher, Snowling & Scanlon, 2004). On peut donc s'attendre à observer chez les adultes qui ont échoué dans l'apprentissage de la lecture des déficits de même nature, selon l'hypothèse que l'illettrisme est le résultat à terme de ces déficits non résolus et ayant mené à l'échec à l'écrit. En d'autres termes, l'illettrisme pourrait venir de troubles cognitifs, associés à un environnement socioculturel peu favorable aux apprentissages. Dans ce sens, une étude longitudinale de Baydar, Brooks-Gunn et Furstenberg (1993) ayant suivi 200 sujets de milieu défavorisé pendant 20 ans montre que le développement cognitif et communicatif préscolaire est prédictif des difficultés en lecture des jeunes adultes, même lorsque les effets de l'environnement familial et des conditions matérielles d'existence sont contrôlés. Sur le plan pratique de la formation et de l'insertion, une telle approche psycholinguistique des compétences des personnes en situation d'illettrisme a un fort enjeu social, puisqu'elle devrait contribuer à adapter les prises en charge et les contenus de formation aux particularités de fonctionnement des individus. Couramment, les évaluations menées dans le cadre de la formation des adultes en difficulté d'insertion professionnelle tiennent compte d'indicateurs globaux de performance, ce qui positionne les stagiaires sur une échelle de niveau, mais ne renseigne pas sur la nature et les causes de leurs difficultés. Or le « positionnement » d'un apprenant doit explorer l'ensemble des processus mis en jeu dans l'activité de lecture, afin d'identifier les composantes déficientes de l'activité, et les capacités sur lesquelles le programme de formation peut s'appuyer (Mousty, Leybaert & Grégoire, 1999; Zagar, Jourdain & Lété, 1995). Connaître leurs particularités de fonctionnement apparaît comme nécessaire : en matière de lecture et d'écriture, que doit-on / peut-on enseigner à des adultes illettrés ? Et comment ? Dans ce cadre, le présent article examine les capacités cognitives et langagières d'individus illettrés, c'est-à-dire qui n'ont pas réussi à apprendre à lire et à écrire malgré leurs années de scolarité. À travers une revue de la littérature trois questions se posent : 1) comment se caractérisent les difficultés d'accès à la langue écrite des adultes illettrés, en référence aux modèles cognitifs de la lecture et par rapport aux enfants en âge d'acquisition, c'est-à-dire comment se traduit l'échec de leur apprentissage, et quelles stratégies compensatoires mettent-ils en place ? 2) leurs difficultés à l'écrit sont-elles liées à des déficits cognitifs et/ ou de langage oral susceptibles d'expliquer leur échec d'apprentissage ? 3) quelles sont les implications de ces études pour la formation et la prise en charge des adultes ? Des études de psychologie du développement ont porté sur les processus de traitement des mots écrits chez des adultes faibles lecteurs en référence aux modèles et aux méthodes décrivant le développement du langage écrit chez l'enfant (Ehri, 1987; Frith, 1985; Stanovich, Siegel & Gottardo, 1997), et ont montré des différences qualitatives entre adultes illettrés et jeunes lecteurs. D'après ces modèles, le traitement des mots écrits repose sur la mise en place de deux procédures : la procédure phonologique pour l'application des règles de correspondance entre les graphèmes (les lettres) et les phonèmes (les sons) (CGP), et la procédure orthographique pour la récupération directe et globale des représentations des mots écrits en mémoire. En lecture, Greenberg et al. (1997) ont montré, avec des participants anglophones, que les adultes illettrés lisent moins bien les pseudomots et les mots nouveaux (bufty) que des enfants de 8 à 12 ans appariés sur le niveau en lecture. Par contre, ils reconnaissent plus de mots irréguliers (island). Ils auraient donc des difficultés plus marquées pour utiliser la procédure phonologique et le code alphabétique (nécessaire pour lire les mots ou pseudomots qu'on n'a jamais vus), que pour mémoriser des représentations orthographiques (permettant de reconnaître les mots qui ne respectent pas les règles de correspondance). De même, en écriture de mots, Worthy et Wise (1996) trouvent que des adultes illettrés ont des performances de l'ordre de celles d'enfants de même niveau de lecture (compris entre la 1 re et la 5 e année de primaire) pour transcrire les mots selon des règles simples (brave brode), alors qu'ils font moins d'erreurs orthographiques (brave braive; batted bated). De plus, ils produisent davantaged'erreurs au niveau morphologique (usefy useful; fun funny), et commettent également plus d'erreurs visuelles, écrivant un mot pour un autre ou contenant des séquences orthographiques « légales»( success such). Greenberg et al. (2002) confirment que les adultes illettrés, par rapport à des enfants de même âge de lecture, s'appuient davantage sur les connaissances orthographiques que sur le recodage phonologique pour écrire les mots. Les enfants produisent davantage d'erreurs « phonologiquement acceptables » (when wen) traduisant un recours à la procédure phonologique, alors que les adultes produisent davantage d'erreurs « phonologiquement inacceptables » (squirrel chegh) oude non-réponses, traduisant une tentative de recours à la procédure orthographique. D'autre part, Binder, Chace et Manning (2007) rapportent que les adultes illettrés identifient plus facilement les mots dans un contexte congruent (« The cat chased the mouse ») que dans un contexte neutre (« The guy chased the mouse »), mais que contrairement aux enfants mauvais lecteurs, ils ne sont pas ralentis par un contexte incongruent (« The cop chased the mouse »). Ainsi, selon les auteurs ils s'appuieraient sur les représentations sémantiques pour reconnaître les mots (d'où l'effet du contexte congruent) mais pas seulement (d'où l'absence d'effet du contexte incongruent). De plus, en lecture de texte, le fait qu'ils identifient plus rapidement des mots reliés à une information implicite indiquerait qu'ils génèrent des inférences. Les auteurs en concluent que les adultes illettrés malgré leurs difficultés dans la reconnaissance des mots écrits pourraient avoir de bonnes capacités de compréhension du langage oral. Dans l'ensemble ces études montrent donc une spécificité des traitements des mots écrits chez les adultes illettrés relativement à des enfants de même niveau de lecture. Les adultes illettrés semblent avoir plus de difficultés à utiliser les procédures phonologiques que les procédures orthographiques et le contexte, ce qui suggère qu'ils sont affectés d'un déficit spécifique dans le traitement phonologique des mots écrits. Ces résultats ont récemment été reproduits en langue française (Eme, 2006; Eme & Millogo, s/ presse). Une étude francophone des comportements dans la compréhension de documents de la vie quotidienne a également montré que lorsque des adultes observés en formation de base ne disposent pas d'une procédure phonologique opérationnelle, ils mettent en œuvre des stratégies diverses pour aborder un document écrit : appui sur l'iconographie, traitement syllabe par syllabe, traitement par devinette, reconnaissance globale de certains termes (Petiot, 1997). Seule cette dernière peut s'avérer efficace pour la compréhension. Dans ce même courant de recherche, des études ont cherché à expliquer les difficultés de traitement du langage écrit des adultes illettrés fonctionnels en mettant en évidence leurs particularités linguistiques, et ce à différents niveaux de traitement du langage. Au niveau phonologique, les adultes illettrés semblent présenter un déficit spécifique dans le traitement métaphonologique des sons de langage (ce qu'on appelle la conscience phonologique) qui expliquerait leurs difficultés de traitement des mots écrits. En effet, les adultes illettrés ont du mal à segmenter les mots en phonèmes, même en comparaison avec des enfants ayant les mêmes âges de lecture (entre la 1 re et la 5 e année de primaire) (Delahaie, Billard, Calvet, Tichet, Gillet & Vol, 2000, pour le français; Greenberg, Ehri & Perin, 1997 et Thompkins & Binder, 2003, pour l'anglais). En revanche, ils manipulent sans difficultés particulières des sons non linguistiques (Pratt & Brady, 1988). D'après une analyse de la régression menée par Thompkins et Binder (2003), les compétences métaphonologiques rendraient compte d'une part spécifique de la variance des scores en lecture des adultes illettrés. L'illettrisme pourrait donc être un cas particulier de dyslexie développementale qui n'aurait pas été prise en charge durant l'enfance (Delahaie et al., 2000; Greenberg et al., 1997). En effet, les enfants dyslexiques ainsi que les adultes diagnostiqués comme dyslexiques dans leur enfance présentent un profil analogue de difficultés phonologiques compensées par des habiletés orthographiques plus développées (Bruck, 1990; Siegel, Share & Geva, 1995). S'interrogeant sur les liens entre la dyslexie développementale, qui est un trouble spécifique d'acquisition de la lecture, et l'illettrisme, Delahaie et al. (2000) concluent que, en France, parmi les jeunes en difficulté d'insertion professionnelle ayant des difficultés de déchiffrement, environ 50 % présentent les caractéristiques d'une dyslexie, c'est-à-dire un faible niveau d'identification des mots associé à de faibles habiletés métaphonologiques. Pour ce qui est de la compréhension syntaxique et des connaissances morphologiques, les compétences des adultes illettrés dans les recherches anglophones semblent également fortement altérées. Par exemple, leurs erreurs dans l'interprétation des structures syntaxiques complexes, telles que les formes passives ou les propositions enchâssées, sont analogues à celles des faibles lecteurs de 3 e année de primaire (If Mary is pushed by John, who does the pushing ?, Scholes & Willis, 1987). De même, leurs erreurs de flexion dans un test implicite d'application de règles syntaxiques les situent au niveau de la 2 e année du primaire (He is « routing ». He did the same thing yesterday. ... Yesterday, he. .. ?, Rubin, Patterson & Kantor, 1991). Et ils échouent dans des tâches de morphologie dérivationnelle nécessitant d'analyser la structure morphémique des mots, telles que segmenter des mots bimorphémiques (comme daytime, discovery), ou produire la forme dérivée d'un mot (work : worker, write : writer). Toutefois ces tâches comportant une forte composante métalinguistique de réflexion sur les unités linguistiques, il n'est pas exclu que les performances faibles des adultes illettrés soient dues à une conscience métalinguistique peu développée, en lien avec leur faible niveau de lecture (Gombert, 1994; Eme, Puustinen & Coutelet, 2006), plutôt qu' à des difficultés de langage à proprement parler. Ce n'est qu'au niveau lexical que les personnes illettrées témoignent de connaissances plus développées que les enfants de même âge de lecture, puisqu'elles comprennent et définissent plus de mots. Toutefois cet effet s'inverse à partir de la fin du primaire (Greenberg et al., 1997). Au niveau sémantique, une étude (Gold & Johnson, 1982) montre que des adultes illettrés ne réussissent pas mieux en compréhension orale de textes que des élèves de fin de primaire; ceci dit, traduits en scores étalonnés (correspondant à des grade levels ou niveaux scolaires) leurs scores de compréhension orale sont supérieurs à leurs niveaux de lecture, bien qu'inférieurs à leurs niveaux de vocabulaire. Dans une étude récente en langue française (Eme, 2006), les mêmes 50 adultes illettrés ont passé une variété de tâches de langage écrit et oral, de façon à analyser la nature de leurs difficultés en lecture et en écriture en relation avec leurs aptitudes de langage oral. Il s'agissait de déterminer dans quel domaine de langage des stagiaires illettrés ont le plus de difficultés, et si différents profils pouvaient être identifiés. Trois domaines de langage étaient évalués : la phonologie avec des tâches de répétition de mots, de mémoire de chiffres et de segmentation phonémique, le niveau lexico-sémantique avec la définition de mots, la production d'antonymes et la compréhension de récits, la morphosyntaxe avec le rappel de phrases et la production de flexions. Globalement, les résultats ont confirmé que les stagiaires illettrés se caractérisent par des performances de langage oral faibles. Les résultats ont aussi indiqué que comparativement à des enfants de la première à la cinquième année du primaire, les adultes illettrés ont plus de difficultés en phonologie et en morphosyntaxe (les scores moyens les situant entre la 1 re et la 3 e année) qu'au niveau lexical et sémantique (les scores moyens n'étant pas significativement différents de ceux des 5 e année de primaire). L'ensemble de ces études fait donc apparaître des capacités linguistiques formelles assez faibles chez les adultes illettrés, plus proches de leur âge de lecture que de leur âge chronologique. Leurs difficultés toucheraient davantage la phonologie, la morpho-syntaxe et l'analyse métalinguistique, que le vocabulaire et la compréhension. Il faut tout de même noter que ces difficultés ont été mises en évidence dans des tâches proches des exercices scolaires, ce qui affecte sans doute leurs performances étant donné leur échec dans les apprentissages à l'école et la perte de l'estime de soi qui en résulte. Pour cette raison, on s'est également intéressé aux comportements des adultes illettrés dans des activités de production naturelle. Il s'agit alors de déterminer quelles sont leurs capacités à utiliser le langage oral dans un contexte de communication, et à interpréter le sens des énoncés en tenant compte du contexte, des situations, des interlocuteurs. Ces capacités interviendraient en lecture et se renforceraient avec la maîtrise de l'écrit (Roth, Speece & Cooper, 2002) dans la mesure où lire, c'est interpréter une parole produite par un autre que soi. Ainsi on peut se demander si les difficultés des personnes illettrées avec la langue écrite ne viennent pas de difficultés plus générales à utiliser le langage pour communiquer avec les autres. Sur un plan pratique, il s'agit de savoir si les personnes illettrées disposent de capacités communicationnelles leur donnant la possibilité de « compenser » leur accès limité à la langue écrite. Étant donné leurs grandes difficultés à lire et à écrire, les adultes illettrés sont de facto très handicapés dans toutes les activités de communication écrite. Qu'en est-il dans les activités de communication orale ? Car même si la lecture est un facteur critique de réussite sociale et professionnelle, les capacités à communiquer en tant que telles sont également importantes pour la recherche d'un emploi et les interactions sociales. Chez des adultes déficients mentaux ou souffrant de troubles de l'apprentissage, on a montré qu'un entraînement pragmatique au respect des tours de parole et au contrôle des mouvements du corps, par exemple, avait des effets positifs pour l'insertion socioprofessionnelle des participants (Farley & Hinman, 1988). De la même manière, on peut s'interroger sur les capacités communicationnelles des adultes illettrés et des jeunes en difficulté d'insertion professionnelle. Ainsi, Byrne, Crowe, Hale, Meek et Epps (1996) ont évalué les habiletés pragmatiques de 97 adultes de langue anglaise, engagés dans un programme d'accès à la littératie, dans le but d'identifier les facteurs susceptibles de favoriser les progrès en lecture dans les formations pour adultes. À partir d'entretiens, ils ont codé le caractère adéquat ou inadéquat pour l'interaction des aspects verbaux, paralinguistiques et non verbaux. Ils trouvent que seuls les aspects non verbaux (mouvements du corps, direction du regard, intensité de la voix) sont jugés fréquemment inadéquats, alors que les aspects verbaux (actes de langage, tours de parole, précision lexicale) sont en général jugés appropriés pour l'interaction. Toutefois, les plus faibles lecteurs obtiennent les scores les plus bas dans une autre mesure pragmatique : un test de compréhension du langage non littéral (Test Of Word Knowledge, Wiig & Secord, 1992), ce que les auteurs interprètent comme une utilisation peu flexible du langage associée à l'illettrisme, avec des difficultés à attribuer plusieurs significations aux énoncés selon les contextes. Ce manque de flexibilité dans l'utilisation du langage est également décrit par le linguiste Bentolila (1996, 2004). Pour cet auteur, l'illettrisme correspond à un « malaise global avec la langue », qui se manifesterait à la fois dans ses aspects formels (par la pauvreté du vocabulaire et de la syntaxe) et pragmatiques (par l'absence de prise en compte du contexte de communication). Son enquête auprès de 1000 jeunes de langue française en grandes difficultés de lecture met en évidence des difficultés analogues en lecture et en expression orale. Les textes lus sont restitués dans des versions qui s'appuient plus sur les connaissances générales que sur le sens du texte, en s'attachant aux éléments thématiques au détriment des commentaires. À l'oral, les événements racontés par les jeunes illettrés ne sont pas recontextualisés dans le temps et l'espace, et contiennent des références ambiguës, ce qui les rend peu compréhensibles pour un auditeur naïf. Pour l'auteur, ce mode d'expression reflète une absence de conscience des fonctions du langage qui pourrait expliquer les difficultés à entrer dans la langue écrite, celle -ci étant décontextualisée. Dans une étude anglo-saxonne, McKeough, Templeton et Marini (1995) rapportent également des difficultés d'ordre pragmatique chez des adultes illettrés relativement à des adultes bons lecteurs dans une tâche de narration consistant à générer ou à répéter une histoire à propos de quelqu'un qui rencontre un problème et doit le résoudre. L'hypothèse des auteurs était que les adultes illettrés réussiraient moins bien dans cette tâche en raison de leur manque d'expérience dans le domaine littéraire que la narration est supposée représenter. Les résultats ont effectivement montré que les récits des deux groupes différent qualitativement, les adultes illettrés produisant des séquences d'actions non reliées, dans lesquelles les actions sont motivées par les intentions des protagonistes (récits « intentionnels », e.g., « la jeune fille a décidé de s'échapper »), alors que les lettrés produisent des séquences d'actions reliées dans lesquelles les actions sont rapportées aux états mentaux des protagonistes inférés sur la base des traits psychologiques ou de l'histoire personnelle (récits « interprétatifs », e.g. « la jeune fille était inquiète en montant dans la camionnette parce qu'elle ne faisait pas confiance aux hommes »). En d'autres termes, les adultes bons lecteurs recontextualisent les événements dans le cadre du récit en reliant les actions et les pensées par l'interprétation des événements, alors que les adultes illettrés juxtaposent les actions et les intentions sans établir de lien explicite. Les auteurs signalent par ailleurs que les histoires produites par les adultes illettrés ont une forte composante émotionnelle pour qualifier ce qui arrive, bien qu'elles manquent d'expression des objectifs et des causes pour expliquer pourquoi cela arrive. D'autres études (en langue française), portant sur l'organisation des récits produits par des personnes illettrées, montrent que des particularités d'expression au niveau pragmatique rendent leurs discours difficiles à suivre (Eme, Reilly & Almecija, 2009; Eme, Lacroix & Almecija, 2010). Les différences avec les récits de lettrés concernent principalement la structure narrative et la cohésion des discours. Les adultes illettrés se focalisent davantage sur les actions des personnages sans mentionner les liens de causalité et de conséquence entre ces actions, et sans les interpréter. Beaucoup de leurs récits décrivent les événements au moyen d'une succession d'énoncés sans les intégrer en allant au-delà au moyen d'inférences. De plus, les marques référentielles qu'ils emploient sont fréquemment erronées ou ambiguës, ce qui ne permet pas à un auditeur ne partageant pas la même expérience visible d'identifier ce dont on parle. Des difficultés à décontextualiser ce qui est dit sont donc ici aussi repérées. En revanche, les adultes illettrés produisent pratiquement autant d'expressions évaluatives des événements décrits que les lettrés, expressions qui ont pour fonction d'exprimer leur point de vue, le contenu émotionnel de l'histoire, et de susciter l'intérêt de l'interlocuteur (Bamberg & Reilly, 1996). Dans l'ensemble des études, les adultes illettrés se caractérisent donc par un type de conduite narrative qualitativement différent de celui des lecteurs, puisque leurs récits s'avèrent moins cohérents et moins intégrés, alors qu'ils sont aussi riches sur le plan de l'expression émotionnelle. Ce type de conduite marquant un certain rapport distancié au langage pourrait être à la base des troubles de l'apprentissage de la lecture (Préneron, Salazar-Orvig, Kugler-Lambert & David, 1994). On peut aussi voir dans ces conduites l'expression possible d'une difficulté plus importante : celle de la relation à l'autre (difficultés à se décentrer, à adopter le point de vue de l'interlocuteur et à adapter son discours). Pour résumer cette section, les études de psycholinguistique développementale attestent que les difficultés des adultes illettrés ne se limitent pas au traitement du langage écrit, mais concernent aussi le langage oral. Sur le plan formel, les adultes illettrés ont des capacités de langage plus proches des enfants d' âge scolaire que de leurs pairs d' âge chronologique. Sur le plan pragmatique, leurs productions sont moins cohérentes et moins intégrées que celles des adultes lecteurs, mais aussi riches en évaluations. De plus, des données récentes tendent à montrer que les adultes illettrés ont du mal à comprendre les formes de langage non littérales (demandes indirectes, expressions idiomatiques, sarcasmes) pourtant fréquentes dans les interactions quotidiennes (Eme, Chaminaud, Bernicot & Laval, 2011). Un autre courant de recherche francophone a porté sur d'autres aspects du fonctionnement et des compétences des personnes illettrées dans les activités de langage dans une perspective sociolinguistique. Par rapport aux études citées précédemment, ces recherches se sont davantage centrées sur les pratiques de lecture, les représentations de l'écrit et les conduites didactiques dans les formations pour adultes, que sur les mécanismes cognitifs de lecture et d'apprentissage. Relevant d'un autre courant, leur présentation dépasserait le cadre de cette revue, mais leurs apports et leur complémentarité avec les études précédentes doivent être soulignées (cf. Leclercq, 2008, pour un panorama des études récentes). Les profils de mode d'appropriation de l'écrit des adultes illettrés mis en évidence par Besse (1995) montrent que ces adultes ne se sont pas appropriés l'écrit, dans ses caractéristiques, ses usages, ses fonctions, les modalités de sa pratique en lecture et en écriture. Nombre de personnes en formation de base, par exemple, ne se sont pas appropriés les fonctions de l'écrit pour la communication, l'information et la transmission d'un message, et n'ont pas intégré la notion de destinataire dans le processus de production (Leclercq, 2007). Les adultes illettrés ont un rapport à l'écrit qui le réduit à un code en négligeant ses pouvoirs de communication et de conceptualisation (Besse, 1997, 2004). D'autre part, ils ont des représentations dépréciatives d'eux -mêmes en tant que lecteurs et scripteurs et n'attribuent pas pour valeur aux écrits d' être porteurs d'informations nouvelles par rapport aux expériences vécues (Leclercq, 2008). Ces travaux montrent aussi que les compétences des personnes illettrées sont dépendantes des interactions sociales et des contextes de communication (Leclercq, 1997). Les paramètres pragmatiques pour faire comprendre un message écrit peuvent apparaître, par exemple, dans des situations d'écriture pour lesquelles il y a effectivement un destinataire auquel s'adresser (Bernard, Besse & Petit-Charles, 1997). Dans le domaine privé où la norme n'est plus une référence obligatoire, des jeunes en stage de formation aux savoirs de base témoignent de pratiques et d'habiletés efficaces, qui se manifestent dans des récits autobiographiques, le journal intime, la correspondance privée, et qui impliquent une réflexivité sur leurs pratiques scripturales (Morisse, 2008). Des études de cas montrent que l'analyse des stratégies scripturales et textuelles permet de repérer chez les stagiaires, au-delà du décompte de leurs erreurs, une variété de procédures disponibles pour appréhender les dimensions orthographiques, pragmatiques, et la cohérence des textes (Balslev, 2008). Peu d'études ont objectivement évalué les compétences des personnes illettrées dans le domaine cognitif. Des études américaines en neuropsychologie sur la façon dont le développement et l'organisation cérébrale sont modifiés par l'acquisition de la langue écrite ont montré que les adultes illettrés réussissent moins bien que les lettrés dans les tests de langage (confirmant ce qu'on a vu dans les sections précédentes), mais aussi dans les tests de mémoire et les tâches visuo-spatiales (Ardila, Rosselli & Rosas, 1989; Dellatolas et al., 2003; Reis, Petersson, Castro-Caldas, Ingvar, 2001). Ceci dit, ces différences entre adultes illettrés et lettrés sont réduites lorsque le matériel des tâches est sémantique plutôt que phonologique (rappeler une liste de mots, une liste de courses par exemple, plutôt qu'une série de syllabes sans signification), ou en trois dimensions plutôt qu'en deux dimensions (objets réels vs dessins d'objets). C'est-à-dire que les adultes illettrés sont surtout désavantagés dans le traitement des représentations symboliques, et leurs difficultés tiendraient plutôt aux stratégies mises en place qu'aux capacités de mémoire et de traitement en elles -mêmes (Folia & Kosmidis, 2003). À la question (taboue, liée à de forts préjugés) de savoir si l'illettrisme n'est pas due en général à un manque d'aptitudes intellectuelles, notamment à un QI bas, la réponse semble être non, ou tout au moins tend à aller dans ce sens d'après les données dont on dispose. Un premier argument est que les déficients mentaux ne sont pas comptés dans les enquêtes qui recensent les personnes illettrées en France; le déficit mental n'explique donc en rien les taux d'illettrisme. Deuxièmement, chez les enfants, les corrélations entre les aptitudes intellectuelles et le niveau de lecture est en général assez faible (de l'ordre de .35; Siegel, 1988), et diminuent à l'adolescence, indiquant une certaine indépendance entre les capacités à apprendre à lire et le niveau d'intelligence. Plus spécifiquement, un quotient intellectuel faible n'entraîne pas nécessairement des difficultés en lecture (Jimenez, Siegel & Rodrigo-Lopez, 2003). Ainsi, les difficultés dans les apprentissages de base persistantes à l' âge adulte semblent difficiles à expliquer par le niveau de capacités intellectuelles au début de l'apprentissage. En outre deux problèmes se posent pour l'estimation de la relation entre illettrisme et aptitudes intellectuelles : l'absence d'outil approprié pour tester des adultes illettrés qui ne sont pas familiarisés avec la passation de tests et l'interprétation du sens de la relation. Si les adultes illettrés échouent dans les tests d'intelligence, ce peut être une conséquence de leur situation d'illettrisme plus qu'une cause. On retrouve le même effet chez les enfants dyslexiques qui présentent un QI élevé à 10 ans mais beaucoup plus faible à 16 ans (Casalis & Lecocq, 1992 : Sujets M et N). « L'illettrisme privant un individu de l'exercice régulier et diversifié de la lecture, l'empêche de développer ses savoirs et le prive de la maîtrise des procédures d'accès à l'information; il le rend ainsi faiblement intelligent, c'est-à-dire peu apte à passer les tests de mesure d'intelligence » (Bentolila, 1996, p.95). Plus directement, une étude suisse sur les recrues de tout le pays et de toute une année (Girod, Dupont & Weiss, 1987, cités par Girod, 1997) révèle que la catégorie des jeunes repérés en situation d'illettrisme, sur la base des exercices de lecture, est très hétérogène du point du vue des scores au test non verbal d'aptitudes intellectuelles utilisé, mettant en jeu le raisonnement logique (test B 53 de Bonnardel). Dit autrement, le score obtenu à ce test par plus d'un tiers des jeunes illettrés est dans la moyenne ou supérieur à la moyenne. Un résultat analogue est obtenu dans une étude française récente (Eme, 2006) sur un échantillon de 52 adultes en situation d'illettrisme ayant passé un autre test de facteur g (Culture Fair Test de Cattell, 1974), qui montre par ailleurs que le score à ce test n'est corrélé à aucune des épreuves de lecture et d'écriture, lesquelles corrèlent par contre fortement avec les tâches phonologiques et morpho-syntaxiques. De plus, une analyse en clusters sur les scores individuels à l'ensemble des tâches met en évidence un groupe de sujets présentant des difficultés principalement dans les tâches phonologiques avec des scores moyens à élevés en raisonnement, alors qu'un autre groupe échoue surtout dans les autres tâches de langage oral et en raisonnement. Enfin, une étude américaine de Gottesman et al. (1996) conduite sur 280 adultes en formation pour l'acquisition des savoirs de base présente les valeurs de QI obtenues à partir de la WAIS-R (Wechsler, 1981) ou d'une estimation basée sur les sub-tests Vocabulaire, Information et Cubes (selon la formule de Brooker & Cyr, 1986). Le QI moyen pour le groupe est de 81 (avec un écart-type de 12), ce qui est bien inférieur à la normale. Cependant, l'examen clinique des participants effectué par une équipe de psychologues, médecins et éducateurs, conduit à un diagnostic de déficience intellectuelle ou de limite intellectuelle pour 12 % de l'échantillon. Les diagnostics les plus fréquemment posés sont ceux de dyslexie (33 %) et de trouble mixte du développement (42 %). Sur un plan pratique, l'intérêt d'une analyse cognitive et linguistique de l'illettrisme est qu'elle permet de repérer des profils différenciés et peut contribuer à l'évaluation et à la formation des adultes illettrés dans le cadre de leur insertion socioprofessionnelle. Prenons l'exemple du cas de Stéphane (33 ans, marié, 3 enfants). Stéphane prend contact avec l'Atelier Formation de l'ESP (Poitiers, 86) par l'intermédiaire d'une assistante sociale, car il veut « apprendre à lire et à écrire », pour accompagner sa fille de 6 ans qui se trouve en difficulté à l'entrée au CP. Stéphane, doué en dessin et dans les activités manuelles, a développé de bonnes compétences en menuiserie, et trouve facilement du travail. Il n'a aucune qualification et décline toutes les propositions de formation en changeant régulièrement d'employeur. Au bout de quelques mois à l'Atelier, ses difficultés phonologiques sont évaluées parallèlement à ses facilités de compréhension et d'apprentissage. Stéphane est amené à passer un bilan orthophonique qui lui révèle la cause de son illettrisme : une dyslexie non détectée durant l'enfance et non traitée. Il commence alors une rééducation qu'il suit parallèlement à l'Atelier axé sur les mécanismes de la lecture, et reprend confiance en lui et en ses capacités. Il progresse en lecture, et commence à écrire, en prenant de bons repères d'orthographe, et en utilisant des outils adaptés à ses difficultés (dictionnaire phonologique par exemple). Puis il se met à lire et à écrire spontanément, et en même temps sort « du monde où il s'enfermait » comme il le dit lui -même : « Quand on ne sait pas lire, on reste là où on est, dans un monde limité, qu'on connaît. Et dès qu'une chose inconnue arrive, on fuit ». Au terme de deux ans de rééducation et de formation, Stéphane sait lire, et peut écrire sans complexe même s'il ne maîtrise pas bien l'orthographe. Sur le plan professionnel, il est maintenant en CDI et responsable d'une équipe. Ce qu'illustre ce cas, c'est que l'analyse des capacités cognitives et linguistiques des personnes en situation d'illettrisme peut fournir des outils et des grilles pour l'évaluation, permettant d'établir le profil d'un stagiaire donné : repérer l'ampleur mais aussi la nature de ses difficultés en lecture et en écriture, les corrélats de ses difficultés, ses points faibles à renforcer, ses points forts et ses potentialités d'acquisition. Le diagnostic cognitif doit être large et dépasser le cadre du langage écrit, l'apprentissage de l'écrit s'appuyant aussi sur d'autres habiletés, phonologiques ou mnésiques par exemple. En plus d'avoir une appréciation objective des connaissances et des stratégies mises en place en lecture et en écriture, il est nécessaire de considérer un ensemble d'habiletés qui vont déterminer les capacités à apprendre et à progresser : les habiletés phonémiques et linguistiques, les habiletés de mémoire, de raisonnement, de communication. Sur cette base, des groupes de niveaux et de profils homogènes peuvent alors être constitués (Morcrette, 1996), et des méthodes de formation et de remédiation peuvent être mises en place en lien avec les profils. Il existe déjà des outils standardisés d'évaluation de ce type pour des publics anglophones et hispanophones (TABE : CTB McGraw Hill, 1994; NEUROPSI : Ostrosky-Solis, Ardila & Rosselli, 1999). En français, une Échelle de langage pour l'évaluation des adultes en formation (ELEA : Eme, 2006; Eme & Olivier, 2008) a été adaptée d'un protocole d'examen clinique du langage de l'enfant (Chevrie-Muller, Simon & Fournier, 1997). Elle s'inscrit dans le prolongement d'outils diagnostics existants : le logiciel ECCLA, centré sur les mécanismes de la lecture (Zagar et al., 1995), et le DMA, centré sur les modes d'appropriation de l'écrit (Besse, Luis, Paire, Petiot-Poirson & Petit-Charles, 2004), en intégrant l'évaluation du langage oral et des fonctions cognitives. Dans le cadre d'un contrat CPER, cette échelle est actuellement en cours d'informatisation pour permettre une plus large diffusion et répondre à l'appel des associations de lutte contre l'illettrisme (Eme, Condesse, Bontemps & Millogo, 2011). L'évaluation des compétences psycholinguistiques des personnes illettrées conduit ainsi à renseigner les formateurs et les éducateurs sur les processus sous-jacents aux difficultés d'apprentissage. La Méthode Naturelle de Lecture Écriture (De Keyzer, 2001), par exemple, publiée et utilisée dans des formations adultes pour l'apprentissage de la lecture, est basée sur les unités globales et les analogies entre les mots (« ain » de bain c'est comme « ain » dans pain, « gr » de grise n'est pas le « cr » de crise. ..), pour la découverte progressif du principe alphabétique, et sur la mémoire visuelle et la reconnaissance rapide des mots pour améliorer la compréhension. Cependant, elle pourrait davantage tenir compte des difficultés d'un apprenant donné à percevoir et discriminer les unités phonologiques, à mémoriser plus de trois unités verbales, à établir des analogies, et favoriser plus explicitement l'acquisition du vocabulaire et des structures syntaxiques pour l'amélioration de la compréhension. Un outil d'évaluation cognitive et psycholinguistique permet d'établir le profil individuel d'un sujet donné, de situer son niveau par rapport à un groupe de référence, d'identifier la nature de ses difficultés, de façon à adapter au mieux le plan de formation en entraînant ses processus déficitaires et en prenant appui sur ses capacités. Des travaux d'évaluation en psychologie cognitive développementale et en neuropsychologie ont donné lieu dans certains cas à des programmes de formation pour adultes. Par exemple, des neuropsychologues ont utilisé les résultats des évaluations cognitives et linguistiques pour déterminer les capacités à renforcer chez les adultes illettrés afin de faciliter leur apprentissage de la lecture. Ainsi au Mexique, Ardila, Ostrosky-Solis et Mendoza (2000) ont établi un programme neuropsychologique d'apprentissage de la lecture pour adultes, Neuroalfa (« the first extensive application of neuropsychological principles to approach social problems »). Ce programme consiste à entraîner à partir de matériels familiers et de thèmes personnels (son nom, ses papiers d'identité, la vie de famille, les loisirs) des aptitudes mises en jeu en lecture, pour lesquelles les personnes illettrées ont des performances basses dans les tests. Neuroalfa comprend 55 exercices regroupés en 12 leçons dans un manuel de formateur et un cahier de stagiaire, chaque leçon prenant environ 4 heures, l'ensemble du programme pouvant être administré en 4 mois. Les leçons consistent en une série d'exercices d'entraînement réalisés conjointement à l'activité de lecture et portant sur la conscience phonologique (analyser les sons dans les mots, discriminer les sons, mettre en relation les sons et les lettres, etc.), l'attention et la mémoire visuelle (discriminer des lettres, rappeler des symboles), la mémoire verbale (mémoriser et rappeler des mots), la conscience métalinguistique (analyser les unités de sens dans les mots, catégoriser les mots selon leurs sens, selon leurs fonctions dans les phrases), le contrôle (interpréter des proverbes, ordonner des phrases). En le comparant à un programme officiel (Neeba), consistant en une méthode globale pour apprendre à utiliser les mots de l'environnement, diffusé par le ministère de l' Éducation, les auteurs montrent que les adultes bénéficiant de Neuroalfa progressent davantage, non seulement dans le domaine cognitif et linguistique (en mémoire verbale et visuelle, en fluidité phonologique, en compréhension de phrases et en raisonnement verbal), mais aussi dans les tâches de lecture. Leurs performances sont environ 30 % plus élevées pour la lecture de mots, en nombre de mots identifiés et en vitesse, ainsi que pour la compréhension écrite. Une deuxième version de ce programme est actuellement utilisée (Cognialfa; Ostrosky-Solis, Lozano, Ramirez & Ardila, 2007). Un autre programme, plus particulièrement centré sur la conscience phonologique, a également fourni des résultats positifs pour l'apprentissage de la lecture dans des formations pour adultes en Turquie (Durgunoglu & Öney, 2002). Le programme FALP (Functional Adult Literacy Program), de 90 heures sur 3 mois, s'appuie sur la transparence de l'orthographe turque caractérisée par des correspondances graphèmes-phonèmes très régulières et une structure syllabique peu variable (avec une majorité de CV et CVC). Il consiste en un enseignement explicite des CGP associé à des exercices phonologiques. Chaque leçon débute par des exercices oraux d'identification de 4 phonèmes isolés (e.g., [a ], [e ], [n ], [t ]) et de fusion de ces phonèmes en syllabes (e.g., [ta ], [an ], [ne]). Les sons sont ensuite représentés par des lettres et les syllabes sont écrites, puis les syllabes sont utilisées pour lire et écrire des mots (e.g., tane). Progressivement, on va également introduire un enseignement explicite des structures syllabiques afin de faciliter la segmentation des mots longs. Au cours du premier mois, 70 % du temps de leçon est passé à ce type d'activités. Le reste du temps est occupé à des activités de compréhension de textes : récits d'un événement dans la vie d'une famille, articles de journaux, factures, publicités. On discute à partir de photos qui illustrent le texte en reliant le thème à des expériences personnelles, puis le texte est lu par le formateur qui pose des questions, commente, suscite des réactions. Au cours des mois suivants, la part de ces activités augmente. Ce programme, soutenu par le ministère de l' Éducation, a déjà été appliqué à 20000 personnes. Une évaluation contrôlée de ses effets sur un échantillon de femmes illettrées montre une amélioration significative et importante des performances en conscience phonologique ainsi qu'en identification de mots et en orthographe, même si les compétences en écriture restent très limitées. De plus, ces femmes, qui ne pouvaient pas aborder seules un texte écrit, deviennent capables de comprendre les informations principales d'une note de 75 mots. Les analyses de régression indiquent que la conscience phonologique explique une part spécifique importante de la variance dans les trois tâches de langage écrit. Dans les cas où les difficultés des personnes illettrées sont attribuées au traitement des textes plutôt qu' à l'identification des mots, des programmes d'entraînement plus axés sur les stratégies de compréhension et l'expression orale des connaissances ont été proposés (Gold & Johnson, 1982; Rich & Shepherd, 1993). Rich et Sheperd, par exemple, ont mis en place un entraînement pour des adultes de langue anglaise, d'un niveau de lecture de fin de primaire, en s'inspirant de la méthode d'enseignement réciproque développée par Palincsar et Brown (1984). Leur programme comprend 6 sessions de 45 minutes étalées sur 18 jours et consiste à enseigner deux stratégies : la génération de questions sur des informations importantes du texte, impliquant de repérer l'information principale, au moyen des mots de fonction « qui », « quoi », « quand », « où », « pourquoi », « comment »; et le résumé de chaque paragraphe du texte en une ou deux phrases, pour l'intégration progressive des informations et la reformulation dans ses propres termes. Il s'agit de rendre les participants au programme conscients des stratégies qu'ils emploient, et de la relation entre stratégies et performances. La méthode d'enseignement réciproque requiert que le formateur et les participants échangent leur rôle et mènent chacun leur tour une discussion sur un texte. Par petits groupes, les participants lisent des textes, chaque paragraphe étant suivi d'une discussion. Au cours de la discussion, les stratégies sont enseignées. Lors des premières séances, le formateur mène la discussion, explique, applique et justifie les stratégies, et montre aux participants comment les utiliser, stimule et corrige leurs réponses (« quelle question pourrait-on poser », « je résumerais en disant. .. »). Petit à petit le formateur dirige de moins en moins, et ne donne plus que des feedback en encourageant les participants à endosser le rôle de meneur dans la discussion. Les comparaisons entre un groupe d'adultes ayant bénéficié de ce programme et un groupe contrôle qui a passé les mêmes tests et lu les mêmes textes, mais sans instructions des stratégies, montrent que le premier progresse davantage dans la compréhension de nouveaux textes, à la fois pour répondre à des questions et pour rappeler des textes. Les auteurs soulignent toutefois que ces progrès sont inférieurs aux attentes, ce qui peut être dû à un temps d'entraînement insuffisant, notamment pour une application autonome des stratégies. La recherche a également des implications pour la formation sur le plan des relations pédagogiques entre les stagiaires en situation d'illettrisme et les formateurs. En France, ce sont principalement les travaux de sociolinguistique évoqués plus haut qui se sont intéressés aux stratégies de formation chez l'adulte. Ces travaux ont mis en évidence un certain nombre de facteurs sur le plan sociocognitif à prendre en compte dans les actions de formation (Lété, 1997; Leclerq, 1997) : non-reproduction d'un modèle scolaire trop éloigné des exigences de l'adulte, rendre l'apprenant acteur de sa formation en le faisant participer à la définition des objectifs, adopter une pédagogie qui favorise une nouvelle reconnaissance de soi, mettre en place des pédagogies différenciées basées sur les acquis de départ, préserver des moments collectifs mobilisant un groupe autour d'un projet commun, prendre en compte le décalage entre les représentations liées à l'écrit des apprenants et celles des formateurs, mettre en place des situations signifiantes et motivantes. Sur le plan des contenus, des expériences pédagogiques ont été menées (AFB, Ateliers de formation de base; AFL, Association française pour la lecture; cf. par exemple www.lecture.org), et des outils standardisés élaborés (par exemple Lettris, Bentolila et al., 2003). Néanmoins on peut regretter que « même si des référentiels circulent, il n'y a ni programme ni uniformité du curriculum de la formation de base » (Leclercq, 2007). D'autre part, à notre connaissance, aucun programme n'a été testé et validé expérimentalement. Cet article avait pour objectif de présenter une revue des études sur les capacités cognitives et linguistiques des adultes illettrés. Trois questions étaient posées : 1) comment se caractérisent les difficultés d'accès à la langue écrite des adultes illettrés ? 2) leurs difficultés à l'écrit sont-elles liées à des déficits cognitifs et/ou de langage oral susceptibles d'expliquer leur échec d'apprentissage ? 3) quelles sont les implications de ces évaluations pour la formation et la prise en charge des adultes ? Concernant la première question, les études sur les processus de traitement des mots écrits ont montré que les adultes illettrés diffèrent qualitativement des enfants de même niveau de lecture. En lecture, ils ont plus de difficultés pour utiliser la voie phonologique de décodage des mots que pour lire les mots de manière directe et globale. Ils reconnaissent aussi plus facilement les mots en contexte que présentés isolément. En écriture, ils font plus d'erreurs phonologiques de transcription des sons que d'erreurs d'orthographe d'usage. Dans l'ensemble, ils ont donc des stratégies différentes de celles des enfants, davantage basées sur les représentations globales des mots que sur le code alphabétique. Concernant la deuxième question, la majorité des études ont porté sur les habiletés phonologiques des adultes illettrés et ont mis en évidence un déficit spécifique en conscience phonologique, pour la perception et la manipulation des phonèmes notamment. Ce déficit expliquerait les difficultés des adultes illettrés dans le traitement phonologique des mots écrits, ce qui rapproche l'illettrisme de la dyslexie développementale phonologique. Dans de nombreux cas, l'illettrisme pourrait être la conséquence d'une dyslexie qui n'aurait pas été repérée et traitée dans l'enfance. Sur les autres aspects formels du langage oral, plusieurs études font apparaître des capacités relativement faibles chez les personnes illettrées, plus proches de leur âge de lecture que de leur âge chronologique. Cependant, les difficultés de ces personnes toucheraient davantage la phonologie, la morpho-syntaxe et l'analyse métalinguistique, que le vocabulaire et la compréhension. De même, sur le plan pragmatique, les productions des adultes illettrés diffèrent de celles des lettrés pour la cohérence et le marquage des relations entre les énoncés, mais se révèlent aussi riches sur le plan émotionnel. Ces conduites pourraient traduire un manque de flexibilité dans l'utilisation du langage et d'adaptation à l'interlocuteur. Néanmoins, les travaux de sociolinguistique montrent que les compétences des personnes illettrées sont dépendantes des interactions sociales et des contextes de communication, des situations plus signifiantes ou moins normatives faisant apparaître des pratiques et des habiletés efficaces. Sur le plan cognitif, les études sont moins nombreuses. Bien que le QI moyen des adultes illettrés, tel qu'estimé à partir des échelles d'intelligence, soit inférieur à la moyenne dans la population générale, l'illettrisme ne semble pas pourvoir être expliqué par un manque d'aptitudes intellectuelles. Le niveau de lecture n'est pas corrélé avec les tests de facteur g, alors qu'il est fortement corrélé avec les tests de langage. Dans une étude comprenant un examen clinique de 280 adultes illettrés, un diagnostic de déficience intellectuelle ou de limite intellectuelle n'est posé que pour une faible part de l'échantillon, le diagnostic de trouble du développement étant le plus fréquent. Une interprétation plausible de l'ensemble de ces données est que l'illettrisme des adultes s'explique principalement par un échec scolaire lié à un trouble du langage ou à un trouble plus général des apprentissages. Les difficultés rencontrées dans les tests d'intelligence seraient une conséquence de la situation d'illettrisme. Les données ne sont toutefois pas encore assez nombreuses pour apporter une conclusion définitive. Par ailleurs, les résultats obtenus dans ces études ne sont pas généralisables à l'ensemble de la population des adultes illettrés, mais ne concernent que des participants en formation, volontaires pour lutter contre leur situation d'illettrisme, dont on peut envisager qu'ils ne sont pas représentatifs des adultes non engagés dans cette démarche. Relativement à la troisième question, des études ont montré l'utilité des évaluations cognitives et linguistiques pour l'apprentissage de la lecture en formation pour adultes. En analysant les difficultés et en connaissant les profils d'aptitudes des individus, on peut mettre en place des programmes de formation plus adaptés à leurs particularités de fonctionnement en renforçant leurs aptitudes les plus faibles et en s'appuyant sur les capacités plus élevées, plutôt que de se centrer sur l'acquisition des connaissances. Trois types d'entraînements cognitifs et linguistiques dans le cadre d'études expérimentales ont donné des résultats positifs pour l'apprentissage de la lecture des adultes illettrés : l'entraînement des fonctions neuropsychologiques, de la conscience phonologique et des stratégies de compréhension en lecture. Ces entraînements pourraient être intégrés dans des dispositifs de formation pour adultes plus généraux. Cependant ces travaux ne sont pas suffisamment diffusés sur le terrain. En France, ils n'ont pas fait l'objet d'expériences de validation. En fait, des programmes sont élaborés à un niveau local, mais d'une part il n'y a pas d'études d'évaluation permettant de déterminer quelles méthodes sont les plus efficaces, dans quelle mesure et pourquoi (Torgerson, Porthouse & Brooks, 2005), et d'autre part il y a encore peu d'échanges entre la recherche et la formation professionnelle des adultes en vue de leur insertion sociale. Cette complémentarité est pourtant essentielle, les organismes de formation ne pouvant tout encadrer faute de moyens humains et financiers suffisants. Cette réflexion pourrait ouvrir de nouvelles pistes de recherche : d'une part, unifier deux types d'approches de l'illettrisme complémentaires – psycholinguistique développementale et sociolinguistique – pour établir sur un plan théorique les contenus et les conduites pédagogiques les plus adaptés à la fois aux aspects fonctionnels et aux aspects contextuels des difficultés d'apprentissage des illettrés; d'autre part, valider expérimentalement les contenus et les méthodes pédagogiques dans les formations pour adultes. L'application des programmes, et leur évaluation, impliquent que soient débloqués des crédits de fonctionnement et de formation des formateurs. Or la part de financement des pouvoirs publics est de plus en plus faible. Les entreprises sont de plus en plus incitées à mettre en place des formations de base pour leurs salariés en situation d'illettrisme. Depuis 2009, le financement de nombreuses structures locales de lutte contre l'illettrisme est soumis au code des Marchés Publics des compétences clés, ce qui présente deux contraintes : la concurrence entre les structures et la place des formateurs bénévoles dans le code des Marchés Publics. Ce qui est en jeu c'est la formation des adultes sans qualification et sans emploi, qui ont le plus de difficultés dans l'utilisation et l'apprentissage des savoirs de base. Le développement de la recherche dans ce domaine et une communication plus active des résultats contribueraient sans doute à la diffusion de méthodes d'apprentissage et d'outils de formation adaptés aux publics illettrés, mais aussi devraient conduire à mener des évaluations de ces méthodes, indispensables pour justifier auprès des pouvoirs publics et des organismes financeurs l'obtention de crédits de fonctionnement . | L'objectif de cet article est de présenter un bilan des études qui ont porté sur l'analyse des capacités cognitives et linguistiques associées aux difficultés de lecture des adultes illettrés fonctionnels, c'est-à-dire des adultes qui n'ont pas réussi à apprendre à lire et à écrire malgré des années de scolarité. Trois questions sont posées: 1) comment se caractérisent les difficultés d'accès à la langue écrite des adultes illettrés ? 2) leurs difficultés à l'écrit sont-elles liées à des déficits cognitifs et/ou de langage oral susceptibles d'expliquer l'échec de l'apprentissage ; 3) quelles sont les implications de ces évaluations pour la formation des adultes illettrés en vue d'une insertion socioprofessionnelle ? | psychologie_12-0100736_tei_918.xml |
termith-742-psychologie | Depuis de nombreuses années, les sociétés « modernes » sont inexorablement traversées par de nombreux débats sociaux, politiques mais aussi scientifiques, autour de la question des inégalités sociales. En France notamment, ce débat « se nourrit du décalage entre d'une part le principe d'égalité (comme postulat) et d'autre part les inégalités réelles, patentes et persistantes » (Duru-Bellat, 2003, p. 1), en termes de revenus, de conditions de travail, de logement, de santé, de loisir, d'accès à l'éducation, etc. Dans ce contexte, l'école est au cœur d'un paradoxe : perçue comme le principal vecteur de réussite sociale (Cuin, 1993, cité par Duru-Bellat, 2003) permettant à chacun de s'affranchir des déterminismes sociaux, elle participe néanmoins à la reproduction de ces inégalités sociales (Bourdieu & Passeron, 1970). Si dans les années 1970, l'accent était mis dans les recherches sur les inégalités en fonction des classes sociales, le développement de la problématique du genre en France a mis en exergue les inégalités selon les rapports sociaux de sexe (Pfefferkorn, 2007). En dépit des évolutions notables au cours des dernières décennies, « on est encore loin de l'abolition des frontières culturelles de sexe et de la désexuation des rôles investis par les hommes et les femmes » (Vouillot, 2002, p. 486). Dans cette perspective, de nombreux travaux ont été réalisés sur la question des trajectoires scolaires et professionnelles des filles et des garçons. Ils indiquent que l'expérience scolaire et les situations d'orientation scolaire restent profondément marquées par la division sexuée et par les rapports sociaux de sexe (Baudelot & Establet, 2002; de Boissieu, 2009; Duru-Bellat, 2004; Vouillot, 2002; Zaidman, 1996). De nombreuses analyses ont contribué à mieux identifier les mécanismes psychosociaux par lesquels ces différences entre filles et garçons en matière de scolarité et d'orientation se construisaient. Notamment, les travaux qui articulent la question de l'orientation scolaire avec la problématique de la construction identitaire à l'adolescence (voir par exemple les deux numéros spéciaux de la revue L'orientation scolaire et professionnelle coordonnés en 2008 par Cohen-Scali & Guichard), ou encore les travaux ayant documenté les processus de socialisation de genre au sein de l'école (Dafflon-Novelle, 2006; Mosconi, 1998; Zaidman, 1996). Plus récemment, Duru-Bellat et Marin (2010) mettent l'accent sur la nécessité d'interroger également la genèse de l'identité sexuée afin de mieux appréhender les divergences dans la manière dont les filles et les garçons investissent l'école et se projettent dans des parcours et des orientations scolaires différenciés. Il devient alors essentiel d'examiner la genèse de l'identité sexuée durant la petite enfance, en lien avec les débuts de la scolarisation des enfants et de la construction de leur identité d'élève. En effet, selon nous, la différenciation des trajectoires scolaires et professionnelles et, au-delà, des trajectoires personnelles des filles et des garçons, trouvent leur origine bien en amont des périodes de l'enfance et de l'adolescence, le plus souvent étudiées dans les travaux scientifiques. L'objectif principal de notre contribution à ce numéro spécial est de rendre compte des processus psychosociaux par lesquels le jeune enfant s'inscrit dans un parcours scolaire marqué par les rapports sociaux de sexe, en considérant à la fois les effets de ses milieux de vie (famille, crèche, école, etc.), notamment sur son expérience scolaire, et l'activité subjective qu'il met en œuvre pour s'approprier les influences de cet environnement pluriel afin de construire son identité sexuée. Ce faisant, au-delà d'un simple processus adaptatif de l'enfant à son environnement, la socialisation renvoie aussi à des processus de personnalisation (Malrieu & Malrieu, 1973; Malrieu, 2003). Dans la perspective théorique de l'interstructuration du sujet et des institutions (Malrieu, 1977), les processus subjectifs et intersubjectifs jouent un rôle essentiel dans le développement de l'enfant, puisqu'ils médiatisent les effets des différents contextes de vie (culturels, institutionnels, etc.) sur ce développement. Dans un premier temps, nous examinerons la construction de l'identité sexuée du jeune enfant, en abordant tout d'abord les processus de la socialisation de genre, puis ceux par lesquels l'enfant se développe en tant qu'individu sexué. Sur cette base, nous envisagerons la question de l'expérience scolaire des filles et des garçons à l'école maternelle, au regard de l'émergence de différences précoces de comportements. Enfin, à travers l'examen de ces travaux portant sur la période de la petite enfance, nous chercherons à rendre compte de l'influence précoce des processus de construction identitaire et de socialisation de genre sur l'élaboration du rapport à l'école des enfants et sur la mise en place de dynamiques d'orientation différenciées. Appréhendées de manière conjointe, ces dynamiques de socialisation et de construction identitaire semblent essentielles pour rendre compte de la reproduction et de la transformation des inégalités relatives aux trajectoires scolaires des filles et des garçons. Ce champ de recherche est paradoxalement peu développé en France, alors qu'il fait l'objet d'études Outre-Atlantique depuis plusieurs décennies. En psychologie du développement, seuls quelques chercheurs ont commencé à investir dans les années 1990 ce champ de recherches (parmi ceux -ci, Granié-Gianotti, 1997; Le Maner-Idrissi, 1994; Rouyer, 2007); d'autres sous-disciplines de la psychologie ont aussi abordé avec leur spécificité la construction de l'identité sexuée (notamment en psychologie sociale, Hurtig, 1982; en psychanalyse, Chiland, 1998, 2003; en psychopathologie, Rogé & Ionescu, 1996). Selon Chiland (1998), l'identité est d'emblée sexuée : « si le “je” accompagne toutes nos pensées, ce n'est pas un sujet neutre, nous ne cessons pas un instant de nous sentir un homme ou une femme » (op. cit., p. 32). L'identité sexuée s'élabore dans un double mouvement mettant en scène le niveau psychologique et les relations sociales entretenues par l'enfant au sein de ses milieux de vie pluriels (Owen Blakemore et al., 2009; Rouyer, 2007). La plupart des recherches actuelles consacrées à la construction de l'identité sexuée se placent dans une perspective intégrative et s'attachent à prendre en compte les aspects sociaux, cognitifs et affectifs de cette construction. L'identité sexuée renvoie d'une part à des dimensions objectives, comme le sexe biologique assigné à la naissance de l'enfant et la connaissance des rôles de sexe, mais également à des dimensions subjectives, comme le sentiment d'appartenance à un groupe de sexe et le sentiment de sa masculinité/féminité (Chiland, 2003). Par la culture d'appartenance et les relations sociales qui la caractérisent, par les normes, valeurs et stéréotypes que véhicule la société, l'identité sexuée est largement influencée par la socialisation de genre. Mais elle dépend aussi du sens que prennent les notions de masculinité et de féminité pour les sujets, et de la façon dont ils les intègrent dans leur construction identitaire (Rouyer, 2007). De fait, au-delà d'une simple appropriation conforme à l'étiquetage mis en place par ses différents milieux sociaux, le jeune enfant est acteur de cette construction puisqu'il va intégrer au cours de son développement les informations plurielles et parfois contradictoires issues de l'entourage social, en les faisant siennes et en les remaniant, afin de construire sa propre identité sexuée. Dans cette perspective, l'identité sexuée peut alors être conçue comme une instance de socialisation où s'entremêlent des dynamiques d'acculturation relatives à l'intériorisation des normes sociales de masculinité et de féminité véhiculées par la société et plus ou moins valorisées par les différents groupes de sexe (Marro, 2002; Vouillot, 2002) et des dynamiques de personnalisation relatives à l'image sexuée de soi et à la construction de son individualité en tant qu' être sexué (Granié Gianotti, 1997; Rouyer, Croity-Belz, & Prêteur, 2010). Le processus de socialisation de genre recouvre de nombreuses dimensions plus ou moins articulées (activités, objets, traits de personnalités, représentations, etc.) et fait intervenir tout au long de sa vie de nombreux autrui significatifs appartenant à des milieux socioculturels souvent contrastés (famille, école, pairs, travail, etc.). En lien avec les débats sur l'égalité homme-femme, ce processus de socialisation de genre a fait l'objet de nombreuses analyses publiées depuis plusieurs années dans différentes disciplines des sciences humaines et sociales (voir les synthèses de Dafflon-Novelle, 2006; Guionnet & Neveu, 2009; Lemel & Roudet, 1999; Maruani, 2005; Rouyer et al., 2010). Toutefois, nous ne nous appuierons ici que sur celles portant sur la période de la petite enfance. Au sein du milieu familial, la plupart des travaux ont essentiellement examiné le rôle des parents. Très tôt, ceux -ci mettent en place un environnement différencié que ce soit pour les vêtements, la décoration de la chambre ou les jouets de leur enfant. Le milieu physique de l'enfant comme les attitudes et les attentes que les parents ont à son égard sont ainsi structurées dès sa naissance selon son sexe d'appartenance même si, la plupart du temps, les parents déclarent ne pas faire de différence. Les nombreuses revues de littérature et méta-analyses (Dafflon-Novelle, 2006; Leaper & Friedman, 2006; McHale, Crouter & Whiteman, 2003; Rouyer, 2007) montrent en effet que filles et garçons sont élevées de façon différenciée, en particulier durant les premières années de vie. Ces différences, souvent imperceptibles, sont mises à jour à travers l'examen conjoint de différents registres et niveaux de comportements : la fréquence et le type des interactions, les comportements affectifs, les comportements de soin, la communication, les encouragements, les pressions à la réussite, à l'indépendance ou au contraire à la dépendance, etc. Mais l'influence de la famille ne se limite pas à celle des seuls parents. Dans un contexte de transformation et de recomposition du milieu familial, le rôle de la fratrie, des grands-parents ou des proches est d'une importance capitale dans la socialisation de l'enfant, même si peu de travaux examinent le rôle de ces différents autrui (McHale et al., 2003). Ainsi, le milieu familial doit être considéré comme un réseau complexe d'interactions dans et par lequel certaines représentations des rôles de sexe et certains modèles liés au genre sont présentés à l'enfant. Au-delà du milieu familial, d'autres milieux de vie (crèche, école maternelle, école primaire) et d'autres agents de socialisation (pairs, médias) vont aussi contribuer à la socialisation de genre de l'enfant (Dafflon-Novelle, 2006; Rouyer, 2007). Au sein des institutions et lieux d'accueil de la petite enfance (crèches et écoles maternelles), si les professionnels déclarent, sous l'égide de l'idéal républicain, considérer tous les enfants comme égaux quelles que soient leurs appartenances (sociale, ethnique, de genre) et se centrer avant tout sur les besoins de chaque enfant, ils reconnaissent tout de même que ceux -ci sont différents chez les filles et chez les garçons : ces derniers auraient des besoins spécifiques d'encadrement en termes d'attention et d'utilisation de l'espace physique, alors que les filles seraient plus capables de travailler de façon calme et adaptée (Coulon & Cresson, 2007). L'environnement physique des enfants dans ces lieux d'accueil semble plus ouvert que dans les familles, puisque les enfants ont à leur disposition des objets et jouets « des deux sexes » (Brougère, 2003). Pourtant, l'utilisation qu'ils font de ces jouets et les interactions ludiques qui se développent entre les filles et les garçons restent tout de même marquées par le genre (Ferrez, 2006). Comme dans le milieu familial, les filles manipulent et jouent davantage avec des jouets renvoyant à la dimension de la féminité (poupées, maquillage, collier), de la maternité (poupons, berceau) et de la sphère domestique (cuisine, ménage) alors que les garçons choisissent surtout des jouets appartenant à la dimension du mouvement et du déplacement (camions, trains, avions) et de la masculinité (travaux, guerre, super héros). Différentes observations menées dans ces institutions de la petite enfance mettent aussi en évidence des réponses et attitudes différentes des professionnels selon le sexe de l'enfant (Acherar, 2003; Chaponnière, 2006; Coulon & Cresson, 2007). Ainsi, dès le début de la scolarité apparaissent des traitements différenciés des filles et des garçons, principalement en lien avec l'autonomie, la communication et l'estime de soi des enfants (Dafflon-Novelle, 2006). Ces inégalités scolaires seront par la suite renforcées au cours du cursus scolaire ultérieur (Duru-Bellat, 2004; Mosconi, 1998; Zaidman, 1996). Les milieux de vie du jeune enfant sont ainsi marqués par une socialisation de genre, dans sa dimension verticale (adulte-enfant) comme dans sa dimension horizontale (fratrie, pairs). En effet, la socialisation horizontale forme un aspect primordial de l'expérience sociale à travers laquelle les enfants jouent et transforment leurs identités de filles ou de garçons. Très tôt, ces interactions entre pairs vont se caractériser par le développement d'une affiliation et d'une ségrégation sexuées : vers 2-3 ans, ce processus par lequel les filles et les garçons vont se tourner de manière préférentielle vers des enfants de même sexe, émerge et deviendra plus tard une caractéristique essentielle des relations entre pairs (Barbu & Le Maner Idrissi, 2005; Delalande, 2001; Le Maner-Idrissi, Levêque & Massa 2002; Maccoby, 2003). La préférence pour des partenaires de jeux du même sexe contribue à initier des expériences de socialisation différentes pour les garçons et pour les filles. Développant ainsi des styles d'interaction et de jeux de moins en moins attractifs pour le sexe opposé, filles et garçons sont amenés à moins interagir les uns avec les autres. Enfin, les médias jouent un rôle crucial dans la transmission des rôles de sexe et participent à la mise en scène de la socialisation de genre. Les rôles joués par les filles et les garçons sont importants à analyser, ainsi que la manière dont sont présentés les hommes et les femmes, car c'est en partie par l'intermédiaire de ce support, présent dans la famille, mais aussi dans les institutions de la petite enfance et à l'école, que les enfants vont acquérir des connaissances sur les rôles de sexe. En effet, à travers les albums illustrés et les livres proposés aux enfants, les dessins animés, la publicité ou encore les manuels scolaires, l'enfant se familiarise avec tout un ensemble de représentations sur les rôles et attributs des femmes et des hommes, qui sont souvent plus stéréotypées que dans la réalité (Dafflon-Novelle, 2006; Rouyer, 2007). Deux interrogations majeures peuvent être formulées à l'encontre de ces études consacrées au processus de socialisation de genre. D'une part, elles ont peu examiné les différences de représentations et comportements liés au genre selon les milieux socioculturels, la plupart des recherches portant sur des classes moyennes. D'autre part, il convient d'examiner l'efficacité réelle de cette socialisation de genre sur l'adoption par l'enfant des rôles de sexe conformes à son appartenance sexuée (McHale et al., 2003), d'autant que de multiples modèles sont présentés à l'enfant à travers les agents de socialisation. Comment celui -ci signifie -t-il ces rôles de sexe, se les approprie -t-il pour construire son identité sexuée ? Autant de questions pour lesquelles les recherches menées jusqu'alors donnent peu de réponses empiriques explicites. C'est dans ce contexte de socialisation marquée par le genre que l'enfant va construire son identité sexuée. Différents processus sociocognitifs et socio-affectifs (identification, imitation, catégorisation, etc.) se trouvent mobilisés chez l'enfant dans cette construction. De manière très synthétique, on peut proposer ici quelques repères pour caractériser ce développement. Le sentiment d'appartenance à un groupe de sexe se met en place entre 18 et 24 mois au sein des interactions comportementales et fantasmatiques entre l'enfant et son entourage, et en particulier ses parents (Chiland, 2003). Conjointement à l'apparition de ce sentiment, les habiletés cognitives du jeune enfant vont l'amener à développer une compréhension conceptuelle du genre : l'enfant va progressivement organiser son environnement et ses représentations en fonction de la dichotomie masculin-féminin (Poulin-Dubois & Serbin, 2006). Ainsi, l'enfant va développer un schéma de genre (Le Maner-Idrissi & Renault, 2006; Martin, Ruble, & Szkrybalo, 2004) contenant des informations relatives aux différents groupes de sexe. À travers ce schéma de genre, dès 4 ans, tous les enfants sont non seulement capables d'identifier leur propre sexe et celui de différents autrui, mais aussi de faire des inférences quant aux rôles de sexe. Les connaissances de l'enfant relatives au genre se précisent entre 3 et 6 ans, et à 7 ans, les enfants connaissent les rôles de sexe de leur culture (voir par exemple, les études menées sur les jouets : Cherney Harper & Winter, 2006; Rouyer & Robert, 2010). Dans cet apprentissage, l'environnement de l'enfant joue un rôle clé, en fonction des modèles de rôles de sexe et des enseignements directs qu'ils donnent à l'enfant sur la dichotomie du masculin et du féminin (Bussey & Bandura, 1999). Durant la petite enfance, les enfants vont également adopter très tôt les comportements conformes à leur sexe d'appartenance. De nombreuses observations montrent en effet que les enfants dès l' âge de 18-24 mois manifestent des choix de jouets conformes à leur sexe d'appartenance lorsque leur sont présentés des jouets masculins et féminins (pour une revue, voir Rouyer, 2007), et que ces choix peuvent être modulés en fonction du sexe du pair avec lequel l'enfant interagit (Le Maner-Idrissi & Deleau, 1995). Dès 3 ans, les enfants commencent à interagir de manière préférentielle avec des enfants du même sexe (Delalande, 2001; Maccoby, 2003). Cette ségrégation sexuée entre les pairs va contribuer à la transmission des rôles de sexe et à la mise en place croissante d'une certaine conformité aux rôles de sexe qui va culminer à l' âge de 4-5 ans. Cette tendance à la conformité va par la suite diminuer lorsque, vers 5-7 ans, les enfants acquièrent la constance de genre et, avec elle, la conviction que l'appartenance à un groupe de sexe est une caractéristique biologique et non sociale, alors que les rôles de sexe sont eux socioculturellement définis (Dafflon-Novelle, 2010; Kohlberg, 1966). Lorsque filles et garçons entrent à l'école maternelle, ils sont déjà porteurs de représentations et de comportements liés au genre. De fait, dans la rencontre de l'enfant et de l'école maternelle, les enfants découvrent de nouvelles sources d'influences (enseignants, pairs). Ils rencontrent des représentations et comportements liés au genre qui peuvent s'accorder ou pas à ce qu'ils connaissent déjà. Étudier la construction de l'identité sexuée chez de jeunes enfants permet de réinterroger autrement la genèse des inégalités observées entre les filles et les garçons dans leurs parcours scolaires et dans leurs trajectoires sociales et professionnelles. En effet, en lien avec cette construction de l'identité sexuée, le jeune enfant élabore, dès l'école maternelle, ses premières représentations de l'école et, à travers elles, les bases de son expérience scolaire. Depuis une vingtaine d'années, de nombreuses recherches, dont on peut extraire ici quelques résultats saillants, ont mis en lumière des différences précoces de comportements à l'école maternelle, révélatrices des spécificités des expériences scolaires des filles et des garçons (Acherar, 2003; de Boissieu, 2009; Zazzo, 1993). Durant leurs premières années à l'école maternelle, les filles et les garçons vont progressivement élaborer une expérience scolaire et se construire élève-fille et élève-garçon. Concernant la dimension comportementale de l'expérience scolaire, dès les premiers jours de l'école maternelle, filles et garçons se placent et s'impliquent différemment dans ce nouvel espace qu'est la classe (Delalande, 2001; Zazzo, 1993). Les petites filles observent tout ce qui les entoure, leur regard passe de la maîtresse aux pairs, tout en s'arrêtant sur certains objets; elles cherchent patiemment à établir des relations entre tous ces éléments. Les petits garçons quant à eux émettent plus de cris et de pleurs de courte durée, ils explorent sans relâche le nouvel environnement, saisissent différents objets, changent de place et communiquent par gestes. Dans la cour de récréation, les enfants ont aussi un rapport différent à l'espace, les garçons plus « nomades » s'opposent aux filles plus « sédentaires ». Les jeux traditionnels des filles (corde à sauter, élastique, etc.) contiennent moins de leçons morales que ceux des garçons. La rivalité y est indirecte car elles jouent souvent à tour de rôle et la réussite de l'une ne signifie pas obligatoirement l'échec des autres. Pour Gilligan (1986, cité dans Zaidman, 1996), les filles apprennent ainsi à être « sensibles » et à respecter les sentiments d'autrui. Alors que les jeux des garçons les poussent à jouer avec leurs ennemis, à rivaliser avec leurs amis, à s'imposer et surtout à rentrer dans une logique de compétition. Les filles sont ainsi plus encouragées à s'inscrire dans un monde fondamentalement social alors que les garçons apprennent au fur et à mesure de leur développement qu'ils peuvent faire confiance en leurs propres capacités. D'autres études (Chaponnière, 2006; Delalande, 2001; Florin, Vernier, & Bernoussi, 1996) ont montré que les activités fortement structurées par les adultes favorisent l'adoption de comportements de demande d'aide et de conformisme, alors que les comportements de leadership ou d'agressivité se produisent davantage dans le cadre d'activités peu structurées par l'adulte. Les filles étant plus enclines à s'inscrire dans des activités structurées par l'adulte, à niveau équivalent, elles ont plus tendance que les garçons à solliciter l'enseignant pour avoir de l'aide ou une approbation (Florin et al., 1996). Le type de communication utilisé entre pairs varie aussi en fonction du sexe de l'enfant. Les garçons, entre eux, s'interrompent plus souvent, se menacent, se donnent des ordres, cherchant ainsi à s'affirmer dans le groupe de pairs. Les filles, elles, se servent davantage du langage comme fonction de lien social, préférant le dialogue et l'interactivité, plutôt que l'imposition de soi (Maccoby, 2003). Une étude réalisée par Ebbeck (1984, cité par Ferrez, 2006) auprès d'enfants âgés de 3-4 ans a mis en évidence que les domaines d'interactions entre les enfants et les adultes mais aussi entre pairs diffèrent en fonction du sexe des enfants. En effet, elle a observé une faible participation des filles dans certaines activités, comme les jeux de construction ou les jeux physiques se déroulant à l'extérieur. En revanche, elles prennent davantage part que les garçons aux jeux de rôles. Certaines études (Lescarret & de Léonardis, 1996; Van de Gaer, Pustjens, Van Damme, & De Munter, 2006) ont aussi montré un sous-investissement des garçons dans la sphère scolaire, notamment au niveau de la lecture, ayant de lourdes répercussions sur les capacités langagières des jeunes garçons. Les filles semblent mieux organisées, plus attentives en classe et plus respectueuses des règles scolaires que les garçons (Van de Gaer et al., 2006). Elles se montreraient de fait plus conformes aux attentes de l'institution scolaire. Ces spécificités naissantes se renforceront par la suite à l'école primaire (Zaidman, 1996), puis au collège et au lycée. Baudelot et Establet (2002) mettent en avant deux modèles distincts de la réussite scolaire étroitement liés à la socialisation de genre et au rapport au savoir : l'un efficace à court terme, l'autre se révélant au cours de la trajectoire scolaire. En effet, les filles semblent mieux préparées pour s'intégrer au monde social de l'école maternelle et primaire qui, dans les premières années, est perçu comme un prolongement de la vie familiale. Par contre, les garçons sont plus aptes à s'imposer dans la compétition scolaire qui s'intensifie avec le niveau d'études. Ils ont en effet déjà souvent eu l'occasion de se confronter aux autres dans des compétitions sportives, ou dans des bagarres, qui exigent et préparent la mise en œuvre d'une certaine forme agressive et conflictuelle de l'estime de soi. Zaidman (1996), puis Baudelot et Establet (2002) évoquent une culture masculine de l' « agon » qui se développe lors de la scolarité des garçons. Ce concept désigne la culture de la lutte dans tous les aspects de la vie, personnels comme professionnels. Cette culture serait moins intériorisée et valorisée par les filles qui, elles, développeraient plutôt un esprit d'entraide et de respect d'autrui. Baudelot et Establet (2002) expliquent à la fois la meilleure réussite des filles et le choix préférentiel d'orientations moins rentables que celles choisies par les garçons, par la permanence de modes de socialisation de genre qui, selon eux, entraînent docilité, soumission et entraide chez les filles, autonomie et esprit de compétition chez les garçons. Le parcours scolaire des filles et des garçons est alors orienté par l'adoption des rôles de sexe qui renouvellent les rapports sociaux de sexe. Dans la lignée de ces travaux, de Boissieu (2009) propose un nouveau concept : « le genre scolaire », qui recouvre « les manières différenciées d' être à l'école, sorte d'habitus scolaire, et la façon dont les élèves les incorporent » (op. cit., p. 27). Selon cette auteure le genre scolaire renvoie ainsi à la construction d'une identité d'élève-fille ou d'élève-garçon, largement influencée par la socialisation de genre et l'élaboration de l'identité sexuée en cours. L'ensemble de ces travaux met à jour, dans ces différents milieux, un processus de socialisation lié au genre qui n'est pas sans effet sur le développement des filles et des garçons. Ces milieux de vie peuvent alors être considérés comme autant de milieux sexués et sexuant (Rouyer, 2007). À travers les interactions sociales, les connaissances relatives au genre et les modèles de rôles de sexe proposés à l'enfant (Leaper & Friedman, 2006; McHale et al., 2003), cette socialisation de genre influence l'enfant dans l'adoption des comportements et attitudes conformes à son sexe d'appartenance, dans le développement d'habiletés sociales, cognitives, langagières spécifiques et de traits de personnalité caractéristiques. Si les données empiriques dont nous disposons à l'heure actuelle sur la socialisation de genre et la construction de l'identité sexuée durant la petite enfance apportent des éléments pertinents pour la problématique des trajectoires scolaires des filles et des garçons, ces données sont souvent descriptives et morcelées. Il reste à mieux examiner les liens entre ces différentes variables et les processus qui les sous-tendent, afin d'évaluer le jeu d'influence réciproque entre la socialisation de genre, la construction de l'identité sexuée et l'élaboration de l'expérience scolaire des jeunes enfants. Si les différences évoquées ci-avant permettent d'inférer quelques dynamiques d'acculturation à l' œuvre dans la socialisation de genre, elles ne disent rien des dynamiques de personnalisation en jeu dans l'expérience scolaire des filles et des garçons. En effet, il reste à adopter une perspective de recherche plus intégrative qui prenne en compte le développement de l'enfant inséré dans une pluralité de milieux de vie. Une telle perspective trouve assurément des points d'appui dans le modèle écosystémique de Bronfenbrenner (2005). Selon ce modèle, l'enfant se situe, dès sa naissance, à l'intersection de différentes sphères d'influences enclavées les unes dans les autres, allant du microsystème qui correspond aux milieux de vie les plus proches de l'enfant (la famille, ou l'école par exemple), jusqu'au macrosystème qui renvoie aux influences sociales, politiques et culturelles. La diversité des autrui que l'enfant côtoie dans ces milieux de vie l'amène de façon inexorable à découvrir peu à peu un éventail plus ou moins large de possibles souvent marqués par des rapports sociaux de sexe hétérogènes. Au sein de la famille, mère et père peuvent avoir des représentations différentes sur le genre. De même, au sein du milieu scolaire, l'enseignant, l'ATSEM et les pairs sont autant d'interlocuteurs qui peuvent présenter à l'enfant des façons plurielles et souvent divergentes d' être fille, garçon, homme ou femme. Ainsi, cette socialisation de genre qui opère à travers le truchement de relations interpersonnelles est-elle à la fois plurielle et conflictuelle. Pour cette raison, elle ne peut avoir un effet linéaire sur le développement de l'enfant et sur l'élaboration de sa subjectivité. Comme l'affirmait Wallon (1954), le sujet, loin d' être modelé par son « milieu », établit des liens entre ses diverses sphères de socialisation, perçoit des discordances dans et entre ces sphères, fait l'expérience de conflits (d'activités, de valeurs, de temporalités, etc.). À l'intersection de ses différents milieux de vie, le jeune enfant est donc très rapidement sollicité comme une instance de choix et de délibérations pour surmonter, avec l'aide d'autrui, ses conflits naissants dans son désir d'autonomie. Cette activité de signification est au cœur du processus de personnalisation (Malrieu, 2003). L'enfant ne se contente pas d'intérioriser des pressions normatives et des attentes de rôles plus ou moins stéréotypées; il les utilise, les critique parfois et les modifie, sinon les déplace, en fonction de son histoire personnelle, des contextes successifs dans lesquels il se développe en interaction avec autrui et des projets et valeurs qu'il veut promouvoir. Sous cette orientation théorique et épistémologique, on peut alors considérer que la socialisation de genre est active parce qu'elle est à la fois plurielle et conflictuelle. De cette problématique de la socialisation du jeune enfant découle un enjeu identitaire essentiel, l'orientation scolaire et professionnelle ultérieure de l'enfant, de l'adolescent puis du jeune adulte (Beaumatin, Baubion-Broye, & Hajjar, 2010; Duru-Bellat & Marin, 2010; Guichard, 2004; Vouillot, 2010). Si le parcours scolaire d'un élève est avant tout « la projection d'une image de soi possible, d'une forme identitaire que l'on souhaite réaliser » (Guichard, 2004), il « fait sens » en fonction des liens que l'individu établit tout au long de son histoire de vie entres ses différentes expériences de socialisation et de son activité d'anticipation et de reconstruction de soi (Cohen-Scali & Guichard, 2008). Ici, les notions d' « expérience scolaire » et de « rapport au savoir » peuvent avoir une valeur heuristique. Précisément parce qu'elles aident à aller au-delà du constat des différences entre les parcours scolaires des filles et des garçons pour mieux appréhender l'émergence des inégalités scolaires à travers le point de vue des élèves. Ainsi, le rapport au savoir se définit comme une relation de sens et de valeur entre un individu et les processus et produits du savoir (Charlot, 1999), qui traduit une forme de rapport au monde liée à l'expérience scolaire de l'enfant (Rochex, 1995; 2004). De ces différents travaux qui se focalisent sur l'expérience scolaire et la problématique du rapport au savoir et à l'école, « il se dégage un paradigme qui, en mettant l'accent sur l'activité des sujets et sur la construction du sens qu'ils confèrent à leur actes, s'inscrit au cœur du processus de personnalisation » (de Léonardis, 2004, p. 91). Il convient donc de s'intéresser plus spécifiquement à l'histoire de la personne et à la question de la signification, de la création du sens (Bruner, 2002; Malrieu, 2003; Meyerson, 1987). Comment le sujet – l'enfant, l'adolescent et plus tard l'adulte – s'approprie ses propres expériences de socialisation afin de se construire en tant qu'individu ? Il s'agit bien là pour le sujet, à travers son désir d'individuation, de se projeter en tant qu'élève dans un parcours scolaire singulier, de construire sa vie à travers un projet de formation. La fonction du récit autobiographique prend donc ici tout son sens. Ainsi, on pourra mieux comprendre pourquoi, alors que la plupart des enfants se conforment aux rôles de sexe véhiculés par la socialisation de genre, certaines filles s'orientent vers des filières et métiers dits « masculins », et pourquoi certains garçons s'orientent vers des filières et métiers dits « féminins ». À cet égard, on peut regretter que les recherches à visée comparative n'aient pas porté davantage d'attention et de crédit aux différences interindividuelles observées, ce qui aurait apporté un éclairage complémentaire sur le versant de la personnalisation. En effet, si la personnalisation « consiste dans le refus de s'installer dans les voies qui lui sont offertes, au travers de conflits dont il a à objectiver les termes et l'enjeu, où il apprend à contrôler ses conduites, à les comparer avec celles des autres, à les orienter vers les fins qu'il aura découvertes avec l'aide de ses milieux » (Malrieu, 2003, p. 27), alors il devient nécessaire d'étudier les conditions de ce refus ou bien de l'acceptation des rôles prescrits et des modèles proposés, conjointement dans l'expérience scolaire des filles et des garçons et dans la construction de leur identité sexuée. Même si la question de l'orientation ne semble pas encore d'actualité à l'école maternelle et le récit autobiographique peu adapté aux jeunes enfants, nous avons voulu souligner par cette contribution la relative urgence d'étudier les dynamiques identitaires durant la prime enfance, du point de vue du jeune enfant (Rouyer, 2007). À notre connaissance, encore trop rares sont les recherches francophones qui s'intéressent au rapport à l'école des enfants scolarisés à l'école maternelle. Pourtant, dès la moyenne section de maternelle, se développe un ensemble de représentations qui manifestent la précocité avec laquelle les jeunes enfants sont capables de penser leur expérience scolaire et d'exprimer leur point de vue à son propos (Florin et al., 1996; Mieyaa, Rouyer, & le Blanc, 2010). Il semble donc nécessaire d'appréhender la question des trajectoires scolaires professionnelles et familiales des hommes et des femmes, autrement qu'en interrogeant les dynamiques de construction identitaire et d'orientation à l' œuvre pendant l'adolescence. Les recherches à venir qui seront menées notamment en psychologie du développement, permettront ainsi d'apporter des éléments nouveaux de réflexion sur les origines des ces différences filles/garçons et ainsi de mieux appréhender la genèse des inégalités sociales de sexe à l'école et la question corollaire des orientations différenciées. L'intérêt principal de cet article tient dans la mise en lumière des liens complexes entre la socialisation de genre, vecteur d'inégalités sociales, et la mise en place d'expériences scolaires différenciées. Ainsi, on ne peut affirmer l'existence d'une socialisation de genre (comme entité uniforme et singulière) qui aurait un effet direct et unidirectionnel sur l'orientation et les parcours scolaires des filles et des garçons. Cette influence plurielle, parfois conflictuelle, est médiée par l'activité du jeune enfant, qui, dès le plus jeune âge s'approprie ces différents stéréotypes au cours de sa construction identitaire, et plus particulièrement de l'élaboration de son identité sexuée (Dafflon-Novelle, 2006; Rouyer et al., 2010). Ainsi, dès 4 ans, par le truchement de représentations différenciées du système éducatif, filles et garçons s'inscrivent, dans un rapport à l'école spécifique, intimement lié au genre de l'enfant, aux rôles de sexe véhiculés par la socialisation de genre et à la construction de l'identité sexuée à l' œuvre durant cette période du développement (Mieyaa et al., 2010). Cette approche permet d'articuler les déterminismes sociaux et psychologiques de la construction des inégalités entre filles et garçons, en prenant en compte la pluralité de leurs milieux de vie et leur point de vue d'acteur dans leur expérience scolaire. Ce faisant, elle est susceptible d'apporter un nouvel éclairage au maintien comme à la nécessaire évolution des inégalités sociales dans les orientations scolaires et professionnelles des filles et des garçons, et plus largement dans leurs trajectoires familiales d'hommes et de femmes. De fait, l'école, sous couvert d'un idéal égalitaire incarné dans la mixité scolaire, n'a semble -t-il pas suffisamment intégré cette question des rapports sociaux de sexe (Durut-Bellat & Marin, 2010; Marry, 2004; Rouyer et al., 2010). Celle -ci continue d'influencer la manière dont chacun(e) va concevoir son métier d'élève, marquer ses intérêts pour certaines disciplines, privilégier certains choix d'orientation au détriment d'autres, se projeter dans l'avenir. .. Les propositions et mesures énoncées par les politiques publiques pour favoriser, essentiellement au collège et au lycée, une réelle égalité dans les parcours scolaires et professionnels des filles et des garçons gagneraient, selon nous, à mieux intégrer les enjeux de développement tels qu'ils se posent avec la scolarisation des plus jeunes enfants dès l'école maternelle. Si la question de la reproduction des rapports sociaux de sexe reste complexe, les rôles de sexe ne sont pas immuables. Les enfants peuvent être en capacité de questionner les différents stéréotypes en vigueur, de les relativiser, voire de les contester. Encore faut-il que, dès le plus jeune âge, les différentes pratiques sociales auxquelles ils sont confrontés leur proposent un cadre de réflexivité permettant de mettre en œuvre ce travail de distanciation à l'égard des normes de genre instituées. Ce devrait être l'ambition de la recherche en sciences humaines et sociales que d'étayer cette proposition . | Notre contribution à ce numéro thématique, sous la forme d'un texte de réflexion, s'attache à rendre compte des mécanismes psychosociaux par lesquels les enfants se différencient progressivement en tant qu'individus sexués et s'inscrivent au fil de leurs expériences scolaires dans des orientations scolaires et professionnelles inégalitaires. En référence aux travaux sur la socialisation active et plurielle et en plaçant la construction de l'identité sexuée au cœur des dynamiques d'orientation, nous montrerons comment, dès l'école maternelle, il est possible d'interroger autrement les effets de cette socialisation de genre sur l'expérience scolaire des filles et des garçons. | psychologie_12-0384861_tei_900.xml |
termith-743-psychologie | La maîtrise de l'informatique et des technologies de l'information et de la communication (TIC) est reconnue aujourd'hui comme une compétence transversale particulièrement valorisée auprès de la population des jeunes universitaires. Posséder et pouvoir faire valoir une maîtrise des outils informatiques et d'internet apparaît primordial tant pour l'insertion professionnelle (Senecal, 2003), la gestion quotidienne des études (Henri, 2001; Selim, 2003) que pour des pratiques plus personnelles de loisirs ou de sociabilité (Paraskeva, Bouta & Papagianni, 2008). Par conséquent, les usages et la maîtrise des TIC au sein de la population étudiante constituent une question importante dans les débats actuels qui animent le monde universitaire (Felouzis, 2003; Jourde, 2007), en particulier ceux autour des liens université-emploi (Hetzel, 2006; Nicole-Drancourt, 2006) et ceux relatifs au « chantier » des TIC pour l'enseignement supérieur (Karsenti & Larose, 2001; Papadoudi, 2000; Perriault, 2002). Dans cette perspective, l'initiative du certificat informatique et internet (C2I) qui a été institué en France en 2002 par l' Éducation nationale vise à renforcer et à valider la maîtrise des TIC par les étudiants en formation dans les établissements d'enseignement supérieur et ce, dès le début du cursus. En contexte universitaire, les usages d'internet par les étudiants ont fait l'objet de plusieurs recherches principalement orientées sur ce qu'il est courant d'appeler le « risque de fracture numérique » (Gal-Ezer & Lupo, 2002; Gefen & Straub, 1997; McIlroy & Bunting, 2001). Ainsi, dans une première étude réalisée en France en 2003 auprès d'une population de 277 étudiants (Faurie, Almudever & Hajjar, 2004), nous avons contribué à ce débat en montrant le rôle important de certains facteurs psychosociaux et organisationnels dans la détermination des pratiques d'internet des étudiants. Nous avons pu observer par exemple l'influence de l'université d'appartenance et constater que celle -ci s'exerce par deux relais : celui des cultures disciplinaires de référence ainsi que celui des infrastructures informatiques mises à la disposition des étudiants. L'influence du sexe, des ressources et du niveau d'étude a également pu être observée (Faurie et al., 2004). Ces facteurs, bien qu'importants, ne sont pas les seuls déterminants des usages d'internet par les étudiants et bien souvent leur influence s'exerce via les croyances que les étudiants ont pu développer quant à leurs capacités à manipuler les technologies. Pourtant, plus rares sont les travaux sur le sentiment de compétence et sur le rapport plus personnel que les étudiants entretiennent vis-à-vis de l'informatique et d'internet. Sont-ils le reflet, comme on se plaît à le décrire, d'une « génération high-tech » largement familiarisée à ces nouveaux outils et entretenant à leur égard de fortes attentes ? Et si tel est le cas, peut-on, dans le même temps, repérer certains groupes d'étudiants qui resteraient plus à l'écart de cette tendance et qui pourraient entretenir une certaine anxiété et un manque de confiance dans la manipulation des outils informatiques et d'internet ? Plus encore, quelle part ces facteurs liés au sentiment d'efficacité personnelle dans l'utilisation de l'informatique et des TIC, liés à l'anxiété informatique ou aux attentes entretenues à l'égard d'internet jouent-ils dans la détermination des usages des étudiants ? Cette question mérite de plus amples investigations et constitue l'un des objectifs de l'étude. Un autre apport de la recherche précédemment réalisée (Faurie et al., 2004) est la mise en évidence d'une grande variabilité dans les utilisations que les étudiants font d'internet et dans leur maîtrise des TIC. À ce titre, six types de pratiques d'internet ont pu être mis en évidence. Celles -ci se distinguent sur différents critères, notamment sur l'orientation de la pratique avec une distinction marquée entre ceux qui utilisent internet pour une sphère spécifique d'activités, en particulier la sphère universitaire, et ceux qui en ont un usage plus général étendu à l'ensemble des sphères d'activités (sphères personnelle, sociale, universitaire et familiale). L'étude présentée dans cet article s'inscrit dans la continuité de la précédente recherche (Faurie et al., 2004). Présentement, notre étude se focalise sur l'influence du sentiment d'efficacité personnelle dans l'utilisation de l'informatique et d'internet et sur l'influence de l'anxiété informatique et des attentes entretenues à l'égard d'internet sur les usages que les étudiants font de ce média. Par ailleurs, partant du résultat précédent qui montre une distinction entre un usage général et des usages plus spécifiques d'internet, notamment une pratique ciblée sur la sphère universitaire, l'étude aborde également la question des liens entre un usage général d'internet et un usage spécifique pour les études. Par « usage spécifique pour les études » il faut entendre une utilisation d'internet comme instrument contribuant à la réalisation du travail universitaire et à l'organisation des études (accès à des cours en ligne, connexion aux plates-formes pédagogiques, navigation dans des bases de données universitaires, recherche documentaire, accès aux informations administratives mises en ligne, etc.) Cette distinction que nous introduisons entre un usage général d'internet et un usage spécifique pour les études tient également à plusieurs observations réalisées en laboratoire d'utilisabilité qui ont révélé les difficultés qu'ont les étudiants à réaliser une tâche de recherche d'informations académiques (liées aux études), alors même qu'ils présentent un niveau d'expertise des TIC élevé (Faurie, van de Leemput & Amiel, 2007; Tricot, 2007). Ces difficultés montrent que la recherche en ligne d'informations liées aux études ne va pas de soi, qu'elle présente des écueils qui justifient qu'on la distingue d'une recherche d'informations plus générales (informations liées aux loisirs, aux centres d'intérêt. ..) On pourra s'interroger sur les liens entre ces deux types d'usage d'internet. En résumé, la problématique soulevée dans cet article est celle des usages et de l'acceptation d'internet par les étudiants. Une revue des principaux modèles théoriques sur l'acceptation des technologies informatiques et d'internet permettra d'inscrire notre recherche dans les travaux du domaine et d'en préciser les objectifs. Une fois le cadre théorique posé, les hypothèses de travail seront formulées puis la méthodologie et les résultats présentés. Ceux -ci seront alors discutés au regard des enjeux théoriques et pratiques qu'ils sont à même de soulever. Sur ce que les spécialistes nomment l'acceptation des technologies, et qui renvoie aux intentions d'utilisation d'un nouveau système technique et aux usages effectifs qui sont faits du système, de nombreux modèles théoriques ont été proposés. Dans le cas des technologies informatiques et d'internet et dans une orientation psychologique, deux modèles sont principalement utilisés : le Technology acceptance model (Davis, 1989) et le modèle du sentiment d'efficacité personnelle face aux technologies (Compeau & Higgins, 1995). Le Technology acceptance model (TAM), proposé par Davis en 1989 et revu en 2000 sous l'intitulé TAM2 (Venkatesh & Davis, 2000), apparaît incontournable tant il est dominant dans les travaux de recherche et les interventions de terrain visant l'intégration des TIC (Lee, Kozar & Larsen, 2003; Legris, Ingham & Collerette, 2003). Ce modèle trouve son ancrage théorique dans la théorie de l'action planifiée élaborée par Ajzen en 1991. Selon cette perspective, le modèle TAM postule que les croyances d'un individu quant à l'utilité et la facilité d'utilisation d'une nouvelle technologie influencent la décision d'utiliser ou non cette nouvelle technologie. Dans l'opérationnalisation du modèle (Davis, 1989), la facilité d'utilisation perçue est appréhendée par des critères tels que la qualité de l'interface, la simplicité, la maniabilité du système technique; l'utilité perçue renvoie quant à elle à des indicateurs tels que le gain de performance, de temps, de productivité et d'efficacité que l'usage de la technologie est susceptible d'entraîner. Autrement dit, pour que les étudiants utilisent un site internet à visée académique, une plate-forme pédagogique en ligne, ou une base de données dédiée à l'orientation ou aux études, une condition essentielle est qu'ils estiment l'application informatique utile et facile à utiliser. Très fréquemment évoqué, le TAM a récemment été appliqué à l'adoption des technologies internet pour l'éducation en milieu universitaire (Ngai, Poon & Chan, 2007; Selim, 2003; Van Raaij & Schepers, 2008). Ainsi, le modèle TAM établit comme primordiales les qualités techniques et l'utilité instrumentale de la technologie pour prédire si celle -ci sera utilisée ou non. Ces facteurs ont une importance majeure (Ma & Liu, 2004) mais ne peuvent déterminer à eux seuls l'engagement des personnes dans l'innovation technique. En effet, nombreux sont les exemples de systèmes techniques reconnus performants et efficaces qui restent non utilisés ou sous-utilisés, ou l'exemple inverse de technologies « gadgets », superflues ou inadaptées, qui suscitent pourtant un fort engouement auprès de certains groupes sociaux. Ainsi, une limite du modèle TAM est sa tendance à réduire les systèmes techniques à leur fonction purement instrumentale et l'individu à un strict utilisateur qui s'engagerait dans l'innovation technologique dès lors que celle -ci serait performante techniquement et source d'une plus grande efficacité pour la réalisation de certaines activités. Une autre limite du TAM, relevée par plusieurs auteurs (Ma & Liu, 2005; Taylor & Todd, 1995), est que si ce modèle constitue un très bon prédicteur des intentions d'utilisation d'une nouvelle technologie, il s'avère beaucoup moins informatif pour comprendre les usages effectifs qui en sont faits. Or, c'est bien la dimension des usages d'internet par les étudiants, usages en général et dans le cadre des études, qui nous intéresse dans cette recherche, plus que leur intention d'utilisation. Le modèle du sentiment d'efficacité personnelle face aux technologies, développé par Compeau et Higgins (1995), pourrait s'avérer plus pertinent pour investiguer les usages. Il permet de dépasser certaines des limites du TAM en prenant en compte les perceptions de soi et les attentes des individus dans l'utilisation de nouvelles technologies. Ce modèle, dans lequel s'inscrit notre recherche, s'appuie sur la théorie sociale cognitive de Bandura (1977, 1982, 1986 et 2003) qui postule que le comportement d'un individu est lié, d'une part, aux perceptions du sujet quant à ses capacités personnelles à réaliser le comportement et d'autre part, aux conséquences attendues du comportement envisagé. Compeau et Higgins (1995) ont appliqué ces présupposés théoriques au domaine des technologies. Le modèle qu'ils proposent (voir figure 1) s'articule autour du concept de sentiment d'efficacité personnelle dans l'utilisation de l'informatique (que nous nommerons SEP dans la suite de l'article). Ce concept peut se définir comme la perception qu'un individu entretient quant à sa capacité à utiliser un ordinateur (Compeau & Higgins 1995; Compeau, Higgins & Huff, 1999). Outre les usages, le SEP influencerait également le niveau d'anxiété. Un SEP élevé dans l'utilisation de l'informatique entraînerait une plus grande intensité d'usage ainsi qu'une moindre anxiété face aux ordinateurs, moindre anxiété qui encouragerait elle aussi l'engagement du sujet dans l'usage du système informatique (voir figure 1). Toujours selon la théorie sociale cognitive, les attentes d'un individu vis-à-vis d'un comportement dépendraient des perceptions qu'il a quant à ses capacités à réaliser avec succès ce comportement. Repris dans le modèle de Compeau et Higgins (1995), ceci signifie que si un individu ne se sent pas capable d'utiliser avec succès une nouvelle technologie, il ne devrait pas développer d'attentes positives relatives à son utilisation. Compeau et Higgins (1995) parlent d' « attentes de performance » et d' « attentes personnelles ». Au regard des indicateurs que ces chercheurs utilisent pour les mesurer, les attentes de performance renvoient à ce que Davis nomme « l'utilité perçue du système ». Les attentes personnelles font référence aux croyances de l'individu quant aux conséquences que l'usage de la technologie est susceptible d'entraîner sur sa sociabilité (diminution ou renforcement du soutien social) et sur sa satisfaction personnelle (plus grand sentiment d'accomplissement). Un des apports de notre recherche est de circonscrire ce concept d'attentes personnelles afin de mieux identifier les deux dimensions sous-jacentes que nous pressentons : une première dimension relèverait d'attentes que l'on peut qualifier de psychosociales et qui traduisent les attentes de l'individu quant aux potentialités qu'offre la technologie pour élargir ou renforcer son réseau de sociabilité. Une deuxième dimension concernerait les attentes de développement de soi associées à l'usage de la technologie (développement d'un plus grand sentiment de satisfaction et d'accomplissement associé à l'usage du nouveau système technique). Dans cette recherche, nous nous sommes centrées sur la dimension des attentes psychosociales tant cette dimension paraît importante dans le cadre des TIC et pour la population estudiantine. Les résultats de recherche actuellement disponibles sur le rôle du SEP dans l'utilisation de l'informatique tendent à confirmer le modèle de Compeau et Higgins (1995). L'influence déterminante des représentations de soi sur les intentions d'utilisation et sur l'usage effectif de l'outil informatique a pu être vérifiée (Agarwal & Karahanna, 2000; Compeau et al., 1999; Hong, Thong, Wong & Tam, 2002; Padilla-Melendez, Garrido-Moreno & Del Aguila-Obra, sous presse). De même, il a pu être observé que le SEP influence les perceptions de l'outil : un faible SEP dans l'utilisation de l'informatique conduit à une perception des ordinateurs comme étant peu conviviaux et peu utiles (Chau, 2001; Ma & Liu, 2005). Encore plus marquant est le résultat qui montre qu'une faible confiance dans ses compétences informatiques entrave l'apprentissage dans ce domaine (Piccoli, Ahmad & Ives, 2001). La prise en compte du SEP dans l'usage de l'informatique semble donc être un facteur essentiel lorsque l'on s'intéresse aux compétences des étudiants en informatique et à leur formation dans ce domaine. Pour terminer cette revue de la littérature, un dernier élément concerne la distinction récemment introduite entre le SEP dans l'utilisation de l'informatique et le SEP dans le domaine spécifique de l'utilisation des TIC. Bandura (1986) envisage le sentiment d'efficacité comme une perception de soi qui peut varier d'une activité à une autre et en fonction des circonstances de l'environnement. Il ne s'agit pas d'une disposition générale, invariable, comme peuvent l' être les traits de personnalité. Cette conception du sentiment d'efficacité présente des conséquences méthodologiques importantes. En effet, plutôt que l'application d'une échelle standard cherchant à estimer le sentiment d'efficacité général, Bandura (2003) plébiscite la construction d'échelles spécifiques du sentiment d'efficacité adaptées aux activités considérées. Si Compeau et Higgins (1995) ont construit une échelle de mesure du sentiment d'efficacité spécifique à l'usage de l'informatique, avec le développement des TIC, et d'internet en particulier, plusieurs auteurs (Dinev & Koufteros, 2002; Eastin & LaRose, 2000; Ma & Liu, 2005; Torkzadeh & Van Dyke, 2002) perçoivent la nécessité d'élaborer une échelle spécifique du sentiment d'efficacité personnelle pour l'usage des TIC et d'internet. Ma et Liu (2005) parlent de sentiment d'efficacité dans l'utilisation d'internet et le définissent comme la perception d'un individu quant à sa capacité à accomplir différentes tâches sur internet. Ainsi, un autre objectif de cette recherche sera d'évaluer la pertinence de ce concept de sentiment d'efficacité personnelle dans l'utilisation des TIC (que nous nommerons SEP_TIC dans la suite de l'article). Nous pourrons par exemple observer s'il exerce une influence identique ou distincte de celle du sentiment d'efficacité personnelle dans l'utilisation de l'informatique (SEP). Nous soumettrons également une opérationnalisation de ce concept qui s'inspire des échelles disponibles (Dinev & Koufteros, 2002; Eastin & LaRose, 2000; Ma & Liu, 2005; Torkzadeh & Van Dyke, 2002) et qui offre en plus la possibilité de distinguer le sentiment d'efficacité personnelle dans une utilisation experte versus novice d'internet. Dans ce contexte théorique, la recherche vise un triple objectif : d'une part, une évaluation des effets du sentiment d'efficacité personnelle dans l'utilisation de l'informatique et des TIC, de l'anxiété informatique et des attentes entretenues à l'égard d'internet (attentes de performance et psychosociales) sur les usages d'internet par les étudiants; d'autre part, une analyse des liens entre un usage général d'internet et un usage spécifique pour les études; enfin, une évaluation de la pertinence du concept de sentiment d'efficacité personnelle dans l'utilisation des TIC et de son rôle dans la détermination des utilisations que les étudiants font d'internet. Les objectifs ayant été précisés et le cadre théorique posé, il convient à présent de formuler les hypothèses de la recherche. Conformément aux présupposés théoriques exposés, le modèle (voir figure 2) met en relation les facteurs socio-cognitifs (sentiment d'efficacité dans l'utilisation de l'informatique – SEP – et sentiment d'efficacité personnelle dans l'utilisation des TIC – SEP_TIC –, attentes à l'égard d'internet, distinguant attentes de performance et attentes psychosociales), le facteur affectif (anxiété informatique) et les usages d'internet (en général et pour les études). À partir des travaux de Compeau et Higgins (1995) et des prolongements apportés à leur modèle, notamment la prise en compte du sentiment d'efficacité personnelle dans l'utilisation des TIC, les hypothèses suivantes ont été posées : 1. En premier lieu, on s'attend à ce que le SEP et le SEP_TIC soient significativement inter-corrélés de façon positive (H1); 2. Ensuite, on s'attend à ce que le SEP et le SEP_TIC influencent le niveau d'anxiété informatique (H2, H3). Sachant que le sentiment d'efficacité influence les réponses émotionnelles, un individu qui présente une confiance élevée dans ses capacités d'utilisation de l'informatique et des TIC aura moins de risques de développer un niveau d'anxiété important. De plus, une relation significative est attendue entre le SEP, le SEP_TIC, l'anxiété et les usages d'internet. Cette relation est positive pour le SEP et le SEP_TIC (H4, H5), elle est en revanche négative pour l'anxiété (H6); 3. Par ailleurs, il est attendu que le SEP_TIC influence les attentes de performance (H7) et les attentes psychosociales (H8) associées à l'utilisation d'internet. On peut supposer qu'un individu qui se sent capable d'utiliser internet développera de plus fortes attentes vis-à-vis de ce système. Une relation positive et significative est également escomptée entre les attentes (de performance, psychosociales) entretenues à l'égard d'internet et les usages qui en sont faits (H9, H10); 4. Enfin, on s'attend à ce que l'usage en général d'internet influence positivement l'usage dans le cadre spécifique des études (H11). L'enquête, par questionnaire, a été réalisée auprès d'un échantillon de 500 étudiants inscrits en 2e année à l'université libre de Bruxelles (ULB). L'échantillon constitué est représentatif de la répartition par discipline universitaire : 21,4 % des étudiants sont inscrits en faculté de philosophie et lettres (n = 107); 26,8 % sont en faculté d'économie et gestion (n = 134); 27 % en faculté de sciences (n = 135); 16,2 % relèvent de la faculté de droit (n = 81) et 8,6 % de la faculté de psychologie (n = 43). Le questionnaire qui est composé des instruments de mesure présentés ci-dessous, sous forme papier-crayon, a été distribué lors de cours magistraux par le même enquêteur. La durée de passation est en moyenne d'une dizaine de minutes. Au total, on compte 57,2 % de filles (n = 286) et 42,8 % de garçons (n = 214). La moyenne d' âge est de 20 ans (ET = 1,9). Par ailleurs, 74 % des étudiants interrogés (n = 370) ont un ordinateur personnel et 93,4 % (n = 466) disposent d'un accès internet à domicile. Enfin, précisons que 38,6 % des étudiants (n = 193) déclarent avoir bénéficié d'au moins une journée de formation en informatique et aux TIC. Parmi ces étudiants, on retrouve ceux de la faculté des sciences qui bénéficient de tels enseignements dans leur programme de cours. On peut donc retenir qu'une majorité d'étudiants de l'échantillon (59,4 %, n = 297) n'a bénéficié d'aucune formation en informatique et aux TIC. Sentiment d'efficacité personnelle dans l'utilisation de l'informatique (SEP). Le sentiment d'efficacité personnelle dans l'utilisation de l'informatique a été mesuré à partir de l'échelle développée par Compeau et Higgins (1995) et traduite en français par Pelletier (2005). Cette échelle (voir annexe A), maintes fois validée, se compose de 10 items et amène le sujet à indiquer si « oui » ou « non » il pense pouvoir terminer un travail en se servant d'une nouvelle application informatique, d'un nouveau logiciel par exemple. Dans l'affirmative, le sujet est ensuite invité à préciser – sur une échelle de Likert en 10 points où 1 correspond à une « faible confiance », 5 à une « confiance modérée » et 10 à une « pleine confiance » – son degré de confiance dans sa capacité à accomplir la tâche en utilisant la nouvelle application informatique. Sentiment d'efficacité personnelle dans l'utilisation des TIC (SEP_TIC). Comme indiqué précédemment, selon la théorie sociale cognitive, le sentiment d'efficacité s'exprime « non comme une caractéristique globale, mais comme un ensemble différencié de croyances sur soi liées à des domaines distincts de fonctionnement » (Bandura & Locke, 2003, p. 62). En ce sens, il apparaît pertinent d'évaluer le SEP dans l'utilisation spécifique des TIC. À partir des échelles disponibles (Dinev & Koufteros, 2002; Eastin & LaRose, 2000; Ma & Liu, 2005; Torkzadeh & Van Dyke, 2002), nous avons élaboré un instrument à même d'appréhender le SEP dans l'utilisation des TIC. Il se compose de dix-huit items, pour chacun desquels le sujet indique – sur une échelle de Likert allant de 1 « pas du tout d'accord » à 5 « tout à fait d'accord » – son degré de confiance dans ses capacités à mettre en œuvre différentes compétences impliquées dans l'utilisation d'internet. Une analyse factorielle exploratoire a mis en évidence la structure multidimensionnelle de l'échelle construite. Deux facteurs ont pu être identifiés (1) : 1. Un premier facteur (dix items) renvoie au sentiment d'auto-efficacité dans une utilisation que l'on peut qualifier d' « experte » d'internet, avec des items comme « je me sens sûr(e) de moi pour télécharger sur internet les données (logiciels, vidéo, dossiers) dont j'ai besoin »; « je me sens sûr(e) de moi pour créer une page personnelle (ou un blog) pour le world wide web ». 2. Un deuxième facteur (huit items) renvoie au sentiment d'auto-efficacité dans une utilisation que l'on peut qualifier d' « élémentaire » d'internet, avec des items comme « je me sens sûr(e) de moi pour utiliser des moteurs de recherche comme Yahoo, Google et Altavista ». Pour la suite des analyses, nous avons choisi de nous centrer sur le premier facteur relatif au sentiment d'efficacité personnelle dans une utilisation experte des TIC (voir annexe A) car ce facteur est celui qui présente la plus forte variabilité entre étudiants. Anxiété informatique. Pour appréhender le niveau d'anxiété informatique, nous avons appliqué quatre items de la Computer rating scale (voir annexe A), échelle élaborée par Heinssen, Glass et Knight (1987) et traduite en français par Senecal (2003). Précisons que cet instrument a fait l'objet de multiples validations (Senecal, 2003) et que pour chacun des items le sujet se situe sur une échelle de Likert allant de 1 « fortement en désaccord » à 5 « fortement en accord ». Attentes (de performance versus psychosociales) relatives à l'utilisation d'internet. Les attentes associées à l'utilisation d'internet ont été mesurées à partir de onze items développés par Faurie et al. (2004). Cinq items permettent d'appréhender les attentes relatives à l'amélioration des performances (attentes de performance, voir annexe A). Dans ce cas, c'est la fonction instrumentale d'internet qui est valorisée. Internet est alors principalement investi comme un outil permettant de gagner du temps, d' être plus efficace dans ses activités. Les six autres items renvoient à des attentes que l'on peut qualifier d'attentes psychosociales, internet étant perçu comme un moyen permettant d'élargir et/ou de renforcer le réseau de sociabilité de l'utilisateur (voir annexe A). Pour chacun des items, l'utilisateur se positionne sur une échelle de Likert allant de 1 « pas du tout d'accord » à 6 « tout à fait d'accord ». Usage d'internet. L'usage d'une technologie est un concept multidimensionnel. Dans ce travail, nous nous sommes centrées sur un indicateur précis : l'intensité d'utilisation hebdomadaire de l'outil. Pour ce faire, la question « au cours des quatre dernières semaines, en moyenne, combien de temps par semaine, avez -vous utilisé internet ? » nous a permis d'obtenir une estimation par l'étudiant du temps hebdomadaire qu'il consacre à l'usage d'internet en général. Usage d'internet dans le cadre des études. Au regard des objectifs de la recherche et de la population étudiée, nous nous sommes intéressées à l'intensité d'utilisation hebdomadaire d'internet pour des objectifs spécifiquement liés aux études. Pour ce faire, la question « au cours des quatre dernières semaines, en moyenne, combien de temps par semaine, avez -vous utilisé internet pour vos études (accès à des cours en ligne, connexion aux plates-formes pédagogiques, navigation dans des sites web et des bases de données électroniques pour la réalisation de votre travail universitaire et pour l'organisation de vos études) ? » nous a permis d'obtenir une estimation par l'étudiant du temps hebdomadaire qu'il consacre à l'usage d'internet pour ses études. Dans un premier temps, nous avons vérifié la cohérence interne des échelles de mesure via le coefficient alpha de Cronbach. Comme indiqué dans le tableau 1, on obtient, pour chacune de nos variables, un coefficient alpha de fidélité tout à fait satisfaisant. Dans un second temps, nous avons réalisé une analyse factorielle avec rotation varimax sur l'ensemble des items des différentes variables indépendantes. Les résultats de cette analyse factorielle (voir tableau 2) montrent que, conformément à nos attentes, tous les items sont correctement corrélés aux variables latentes et que les dimensions mesurées sont indépendantes. Note. Seules les corrélations supérieures à .450 sont présentées. Les étudiants estiment en moyenne à 11 heures par semaine leur utilisation d'internet (M = 11,16; ET = 14,33, voir tableau 1). Par ailleurs, ils déclarent utiliser internet pour leurs études en moyenne 3 h 40 par semaine (M = 3,66; ET = 5,26, voir tableau 1), ce qui correspond à peu près au tiers du temps global passé sur internet. Sur ces deux variables, on notera cependant l'importance de l'écart type. Les résultats des analyses descriptives (voir tableau 1) permettent également d'observer que les étudiants présentent un sentiment d'efficacité personnelle modéré dans l'utilisation de l'informatique (M = 6,15; ET = 1,75) et dans une utilisation experte d'internet (M = 2,91; ET = 0,91). En revanche, ils n'expriment pas un niveau élevé d'anxiété informatique (M = 1,88; ET = 0,83). Enfin, on constate que les étudiants ont de plus fortes attentes de performance vis-à-vis d'internet (M = 4,68; ET = 0,92) que d'attentes psychosociales (M = 3,03; ET = 1,11). Afin de mettre à l'épreuve les hypothèses précédemment énoncées, nous avons opté pour une analyse par équations structurales (EQS : Bentler, 1995) pour sa capacité à traiter les modèles multivariés où certaines variables peuvent agir à la fois comme variables dépendantes et indépendantes (Roussel, Durieu, Campoy & El Akremi, 2002). Les estimations ont été réalisées à l'aide de la méthode du maximum de vraisemblance (maximum likelihood), soit la procédure la plus utilisée pour ce type d'analyse (Roussel et al., 2002). L'analyse des indices d'ajustement du modèle aux données (voir figure 3) indique que le modèle testé est très satisfaisant. Conformément aux critères usuels (Joreskog & Sorborm, 1993), le Chi-carré (N = 500) est non significatif (p > .05), le Normed fit index (NFI = 0,97), le Comparative fit index (CFI = 0,99), et le Goodness fit index (GFI = 0,99) sont supérieurs à 0,95. Par ailleurs, l'indice RMSEA se situe en deçà du seuil acceptable de 0,05 (RMSEA = 0,04). L'examen du niveau de signification des coefficients bêta (voir figure 3) permet de valider l'ensemble des hypothèses posées. Ainsi, en accord avec H1, le SEP et le SEP_TIC sont inter-corrélés de manière significative (2) ( = .46*). Comme attendue, une relation linéaire négative entre ces deux facteurs et l'anxiété a pu être observée ( = .27*, H2; = .26*, H3). Par ailleurs, on constate que le SEP_TIC contribue à déterminer les attentes de performance relatives à l'utilisation d'internet ( = .08*, H7). Il contribue également, et de façon plus significative encore, à déterminer les attentes psychosociales que l'étudiant peut entretenir à l'égard de l'utilisation d'internet ( = .15*, H8) et qui renvoient à une représentation d'internet comme un outil susceptible d'élargir et/ou de renforcer son réseau de sociabilité. Concernant les déterminants de l'usage d'internet en général, conformément aux hypothèses H4, H5, H6, H9 et H10, l'intensité d'usage d'internet est influencée par le SEP_TIC ( = .40*), les attentes psychosociales ( = .17*) et, dans une moindre mesure, par le SEP ( = .04*), les attentes de performance ( = .03*) et l'anxiété ( = .01*). Ainsi, les hypothèses H4, H6 et H9 (respectivement influence du SEP, de l'anxiété informatique et des attentes de performance sur l'intensité d'usage) ne sont que partiellement vérifiées. À partir de ces résultats, on peut souligner dès à présent que la relation entre les attentes de performance et l'usage d'internet est négative, ce qui signifie que l'anticipation de conséquences purement instrumentales ne conduit pas automatiquement à une plus grande intensité d'usage, mais qu'au contraire, de telles attentes tendraient plutôt à un usage plus limité de l'outil. Enfin, en accord avec H11, l'usage d'internet à des fins académiques est largement déterminé par l'intensité d'usage global du média ( = .59*). Les résultats montrent que les étudiants utilisent fréquemment internet pour la réalisation de leur travail universitaire. Comme nous l'avons indiqué dans les analyses descriptives, environ un tiers du temps hebdomadaire passé sur internet est lié à la réalisation du travail universitaire. Cette observation corrobore d'autres résultats (Gal-Ezer & Lupo, 2002; Karsenti & Larose, 2001; Selim, 2003) et témoigne bien d'une intégration de l'outil internet aux conduites de formation et d'apprentissage des étudiants. L'usage d'internet n'est donc pas circonscrit aux sphères personnelles et sociales ou à une utilisation exclusivement ludique, il constitue également une ressource pour l'accomplissement d'objectifs universitaires. À ce niveau, nos résultats informent sur les liens existant entre un usage général et un usage spécifique pour la réalisation du travail universitaire. Ils indiquent en effet que l'intensité d'utilisation d'internet en général est un déterminant majeur de l'intensité de son utilisation pour les études. Ainsi, un usage intensif, quels qu'en soient les objectifs, semble entraîner un « butinage » de site en site et permettre une exploration plus approfondie des possibilités offertes par le système technique. Cette navigation plus intense pourrait conduire à une intégration d'internet à un plus grand nombre d'activités relevant des différentes sphères de vie dont la sphère universitaire. On peut supposer que plus l'étudiant navigue sur internet, plus il devient compétent dans la recherche d'informations et plus il est facile pour lui d'aller rechercher des informations complexes, parmi lesquelles celles relatives aux études. C'est poser finalement l'hypothèse d'un transfert de compétences entre des tâches génériques de recherche d'informations et des tâches de recherche d'informations plus spécifiques à un domaine, donc plus expertes lorsqu'il s'agit du domaine des études. En termes de formations et de politiques d'introduction des TIC en milieu universitaire, ce résultat revêt deux implications : 1. Il conduit à favoriser les usages d'internet par les étudiants. Ceci passe par une mise à disposition sur le campus universitaire de salles informatiques disposant d'accès internet et d'une aide à l'équipement multimédia des étudiants. 2. Il amène à penser qu'une formation générale, comme le certificat informatique et internet (C2I), peut porter ses fruits dans des domaines d'application variés. Autrement dit, une formation de niveau général pourra s'avérer féconde pour des objectifs divers. Elle pourra permettre le développement de compétences nécessaires à l'utilisation des TIC pour l'enseignement et permettre également la construction de savoirs et de savoir-faire utiles en organisation et tout au long de la carrière professionnelle. Le constat qui vient d' être établi d'une utilisation d'internet comme véritable outil pédagogique ne s'observe cependant pas avec la même fréquence chez tous les étudiants (voir les écarts types importants entre étudiants dans l'intensité d'utilisation d'internet pour les études). La question est alors de savoir quels sont les facteurs qui encouragent les étudiants à utiliser internet et à l'intégrer à leurs pratiques de recherche d'informations et d'apprentissage. Sur ce point, notre recherche met en évidence le rôle marqué du sentiment d'efficacité personnelle dans l'utilisation des TIC. Un sentiment d'efficacité faible dans la maîtrise des TIC limite l'utilisation d'internet des étudiants, laquelle est déterminante – nous l'avons montré –, dans l'utilisation spécifiquement liée aux études. Et contrairement à l'image communément partagée d'étudiants fortement familiarisés aux TIC, les étudiants interrogés ne se révèlent que modérément confiants dans leurs capacités informatiques. De telles observations, qui corroborent d'autres résultats (Chau, 2001; Ma & Liu, 2005; Torkzadeh, Chang & Demirhan, 2006) amènent à concevoir des formations axées sur un double objectif : une amélioration des compétences techniques des étudiants et conjointement, un renforcement de leur sentiment d'efficacité personnelle dans la maîtrise de l'informatique et des TIC. Pour y parvenir, Bandura (2003) préconise l'élaboration de programmes de formation centrés sur un entraînement guidé qui repose sur l'accomplissement de buts personnels et sur le rôle positif du feedback correcteur comme moyens efficaces d'accroître le sentiment d'efficacité personnelle. Nos observations mettent également en relief le rôle des attentes que les étudiants entretiennent à l'égard d'internet pour expliquer leur engagement dans l'innovation. Plus que les attentes de performance (purement instrumentales), ce sont les attentes psychosociales relatives à la capacité d'internet pour entretenir et développer son réseau de sociabilité qui sont déterminantes d'un usage intensif. Et on peut souligner la relation positive élevée entre le sentiment d'efficacité personnelle dans l'utilisation des TIC et les attentes psychosociales alors que seule une relation positive modérée existe avec les attentes de performance. Autrement dit, le sentiment d'efficacité personnelle dans l'utilisation des TIC influence les usages d'internet des étudiants, à la fois directement et via l'intermédiaire des attentes que les étudiants formulent quant aux conséquences que l'utilisation de ce nouveau média est susceptible d'entraîner sur leur sociabilité et leurs performances. Nos résultats amènent à penser en effet qu'un sentiment d'efficacité faible pourrait conduire à un manque d'attentes positives et entraîner un désintérêt voire des comportements d'évitement de tâches nécessitant l'utilisation des TIC. Enfin, à un niveau plus théorique, cette recherche aura permis de montrer l'intérêt d'étudier le sentiment d'efficacité personnelle dans l'utilisation des TIC et de le distinguer du sentiment d'efficacité informatique. Conformément aux préconisations de Bandura (2003), la distinction entre le SEP informatique et le SEP relatif à l'usage des TIC est intéressante, montrant la spécificité de chaque domaine d'application, même s'il existe une corrélation élevée entre eux. Les différences se marquent principalement en ce qui concerne l'usage d'internet : la corrélation est nettement plus élevée pour le SEP_TIC que pour le SEP. Par ailleurs, ce travail apporte une contribution à l'opérationnalisation du sentiment d'efficacité personnelle dans l'utilisation des TIC. Il faut rappeler que les résultats quant à l'échelle utilisée pour mesurer le SEP_TIC ont mis en évidence deux facteurs correspondant à des niveaux de sentiment d'auto-efficacité différenciés selon la complexité des tâches à accomplir (téléchargement et personnalisation versus consultation et recherche simple). Ces deux facteurs que nous avons qualifiés d'utilisations experte et élémentaire, montrent que les exigences relatives à l'usage d'internet peuvent être très variables. La recherche aura également permis de préciser le concept d'attentes relatives aux conséquences que l'utilisation du système technique est susceptible d'entraîner sur les activités du sujet. Nous avons proposé de distinguer au moins trois types d'attentes : les attentes de performance qui renvoient aux gains de temps et d'efficacité associés à l'utilisation du système technique; les attentes psychosociales et les attentes de développement de soi qui font respectivement référence aux possibilités offertes par l'outil pour renforcer son réseau de sociabilité et sa satisfaction personnelle. La recherche doit se poursuivre afin d'affiner les définitions et les instruments de mesure de ces construits. Dans notre étude, de même que dans le modèle de Compeau & Higgins (1995), seules les attentes positives relatives au système technique sont prises en compte. On peut alors se demander ce qu'il en est des attentes négatives. Ne sont-elles pas elles aussi déterminantes de l'engagement ou non des étudiants dans l'usage d'internet pour la réalisation du travail universitaire ? Les étudiants qui perçoivent l'utilisation d'internet comme une perte de temps ou un risque pour leur sociabilité et leur bien-être personnel n'auront-ils pas des réticences à intégrer ce nouvel outil à leurs pratiques d'apprentissage et à en tirer bénéfice pour l'atteinte de leurs objectifs universitaires ? De nouvelles recherches mériteraient d' être engagées sur ce point. En conclusion, la théorie du sentiment d'efficacité personnelle dans l'utilisation de l'informatique et des TIC (Compeau & Higgins, 1995; Compeau et al., 1999) montre qu'il ne suffit pas de se convaincre des bénéfices d'un nouveau système technique, qu'il ne suffit pas de faire émerger chez les utilisateurs potentiels des perceptions positives quant à l'utilisabilité du système pour qu'ils se décident à y avoir recours. Entrent en jeu les perceptions de soi, le rapport personnel que l'individu entretient avec la technique. On comprendra donc l'importance de la formation aux TIC et des aspects d'encouragement qu'elle devra susciter afin d'amener tous les étudiants à développer une plus grande confiance dans leurs capacités à utiliser efficacement ces nouvelles technologies . | Face au développement des supports informatiques et au recours aux technologies de l'information et de la communication (TIC) dans l'enseignement supérieur et l'insertion socioprofessionnelle, cet article se focalise sur une compétence transversale majeure : la maîtrise de l'informatique et d'intemet. L'étude évalue les déterminants principaux des usages d'internet par les étudiants, en distinguant les usages en général et les usages spécifiques aux études. Les résultats montrent que ces usages sont fortement liés au rapport subjectif que les étudiants entretiennent vis-à-vis de ces technologies, aux attentes qu'ils en ont et à leur sentiment d'efficacité personnelle dans la maîtrise de ces outils. | psychologie_08-0289233_tei_985.xml |
termith-744-psychologie | Aider les personnes à transformer un but vocationnel (ou de formation), comme trouver une profession (ou une orientation d'études), en un ensemble d'actions permettant d'atteindre ce but devrait être une préoccupation fondamentale pour les professionnels de l'accompagnement des conduites d'orientation. En effet, la structure des théories motivationnelles classiques convoquées dans les travaux relatifs aux processus à activer en orientation scolaire et professionnelle ne permet pas de prendre en compte la discontinuité fréquemment observée entre l'élaboration d'un but vocationnel pris au sens large (par exemple, se mettre en situation de disposer d'informations sur le métier d'avocat ou modifier son premier choix à la suite d'un refus d'admission en faculté de médecine) et les actions correspondantes à mettre en œuvre (prendre rendez -vous avec un professionnel du barreau, faire un inventaire des carrières possibles dans le domaine de la santé). C'est que la fixation d'un but (ou d'une intention) de carrière, processus dont la source énergétique relève de la motivation, n'entraîne pas automatiquement le déploiement d'actions adéquates dont le ressort fonctionnel est de nature volitionnelle. Sur la route de la réalisation d'un but, divers obstacles, de nature interne ou externe, peuvent se dresser, qui appellent pour être surmontés l'émission de conduites spécifiques facilitant le passage à l'action. Cet article s'organise comme suit. Nous discuterons d'abord la manière dont la psychologie de l'orientation aborde la problématique de la motivation, en particulier en termes d'écart entre but et action. Ce développement nous renverra à la question du poids de certains facteurs dans l'atteinte ou la non-atteinte des buts en général et au constat de l'insuffisance du construit de motivation dans l'explication de la mise en œuvre des comportements dirigés vers un but. Nous introduirons ensuite le concept de volition. À cet effet, un panorama des recherches qu'il a inspirées dans de nombreux champs sera dressé. Nous présenterons le Modèle des phases de l'action (Heckhausen & Gollwitzer, 1987) et expliciterons en quoi consistent l'orientation cognitive d'exécution et l'outil cognitif des intentions d'exécution. Seront enfin rapportées les quelques rares applications de cet outil cognitif au domaine de l'orientation. L'article se conclura par la perspective qu'offre le construit de volition aux praticiens du conseil en orientation. Avec l'installation progressive de cadres idéologiques dominants qui soutiennent l'injonction à la responsabilisation dans la construction d'un projet personnel (cf. Guichard & Huteau, 2006) et propagent un discours, d'autant plus lucide à vrai dire que s'approfondit la crise de notre système socio-économique, sur l'incapacité à anticiper l'avenir, divers concepts dynamiques se voient ramenés sur l'avant-scène de la psychologie de la formation et de l'orientation. Ainsi en va -t-il, à un haut degré d'abstraction, de la motivation. Classiquement définie comme « construit hypothétique utilisé afin de décrire les forces internes et/ou externes produisant le déclenchement, la direction, l'intensité et la persistance du comportement » (Vallerand & Thill, 1993, p. 18), la motivation aide à comprendre, par la nature des forces qu'elle identifie et les processus qu'elle démonte, les mécanismes à l' œuvre dans la sélection d'une réponse par rapport à une autre ou dans le degré d'énergétisation ou de fréquence de la réponse émise, chacune de ces réponses pouvant se manifester cognitivement, affectivement et comportementalement (Bargh, Gollwitzer & Oettingen, 2010). Or, préoccupé de cerner d'un mot la problématique de l'orientation des conduites et de leur contrôle, Reuchlin (1999) renonce à l'emploi du terme « motivation », parce que celui -ci évoque souvent la notion de besoin « alors qu'en l'absence de besoin continuent à se manifester des choix individuels relativement stables et cohérents dans l'orientation des conduites » (pp. 243-244). Reuchlin propose que le terme « conation », s'appliquant à la manifestation active d'une tendance, soit utilisé « pour désigner l'orientation des conduites, c'est-à-dire des activités finalisées et organisées. Le terme dénote aussi un effort exigé par cette manifestation [… ]. La mise en œuvre de façon suffisamment durable et cohérente, sur un matériel et dans une direction déterminés, de la machine cognitive suppose bien qu'une certaine difficulté adaptative existe dans la situation considérée et que le sujet agisse pour la vaincre » (loc. cit.). La conation, précise Reuchlin, est un terme adéquat pour qualifier « les facteurs qui régissent l'orientation des conduites (en particulier le choix d'un objet-but ou le choix de l'une des issues possibles à une situation-problème) et leur contrôle (déclenchement, éventuelles réorientations, mobilisation des moyens nécessaires pour vaincre d'éventuels obstacles, arrêt) » (p. 246). La distinction qu'opère Reuchlin entre l'orientation des conduites guidées par un but et leur contrôle va au-delà de la définition de la motivation rappelée plus haut. Elle converge avec la perspective anglo-saxonne de Snow, Corno et Jackson III (1996), pour qui la conation comprend la motivation (qui correspond globalement au premier type de processus chez Reuchlin) et, autre terme, la volition (qui correspond ici globalement au second type de processus) : « [l]a distinction entre motivation et volition est nécessaire car on voit des étudiants même très motivés par le choix de buts clairs avoir des difficultés à mettre leurs intentions à exécution » (p. 248). En psychologie de l'orientation, la littérature relative à la motivation est diffuse. Ainsi, il y a une grande distance entre, par exemple, d'une part, les travaux très ciblés de Mahone (1960) et de Morris (1966), rattachés à la théorie de l'accomplissement, sur la genèse des choix professionnels non réalistes et, d'autre part, la théorie intégrative de la construction de carrière de Savickas (2005), où le point de vue dynamique est central, le rôle du conseiller consistant à aider le consultant, en acte d'élaboration de ses thèmes de vie, à transformer une tension en but vocationnel. Notre propos n'est pas de faire l'analyse des construits dynamiques envisagés en psychologie de l'orientation pour investiguer la nature des forces qui poussent le consultant à entamer une réflexion sur son orientation (le contenu de la motivation, par exemple les besoins influençant le contenu des buts). Nous visons plutôt à examiner sous un angle problématique si l'engagement d'un bénéficiaire de la relation de conseil, aux prises avec un problème d'orientation, dans des actions permettant l'acheminement vers une décision s'explique de façon satisfaisante par les processus motivationnels classiques qui décrivent les modalités de déclenchement, de maintien et de persistance des conduites d'orientation. Naturellement, la conclusion de Weiner (1992), au début de la dernière décennie du siècle passé, sur de vaines prétentions à une généralisabilité de l'explication à l'aide des modèles de la motivation disponibles reste d'actualité et le champ restreint de la motivation en psychologie de l'orientation n'échappe pas à ce constat. Seuls des modèles locaux offrent quelque garantie de validité. Cet article cherche dans ce cadre restreint à tracer une piste permettant de distinguer le construit de motivation et celui de volition en conseil d'orientation et de stimuler ainsi la recherche et les modalités d'intervention en conseil en orientation en tentant de faire apercevoir la convergence entre des courants venus d'horizons différents. Parmi les construits intervenant à titre de régulation des activités d'orientation, on peut citer la « perspective temporelle » chez Ginzberg, l' « anticipation » chez Tiedeman, l' « orientation » chez Crites, le « souci du futur » (concern) [Super, Savickas & Super, 1996 ], le « but » ou l' « intention » (Dumora, 1990, 2004; Husmans & Lens, 1999) et les « états intentionnels » (Richardson et al., 2007), ainsi que leurs modalités d'émergence au sein d'un modèle systémique et développemental (Guichard & Dumora, 2008), d'une théorie sociale cognitive (Lent, Brown & Hackett, 1996), d'une théorie sociale de l'action en contexte (Young & Valach, 2000, 2006, 2008) ou du paradigme de la construction de sa vie (Savickas et al., voir ce numéro). Dans leur Modèle dynamique de développement de choix de carrière, c'est, du point de vue dynamique, sur le niveau d'engagement dans chacune des six activités entrelacées qui le composent que Van Esbroeck, Tibos et Zaman (2005) insistent. Une nécessité objective ou une contrainte situationnelle déterminant le besoin de prendre une décision aboutit à la fixation de buts, tâche complexe, la décision étant l'aboutissement d'un processus plus ou moins long d'exploration de soi, de l'environnement et de la relation soi-environnement, puis de spécification. Cependant le passage à l'action proprement dit (par exemple, comment passe -t-on d'un but d'exploration des professions à leur exploration effective ?) n'est pas abordé. La même solution de continuité dans la chaîne des comportements vocationnels d'exécution est repérable dans les approches dérivées des théories socio-cognitives de la motivation. Celles -ci ont inspiré la construction de modèles visant à décrire la succession de divers processus considérés comme centraux dans la prise de décision vocationnelle. Ainsi, s'appuyant sur la théorie sociale cognitive de Bandura (1986), Lent et ses collaborateurs (Lent et al., 1996; Lent, Brown & Hackett, 1994; cf. Lent, 2008) ont développé une Théorie sociale cognitive de l'orientation scolaire et professionnelle (TSCOSP) qui pointe notamment, dans un des sous-modèles segmentaux, le ressort causal du construit de but présenté « comme formant un important lien intermédiaire entre intérêts et actions » (Lent et al., 1996, p. 392). Les buts (par exemple, rechercher une formation, poser sa candidature à un poste déterminé), « éléments omniprésents, quoique généralement implicites, dans les théories du choix vocationnel et de la prise de décision » (Lent et al., 1994, p. 85), constituent une variable médiatrice de nature motivationnelle qui influence les choix d'action et les efforts déployés. Les auteurs ajoutent que les dénominations utilisées dans les travaux varient en fonction du degré de spécificité du construit et de la proximité temporelle de l'exécution du choix elle -même : aspirations ou rêves professionnels en cas d'évaluation précoce, de non-implication de conséquences concrètes ou d'absence d'exigence d'engagement; choix exprimés, plans ou décisions si le but implique des intentions spécifiques, une évaluation proche d'une entrée dans une profession ou l'exigence d'un engagement. Mais, précisément, cette polysémie nécessiterait une désintrication des processus en jeu. Lent (2008) évoque bien la présence de la « volonté » de traduire les buts en actions (p. 69), mais c'est pour souligner le rôle modérateur que les variables contextuelles ont sur elle, non pour analyser le modus operandi de cette « volonté », c'est-à-dire les mécanismes selon lesquels celle -ci opère. Cet auteur fournit des indications quant à l'aide que le conseiller peut apporter au consultant pour qu'il passe du « choix d'actions » aux actions proprement dites : par exemple, user de persuasion afin que le consultant persiste en dépit d'obstacles, encourager à discuter avec un tiers, inciter à considérer les étapes à suivre pour concrétiser les choix privilégiés, aider à avoir des expériences de maîtrise de tâches adaptées. Ces procédés sont certes de rigueur, mais ils ne s'articulent pas à une théorie de l'action qui fasse une analyse précise du passage des intentions aux actes. Dans la TSCOSP, le modèle du choix de buts de carrière, interactivement lié en amont à un modèle des intérêts et en aval à un modèle du niveau de réalisation de la tâche, considère comme prédicteur positif de ce choix le développement de croyances d'auto-efficacité, des attentes de résultats et des intérêts qui en dépendent pour leur émergence, mais Lent et ses collaborateurs n'insistent pas, pour des raisons de simplification conceptuelle, sur l'analyse des conditions motivationnelles de l'activité mentale propre au processus d'élaboration des intentions d'avenir. Ce n'est qu'incidemment que cette question est évoquée. Ainsi, l'une des stratégies de conseil utilisées afin de débloquer un processus de choix ou de changement de carrière (Lent et al., 1996) consiste, à l'aide d'une technique appropriée, à faire le point avec le consultant sur la représentation qu'il a de ses propres capacités à propos d'une filière qui l'intéresse et de celles qu'il croit requises dans un domaine particulier, puis de lui demander de vérifier la justesse de ses croyances d'auto-efficacité en allant consulter un programme de cours détaillé. C'est précisément ici que peut se situer le problème dont nous débattons. Voilà un sous-but concret – une intention – (consulter un programme) qui peut ne pas générer un agir parce qu'il est barré par des croyances d'auto-efficacité erronées – c'est le cas de figure envisagé par les auteurs – ou supplanté par d'autres sous-buts plus attractifs dans l'immédiat ou encore rendus d'autant plus saillants que ce sous-but est inhibé. Faut-il s'arrêter à ce constat ou y a -t-il une théorie autorégulatoire appropriée qui soit susceptible d'apporter une solution positive à un tel cas de figure ? Un autre construit psychodynamiquement chargé est celui de projet. Qu'il s'agisse de projet d'orientation scolaire ou d'insertion professionnelle (Larson, 2000; Little, 1999; Riverin-Simard, 2000; Young & Valach, 2006), voire de projet de vie (Boutinet, 1990), le « projet » draine les notions d'intentionnalité, de direction et d'action. Cette dernière est fondamentale dans le construit dans la mesure où celui -ci renferme « l'idée d'une liaison essentielle entre une certaine intention fondatrice […] et un plan d'action […] dans lequel l'individu s'engage » (Guichard, 2007, p. 345). Ainsi, l'attention à l'action (« l'engagement concerté dans l'environnement »), faisant suite au désir de s'engager dans une activité (« la motivation intrinsèque »), est, avec un engagement dans le temps fait d'ajustements et de réévaluations (l' « arc temporel »), l'une des trois caractéristiques fondamentales de la notion de projet chez Larson (2000). Si l'on y ajoute le sentiment d'effort, qui correspond à la facette dynamique subjective du construit, celui -ci contient bien l'amorce de la problématique qui nous occupe : le passage de l'intention à l'acte. Le projet est aussi au centre du paradigme théorique de l'action en contexte appliqué à la problématique vocationnelle (Young & Valach, 2005, 2008). Mettant au centre de son économie l'intentionnalité comme attachée (tied) à l'action (Young & Valach, 2004), ce modèle articule fortement l'action intentionnelle en trois dimensions interconnectées : les perspectives de l'action, les systèmes d'action et les niveaux d'organisation des actions (Young, Valach & Collin, 1996). Sur la première dimension, l'action peut être considérée du triple point de vue de sa manifestation observable (les comportements verbaux et non verbaux), des processus internes qui en sont les corrélats (les cognitions et les émotions qui la dirigent) et de ses significations sociales (comment elle est comprise par l'agent et autrui). Sur la deuxième dimension, l'action est aussi conçue comme s'organisant sur trois niveaux : elle est composée d'un nombre d'éléments comportementaux spécifiques; ceux -ci contribuent à la construction d'un ordre séquentiel qui est décrit en étapes fonctionnelles; enfin, ces dernières sont vues comme favorisant l'atteinte d'un but, lequel représente le sens des processus de l'action. La troisième dimension concerne l'action conceptualisée comme systèmes hiérarchiquement emboîtés : action individuelle – « comportement intentionnel guidé par un but » (Young & Valach, 2008, p. 646) – et action conjointe (comportement intentionnel guidé par un but commun résultant de son ancrage dans un réseau social d'échanges), projet (série d'actions advenant au cours d'une période temps de longueur moyenne et dirigées vers un but commun) et carrière (projets murissant sur une longue période temps et occupant une place significative dans l'existence). L'action est dite énergétisée à travers des processus émotionnels dans le cas de l'action individuelle et par la communication dans le cas de l'action conjointe (Young, Valach & Domene, 2005). Du point de vue de l'architecture globale de leur paradigme, Young et ses collaborateurs (Young & Valach, 2004), à l'instar de Savickas (2001), marquent leur dette vis-à-vis de la théorie de l'action de Baltes et ses collègues (par exemple, Baltes & Baltes, 1990). Ces auteurs ont développé un modèle vocationnel dont, selon le commentaire de Savickas (2001), nous avons besoin parce qu'il « s'attaque directement aux mécanismes de l'action » (p. 312) : le développement personnel d'une hiérarchie de buts – appelé sélection d'options (elective selection) – et l'engagement dans des actions guidées par un but qui sont autant de moyens de l'atteindre (optimization), sont des processus décisifs dans une compréhension du développement de carrière. La théorie de l'action en contexte développe donc le concept d'action intentionnelle entendue comme orientée vers l'anticipation personnelle et nécessairement partagée, via son inscription dans un contexte social qu'il s'agit méthodologiquement de capturer (Young et al., 2005), de fins (buts) spécifiques. Toutefois, cette approche ne semble pas questionner plus avant le passage proprement dit de l'intention à l'action. En plus d' être guidée par un but, celle -ci est certes conceptualisée comme cognitivement dirigée et autorégulée, déployée dans une temporalité marquée par « un début et une fin » (Young et al., 2005, p. 217) et des « intersections à la fois avec un comportement précédent et d'autres participants à l'action » (loc. cit.), mais la nécessité d'une explicitation du passage problématique de certaines intentions aux actes en cas de but lointain ou difficile à atteindre n'apparaît pas. Le soutien du contexte social (les conversations dans lesquelles les intentions prennent forme) semble y suffire. Dans le cadre d'une approche sociale constructionniste plus ouverte que l'approche radicale selon laquelle l'intention serait un sous-produit marginal de l'effet du contexte socio-historique et du langage d'un individu, Richardson (2004) insiste sur le rôle du psychologue d'orientation dans la facilitation de l'émergence de nouvelles intentions, source de directions inédites dans la vie du consultant. Mais le passage des intentions aux actes n'est pas non plus au centre de la réflexion. Dans la théorie intégrative de la construction de carrière de Savickas (2005), le niveau psychodynamique est fondamental. Il répond à la question : « pourquoi la personne s'oriente -t-elle dans telle direction ? ». À travers les récits de vie se manifeste la carrière subjective. Expression de la personnalité et émergeant d'un processus actif de fabrication du sens, les thèmes de vie guident le comportement vocationnel et le soutiennent. Les activités (doing) qui feront avancer le consultant vers une décision (par exemple, déterminer les valeurs personnelles importantes, identifier les personnes auxquelles on aimerait ressembler) lui permettront de transformer une préoccupation personnelle en un but professionnel. Encore faut-il, pour qu'elle enclenche et poursuive ces activités, que la personne dispose de capacités de mobilisation des ressources nécessaires pour faire face à des tâches d'orientation (Savickas, 2005). C'est le rôle que joue le concept d' « adaptabilité de carrière » dans le modèle. Il est formé d'un ensemble d'attitudes, de croyances et de compétences vis-à-vis de la carrière qui s'organisent en cinq dimensions : le souci (concern) de son orientation, le contrôle (control), la curiosité, la confiance et l'engagement (commitment). En particulier, le premier construit, « tendance à considérer la vie dans une perspective temporelle marquée par le sentiment d'avoir ses chances et par l'optimisme » (Savickas et al., ce numéro) invite à prendre conscience de l'importance d'interventions proposant le développement de croyances en la responsabilité personnelle qui « poussent les personnes à s'engager dans des activités […] promouvant […] la compétence dans la prise de décision » (Savickas, 2005, p. 54) et, au plus proche de notre problématique, renforçant les attitudes positives envers la planification (planfulness). La dimension « souci » est mesurée dans l'inventaire expérimental Career Adapt-Abilities Inventory (Savickas, 2008) par divers items dont l'un est « Avoir une vision positive de mon avenir ». La composante motivationnelle de la dimension est claire. Par rapport à notre problématique, la deuxième dimension est aussi particulièrement intéressante. Elle se décline en diverses compétences qui concernent directement l'action comme « Trouver la force de continuer » ou « Apprendre à être persistant et patient ». Il y a là un pont à faire avec la théorie volitionnelle que nous développerons plus loin. En outre, le paradigme « construire sa vie » (Savickas et al., ce numéro), plaçant l'intentionnalité, et donc l'action qui fait sens, au centre de son économie, décrit un modèle d'intervention en six étapes fortement articulées l'une à l'autre, dont la cinquième propose que le bénéficiaire sélectionne, à travers un projet, des actions intentionnelles qui lui permettent de mettre des éléments identitaires à l'épreuve. Le projet doit prévoir les façons de faire face à des obstacles éventuels. D'autres modèles considèrent explicitement la phase d'exécution, quoique cette fois en dehors de toute référence à une psychologie de l'action. Ainsi, dans leur modèle du traitement cognitif de l'information relatif à un problème d'orientation, Peterson, Sampson et Reardon (1991), s'inspirant des processus supposés actifs dans la résolution de problèmes, précisent les opérations hypothétiques propres à divers processus opérant séquentiellement. En début de séquence intervient une étape motivationnelle, la personne posant le problème par identification d'un malaise né du constat d'une discordance entre un état perçu et un état désirable : la tension provoquée par la dissonance entre les deux états psychologiques fournit une ressource motivationnelle pour rechercher une solution au problème d'orientation. Dans la phase terminale d'exécution, une stratégie de mise en œuvre du choix prioritaire est développée, qui, via une analyse des moyens au service des fins, transforme le choix prioritaire en un plan d'action comprenant étapes intermédiaires, repères et sous-buts et débouche sur des actions concrètes. L'exécution d'un tel plan individuel « requiert », précise Zunker (2006), « que le bénéficiaire prenne l'initiative » (p. 114), aidé par la fonction de contrôle qui permet de passer d'une étape à l'autre lorsque la première est considérée comme satisfaisante. Néanmoins, le modèle n'envisage pas les mécanismes fins de l'exécution. Ainsi, quelles sortes de plans sont efficaces ? Comment ces plans sont-ils reliés au but ? Même si la personne se forge un but, comment peut-elle « prendre l'initiative » et protéger le chemin qui mène à son but des embûches d'origine interne ou externe ? Cette question est d'autant plus brûlante qu'elle se rapporte à un temps qu'habitent des vies faites de réalités multiples et subjectives en perpétuelle construction et reconstruction (cf. Savickas et al., ce numéro). Le modèle d'entretien d'évaluation de Lecomte et Tremblay (1987, cité dans Baudouin, Blanchard & Soncarrieu, 2004) répond à un souci de suivi par le consultant des objectifs apparus comme importants au cours du counselling. L'entretien est structuré en trois phases dont la dernière est centrée sur l'établissement d'objectifs de changement à travers la formation, par le consultant, d'une intention d'action. Celle -ci peut avoir la forme d'un énoncé conditionnel du type : « Si je veux faire X, alors je dois… ». Après vérification de la faisabilité de l'intention, un plan de sa réalisation est tracé avec des actions concrètes à la clé. Cette conception répond clairement à un souci de considérer l'intentionnalité, mais ne semble pas aller jusqu' à rapporter ce construit à une théorie plus générale de la psychologie de l'action. Or, comme l'argumente Lhotellier (2000), étant entendu que l'intentionnalité est une caractéristique définitoire de l'action, « [le] projet […] se présente sous une double face : autonomie et action » (p. 41). C'est aussi le but que Young et Valach (2008) assignent à l'intervention en orientation : s'efforcer de promouvoir chez les bénéficiaires « une agentivité responsable qui organise leur vie en termes d'actions dirigées vers un but, de projets et de carrière » (p. 655). Enfin, on trouve chez Egan (1992) un modèle de l'accompagnement psychologique (en général) où l'aide à l'action est développée comme telle, dans la mesure même où le but de la relation d'aide est d'aider le consultant à s'engager dans des changements comportementaux constructifs, puisque « la compréhension de soi ne suffit pas et que le processus d'aide n'est pas complet tant que le bénéficiaire ne traduit pas cette compréhension en actes » (p. 32). En particulier, la dernière des trois étapes recommandées préconise la définition et le choix d'une stratégie d'action ou programme d'action global ayant pour fonction d'aider à atteindre les objectifs fixés dans une étape précédente. Cependant, précise l'auteur, « [c]ertaines personnes sont remplies de bonnes idées sur la façon de faire les choses; mais elles ne font rien » (p. 354). Pour contrer ce manque d' « esprit de discipline », il est nécessaire d'assister le consultant dans une planification précise. Poser une question telle que « Que comptes -tu faire demain ? » peut certes faire faire d'étonnants progrès. Certains consultants doivent toutefois, remarque Egan, être assistés pour entrer dans la compréhension des phénomènes d'inertie – « tendance à continuer de faire les mêmes choses ou à éviter d'en entreprendre de nouvelles » (p. 363) – et d'entropie – « tendance des choses à se désagréger avec le temps » (loc. cit.) et pour oser l'analyse du « champ de forces », soit la « sphère socio-psychologique qui entoure une décision ou une action » (p. 364). Une fois identifiées les forces restrictives et les forces facilitantes par rapport au programme d'action, on peut aider le consultant à faire le lien entre la programmation verbale de son plan et son exécution. Pour faciliter l'exécution des points difficiles d'un programme d'action, Egan préconise entre autres outils le recours à la conclusion d'un contrat personnel. L'exemple qu'il fournit fait penser, quoiqu'en dehors d'une formulation qui l'inscrirait dans un cadre cognitif théorique, à ce que l'on appelle les intentions d'exécution sur lesquelles nous allons abondamment nous expliquer. En somme donc, il y a dans bien des modèles une lacune théorique relative à l'espace où doivent se déployer les processus permettant de cheminer des intentions aux actes de manière à atteindre un but fixé. Cette lacune ne fait que refléter un déficit des théories motivationnelles classiques elles -mêmes, au cœur desquelles il nous faut maintenant nécessairement plonger. En général, les construits de la tradition classique des théories motivationnelles tels que perspective future, attente-valeur, croyances d'auto-efficacité ou but manquent à rendre compte du caractère fluctuant de la motivation lorsque les actes à poser pour atteindre le but apparaissent à la personne comme ennuyeux, s'étendent sur une longue durée, se heurtent à des obstacles ou sont concurrencés par des activités plus attrayantes. Or ces fluctuations sont la règle plutôt que l'exception dans la pratique actuelle de l'orientation. Dans un marché du travail où les individus sont confrontés à la perspective de carrières professionnelles correspondant moins à un développement qu' à un chaos (Dubar, 2000), l'exploration de soi, par exemple, devient une activité au long cours et requiert des individus qu'ils s'engagent dans des expériences actives (Gati & Tal, 2008). Le travail – le terme est symptomatique – d'exploration débouchant sur la construction d'intentions d'avenir et sur la prise de décision quant au choix d'une filière d'études et/ou d'un champ professionnel doit être soutenu par diverses conditions motivationnelles : Guichard et Huteau (2006) retiennent avec pertinence une forte centralité subjective des études et du travail, une forte implication dans le processus d'orientation induite par la capacité à procéder à des attributions de contrôle internes et une estime de soi positive. Ces conditions motivationnelles contribuent sans aucun doute à la mise en œuvre de l'autorégulation des conduites d'orientation, c'est-à-dire l'exécution de compétences autorégulatrices acquises (Bandura, 2003) par lesquelles la personne active et contrôle les cognitions, les comportements et les affects qui sont systématiquement orientés vers l'atteinte de ses buts. Mais on peut douter de la capacité du construit de motivation à rendre compte de la mise en œuvre active de ces capacités. Barone, Maddux et Snyder (1997) soulignent que « le terme autorégulation implique que les gens peuvent exercer un certain degré de contrôle volontaire sur eux -mêmes » (p. 277). Nous voilà ramené à la problématique conative. Si la motivation fournit l'énergie sous-jacente aux conduites d'orientation, elle ne semble pas suffire à maintenir le consultant en alerte. Tout praticien sait que les efforts consentis par celui -ci peuvent être trop brefs pour explorer la profusion et la complexité de données dans une situation de prise de décision vocationnelle. Les phénomènes d'inertie et d'entropie, qui paralysent le passage d'un état insatisfaisant à l'état recherché y sont monnaie courante. Il peut encore s'agir de la résistance au travail qu'exige l'élaboration de plans ou de l'épisode dépressif qui advient après une prise de décision hâtive engageant l'avenir pour de longues années (choix d'études universitaires, par exemple). La plupart des théories de la motivation convergent vers l'idée que se donner un but ou élaborer une intention comportementale constitue l'acte clé qui promeut l'atteinte de ce but. Il en va ainsi de la théorie sociocognitive de Bandura (1991), de la théorie du contrôle de Carver et Scheier (1998), de la théorie des buts de Locke et Latham (1990) et de la théorie du comportement planifié d'Ajzen (1991). Un but est classiquement défini comme une représentation d'un état final ou d'un résultat qu'un individu cherche à atteindre (cf., par exemple, Kruglanski, 1996) ou comme la détermination de s'engager dans une activité particulière ou d'atteindre un résultat futur déterminé (Bandura, 1986). Selon Locke et Latham (2002), les buts influencent les comportements par le truchement de quatre mécanismes : outre la médiation des effets de l'auto-efficacité, ils exercent une fonction de direction de l'attention et de l'effort, énergétisent le comportement, affectent la persistance et ont un impact indirect sur l'action en incitant la personne à user de son répertoire cognitif stratégique. Les intentions sont le plus souvent conceptualisées comme des construits proximaux relatifs à « ce qu'une personne se propose de faire » (Bandura, 2003, p. 427), le terme se référant généralement à la détermination consciente d'entamer une action (par exemple, « J'ai l'intention de m'inscrire en faculté de médecine »). Kuhl (2000a), en particulier, caractérise l'intention comme « représentation d'une action envisagée » (p. 682) par opposition explicite à un but, qui se rapporte « à une représentation d'un résultat désiré » (loc. cit.). L'intention constitue le point culminant du processus de décision, acte du vouloir fondateur de l'action (Gollwitzer, Fujita & Oettingen, 2004). La question des processus par lesquels les intentions conduisent au but a fait l'objet d'une série de plusieurs méta-analyses portant sur des centaines d'études (corrélationnelles ou expérimentales) rapportées et analysées par Gollwitzer et Sheeran (2006). Voici l'essentiel des résultats. D'abord, les intentions au service d'un but (« intentions-but ») expliquent 28 % de la variance du comportement correspondant, ce qui constitue effectivement un effet de taille importante. Mais un écart sérieux demeure entre intention-but et action. En effet : – quand on entre en premier dans une équation de régression où l'action est la variable dépendante et l'intention l'une des variables indépendantes, le comportement passé se révèle être un bon prédicteur du comportement futur (R2 = .26) : bien que l'incrément dû à l'intention demeure significatif par rapport à la variance expliquée du comportement futur (R2 = .07), il se réduit cependant à un effet de taille petite à moyenne; – si, conformément à l'hypothèse selon laquelle la force relative de l'intention-but contribue directement à sa réalisation, cette force a bien un effet significatif sur l'atteinte du but, l'amplitude de cet effet est très petite (R2 = .03); – lorsque l'on décompose la relation entre intention et comportement en termes de quatre combinaisons (intention d'agir : oui vs non; agir ensuite : oui vs non), environ 50 % des participants qui avaient l'intention d'agir ne transforment pas leurs intentions en action. La conclusion s'impose à Gollwitzer et Sheeran (2006) : invoquer l'acte du vouloir inclus dans la formation d'une intention-but pour expliquer l'engagement dans une action n'est probablement pas suffisant, parce que cet acte ne garantit pas l'atteinte du but : on peut échouer à triompher des problèmes autorégulatoires qui se posent dans la lutte à engager pour atteindre le but. Ce constat empirique apporte un solide argument à Proust (2008). Cette philosophe de l'esprit oppose aux théories intentionnalistes de l'action (Davidson, 1993; Searle, 1985), selon lesquelles une intention, ou une raison d'agir, comporte automatiquement une efficacité exécutive, l'argument selon lequel cette position est de moindre généralité que la position volitionniste. Pour cette dernière, la sélection d'une représentation exécutive dans un répertoire exécutif, en quoi consiste un épisode volitif, est à la fois centrale et causale par rapport à l'action proprement dite. Or, c'est bien d'une théorie de l'action dont nous avons besoin en psychologie de l'orientation. Dans ses réflexions sur la démarche de consultance, Lhotellier (2000) a longuement insisté sur l'importance de l'agir du bénéficiaire : « On oublie trop qu'un projet est un long parcours [… ]. Le trajet, c'est la construction continue de la claire relation des buts et des moyens » (p. 43); d'où la nécessité incontournable d'un travail de l'agir. C'est précisément à ce point nodal que le construit de volition révèle toute sa fécondité. Si l'on veut aider les personnes à développer des stratégies autorégulatoires en vue de « faire le pont » entre leurs intentions et leurs actions, la motivation comme construit explicatif ne suffit pas. C'est ici que s'impose un retour à un ancien concept, longtemps considéré comme indigne d'attention par la psychologie scientifique parce que lesté de connotations philosophiques ou dites mentalistes : la volition. Refaire l'histoire philosophique et psychologique de ce concept sortirait du cadre de cet article. Épinglons quelques jalons. Dès la fin du XVII e siècle, John Locke (1690/1755) avait remarquablement anticipé ce que les psychologues cognitivistes appelleront bien plus tard les « fonctions exécutives » grâce auxquelles l'effectuation est rendue possible : le philosophe définissait la volition comme « l'usage actuel que nous faisons » de « la puissance de commencer ou de ne pas commencer, de continuer ou de terminer plusieurs actions de notre esprit, et plusieurs mouvements de notre corps » (II, xxi, 5, p. 182). Il s'agit bien des capacités exécutives permettant de commencer l'action, d'en assurer le suivi et d'y mettre fin si le but est atteint ou si le cours d'action engagé ne répond plus au but à atteindre. L'étude scientifique contemporaine de la volition en psychologie a deux pères fondateurs : Kuhl et Heckhausen (Heckhausen & Kuhl, 1985; Kuhl, 1984, 1985), héritiers des premiers travaux empiriques du pionnier Ach (1910). Ces auteurs s'opposent nettement aux théories de l'attente-valeur (Atkinson, 1964), qui adoptent, argumentent-ils, une conception hédoniste de l'intention, puisqu'elles admettent, au moins implicitement, que les personnes font ce qu'elles ont le plus envie de faire. Cette position revient à confondre la motivation (désirer faire quelque chose) et l'intention (être dans un état d'engagement dans une action donnée). Si intention et motivation peuvent s'alimenter à la même source, il y a bien des cas où un individu s'engage dans une action intentionnelle, alors qu'une tendance motivationnelle plus puissante le porterait à faire autre chose. C'est que, notamment dans le champ éducationnel, nombre de conduites impliquent, pour atteindre un but, de triompher de toutes sortes d'obstacles. C'est précisément une des fonctions de la volition que d'accroître la base motivationnelle d'une intention si la faiblesse initiale de celle -ci ne lui permet pas de sortir victorieuse du combat qu'elle mène contre une intention rivale dominante plus attractive dans l'immédiat. Plusieurs théoriciens de l'autorégulation ont attaqué la question de savoir comment on surmonte certains problèmes d'exécution tels que le déploiement d'efforts face à des difficultés (par exemple, la théorie de la mobilisation de l'effort de Wright & Brehm, 1989), les stratégies de compensation en cas d'échec (par exemple, l'autorégulation de la motivation avec Bandura, 1991) ou la négociation entre buts conflictuels (par exemple, Cantor & Fleeson, 1994). Mais c'est la psychologie allemande qui s'est précocement intéressée au concept de volition. Après une éclipse liée en partie au triomphe du behaviorisme, les auteurs qui l'ont réintroduit travaillèrent dans le sillage des premiers travaux de la Willenpsychologie. Kuhl et Heckhausen jettent les bases d'une théorie du contrôle de l'action incluant une théorie du traitement de l'information pour la motivation, la cognition et l'émotion. La théorie du contrôle de l'action « étendait la théorie classique de la motivation pour intégrer les processus d'autorégulation. Selon cette théorie, une personne peut croire en son auto-efficacité ou peut être très motivée et cependant ne pas être capable de mettre en acte les intentions qu'elle s'est données si ses capacités autorégulatrices sont insuffisantes » (Kuhl, 2000b, p. 114). Pour Kuhl, la théorie traditionnelle de l'action, c'est-à-dire celle qui prévalut à la suite des travaux d'Atkinson, n'est pas apte à rendre compte du problème du contrôle de l'action. Les comportements amenant à une réussite vs un échec à une activité ont été étudiés, rappelle Kuhl (1984), par Atkinson (1957) et ses associés dans le cadre de la motivation à rechercher la réussite et de la motivation à éviter l'échec. La persistance dans une activité, par exemple le nombre d'essais observé pour une tâche insoluble, soit l'une des caractéristiques grâce auxquelles on opérationnalise la mesure de tels comportements, est mise en rapport avec une variable M, c'est-à-dire la force du mobile à obtenir un succès (M R) vs la force du mobile à éviter un échec (M E). On a ainsi trouvé que les personnes orientées vers la réussite (c'est-à-dire celles chez qui M R est supérieure à M E) manifestent plus de persistance dans une activité que les personnes orientées vers l'évitement de l'échec (c'est-à-dire celles chez qui M R est inférieure à M E), lorsqu'elles sont mises en échec à plusieurs reprises dans une activité facile. En accord avec le modèle d'Atkinson, l'explication est la suivante : l'attente de réussite est d'abord élevée (puisque l'activité est en apparence simple), en l'occurrence supérieure à .50 en termes de probabilité subjective, puis elle tombe à un niveau intermédiaire égal à .50; chez les personnes pour qui M R < M E, on attend une diminution de la motivation, alors que c'est l'inverse chez les personnes pour qui M R > M E. Clairement, argumente Kuhl (1984), dans ce modèle, la variable M est considérée comme suffisante pour expliquer la persistance, même si des variables additionnelles ne sont pas à exclure. Autrement dit, la question du contrôle de l'action n'est tout simplement pas posée. Si un affaiblissement motivationnel suffit à expliquer une moindre persistance dans l'action (comme y suffisent aussi une probabilité subjective de réussir faible ou une faible valorisation de la réussite de l'activité), cet affaiblissement n'en est pas une condition nécessaire. Des facteurs de contrôle de l'action – c'est-à-dire de nature volitionnelle – déficitaires peuvent en revanche très bien en rendre compte en particulier dans des situations de réalisation difficile d'une intention (Gollwitzer & Sheeran, 2006) : a) incapacité à se prémunir contre une déviation par rapport au but par suppression de réponses attentionnelles ou comportementales indésirables (distractions et tentations); b) incapacité de se rappeler l'acte à poser (action ne faisant pas partie des « habitudes »; il faut faire plusieurs choses à la fois; la personne est préoccupée par une tâche particulière ou doit attendre une occasion favorable); c) obstacles non anticipés (par exemple, telle action à poser apparaît finalement comme désagréable); d) incapacité à bloquer des états internes délétères pour l'action (par exemple, craintes, humeur dépressive). Ainsi donc, il est nécessaire de distinguer les processus prédécisionnels (motivationnels) des processus postdécisionnels (volitionnels) : non seulement les uns et les autres diffèrent en nature, mais ils opèrent selon des principes distincts. La décision met fin à l'état motivationnel et inaugure l'entrée dans un état cognitif volitionnel où peuvent être mises en place diverses stratégies de contrôle de l'action dans les situations où celle -ci est détournée de sa finalité par toutes sortes de stimuli perturbateurs : contrôle de l'attention, contrôle de l'encodage, contrôle émotionnel, contrôle motivationnel, contrôle environnemental et parcimonie du traitement de l'information (Kuhl, 1984). La régulation de l'effort vient compléter ces stratégies autorégulatoires qui ont pour fonction de maintenir en mémoire une intention donnée (Kuhl, 1984; Kuhl & Beckmann, 1994). En psychologie sociale aussi, le construit de volition connaît une nouvelle fortune. Ainsi, Baumeister, Bratslavsky, Muraven et Tice (1998) accordent au terme volition un sens large : « faire des choix, prendre des décisions, assumer une responsabilité, enclencher et inhiber un comportement, élaborer des plans d'action et mettre ces plans à exécution » (p. 1252). Les impulsions et les désirs (la motivation antérieure au processus de décision) ne sont pas inclus dans la définition. Pour ces auteurs, le concept de volition désigne le même référent que l'expression « fonction exécutive » pour renvoyer à cet aspect du soi qui exerce un contrôle sur lui -même et sur le monde extérieur. Cette conception est en convergence avec celle de Kuhl. Nous verrons plus loin les développements théoriques et empiriques que le construit de volition a inspirés chez d'autres psychologues sociaux, Gollwitzer et ses collaborateurs en particulier. En psychologie cognitive, les fonctions exécutives se réfèrent au comportement autodirigé, intentionnel, et incluent la planification et la résolution de problèmes (Shallice, 1988), la commutation d'une activité à l'autre (Allport, Styles & Hseih, 1994), le gouvernement de l'attention mentale (Wegner, 1994) et son maintien soutenu sur des périodes temps étendues (Van der Linden et al., 2000), la résistance à l'interférence (Denckla, 1996), la médiation (Norman & Shallice, 1986), l'accomplissement de nouvelles activités (Shiffrin & Schneider, 1977) et l'inhibition volitionnelle (Kuhl & Beckmann, 1994). Ces travaux attestent l'existence de fonctions volitionnelles distinctes. Une question toutefois se pose. Se pourrait-il que le contrôle intentionnel du comportement soit plus limité que ne le prétendent certains modèles ? Les prises de position argumentées contre la causalité du contrôle conscient varient selon les courants de recherche. Disons l'essentiel pour ne pas être entraîné trop loin. Une ligne argumentaire particulièrement radicale est celle de Wegner (2002) et ses collaborateurs (Wegner & Wheatley, 1999). Se fondant sur plusieurs études expérimentales, cette école tient que l'expérience du vouloir conscient comme cause du comportement est tout simplement une illusion : « […] les mécanismes réels sous-tendant causalement le comportement ne sont jamais présents dans la conscience » (p. 490). La volonté consciente ne serait pas une force psychologique cause de l'action, mais une construction mentale : nous avons des cognitions (intentions, attentes) relatives à ce que nous pouvons faire dans l'avenir, cognitions qui dépendent de processus mentaux inconscients, éventuellement connectés à la cause inconsciente (réelle) de l'action, et nous développons une théorie causale reliant ces cognitions à notre action, par exemple sur la base d'une propriété d'antériorité; nous en venons à appeler ces cognitions anticipatives des intentions, auxquelles nous accordons une force causale, alors que « le mécanisme causal est le merveilleux réseau intriqué de la causalité qui est l'objet de la psychologie scientifique » (loc. cit.). Pour étayer leur hypothèse selon laquelle le contrôle subjectif du comportement (en dehors du comportement automatique) par l'intention et la volition subséquente est une illusion, au profit d'une inférence et d'une reconstruction après coup liée à l'observation des conséquences de l'agir, Wegner et Wheatley (1999) utilisent une démonstration expérimentale a contrario. Des sujets qui, par construction expérimentale, n'ont en fait aucun contrôle sur un comportement donné, pensent que leur comportement est dû à une intention. Or, Proust (2005) fait valoir que cette thèse inférentialiste (ou attributive) semble bien avoir été ruinée par les travaux expérimentaux de l'équipe neuropsychologique de Haggard (Haggard, 2003; Haggard & Clarks, 2003; cf. aussi Sirigu et al., 2004). Celle -ci a montré, pour une tâche intentionnelle simple, qu'il y a intervention active, causale – et non pas seulement rétrospective et attributive – de l'intention et du contrôle volitionnel sur l'action. À l'heure actuelle, en psychologie, en dépit d'usages parfois divergents du terme de volition, un certain consensus se dégage sur la conception selon laquelle les (plutôt que la) volitions sont des « événements mentaux ou activités spécifiques par le truchement desquels un agent exerce consciemment et activement son agentivité pour diriger volontairement ses pensées et son action » (Zhu, 2004, p. 303). Plus précisément, selon Zhu, les volitions ressortissent à trois ordres de processus mentaux : – la prise de décision ou acte mental par lequel un individu agentique met fin à un processus de délibération et résout son incertitude en s'engageant dans le cours d'une action déterminée; – le démarrage de l'action : une fois une intention d'agir formée, encore faut-il que le corps réalise le passage de ce type de pensée à l'action par le truchement d'une commande motrice qui lance le mouvement; – le contrôle exécutif de l'action : une exécution conforme à l'intention exige de la part de l'individu, surtout dans des situations complexes (comme la problématique de son orientation), premièrement, l'éviction des sources de distraction, des processus mentaux automatiques pouvant aisément être suscités par divers stimuli hors de tout contrôle intentionnel (Bargh & Ferguson, 2000); deuxièmement, la capacité à surveiller le cours de l'action intentée, soit des mécanismes de détection d'erreurs dans l'exécution de l'action par rapport au but et à une information contextuelle mouvante; troisièmement, la persistance (mobilisation de l'attention et de l'effort) en dépit des difficultés inhérentes à la tâche à réaliser (Norman & Shallice, 1986). L'atteinte d'un but de longue haleine, où la tâche doit être reprise après une interruption, doit triompher de l'écart qui s'installe dans la longue durée entre les comportements à enchaîner pour atteindre le but (Searle, 2001). S'appuyant sur le corpus théorique et empirique des fondateurs, quelques travaux anglo-saxons (cf. Broonen, 2007) et une étude européenne (Broonen, 2006) ont testé avec succès la fécondité du construit dans le domaine de la réussite académique. Gollwitzer (1996), à la suite de la théorisation de Heckhausen et Gollwitzer (1987), a proposé de distinguer, tout en les articulant, les processus motivationnels et les processus volitionnels dans son modèle des phases de l'action (MPA, Action-Phase Model), modèle où l'atteinte d'un but est conceptualisée comme la résolution de quatre types d'activité successives (voir figure 1). La notion d'activité implique que, pour atteindre un état final désiré, la personne doit activer différents processus mentaux, lesquels vont à leur tour faciliter l'accomplissement de chaque activité correspondante. Les quatre phases sont articulées entre elles par trois points de transition (transition point) cruciaux. La première phase, appelée prédécisionnelle, débute par l'éveil chez la personne de « désirs » qui sont la plupart du temps plus nombreux que ceux qu'elle aura le temps ou la possibilité de réaliser. La progression vers la satisfaction de l'un des désirs en compétition n'émerge pas simplement d'un jugement cognitif. Encore faut-il que l'individu transforme par un processus de décision l'un d'entre eux en un but qui lie (« intention-but »), au sens où se forme un sentiment de détermination à satisfaire le désir. L'état final désiré, qui était spécifié sans engagement (non commital, Gollwitzer, 1999, p. 494), devient un état final que la personne se sent engagée (committed) à atteindre, au sens où cet engagement la contraint (obligates, Gollwitzer, loc cit.). C'est, classiquement (Bargh et al., 2010), le désir dont la désirabilité et la faisabilité sont les plus hautes qui a la meilleure chance de devenir un but. Cette phase prédécisionnelle, de nature motivationnelle, culmine dans la transformation du désir sélectionné en une « intention-but », qui a la forme « J'ai l'intention d'atteindre x ». Le x spécifie le but, c'est-à-dire un état terminal désiré, qui peut être soit l'atteinte d'un résultat (outcome), soit l'exécution d'un comportement. Si le but est formé à un haut niveau d'abstraction (par exemple, devenir informaticien), il peut déterminer le contenu de buts sous-ordonnés (par exemple, choisir une filière d'études en informatique). Prenons un exemple appliqué au cadre de l'orientation. Soit un élève de terminale secondaire, pressé par l'injonction sociale d'acquérir une expertise professionnelle, poussé par le besoin de réussir une carrière et le désir de briller aux yeux de ses parents, habité par la conviction que le travail est une valeur centrale dans son existence, persuadé que la construction de sa trajectoire professionnelle dépend de lui et soutenu par une estime de soi positive; il est en outre convaincu d' être capable de faire des études supérieures. Voilà des éléments de désirabilité et de faisabilité qui font du désir « faire des études supérieures » un candidat au statut psychologique de but. Supposons que la désirabilité d'un souhait rival « partir à l'étranger », quoique engendré par un puissant mobile comme le plaisir attendu d'assouvir une curiosité de découverte d'autres cultures, soit moindre, notamment parce que sa faisabilité est réduite pour des raisons financières. Le désir de faire des études supérieures l'emporte et se transforme en but. Comme le problème se pose du type de filière à embrasser, l'élève génère l'intention-but « s'orienter », au service du but « trouver une filière d'études d'enseignement supérieur ». L'intention-but formée inaugure un deuxième moment : la phase préactionnelle. L'intention-but consiste en un acte volitionnel qui porte la personne à atteindre l'état terminal désiré (Gollwitzer et al. 2004). Elle n'est cependant que la condition nécessaire pour conduire au but, non une condition suffisante. La personne doit maintenant s'engager dans des actions effectives en direction du but. Or, c'est le propre de la phase préactionnelle d'ouvrir la porte à des processus volitionnels déterminant l'exécution du but, caractérisés par un engagement en direction du but et la persistance du cheminement face à des obstacles. Deux types d'orientation cognitive doivent être distingués, qui correspondent à deux phases spécifiques (Gollwitzer, 1990, 1996; Gollwitzer, Heckhausen & Steller, 1990) : l'orientation cognitive de délibération (deliberative mindset) et l'orientation cognitive d'exécution (implemental mindset). La première orientation décrit l'état cognitif de celui qui, pesant le pour et le contre sur l'opportunité de poursuivre tel but plutôt que tel autre en termes de désirabilité et de faisabilité, se demande : « Vais -je faire cela ? ». Elle est caractérisée par une disponibilité mentale pour le traitement de toute information liée à la désirabilité et à la faisabilité des désirs. Elle autorise une analyse de l'information relativement impartiale, puisqu'il s'agit de choisir entre différents désirs. La seconde orientation cognitive correspond à l'énoncé « J'ai l'intention de faire cela ». Elle est caractérisée par les propriétés suivantes : l'attention de l'individu se détache de la problématique du choix de but pour se concentrer sur les moyens à mettre en œuvre pour atteindre le but; l'information en rapport avec le but (les indices contextuels signalant les opportunités d'agir) est traitée prioritairement, tandis que celle qui n'est pas pertinente est évacuée; les informations qui renforcent la désirabilité sont préférentiellement enregistrées au détriment de celles qui l'affaiblissent; l'information relative à la faisabilité est analysée sur un mode qui favorise l'optimisme, voire l'illusion d'un contrôle des résultats de l'action; le seuil d'accessibilité à des attributs personnels positifs est abaissé, alors que la vulnérabilité perçue vis-à-vis de risques éventuels tant contrôlables qu'incontrôlables est amoindrie. Au total, l'orientation cognitive de décision est un état mental caractérisé par un mode de traitement de l'information plus fermé que l'orientation de délibération. Elle favorise la progression vers le but en aidant la personne à vaincre les embûches classiques qui se dressent sur la route conduisant au but (distraction, doute relatif au but poursuivi, installation du pessimisme quant à son atteinte, etc.). Le passage de l'état motivationnel de délibération sur les buts à poursuivre à l'état volitionnel d'exécution correspond à un véritable saut qualitatif (qualitative leap) (Heckhausen & Gollwitzer, 1987, p. 103) dans le fonctionnement cognitif sur le plan à la fois des contenus cognitifs (par exemple, peser la valeur d'attraction d'un but par rapport à un autre dans la phase motivationnelle vs comment atteindre le but dans la phase volitionnelle) et des modes de traitement de l'information (par exemple, un empan mnésique plus large, caractéristique d'une meilleure réceptivité à l'information entrante dans le premier état que dans le second). Afin de permettre de saisir ce que signifie la transition de la phase motivationnelle vers la phase volitionnelle préactionnelle, Heckhausen et Gollwitzer (1987) ont recours à la métaphore du franchissement du Rubicon. L'individu décide de « passer le Rubicon », c'est-à-dire la rivière qui représente métaphoriquement l'engagement, lorsqu'il considère que la désirabilité et la faisabilité du désir non seulement sont suffisamment élevées, mais encore ont fait l'objet d'une délibération approfondie et d'une évaluation qui lui semble concluante. Le passage du Rubicon constitue un moment psychologique qui met fin à l'état mental de nature motivationnelle et lance (launches) (Heckhausen & Gollwitzer, 1987, p. 103) plus ou moins consciemment la personne dans un état mental volitionnel d'exécution. La tâche propre à la phase préactionnelle est simple si les actions à engager sont des routines. Cependant, il peut en aller autrement pour toutes sortes de raisons : les actions et leur contexte sont peu familiers; on a le choix entre plusieurs moyens d'atteindre le but; on est en présence de plusieurs intentions simultanées subordonnées à un but différent; on est absorbé par d'autres activités concurrentes plus attractives, par des pensées intrusives, par des stimuli distracteurs tentants ou déconcerté par la difficulté des comportements à enchaîner pour atteindre le but; on est incapable, par activation de mécanismes autodéfensifs, de se désengager de stratégies de poursuite du but qui sont devenues improductives et de passer à une stratégie différente en cas de rétroaction négative. Les praticiens de l'orientation auront sans peine rattaché spontanément tous ces obstacles à des situations qui leur sont familières. Dans de tels cas, soutient Gollwitzer, le premier « outil volitionnel » (Gollwitzer, 2000, p. 213) que constitue l'orientation cognitive d'exécution ne suffit pas. L'exécution d'actions dirigées vers le but doit être préparée par la mise en œuvre consciente d'un second outil autorégulatoire : les intentions d'exécution (implementation intentions), qui sont au service de l'intention-but (Gollwitzer, 1993). Ce construit désigne des plans qui énoncent où, quand et comment avancer vers le but (« Si je rencontre la situation Y, alors j'émettrai le comportement X »). Par exemple, chez un étudiant qui ne se sent plus en accord avec son choix d'études, une intention d'exécution possible au service de l'intention-but « J'ai l'intention de m'occuper de mon orientation » consisterait à lier à un contexte spécifique (« quand je serai à la fin de ma session d'examens ») un comportement approprié (« j'irai à la consultation d'orientation »). Cette catégorie d'intentions met en branle plusieurs processus psychologiques. D'abord, par le truchement de la création d'un lien mental entre une situation future spécifique (spécifiée dans la composante si - du plan) et le comportement intentionnel (spécifié dans la composante alors du plan), deux structures de connaissance, la représentation de la situation et la représentation du comportement guidé par le but sont hautement activées; la personne est par conséquent perceptivement prête à détecter immédiatement la situation critique dans l'environnement et se sent engagée à exécuter l'action programmée. Ensuite, une fois la situation rencontrée, il y a délégation stratégique d'un contrôle de l'action conscient et coûteux en effort à des indices environnementaux spécifiés : le passage par le contrôle conscient n'est pas requis, l'effort exigé par l'exécution du comportement s'en trouve allégé et la vitesse de réaction accrue. Plusieurs de ces caractéristiques relèvent de propriétés bien connues des réponses automatiques : rapidité et efficience (charge cognitive faible) [Brandstätter, Lengfelder & Gollwitzer, 2001 ]. En outre, le processus de planification propre aux intentions d'exécution spécifiant une situation de distraction à éviter constitue une stratégie efficace contre le distracteur potentiel. Au total, grâce à ce type d'intentions, la personne est plus encline à se rappeler un acte à poser, à surmonter une répugnance initiale, à supprimer des réactions indésirables et à bloquer des états du soi ou des influences contextuelles indésirables, de sorte que la poursuite du but est protégée. La troisième phase de nature exécutive, dite actionnelle, voit le démarrage des actions elles -mêmes qui font progresser l'agent vers le but. Enfin, au cours de la quatrième phase dite postactionnelle (motivationnelle), l'agent peut effectuer une évaluation du degré d'accomplissement du but en comparant le point d'arrivée au but tel qu'il était fixé à l'issue de la phase prédécisionnelle. Le modèle décrit donc deux phases motivationnelles encadrant deux phases volitionnelles. La méta-analyse de Gollwitzer et Sheeran (2006) révèle que de nombreuses recherches empiriques indépendantes provenant de domaines variés (médical, éducationnel, économique, environnemental, etc.) attestent l'effet positif des intentions d'exécution sur l'atteinte du but (magnitude totale de l'effet : moyenne à importante; d = .65), non seulement par la facilitation de la mise en œuvre des efforts en vue d'atteindre le but, mais aussi par la protection de la poursuite du but d'influences potentiellement perturbantes et le désengagement de cours d'actions ayant échoué. Dans le domaine de la performance universitaire en particulier, il a pu être montré que des intentions d'exécution d'effort, de mémorisation et d'autoévaluation de l'apprentissage étaient des prédicteurs positifs des comportements d'apprentissage correspondants, lesquels prédisaient à leur tour une importante proportion de la variance des performances aux examens (Broonen, 2006). Les processus composants postulés ont aussi reçu un fort soutien (Gollwitzer & Sheeran, 2006) : dans la composante « si - », la formation d'intentions d'exécution a de larges effets sur la détection, la discrimination, l'accessibilité des indices spécifiés ainsi que la mémoire de ces indices; dans la composante « alors - », les intentions d'exécution facilitent l'apparition de réponses automatisées en direction du but : réponse plus immédiate, efficience par rapport aux ressources cognitives et absence de besoin d'intention consciente pour le contrôle de l'action. En dépit de ces résultats convaincants dans de nombreux domaines de recherche, la psychologie de l'orientation n'a étonnamment produit que de très rares travaux soumettant à la validation empirique le construit d'intention d'exécution. Trois études sont à citer. Gollwitzer, Bayer, Scherer et Seifert (1999) ont testé en laboratoire une approche motivationnelle-volitionnelle du développement identitaire, notamment vocationnel, défini comme un choix entre plusieurs options (par exemple, « Devrais -je devenir médecin ou ingénieur ? »). La théorie de la réalisation de soi (self-completion) spécifie que l'atteinte de buts définitoires d'une identité (notamment professionnelle) implique l'accumulation d'indicateurs ou symboles pertinents. Lorsqu'une intention (par exemple, « J'ai l'intention de tirer le meilleur parti de cette année d'apprentissage ») permettant d'atteindre un but identitaire (par exemple, « Mon but est de devenir un avocat compétent ») acquiert aux yeux du sujet une propriété sociale, par exemple par le truchement de la reconnaissance d'autrui, le sentiment d'incomplétude identitaire se trouve réduit. En conséquence, cette intention peut entraîner un désintérêt pour sa réalisation effective (par exemple, consacrer effectivement du temps sur une analyse de cas juridiques), parce que la situation d'audience a réduit l'état de tension, de sorte que la personne n'éprouve pas le besoin d'acquérir des symboles identitaires additionnels. Or la formation d'intentions d'exécution – au lieu d'une simple intention – (par exemple, « J'ai l'intention de tirer le meilleur parti de cette année d'apprentissage. Et chaque fois que je verrai l'occasion d'intensifier mes études, je la saisirai ») contrecarre cet effet négatif. Dans une étude menée dans le contexte de la formation continue (Brandstätter, Heimbeck, Malzacher & Frese, 2003), des participants d'Allemagne de l'Est indiquaient s'ils avaient pris la décision de poursuivre leur formation et s'ils s'étaient fixé un programme d'actions en termes d'intention d'exécution (groupe expérimental) ou non (groupe contrôle). Deux ans plus tard, les auteurs purent vérifier que le taux de poursuite de la formation était plus élevé dans le groupe expérimental. Enfin, Oettingen, Hönig et Gollwitzer (2000) ont montré que des adolescents devant fournir des intentions d'exécution adaptées à l'aboutissement de la rédaction d'un curriculum vitæ atteignaient mieux leur but que d'autres n'en ayant pas formé. Ces résultats devraient encourager l'application des intentions d'exécution dans l'entretien d'orientation. De manière générale, il semble acquis qu'au cours de l'entretien d'accompagnement, le moment d'envisager le passage à l'action en cas de changement d'objectifs – situation qui n'est pas rare en consultation d'orientation –, est celui où s'activent les résistances (Baudouin et al., 2004). Or, le contexte économique actuel ne va pas faciliter la construction des possibles vocationnels. Il n'est guère douteux que l'incertitude face à l'avenir socioéconomique et la perspective du chômage pèseront de plus en plus lourdement sur l'état d'indécision de carrière de pas mal d'étudiants au seuil de l'enseignement supérieur. Il est à craindre que les difficultés d'engagement, déjà perceptibles actuellement, dans des actions concrètes permettant d'atteindre un but de formation ou de carrière (chercher davantage d'informations sur un programme d'études, contacter des personnes-ressource, planifier une rencontre avec un professionnel pour mieux connaître les facettes d'une activité professionnelle déterminée, s'engager dans des modules académiques préparatoires afin de tester un niveau de connaissances, etc.) aillent s'accroissant avec, corrélativement, un délitement progressif de la motivation. Il est par conséquent urgent de mettre en chantier des recherches visant à tester l'impact de la volition, en particulier des intentions d'exécution, sur les conduites d'orientation. Les consultants pourraient être invités à former consciemment des intentions d'exécution relatives au contrôle exécutif de conduites d'orientation spécifiques. Cette invite devrait intervenir à la fin de l'entretien au cours d'une phase qui exploite les vertus de l'interview motivationnelle (Miller & Rollnick, 2002). Celle -ci a été spécialement conçue pour les situations visant à déclencher et maintenir des conduites. La pertinence de l'écoute empathique, de la sollicitation à l'automotivation et de l'incitation à contrecarrer les résistances a été vérifiée dans la planification par le truchement d'intentions d'exécution dans le domaine de la santé (Ziegelmann, Lippke & Schwarzer, 2006). Il y a donc tout lieu de penser que, dans les mêmes conditions de facilitation, cet outil cognitif accroîtrait les comportements d'exécution correspondants en conseil en orientation. Le très difficile contexte socioéconomique actuel vient ajouter à l'incertitude qui caractérise la postmodernité. Richardson et al. (2009) soulignent qu'au lieu de se concentrer sur la problématique du choix, le conseiller devrait concentrer son intervention sur le sens que sont susceptibles de véhiculer les processus intentionnels du consultant. Dès lors, la structure des processus conatifs présidant aux conduites d'orientation doit requérir toute l'attention de qui veut modéliser l'aide en consultation d'orientation. Les théories les plus en vue en psychologie de l'orientation se rattachent le plus souvent, pour ce qui regarde l'aspect dynamique, à des construits classiques associés à l'atteinte d'un but ou d'un projet tels que les intérêts, la valeur attendue ou les croyances d'auto-efficacité, variables qui sont censées prolonger dans l'acheminement vers la prise de décision, les effets qu'elles ont sur la constitution du but ou du projet. Le déploiement des efforts du consultant dans la poursuite de ses buts de carrière pourrait bénéficier d'une théorisation plus récente qui a mis à l'épreuve empirique, dans d'autres champs, les stratégies autorégulatoires volitionnelles. Venant compléter la théorie des stratégies du contrôle de l'action intentionnelle guidée par un but de Kuhl (1984), le modèle validé des phases de l'action offre un cadre théorique propice à des interventions en orientation. Les intentions au service d'un but ne conduisent pas toujours à leur réalisation comportementale parce qu'elles ne préparent pas nécessairement à faire face aux problèmes d'autorégulation qui se posent dans l'acheminement vers ce but. L'orientation cognitive d'exécution qu'instaure une intention-but facilite le passage à l'action en direction du but. Mais les personnes qui forment des intentions d'exécution bénéficient en plus d'un acte volitionnel en se préparant à repérer les opportunités d'agir et à répondre à ces opportunités, ce qui exige moins d'effort. On notera que ce modèle prévoit d'intégrer motivation et stratégies volitionnelles dans la poursuite d'un but (Gollwitzer & Brandstätter, 1997). Les processus motivationnels qui se terminent sont ceux qui interviennent dans la délibération des désirs à sélectionner (désirabilité et faisabilité), non pas ceux que la phase d'exécution subsume. Ainsi, il a été démontré expérimentalement que la force de l'intention-but détermine la force des effets des intentions d'exécution (Sheeran, Webb & Gollwitzer, 2005). En d'autres termes, les intentions d'exécution favorisent l'exécution des comportements correspondants pourvu que l'intensité de l'intention-but soit élevée. Les intentions d'exécution n'ont, par elles -mêmes, aucune force motivante, leur efficacité relevant d'un déclenchement « stratégique automatique » (Gollwitzer & Schaal, 1998) des actions via les indices situationnels spécifiés. Par ailleurs, la mesure dans laquelle le but reflète les intérêts et les valeurs véritables agit comme modérateur de l'efficacité des intentions d'exécution : les effets des intentions d'exécution sur l'atteinte du but ne sont pas les mêmes selon que celles -ci ont été formées au service de buts extrinsèques (autonomie faible de l'individu) ou de buts intrinsèques (autonomie forte). C'est dans le cas de buts intrinsèques que les effets des intentions d'exécution sont les plus importants (Koestner, Lekes, Powers & Chicoine, 2002). Enfin, l'entrée dans la phase d'exécution ne supprime pas tout processus affectif, puisque c'est le propre de l'orientation cognitive d'exécution de traiter l'information de manière partiale de manière à faciliter l'entrée des stimuli favorables à la poursuite du but et de favoriser l'optimisme. L'architecture de certains grands paradigmes vocationnels est propice à l'accueil de ce modèle. Dans la TSCOSP, le choix initial d'engagement dans un domaine déterminé (but), qui est sous la dépendance de l'auto-efficacité attendue, des attentes de résultats et des intérêts, est modélisé comme motivant des choix d'actions et des efforts visant à atteindre ce but. L'introduction d'intentions d'exécution pourrait naturellement s'appliquer aussi à cette séquence. La théorie sociale de l'action en contexte a théorisé la carrière comme un système fortement architecturé de processus intentionnels guidés par un but sous la forme d'actions, de projets et de carrières. Il serait intéressant de tester l'hypothèse d'un effet de l'introduction, dans le cadre d'actions conjointes construites dans un espace de consultation sous la conduite d'un spécialiste (par exemple lors d'échanges entre bénéficiaire et parents), d'intentions d'exécution sous forme de stimuli visant à renforcer l'agentivité de la personne dans le cheminement vers un choix d'études et/ou professionnel. Quant à la théorie constructionniste intégrative de Savickas, par l'importance qu'elle accorde aux mécanismes de l'autorégulation de l'action, en particulier aux habiletés de contrôle, elle paraît tout prête à intégrer l'outil volitionnel. Enfin, parmi divers présupposés relatifs à un changement dans l'accompagnement en orientation, le paradigme de la construction de sa vie propose que le rôle du conseiller soit de favoriser chez le bénéficiaire l'accroissement de son pouvoir d'agir. Une attitude consistant à stimuler la formation d'intentions d'exécution rencontrerait ce présupposé, puisque celles -ci sont une planification consciente de l'action guidée par un but. Nous avons nous -même commencé d'appliquer cette technique dans notre consultation. Il reste naturellement à évaluer l'effet de ce type d'intentions dans le processus vocationnel. La recherche a obtenu dans d'autres champs que l'orientation des effets de moyenne à large amplitude dans l'engagement de comportements en direction du but, la protection vis-à-vis de « tentations » et le désengagement de la poursuite de buts inaccessibles. Quelques travaux pionniers attestent que, dans certaines zones de la psychologie de l'orientation, la prise en compte de variables volitionnelles, singulièrement le recours à la formation d'intentions d'exécution, contribue à accroître le pourcentage d'explication de la variance de la mise en acte des décisions d'orientation. Les bénéfices autorégulatoires de ce type particulier d'intentions devraient être plus largement explorés par les psychologues d'orientation comme outil puissant autorisant, comme le recommande Savickas (2002), un meilleur contrôle de leur trajectoire académique et professionnelle par leurs consultants . | À un modèle limité au construit de motivation, qui ne peut prétendre à rendre compte de la résolution des problèmes d'autorégulation liés aux obstacles pouvant se dresser sur le chemin qui conduit à la fixation d'un but vocationnel, il convient de substituer un modèle articulant la volition à la motivation. En particulier, de nombreux travaux empiriques attestent la fécondité des intentions d'exécution pour aider au démarrage de l'action, à la protection de la poursuite du but contre des influences indésirables et au désengagement de voies stériles. Nous proposons d'étendre l'application de cet outil cognitif volitionnel au conseil en orientation. | psychologie_10-0335805_tei_943.xml |
termith-745-psychologie | Après être devenu une figure classique de l'orientation scolaire et de l'insertion professionnelle (Castra, 1995; Pralong, 1999), le projet est maintenant aussi un incontournable de la Gestion des Ressources Humaines en matière de mobilité interne. Permettre à chaque salarié de développer son projet d'évolution dans l'entreprise est un objectif désormais banal (Citeau, 2002; Reale & Dufour, 2006). Les job-boards internes, chartes de mobilité et autres référentiels de compétences sont les « bonnes pratiques » associées à cet objectif (Bournois, Rojot & Scaringella, 2003) : à l'entreprise de fournir les informations et de construire les règles d'un marché interne libre; à chaque salarié de se les approprier pour définir un projet professionnel étayé sur une connaissance objective de soi et des possibilités offertes par l'organisation. En conséquence, les individus deviennent les acteurs centraux et quasi uniques de leurs carrières. Ce recours au projet individuel semble présenter plusieurs avantages pour les entreprises. En premier lieu, un marché interne libre rend inutile la construction d'une gestion prévisionnelle fine des compétences ou des effectifs. Ensuite, la fidélité des collaborateurs semble garantie puisque des fonctions à la hauteur de leurs ambitions leur sont promises en permanence. La performance semble aussi acquise si l'on accepte le présupposé selon lequel la motivation est garantie par l'exercice des fonctions proches des compétences détenues. Enfin, ces politiques promeuvent implicitement une diversité raisonnée en permettant des parcours nomades dont la cohérence est à chercher du côté du collaborateur plutôt que de l'organisation (Cadin, Bender & de Saint Giniez, 2003). Mais ces pratiques gestionnaires demandent à être confrontées à l'état actuel des connaissances sur les processus de construction des projets professionnels. Car au consensus observé chez les praticiens font écho plusieurs interrogations parmi les travaux académiques sur les carrières et l'orientation : Quels sont les processus impliqués dans la construction des projets (Pralong, 2007; 2008) ? Sont-ils étayés sur le traitement objectif des informations dont les individus disposent (Dumora, Gontier, Lannegrand, Pujol & Vonthron, 1997) ? S'affranchissent-ils de contingences normatives ou psycho-sociales (Mangard & Chanouf, 2007) ? À quoi servent les projets ? Quelle est la valeur prédictive du projet sur les conduites effectives (Pralong, 2007) ? Cette dernière question est plus stratégique qu'il n'y paraît pour les entreprises. Avant d' être une forme de reconnaissance et de développement individuel, la carrière traditionnelle était aussi un outil permettant de garantir les compétences collectives. C'est en encadrant et organisant les parcours que les firmes ont pu disposer de salariés en quantité et en qualité. Confier aux individus la gestion de leurs parcours, donc les laisser piloter le développement de leurs compétences, est-il aussi efficace pour garantir la pérennité de compétences collectives ? Cet article se donne deux objectifs. Premièrement, nous proposerons un modèle théorique du projet de mobilité interne. Nos références se situent principalement dans le paradigme de la construction du sens développé par Weick et Berlinger (1989) et Weick (1995). Malgré sa richesse, ce modèle est encore peu connu dans la communauté francophone. Secondement, nous testerons ce modèle empiriquement. Les données présentées proviennent d'une étude longitudinale intra-organisationnelle. Les résultats supportent les propositions de Weick et la théorisation du projet comme un ajustement ininterrompu et incorporé dans la culture organisationnelle. L'examen de la littérature met en évidence que les projets se construisent au confluent de trois paradoxes. L'ambiguïté de la vie sociale et la nécessité de l'action. Les textes montrant la complexification des relations des individus à leur expérience sont désormais nombreux et classiques (Dubet, 1995; Beck, 2001). Les individus appartiennent à plusieurs groupes et font l'expérience de socialisations plurielles (travail, famille, activités diverses). Ces diverses insertions, parfois contradictoires, rendent impossible toute socialisation complète et donc tout répertoire de comportements unique. Il n'y a plus de continuité de rôle entre les différents registres de l'expérience. En retour, les contextes et l'environnement dans lesquels l'action se déroule se complexifient. Le marché du travail ou les règles du jeu dans les organisations sont flous et ambigus. Les attentes des managers sont rarement explicites. Le futur se prête mal à prévision. L'absence de certitude concerne tous les paramètres du contexte : les protagonistes immédiats (collègues, manager. ..), les protagonistes distants (concurrents. ..) et même la nature physique ou biologique (un phénomène naturel exceptionnel est toujours possible, comme le montre Weick dans son analyse de l'accident de Mann Gulch-Weick, 1993). Malgré leur ambiguïté, les contextes sociaux sont toujours orientés vers l'action. Les individus sont engagés dans des interactions qui les poussent à agir. On pense en premier lieu au travailleur qui interagit avec ses collègues autour d'un problème commun – que cette interaction soit immédiate ou non (sur une chaîne de montage ou par mail interposé), hiérarchisée ou non (collègues ou manager/collaborateur). C'est aussi le cas dans une conversation amicale. Il n'y a pas de pause dans l'action et encore moins de position de repli permettant une réflexion purement tactique. Autrui est en permanence présent pour co-construire des finalités et réguler l'action. Face à la nécessité d'agir dans des contextes ambigus, mais faute de références de comportement, chaque individu est contraint de faire ses propres choix, de construire lui -même le sens de ses conduites et de se doter de ses propres principes d'action. « L'expérience sociale » (Dubet, 1995) est la nécessité pour l'individu de construire une définition de soi et des modalités d'engagement idiosyncrasiques au confluent des diverses appartenances sociales que les divers registres de sa vie lui imposent. La notion de projet exprime cet effort de l'individu pour gérer et organiser son action. Il simplifie le futur en présentant des actions vraisemblables (Boutinet, 2004). Le premier paradoxe des projets est ainsi de rechercher à figer des représentations stables et structurantes dans une réalité sociale et un futur ambigus et fuyants. Ce paradoxe explique le scepticisme de certains auteurs quant à la capacité des projets à prédire les conduites effectives : Castra (1995) rappelle que les projets n'ont de valeur prédictive que dans les situations où les sujets jouissent d'une autonomie et de ressources personnelles fortes. Tel n'est pas le cas dans la majorité des événements de carrière : on reconnaîtra que les recrutements sont des situations où s'exerce une concurrence forte et où la décision finale échappe aux candidats. Projets des individus et hiérarchies des postes. Le projet de mobilité semble être, par définition, idiosyncrasique : à chacun son projet selon son histoire, ses compétences et ses préférences. L'influence des préférences professionnelles individuelles sur les carrières a été largement étudiée (Fouad, 2007). Cependant, Young, Valach et Collin (2002) ont montré la construction culturelle des projets. Ces auteurs définissent la carrière comme une série d'actions, de projets et de buts articulés par les individus pour leur donner du sens. Cette construction de sens n'est pas exclusivement individuelle. Le projet est aussi un construit collectif. Il s'élabore dans des contextes sociaux. Les projets des adolescents, par exemple, se construisent au sein de la communauté familiale (Valach, Young & Lynam, 2002). Les groupes de pairs ou de collègues peuvent aussi être des lieux de construction de projets (Pralong, 1999). En retour, les projets utilisent et expriment des représentations collectives sur le travail, l'emploi et la réussite. Ils incorporent des normes, des valeurs et des hiérarchies. L'orientation et les carrières se déroulent dans un monde valué. Par exemple, toutes les filières scolaires ne se valent pas. Elles préparent des diplômes dont les rentabilités sociales sont inégales, en particulier sur les critères de rémunération et de facilité d'accès au premier emploi. En outre, l'institution scolaire française valorise les disciplines les plus abstraites et les savoirs les plus décontextualisés. Schématiquement, les études longues de l'enseignement supérieur s'opposent aux formations professionnelles courtes. Toute une hiérarchie subtile et complexe existe entre ces deux extrêmes, de sorte que toute filière scolaire est cotée dans ce classement informel. Les filières les plus attirantes sont aussi les plus sélectives; tous les jeunes n'ont pas la même probabilité d'accès aux diplômes prestigieux. La construction des projets d'orientation scolaire doit donc être comprise comme un processus culturellement situé. L'école apporte des renforcements quotidiens (notes, appréciations des professeurs. ..) permettant une autoévaluation (Perrenoud, 1995). Chaque élève intériorise sa propre valeur et déduit de sa position dans la hiérarchie de ses pairs une gamme de choix possibles. « Avoir un projet [. ..] consiste à considérer comme un choix personnel l'orientation dans l'une des voies qu'on [. ..] propose » (Guichard, 1997). C'est la « causalité du probable » (Duru-Bellat et Henriot-Van Zanten, 1992), c'est-à-dire le choix de la filière à laquelle on peut réellement prétendre en fonction de sa valeur scolaire. De la même façon, les salariés ne mènent pas leurs carrières dans un environnement de libre choix (Lagabrielle & Saubion, 2005). La construction des projets est à comprendre en fonction des cultures organisationnelles dans lesquelles elle se déroule. Ces cultures valorisent inégalement les postes. Les systèmes de classification et les grilles de salaires expriment la hiérarchie par laquelle les entreprises distinguent les emplois. Les organisations valorisent aussi inégalement les compétences et les profils des individus. La construction des projets mêle donc une délibération liée aux goûts personnels et des ajustements aux possibilités qui s'offrent aux individus dans des contextes porteurs de normes et de hiérarchies. C'est le deuxième paradoxe. Causalité du probable et valorisation du probable. La construction des projets scolaires peut ainsi prendre la forme d'un appariement entre des hiérarchies d'élèves et de filières. Les meilleurs n'ont pas à choisir : il leur suffit de prolonger leur parcours dans la trajectoire d'excellence fixée par la culture organisationnelle. Seuls les élèves de niveaux moyens ou faibles sont sollicités pour développer un projet argumenté. Demander de construire un projet à ceux qui disposent le moins de ressources n'est pas un petit paradoxe (Perrenoud, 2001). Mais la causalité du probable, ou la définition du projet par la probabilité d'accès, n'exclut pas le souci de valoriser positivement la voie retenue : Dumora et al. (1997) montre que les élèves construisent des discours positifs pour justifier leurs choix. Cette adaptation des discours peut s'avérer particulièrement complexe quand les individus sont contraints par l'institution de rejoindre des voies radicalement différentes de celle qu'ils avaient souhaitée antérieurement. C'est le cas des lycéens souhaitant une scolarité longue dans la voie générale et contraints de se réorienter dans des études professionnelles courtes. Dans un premier temps, le sujet anticipe les orientations probables en fonction de sa valeur scolaire. Cette valeur est construite par les diverses informations que l'institution lui fournit (notes, appréciations formelles, renforcements. ..) et par la comparaison avec les pairs. Il s'engage ensuite dans la décision qui semble la plus probable. Cet engagement marque une adhésion forte qui se formalise dans les représentations (le projet professionnel) mais aussi dans les actes (prise d'inscriptions en particulier). Le troisième paradoxe des projets apparaît ici : bien qu'ils puissent être construits à partir de situations de choix contraints, ils sont engageants pour les individus. La « causalité du probable » précède la « valorisation du probable ». Quel modèle théorique peut-on proposer pour modéliser la construction des projets à partir des trois paradoxes énoncés ci-dessus ? Le modèle de la création de sens (sensemaking) fondé par Karl Weick (1989, 1993, 1995) permet de comprendre comment les individus tentent de s'ajuster pour faire face aux divers événements qui émaillent la vie organisationnelle. Les fondements du paradigme : ambiguïté des contextes et enactions. La position de Weick est résolument constructiviste : le monde n'existe qu'au travers des constructions cognitives projetées sur lui. Cette construction est rendue nécessaire par l'ambiguïté et l'incohérence des contextes de l'action. Le monde est ainsi « enacté » par les individus. L'unité molaire de la psychologie de Weick est l' « enaction » plutôt que la représentation. Quelles sont les différences entre ces deux notions ? La notion de représentation décrit le correspondant psychologique d'un monde réel considéré comme pré-existant. En d'autres termes, l'activité cognitive serait orientée vers la construction d'une connaissance tendant vers la plus grande conformité avec la réalité. Le lien entre les représentations et le monde tendrait vers la vérité. Le courant enactionniste, au contraire, postule que ce lien est plus motivé par la recherche d'efficacité que de vérité. Le fonctionnement cognitif cherche à satisfaire aux exigences de l'action par l'enactment de principes d'action efficaces. Il n'existe donc pas de lien objectif entre le fonctionnement cognitif et le monde. Les individus tiennent pour vrai ce qui s'est révélé efficace. Le paradigme enactionniste repose ainsi sur deux postulats : Ce qui est vu n'est pas reçu mais construit. L'activité cognitive construit le monde. Cette construction est inséparablement liée à la production immédiate de réponses efficaces aux questions que l'action fait émerger. C'est un engagement dans le réel qui constitue ce réel, l'incorpore à l'action et le promulgue comme une connaissance. La construction sociale de la réalité. Les individus construisent leurs expériences à l'aide de schémas interprétatifs : des cadres de références (ou frames). La notion de frame a été développée en détail par les membres du groupe de Palo-Alto (Watzlawick, Beavin & Jackson, 1979; Watzlawick, Weakland & Fisch, 1981; Watzlawick & Weakland, 1981). Elle prend aussi racine dans la théorie des construits personnels (Theory of personal constructs, Kelly, 1955). Les cadres de référence constituent un répertoire de situations mémorisées auxquelles les individus font appel pour interpréter les événements qu'ils vivent. Le processus de construction cognitive de la réalité sociale est un cadrage (framing) : les individus sélectionnent des indices (cues) dans l'environnement (« des fractions du flux d'expérience », Vandangeon-Derumez & Autissier, 2006) qui permettent de choisir le cadre le plus vraisemblable. La réalité est donc préconstruite (grâce aux cadres) puis interprétée (grâce au cadrage – la sélection d'un cadre et des indices qui le valident). Le processus interprétatif de cadrage est analogique : le cadre mobilisé ressemble à la situation vécue. Le répertoire des cadres définit les frontières en deçà desquelles il est possible de construire du sens. Mais ces limites sont en mouvement. Les cadres ne sortent pas intacts de la confrontation avec l'action. Toute action est aussi un recadrage (reframing) : un enrichissement, une complexification du répertoire des cadres par le jeu des interactions. Les frames caractérisent aussi l'insertion et l'appartenance culturelle de leurs porteurs. Car les frames constituent des cadres de pensée communs aux membres d'une même culture. Elles montrent que la réalité est une construction idiosyncrasique et expérientielle mais aussi contextuelle et culturelle. Les frames incorporent les normes, valeurs et hiérarchies propres à la culture de leurs possesseurs. Kelly (1955) développe aussi l'idée que les individus construisent leur réalité grâce à des ressources cognitives fournies par leurs groupes d'appartenance. Les propositions de Weick rejoignent ici celles de Valach, Young et Lynam (2002) : la relation des individus à leurs buts, projets et actions est médiatisée par leur culture d'appartenance. Le processus de « sensemaking ». Comme on l'a vu, le fonctionnement cognitif est tiré par l'exigence d'une action qui, par ailleurs, se déploie dans des contextes collectifs et ambigus. Les individus sont conduits à produire les enactions qui s'avèrent nécessaires pour interpréter, guider et prolonger l'action. La construction d'une compréhension de la réalité et l'action dans le monde ainsi enacté forment une boucle ininterrompue : c'est le processus de création de sens qui, ainsi, fait le lien entre action et enaction. La création de sens se déroule selon les quatre étapes suivantes : Cadrage : la réalité est cadrée intuitivement et sommairement par un va-et-vient analogique entre un répertoire de cadres et une sélection d'indices extraits de l'environnement. Les questions « que se passe -t-il ? », « que dois -je faire ? », « qu'attend -on de moi ? » trouvent des solutions de type « ça ressemble à la situation vécue X où l'action Y avait été efficace ». Engagement d'une action suggérée par le cadrage. Les résultats et les comportements des protagonistes de l'action se révèlent plus ou moins conformes aux prédictions. Les individus interprètent et justifient l'action qui s'est déroulée. Une nouvelle compréhension de la réalité est énactée. De nouvelles enactions apparaissent (recadrage ou « reframing »). Cette activité est en partie collective. L'action collective est un lieu de partage, de construction et de négociation d'enactions. L'enactment est une négociation doublement ancrée. Elle doit rendre compte de l'action et de son résultat tout en évitant de s'éloigner des règles sociales en vigueur (mœurs, principes moraux, règles locales entre pairs. ..). Cette pluralité de contraintes et l'exigence du prolongement de l'action conduisent à l'enactment d'idées imparfaites selon des critères rationnels mais qui satisfont au critère d'efficacité. L'enactment est un bricolage cognitif. Cadrage : le prolongement de l'action est cadré à l'aide des nouvelles frames produites. La boucle se reproduit. Précisons, enfin, que le modèle de Weick n'est pas un modèle de la crise et du dépassement. Il ne présuppose pas que le fonctionnement cognitif alterne périodes de stabilité et de crises, selon que l'environnement dans lequel l'individu agit est compréhensible ou inattendu. Weick (1995) écrit qu'il n'y a ni début, ni fin à la création de sens. Les situations sont toujours complexes et ambiguës, les comportements des protagonistes résistent à la prévision : chaque action contient sa part de nouveauté, d'inattendu et d'imprévu. Les environnements dans lesquels prennent place les carrières sont typiques des situations ambiguës décrites par Weick. Les paramètres organisationnels sont faiblement prévisibles depuis que l'environnement économique est turbulent. C'est dans ces environnements faits de signaux faibles que les individus doivent fabriquer du sens (sensemaking) concernant les événements rencontrés (licenciements, transitions), les décisions à prendre (choisir un emploi ou en quitter un) et les opportunités à construire. Ils doivent interpréter leurs parcours et leurs compétences afin de produire du sens. Les projets sont les produits de cette création de sens. Cette interprétation utilise des frames qui véhiculent les normes et les valeurs de l'organisation. Elle est incorporée dans la culture organisationnelle qui hiérarchise les emplois et les compétences. Les individus estiment leur place dans cette double hiérarchie en fonction des indices dont leurs environnements sont porteurs. Construire un projet serait donc estimer sa place dans la hiérarchie des emplois possibles en fonction de l'estimation de la valeur de ses compétences. Cette estimation pourrait provenir de nombreux événements (nouvelle organisation, plan de licenciements. ..) mais il en est un qui semble particulièrement favorable : c'est l'appréciation annuelle des performances et des compétences menée par le manager. L'appréciation du manager fournit des indices significatifs pour alimenter l'interprétation que mène chacun sur la valeur de ses compétences. Elle joue un rôle comparable à celui des notes des professeurs pour les élèves et impose l'enactment de nouveaux projets. Nous avons vu aussi que le sensemaking permettait aux individus de se doter d'énactions qui constituent des repères structurants. Ils définissent des tactiques de carrière auxquelles les sujets adhèrent. Ils devraient donc les conduire à développer les moyens – les compétences – nécessaires à leur réalisation. Nos hypothèses concernent les processus de construction des projets puis le rôle des projets dans la construction des compétences : Hypothèse 1. Les projets de mobilité interne sont la traduction, dans la hiérarchie organisationnelle des postes, des niveaux de compétence et de performance recueillis lors de l'appréciation (H1a : Les projets sont hiérarchisés en fonction des compétences, H1b : Les projets sont hiérarchisés en fonction des performances). Hypothèse 2. Le projet a une influence sur le développement des compétences. Les individus cherchent à acquérir les compétences spécifiquement nécessaires à la réalisation de leur projet. L'étude empirique menée ici prend appui sur le recueil de données quantitatives issues d'un grand échantillon. Elle est circonscrite au cas d'une seule organisation : tous les sujets appartiennent à la même entreprise et au même service. Cette approche permet de prendre en compte et de contrôler l'influence de la culture organisationnelle. Malgré la taille de l'échantillon et le recueil de données quantitatives, ce travail est une étude de cas dont les résultats seront exploités dans les limites qu'impose ce type d'approche. L'étude a été menée sur une population de 83 attachés commerciaux qui constituent la force de vente d'une entreprise de travail temporaire. Ces attachés commerciaux ont pour fonction unique la conquête de prospects qui n'ont jamais été des clients. C'est une mission ardue qui demande en moyenne vingt rendez -vous nouveaux par semaine. Les affaires détectées et vendues sont ensuite produites dans un réseau d'agences dont les collaborateurs ont les fonctions typiques des entreprises de travail temporaire : Des chargés d'affaires (ils gèrent les contrats commerciaux et évaluent les candidats pour les déléguer chez les clients). Des managers (responsables des agences). L'entreprise dispose d'une classification des emplois et a mis en place une gestion des ressources humaines par les compétences en 2003. Tous les collaborateurs ont accès à un référentiel des emplois, à un répertoire des carrières types ainsi qu' à la liste de tous les postes à pourvoir. L'accord de classification est ancien (1999); le dispositif de gestion par les compétences mis en place en 2003 est aligné sur la classification. Ces deux outils sont aussi cohérents avec les grilles de rémunération. Ils expriment la hiérarchie classique des postes dans les grandes entreprises bureaucratiques : les emplois de managers (dont les responsables d'agences) sont les plus valorisés. Ce sont les mieux rémunérés et les plus reconnus par la classification. Viennent ensuite, par ordre décroissant, les emplois commerciaux (dont les attachés commerciaux), les emplois technico-commerciaux (dont les chargés d'affaires : ils gèrent des clients acquis mais ne prospectent pas) puis les emplois administratifs (assistants, secrétaires. ..). Des entretiens semi-directifs menés sur un échantillon de 12 attachés commerciaux confirment que cette hiérarchie est connue et assimilée. Les données utilisées ont été recueillies à l'occasion des entretiens annuels. L'entreprise met à la disposition des managers un support informatique qui permet de standardiser les thèmes à traiter lors des entretiens. Cet outil a permis de collecter les données concernant l'ensemble des 83 sujets et d'opérer les traitements statistiques de l'étude. Nous avons exploité des données issues de deux campagnes d'entretiens annuels : celle de la fin 2003 et celle de la fin 2004. Dans ces deux cas, les données recueillies peuvent concerner l'année passée (compétences mises en œuvre, performance atteinte) ou l'année à venir (projets professionnels). Les données recueillies étaient : Les projets fin 2003 (pour 2004) et fin 2004 (pour 2005). L'outil informatique recueille des projets professionnels à court terme par le biais d'un champ de texte libre, renseigné par le collaborateur. Le manager n'a pas accès à cette information. Les compétences en 2004 : les six compétences associées à la fonction d'attaché commercial évaluées sont la volonté, l'orientation client, la force de persuasion, la négociation, l'intelligence économique et le droit social. Elles sont évaluées par les managers sur une échelle de 1 (très insuffisant) à 4 (très satisfaisant). Les managers ont reçu une formation spécifique pour leur permettre d'utiliser ce référentiel et d'éviter les biais. Des comparaisons de moyennes et des ANOVA réalisées dans le cadre de l'étude ont permis d'analyser les évaluations des managers et de contrôler un éventuel effet évaluateur. Pour chaque compétence, l'application informatique impose au manager de choisir une des quatre évaluations possibles. Un seul choix n'est possible par compétence (principe des boutons radio). Les résultats de l'année 2004. La performance individuelle de chaque attaché commercial est évaluée par le pourcentage d'atteinte de son objectif de chiffre d'affaires. Nous avons aussi recueilli quatre variables socio-biographiques dont les influences sur les parcours sont classiques (Dumora et al., 1997; Gautié, 2003; Chapoulie, 2000; Le Minez, 2002; Mansuy & Minni, 2004; Le Miniez & Roux, 2002) : L' âge. Le sexe. Le type de formation classé en cinq catégories (commercial, technique, généraliste, industriel ou artisanal). Le niveau de formation classé selon la nomenclature habituellement utilisée (de niveau 6 à niveau 1). Données sociobiographiques. L'échantillon est majoritairement féminin (65 % de femmes) et plutôt jeune (âge moyen : 32 ans, écart-type : 6,21). Les types de formations sont hétérogènes (tableau 1). Les généralistes, commerciaux et techniciens sont également représentés, mais le type artisanal est marginal. Les niveaux de formation sont, au contraire, assez homogènes (tableau 2). 75 % de l'échantillon a un diplôme de niveau bac + 2 (niveau 3). L' âge et la formation sont liés. Les diplômés de type artisanal (ANOVA âge et type de formation : F = 3,37, p < 0,01) et de niveau 1 (ANOVA âge et niveau de formation : F = 4,05, p < 0,01) sont significativement plus âgés (46 ans en moyenne) que tous les autres. Notre échantillon est composé typiquement de femmes jeunes et de niveau bac + 2. Ces données témoignent de l'influence d'une campagne de recrutement destinées aux jeunes diplômés menée par l'entreprise en 2000. Mais la dispersion des âges et des formations témoigne aussi de la présence, certes plus marginale, d'attachés commerciaux masculins, plus âgés (9 % de l'échantillon a plus de 45 ans) et détenteurs de formations plus diverses et de moindre niveau. Les projets des attachés commerciaux. Entre 2003 et 2004, 34 % des attachés commerciaux ont changé de projet. La majorité des collaborateurs (63 % en 2003, 53 % en 2004) souhaite conserver ses fonctions actuelles et ne présente pas de projet précis (tableau 3). Les autres rapportent deux types de projets. Un projet « manager » est détenu par 30 % des collaborateurs en 2003, mais 24 % un an plus tard. C'est le projet typique de la carrière traditionnelle : accéder aux fonctions de n + 1. Le projet « chargé d'affaires » est porté par 5 % des collaborateurs en 2003; il connaît une évolution forte puisqu'il est porté par 18 % des salariés un an plus tard. C'est un projet plus atypique puisqu'il ne correspond à aucun parcours professionnel traditionnel. Les compétences et les performances en 2004. Les compétences de ces salariés sont majoritairement appréciées autour du niveau 3 ou « satisfaisant » (tableau 4). Les notes sont assez faiblement dispersées (écart-type moyen : 0,5). L'évaluation des performances confirme le bon niveau de la population (tableau 5). La dispersion est cependant plus forte, ce qui signe l'existence de collaborateurs en situation de réussite ou d'échec très forts. Aucune différence significative entre les moyennes des six compétences et la fréquence des projets chez les différents évaluateurs n'est relevée. Il n'y a pas d'effet de l'évaluateur. Tableau 5 Influence des variables socio-biographiques sur les compétences et les performances. Les variables socio-biographiques n'ont d'influence sur les mesures des compétences et des performances que dans deux cas particuliers (tableau 6) : D'une part, le niveau de formation initiale apparaît lié à la mesure des performances. Les sujets détenteurs de parcours de formation longs ont de meilleurs résultats commerciaux que les autres. Notons qu'il peut paraître étonnant que ce soit la durée de la formation et non son type qui prédise la performance économique. Or les diplômés de formations commerciales ne sont pas plus performants que les autres. D'autre part, l' âge apparaît lié à l'appréciation de la compétence « intelligence économique ». Les individus les plus âgés reçoivent de meilleures évaluations. Influence des données socio-biographiques sur les projets. L'analyse de régression montre aussi l'absence d'influence de l' âge, du sexe et de la formation sur les projets pour 2004 ou pour 2005 (tableau 7). Ce constat neutralise les deux observations inattendues relevées ci-dessus. L'influence de l' âge sur la compétence « intelligence économique » et celle du niveau de formation sur la performance sont des artefacts de mesure. On ne peut évidemment pas conclure que l' âge en lui -même a une influence, mais plutôt supposer que la maîtrise de la compétence « intelligence économique » implique une longue expérience d'un même territoire. L' âge exprime ici plutôt l'ancienneté dans un même secteur géographique et la connaissance des acteurs, de la culture et des réseaux économiques locaux. Quant à l'influence du niveau de formation sur la performance, elle nous paraît liée à la faible dispersion de la variable « niveau de formation ». Rappelons que 75 % de l'échantillon possède une formation de type bac + 2. Les projets, les compétences et les performances ne dépendent pas des quatre variables socio-biographiques analysées; leurs sources de variation sont à rechercher dans d'autres variables. Nous pouvons donc examiner les résultats liés à nos hypothèses. Influence des compétences 2004 sur les projets pour 2005 (hypothèse 1a). Le lien entre compétences et nouveaux projets est hétérogène (tableau 8). Pour quatre des compétences évaluées, il est significatif. Dans ce cas, ce sont les salariés porteurs du projet « management » dont les compétences sont les mieux évaluées. Les compétences des collaborateurs porteurs d'un projet « chargé d'affaires » sont les moins bien évaluées. Nous observons l'existence d'une hiérarchie qui oppose des excellents, porteurs d'un projet managérial, à des collaborateurs de niveau moyen (projet « attaché commercial ») puis de niveau faible (projet « chargé d'affaires »). L'hypothèse 1a est confirmée : les projets sont hiérarchisés en fonction des compétences, même si deux compétences parmi les six n'ont pas d'influence. Influence de la performance 2004 sur les projets pour 2005 (hypothèse 1b). Examinons maintenant l'influence des performances sur les projets. L'analyse de variance montre un lien significatif (F = 0,21 et p < 0,05). Les collaborateurs ayant obtenu les meilleures performances ont le projet de devenir managers. À l'inverse, le projet « chargé d'affaires » est porté par les salariés dont les résultats sont les moins bons. Une hiérarchie des projets liée à une hiérarchie des performances apparaît : aux meilleurs, le projet de devenir manager; aux moyens, le projet de prolonger leurs activités actuelles; aux moins bons, le projet de devenir Chargé d'affaires. Seuls les plus performants semblent pourvoir prétendre à une carrière bureaucratique. L'hypothèse 1b est confirmée : les projets sont hiérarchisés en fonction des performances. En conclusion de ces résultats, retenons que les hypothèses 1a et 1b sont validées par les données. Les projets sont hiérarchisés en fonction de l'appréciation des résultats et des compétences. On constate un lien significatif entre les projets pour 2004 et trois des six compétences évaluées un an après (tableau 9). Ces compétences sont celles qui sont communes aux fonctions de chargé d'affaires et d'attaché commercial. Les collaborateurs qui souhaitaient rejoindre la fonction de chargé d'affaires sont significativement mieux évalués que les autres pour les trois compétences liées à cette fonction. A contrario, les compétences en 2004 des collaborateurs porteurs du projet « attaché commercial » pour 2004 ne présentent pas de différences significatives. Il en est de même pour les collaborateurs porteurs du projet « manager. » Seuls les sujets porteurs d'un projet « chargé d'affaires » ont développé des compétences liées à ce projet. L'hypothèse 2 est partiellement confirmée. Un type de projet sur les trois a une influence sur le développement des compétences. L'analyse devra expliquer pourquoi seul ce projet, plutôt que les autres, a une influence. Nos résultats étayent l'incorporation des projets dans un processus ininterrompu de création de sens qui fait d'eux un produit et un préalable de l'action. Elles remettent en cause les modèles qui conditionnent linéairement l'action à la motivation et la motivation au projet, comme la théorie de la valeur attendue (expectancy-value theory, Feather & O'Brien, 1987; Vansteenkiste, Lens, De Witte & Feather, 2005) ou les modèles différentialistes (Fouad, 2007). Entre souhaitable et probable : le projet comme produit de l'action. Construire un projet, c'est interpréter ses ressources pour estimer leur valeur et les situer dans la hiérarchie des postes inhérente à la culture organisationnelle. Cette interprétation mobilise des ressources socio-cognitives – des frames – culturellement situées. La culture organisationnelle valorise et hiérarchise les emplois : c'est la hiérarchie des « souhaitables ». Dans l'organisation étudiée, les emplois de manager cumulent les avantages : ils sont les mieux rémunérés et jouissent d'un prestige particulier associé à la responsabilité et au pouvoir de décision. La classification des emplois négociée entre la direction et les partenaires sociaux témoigne de cette hiérarchie. L'estimation de la valeur des compétences permet d'identifier des « probables », c'est-à-dire les postes auxquels un individu peut prétendre. Les probabilités d'accès aux emplois dépendent des positions de chacun dans la hiérarchie des performances et des compétences. L'appréciation, tout comme une grande diversité d'événements quotidiens, apporte des informations qui renseignent l'individu sur sa place dans la hiérarchie des salariés. Le projet de manager est celui que choisissent les meilleurs salariés, ceux qui ont la plus grande liberté de choix. Les autres types de carrières apparaissent comme des choix de repli, contraints par des niveaux de compétences ou de performances insuffisants. Le projet apparaît ainsi comme le plus haut poste probable dans la hiérarchie des postes souhaitables. Il semble s'imposer de lui -même en fonction du niveau de chacun. Les meilleurs salariés sont guidés vers la fonction la plus valorisée par la culture organisationnelle; dans l'organisation étudiée, devenir manager et respecter un schéma de carrière hiérarchique apparaît comme la destinée des meilleurs. Le projet comme préalable hétérogène à l'action. Nos résultats montrent que seul un type de projet engendre des tactiques dédiés à sa réalisation : c'est le projet que portent les moins bien évalués des salariés. Ce résultat mérite d' être commenté. Comment expliquer que seuls ces projets aient la capacité à orienter les conduites des individus et à favoriser le développement des compétences ? Vansteenkiste, Lens, De Witte et Feather (2005) ont montré que la motivation à la recherche d'emploi n'était pas une notion homogène. Elle peut être diverse par son intensité mais aussi par sa nature. La recherche d'autonomie ou la recherche de développement personnel, par exemple, sont des types de motivation différents qui n'engendrent pas les mêmes types de comportement chez les demandeurs d'emploi. Il se pourrait donc, de la même façon, que la notion de projet ne soit pas homogène. La construction des projets des individus dont les résultats les excluent du scénario d'évolution normatif présente la spécificité de mobiliser plusieurs informations. Le niveau de l'individu dans la hiérarchie des salariés définit un périmètre de postes probables mais il ne suffit pas. Car dans l'organisation étudiée, ces postes sont nombreux et divers. Il revient donc aux individus d'opérer un choix. Il s'agit d'un choix faible, puisque les solutions sont de valeurs comparables. Mais ce choix en est d'autant plus complexe : il n'existe pas de référence normative permettant de hiérarchiser les possibilités. La nécessité de choisir parmi des opportunités équivalentes impose aux sujets de construire leurs règles de choix. Que le processus de création de sens doive construire ces principes de choix personnels engendre un traitement cognitif profond qui, à son tour, provoque l'engagement des individus dans ce type de projet. A contrario, les individus dont les résultats les conduisent linéairement vers les emplois les plus valorisés font un choix moins élaboré et donc moins engageant. Il est prévisible que ces projets soient moins mobilisateurs pour les individus. Que la notion de projet soit hétérogène est un résultat inattendu. Mais il ouvre des pistes de recherche nouvelles. Il conduit surtout à relativiser l'efficacité des pratiques gestionnaires citées en introduction et qui font du projet un levier pour la motivation et la construction des compétences. En conclusion, cinq caractéristiques nous semblent être à retenir pour caractériser un projet de mobilité interne : Il est contraint par la position de l'individu dans la hiérarchie des salariés. Il est énacté pour justifier et donner un sens subjectif à cette position. Les informations concernant cette position se construisent grâce aux interactions avec des membres significatifs de l'organisation comme le manager. Il engage le sujet : il contribue à définir et à valoriser sa place dans l'organisation. Dans certaines conditions, il est à l'origine des actions que le sujet va mettre en œuvre pour gérer sa carrière. Bien que la pertinence du modèle de la création de sens pour expliquer la genèse des projets nous semble étayée par nos résultats, plusieurs limites sont à prendre en compte. Rappelons que cette recherche est une étude de cas concernant des projets de mobilité interne dans une organisation. Elle est donc limitée en généralité. Les projets étudiés ici sont choisis exclusivement parmi les possibilités offertes dans l'entreprise. On peut imaginer que les individus envisagent aussi de poursuivre leurs carrières au-dehors ou cherchent à investir d'autres sphères de vie (Dupuy & Le Blanc, 2001). Notre travail ne dit rien de ces projets -là ou des liens entre ces projets et d'autres appartenant à d'autres sphères de vie. En outre, la méthode longitudinale rend les données sensibles à de nombreuses variables parasites. De nombreux événements peuvent faire évoluer la culture organisationnelle entre deux mesures. Bien qu'aucun événement de cette nature n'ait cependant été constaté et rapporté dans nos entretiens, nous prenons en compte les limites de ce genre d'étude. Enfin, l'appréciation a été étudiée comme proxy de faits particulièrement saillants, au risque de laisser penser que c'est l'appréciation comme pratique de gestion (et elle seule) qui influence les projets. On pourrait croire aussi que seuls des événements d'une certaine intensité agissent. La proposition de Weick, au contraire, plaide résolument pour un ajustement permanent plutôt que pour des situations de crise alternées avec des périodes de stabilité. Ce caractère ininterrompu est mal capturé par notre dispositif. Nous pensons cependant que les résultats recueillis pourraient être identiques dans toute organisation porteuse d'une culture qui hiérarchise fortement les emplois. C'est évidemment le cas dans les entreprises bureaucratiques traditionnelles : la hiérarchie y est très formelle. C'est sans doute aussi le cas dans des entreprises mobilisant d'autres formes organisationnelles. Les mêmes hypothèses restent donc à tester dans des organisations d'autres types et en mobilisant un dispositif plus capable d'enregistrer des ajustements réagissant à d'autres types d'informations que l'appréciation annuelle . | Le projet fait désormais partie des « bonnes pratiques » en Gestion des Ressources Humaines. Malgré ce consensus parmi les praticiens, on peut s'interroger sur les processus de production des projets et sur leur influence réelle sur les conduites des individus. Cet article se donne donc deux objectifs. D'une part, on propose un modèle du projet à partir du paradigme de la construction du sens (sensemaking) dû à Weick. La construction des projets est modélisée comme un ajustement permanent cadré par la culture organisationnelle. D'autre part, on teste ce modèle grâce à une étude longitudinale menée pendant deux ans sur une population d'attachés commerciaux. L'évolution des projets est analysée en fonction de celle des performances et de l'appréciation des compétences par les managers. Les résultats montrent l'influence de l'appréciation et des performances sur les projets. | psychologie_09-0254041_tei_968.xml |
termith-746-psychologie | La transformation du monde du travail vers la complexification, l'abstraction et la globalisation a bouleversé les façons de penser l'orientation des individus et de pratiquer le conseil d'orientation. Les modèles théoriques et les méthodes du 20 e siècle s'avèrent aujourd'hui inadéquats. Examinons les critiques les plus fréquentes de ces modèles traditionnels dont Campbell et Ungar (2004) dressent une liste que nous reprenons à notre compte parce qu'elle trace en creux les caractéristiques souhaitables pour une alternative. Une première critique récurrente est que les approches traditionnelles du conseil sont réductrices, normatives, décontextualisées et réactives, donc inadaptées face aux enjeux actuels de l'aide à des individus en développement dans un monde du travail en changement. La non-linéarité, les transitions et la négociation caractérisent en effet les vies actuelles : plus de prédétermination stricte du passé ni de logique linéaire dans la progression entre la sortie de l'école et la retraite. Il faut alors préciser les conditions pour une approche du conseil qui soit idiosyncrasique, évolutive, holistique, proactive et sensible au contexte. Deuxième argument critique : la complexité de la vie des individus n'est pas suffisamment prise en compte dans les formes du conseil tel qu'il est pratiqué aujourd'hui. D'une part, la focalisation sur le rôle professionnel occulte la myriade de rôles que l'individu joue dans sa vie et isole donc sa vie professionnelle des autres secteurs de sa vie alors qu'il faudrait élargir le conseil de carrière à l'aide à la construction de soi. D'autre part, l'approche traditionnelle du conseil a pour visée l'élaboration d'un schème moyen-fin dont les deux termes sont censés correspondre de façon idéale mais, ce faisant, cet objectif néglige la pluralité des trajectoires et des stratégies possibles. Ce qui conduit à préconiser idéalement une approche plus souple et plus ouverte aux différentes possibilités qui s'ouvrent pour le sujet à un moment donné, ainsi que des rencontres de conseil réitérées lors des transitions qu'affronte ce sujet. Troisième argument critique : les valeurs, les intérêts et les aspirations des individus sont considérés comme des composantes personnologiques évoluant en vase clos comme si l'influence des contextes familiaux, communautaires, économiques, de genre, ou ethniques était secondaire sinon négligeable. Quatrième argument critique en forme de mise en garde : aujourd'hui, toute pratique du conseil qui encouragerait un consultant à définir des buts précis et à long terme ne pourrait que générer du conflit, du stress et de l'anxiété. Enfin, dernier argument : considérer comme on le fait communément que l'indécision est un signe d'immaturité ou de déficit peut conduire les consultants à éviter les situations de prise de décision ou à ne prendre ces décisions que sous la contrainte. Alors qu'il serait nécessaire de réfléchir à l'orientation avec un point de vue plus ouvert, plus disponible, leur fonctionnement mental devient limitatif et ils persistent soit dans le non-choix, soit dans le maintien de leur décision, partielle et ponctuelle, jusqu' à ce qu'elle apparaisse clairement problématique. Notre projet dans cette deuxième partie est d'examiner comment les modèles constructivistes et constructionnistes de l'identité peuvent constituer un changement de perspective dans les pratiques du conseil, pallier les insuffisances ainsi dénoncées des modèles et des méthodes existants et permettre d'aider les personnes à affronter la complexité et l'incertitude des transitions et des trajectoires scolaires et professionnelles. Pour leurs auteurs, s'orienter aujourd'hui, c'est « se construire » tout au long de la vie et la psychologie de l'orientation devient nécessairement une psychologie de la construction de soi. Le postulat de Berzonsky (1988, 1989, 1992, 1993, 2003) est que les « individus jouent un rôle, tant dans la construction de ce qu'ils pensent être que de la “réalité” dans laquelle ils vivent. Ce sont les interprétations personnelles des expériences et non les événements en eux -mêmes qui constituent la réalité d'une personne » (2003, p. 239). L'identité est comprise comme une théorie de soi construite par soi, c'est-à-dire une structure conceptuelle composée d'un système de suppositions, de schémas, de constructs, de scripts et de postulats relatifs au soi interagissant avec le monde. Cette théorie de soi organise, intègre et donne sens aux informations et expériences marquant le cours de la vie quotidienne. L'efficacité des efforts d'adaptation est contrôlée et évaluée à la lumière des buts et des valeurs de l'individu. Ils peuvent produire des feedbacks négatifs (une dissonance) créant le besoin de réviser et d'ajuster la structure identitaire : « un développement identitaire optimal nécessite une interaction continue entre des processus d'assimilation guidés par la structure identitaire existante et des processus d'accommodation visant à modifier cette structure » (Berzonsky, 2003, p. 239). L'apport original de Berzonsky (1989) est d'articuler à cette approche constructiviste une analyse différentielle et de définir des « styles identitaires » : ses recherches empiriques mettent en évidence que les individus effectuent ou évitent de manière différente les opérations de construction et de reconstruction identitaire. Un style identitaire correspond à une stratégie de résolution de problème ou à un mécanisme de coping : chaque individu est capable d'utiliser indifféremment chacun des trois styles mais il aurait un style préférentiel. Trois styles identitaires ont ainsi été distingués : informationnel, normatif et évitant-diffus. Le style informationnel implique la recherche d'informations et de solutions à des problèmes, une exploration active, un engagement flexible et une estime de soi élevée. Les individus « informationnels » adoptent une attitude sceptique à propos de leurs théories de soi, ils recherchent, traitent et évaluent des informations qui peuvent les conduire à réviser leurs théories de soi. Ouverts à l'expérience, ils manifestent un besoin de développer leurs connaissances, d'avoir une vue articulée des choses et de créer un sens de soi cohérent et évolutif. Ils tendent à adopter une vue constructiviste du monde et d'eux -mêmes et à définir leur identité en termes d'éléments personnels (valeurs personnelles, buts, normes, schémas de soi, etc.). Le style normatif fonctionne dans l'imitation et la conformité. Il suppose une faible ouverture d'esprit, un engagement dogmatique et rigide, des conceptions de soi stables et une absence d'exploration. Confrontés à des décisions importantes, ces individus ont tendance à rechercher des conseils auprès de figures d'autorité. Ils tendent donc à se conformer aux attentes des personnes significatives à leurs yeux. Peu tolérants à l'ambiguïté, ils répugnent à considérer les informations pouvant menacer certains aspects centraux de leur système de soi – comme leur système de valeurs par exemple. Ils s'efforcent de protéger et de défendre leurs concepts actuels de soi, notamment par la formation de stéréotypes et par des distorsions cognitives. Ils ont une vue mécaniste du monde et pensent que ce qu'ils sont est déterminé par des facteurs environnementaux et sociaux. Ils tendent donc à définir leur identité de manière sociale en faisant référence à des attributs renvoyant à des collectifs (religion, famille, communauté, pays, etc.). Le style diffus-évitant est caractérisé par une faible anticipation et par des stratégies basées sur les émotions. Il est associé à un faible niveau d'engagement, à une estime de soi faible et à des conceptions de soi instables. Les individus ainsi définis accordent peu d'importance à leur futur et aux conséquences à long terme de leurs choix. Ils peuvent s'engager dans des formes d'exploration désorganisées et hasardeuses. Ils évitent de faire face à leurs conflits et à leurs problèmes personnels et peuvent s'adapter temporairement à des situations spécifiques sans pour autant s'engager dans la révision de leur structure identitaire. Ils conçoivent le monde comme donné : préformé et prédéterminé. Ils tendent à manifester des conduites de procrastination, à déployer des tactiques de contrôle de soi et des impressions produites sur autrui. Leur locus de contrôle est plutôt externe. Peu soucieux de modifier leur soi intime et privé, ils se définissent en termes d'attributs de soi sociaux (réputation, popularité, impression faite sur les autres, etc.). Berzonsky postule et confirme les liens entre styles identitaires et stratégies de décision pour une population d'étudiants (Berzonsky & Ferrari, 1996) : les étudiants « informationnels » sont les plus efficaces, les « diffus-évitants » le sont le moins, le groupe des étudiants « normatifs » se situant entre les deux précédents et ceci indépendamment de la variable efficience intellectuelle. Plus récemment, Berzonsky et Kuk (2005) démontrent des liens entre style identitaire, maturité sociale et réussite universitaire : les étudiants définis comme « informationnels » obtiennent des scores plus élevés que les deux autres groupes sur des échelles d'indépendance, d'autonomie et d'assurance ainsi que sur les performances universitaires. Les « diffus-évitants » sont peu réalistes dans leurs informations et dans leurs projets de carrière, et moins stables dans les relations avec leurs pairs. Si l'objectif des pratiques sociales de l'aide à l'orientation est d'améliorer l'efficacité des démarches personnelles de recherche d'informations et de prise de décision, il faudrait diversifier les interventions en fonction des populations ciblées. En milieu scolaire ou universitaire par exemple, la démarche consisterait à constituer des groupes homogènes quant au style identitaire et à définir l'intervention éducative jugée la plus efficace pour chacun : ainsi, si une méthode séquentielle et planifiée d'apprentissage de la prise de décision bénéficie plus aux sujets de style informationnel, une approche fondée sur l'expérience intime pourrait mieux convenir aux sujets de style diffus-évitant. Mais on pourrait aussi enrichir le répertoire de stratégies décisionnelles d'un individu en sollicitant d'autres façons de réagir à l'information sur soi -même et en le faisant réfléchir à sa propre façon de réagir aux différents types d'information : celle qui est positive et celle qui ne l'est pas, celle qui est consonante et celle qui ne l'est pas, celle qui vient des parents, celle qui vient des professeurs ou des supérieurs hiérarchiques, celle qui vient des pairs. Proche de la perspective constructiviste de Berzonsky, celle de Kurtines et al. (1992), également inspirée par les travaux de Kelly (1955), se caractérise par l'importance accordée aux compétences des individus à résoudre des problèmes et s'inscrit dans la suite de ses propres travaux sur le développement moral, le contrôle de soi, et le sens de la responsabilité et de l'intégrité morale. Dans ce modèle, l'individu est actif dans le choix des alternatives identitaires disponibles, il est producteur et responsable de ses choix de vie et de leurs conséquences quant à son propre développement et à la promotion de la société; la société offre quant à elle des opportunités de développement cognitif et psychosocial et sollicite des compétences pour effectuer des choix de vie ou résoudre des dilemmes moraux. Quand les individus ou les institutions ne remplissent plus leur rôle, les identités sont menacées : la réciprocité de la relation individu-société favoriserait donc le développement de l'identité. Pour Kurtines et al., l'identité critique est ainsi un sens de soi co-construit dans l'interaction individu-société, constamment réévalué par la réflexion et l'argumentation, et dont les choix et leurs conséquences sont constamment sous le contrôle du sens de la responsabilité et de l'intégrité de l'individu. Le principal apport de ces auteurs est d'avoir défini et mis en évidence un ensemble de compétences propres à promouvoir le développement identitaire : La créativité permet ainsi à l'individu d' être innovant et inventif et de générer des solutions et des alternatives pour les choix d'orientation et de vie au cours du processus d'exploration des possibles. La suspension du jugement lui permet d'envisager une multiplicité d'alternatives face à un choix difficile, d'évaluer le pour et le contre de chaque alternative sans se fixer sur l'une d'elles. Le jugement critique permet enfin d'adopter une réflexion et une évaluation critique face aux problèmes rencontrés et aux solutions envisagées. Ce jugement critique suppose aussi la capacité d'argumenter et de justifier des solutions alternatives même si elles n'apparaissent pas a priori plaisantes. L'entretien individuel de conseil avec un consultant tout comme les séquences collectives d'éducation à l'orientation peuvent être ainsi constitués de phases sollicitant la créativité, l'examen des alternatives et le jugement critique. « Se faire soi » est l'étape actuelle d'une trajectoire théorique constructiviste qui s'est élargie progressivement des représentations professionnelles (Guichard, 1988) vers les projets d'avenir (1993) puis vers l'économie identitaire des sujets (2003, 2004). Le monde « conçu » des professions et des formations – les raisonnements, les catégorisations, mais aussi les images mentales afférentes à ces cognitions et les affects qu'elles suscitent – est structuré par des lignes de force et des hiérarchies étroitement dépendantes des situations présentes, et notamment scolaires, des adolescents. Le monde social existe à la fois comme « monde extérieur » structuré et comme « monde intérieur » structurant : les intentions d'avenir se cantonnent alors finalement à ce qui est le plus familier et le plus probable. L'auteur réélabore le concept sociologique de « formes identitaires » proposé par Dubar (1998) en lui donnant un substrat psychologique cognitif, le système interne des cadres cognitifs identitaires (représentations, schèmes, scripts, constructs etc.) qui organise la vision que le sujet se fait du monde et de lui -même. L'individu n'a pas immédiatement conscience de ces structures mentales qui lui permettent cependant de se représenter, de juger, d'agir, etc., dans la vie quotidienne. Dans cette perspective, une forme identitaire correspond à la représentation d'une personne (soi -même ou autrui) en référence à l'un de ces cadres cognitifs identitaires. Un jeune peut ainsi s'imaginer devenir « ingénieur » (c'est-à-dire s'anticiper dans la forme cognitive identitaire de l'ingénieur) en référence au cadre cognitif de l'ingénieur. Ce cadre correspond à la combinaison de différents attributs (par exemple « un métier où il faut être bon en sciences », « un métier où l'on conçoit des choses ») ayant différentes propriétés, par exemple, des valeurs par défaut (ainsi, s'agissant de l'attribut genre, « plutôt un métier d'homme »). Les cadres cognitifs forment un système. Le système des cadres cognitifs identitaires d'un individu donné correspond à l'organisation dans sa mémoire de l'offre identitaire de la société où il vit, telle qu'il l'a constituée mentalement en fonction de son histoire personnelle et de la place qu'il occupe dans l'espace relationnel et social. Ce système n'est pas figé, mais évolue en fonction des interactions et interlocutions de l'individu. Par ailleurs, celui -ci s'approprie (au sens fort de faire sien : d'adapter à soi -même) certains de ces cadres pour se construire dans certaines formes identitaires subjectives : des formes dans lesquelles il se reconnaît, dans un certain contexte où il se conduit, agit et dialogue alors d'une manière déterminée (en référence au cadre cognitif tel qu'il se l'est approprié et au contexte de son actualisation). Pour un individu donné, certaines formes identitaires sont ainsi valorisées, d'autres sont dévalorisées : certaines correspondent à des rêves d' être « ainsi », d'autres à des refus d' être « ainsi ». Au cours des interactions, notamment des dialogues avec autrui, mais aussi des réflexions sur soi, dialogiques d'une autre façon, le soi se cristallise dans certaines de ces formes. Reste à savoir dans quel dynamisme s'inscrit ce processus qui conduit le sujet à « se faire soi ». Guichard postule qu'il s'agit d'un double processus de réflexivité dont l'origine est une tension entre deux types fondamentaux de réflexivité constitutifs du psychisme humain : il nomme le premier « réflexivité duelle de l'anticipation de soi en miroir » et le second « interprétation dialogique trinitaire de la personne ». Le premier renvoie à ce moment fondateur du développement du sujet humain selon Lacan, au cours duquel l'enfant anticipe son unité subjective dans l'image de lui -même que lui renvoie le miroir. Cette expérience primordiale produit un sentiment d'unité de soi conçue qui unifie le présent du point de vue de la perspective future qu'elle constitue dans le même mouvement. Lacan décrit cette expérience comme la matrice à la fois de l'unification de soi (conçue donc comme l'effet en retour dans le présent de cette unité de soi, c'est-à-dire de ce désir d' être cette image de soi) et des futures identifications aux images d'autrui. L'image anticipée de soi comme être unifié se trouve ainsi dans la position qu'occupera le « je » lorsque l'enfant parlera. Se trouve ainsi constitué un processus réflexif fondamental « tel qu'un “je” à venir (l'image du miroir) produit une synthèse unificatrice de la multitude des expériences passées » (Guichard, 2004, p. 517). L'auteur rapproche ce processus réflexif de celui que décrit James pour qui le « je » est une activité continuée de synthèse réflexive de soi, « un flux de pensée se ressaisissant » constamment. Quant à l'interprétation dialogique trinitaire de la personne, elle renvoie notamment à l'élaboration théorique de Jacques selon laquelle l'activité fondatrice du sujet humain est l'activité de communication : « au commencement est la relation » (Jacques, 1982), c'est d'elle qu'émerge la conscience et non l'inverse. La relation d'interlocution détermine trois positions : le « je », le « tu » et le « il » puisque je peux parler aux autres en disant moi, l'autre me parle comme à un toi, comme il peut parler de moi en disant lui. C'est de cette relation trinitaire primordiale qu'émerge la personne : « la personne se définit par cette circulation constante entre les trois positions » (Guichard, 2004, p. 528). Par rapport à la réflexivité duelle du « je-me » face au miroir ou au semblable, la réflexivité trinitaire du dialogue introduit un tiers et donc la possibilité de confronter son point de vue au point de vue de l'autre : du « tu » avec lequel le « je » entre en dialogue, du « il » dont on parle, ou du « il » que « je » peux être quand d'autres parlent de moi. En ce sens, l'interprétation dialogique de soi est la forme a priori de la conscience de soi et la réflexivité est le processus indéfiniment continué de personnalisation. De cette élaboration constructiviste découlent logiquement – ce qui ne signifie pas pour autant que la tâche soit facile – l'objectif et la méthode de l'entretien de conseil. L'objectif est de repérer (de « cartographier » selon Guichard) les contenus mentaux, c'est-à-dire ces formes identitaires passées, présentes ou anticipées dans lesquelles le consultant s'imagine et se définit. Les analyses d'entretiens adolescents font effectivement « apparaître » ces figurations imaginaires de l'intention ou du projet, entre stéréotypie et foisonnement, entre rigidité et mouvement, dans des représentations quasi filmiques de personnages professionnels ou médiatiques comme dans des fixations obstinées à des modèles ambiants (Dumora, 2000). Une cartographie de ces formes identitaires subjectives apparaît donc nécessaire pour qu'un travail d'anticipation, de sélection, d'évaluation et donc de décision puisse avoir lieu. Du point de vue méthodologique, ce repérage et ce travail critique nécessitent l'engagement du consultant dans un processus réflexif au cours des situations d'interlocution, soit de dialogue en tête à tête dans le cas de l'entretien individuel, soit de discussion lors de réunions de groupe, d'éducation à l'orientation pour les adolescents par exemple. Dans ce processus réflexif, le consultant peut être amené, guidé en cela par le conseiller ou par les sollicitations de ses pairs, à examiner à partir des différents points de vue du « je », du « tu » et du « il », les raisonnements, les images et les affects qui sous-tendent ou accompagnent les formes personnelles ou professionnelles dans lesquelles il s'identifie. On peut également rapprocher de ces propositions constructivistes de Guichard nos propres observations qui leur donnent une consistance empirique (Dumora, 1990, 2000) : les adolescents de nos études longitudinales, collégiens, lycéens ou étudiants, dans une « méta-réflexion » sur eux -mêmes, sorte de « volonté consciente » de prendre des distances avec leurs intentions passées ou avec les évaluations de l'école et ses assignations, désignent spontanément leurs préférences antérieures comme des rêves, des illusions, ou comme les effets d'une adhésion révolue aux goûts des autres. C'est probablement le levier possible pour ce décalage critique, constructif et mobilisateur d'énergie, dans la relation de conseil et d'éducation à l'orientation. Delory-Momberger (2000, 2004) théorise la construction biographique de soi dans le cadre de l'éducation, de la formation et de l'insertion, mais il s'agit bien d'un modèle général de la construction de soi. Proche à bien des égards du modèle de Guichard, celui de Delory-Momberger est dominé par trois types d'analyses : une réflexion historique sur les récits de soi, une analyse de la fonction et des limites de la construction biographique de soi dans les contextes sociaux actuels et, enfin, une description de ce qu'est précisément la « réflexivité biographique » au cœur de la construction de soi. Un premier ouvrage (Delory-Momberger, 2000) analysait l'apparition et l'évolution des récits de vie et des discours sur soi au cours des siècles : leurs formes, leurs contextes, leurs fonctions. Ce qui éclaire aujourd'hui la façon dont les sociétés actuelles font appel, plus qu' à aucune autre époque, « à l'individualisation et à la réflexivité des conduites et des décisions comme ressorts de leur régulation et de leur productivité » (2004, p. 551). Outre ses propres analyses dans le champ de l'école, de la formation et du travail, Delory-Momberger s'appuie sur les analyses les plus aiguisées des sociétés actuelles : des tensions auxquelles sont soumis les individus de la post-modernité (Beck, 1986), des injonctions à la performance et à la singularité qui leur sont intimées et de leurs effets (Ehrenberg, 1995, 1999), de la désinstitutionalisation qui les affecte (Dubet, 1995), des contradictions possibles entre leurs expériences socialisatrices multiples (Lahire, 1998), etc. Plus de schéma biographique dominant, plus vraiment de destin collectif, encore moins de destin tout tracé, mais des ensembles de logiques possibles, de trajectoires professionnelles complexes et une déstandardisation du cours de la vie (Vondracek & Porfeli, 2004) : c'est dire que l'offre biographique est à la fois infiniment plus ouverte et diversifiée, mais aussi moins visible et moins cohérente qu'auparavant. « Il faudrait aujourd'hui parler d ' autosocialisation pour désigner le processus selon lequel les membres des sociétés postmodernes travaillent à leur individuation en recherchant en eux -mêmes les ressources de leur socialisation » (Delory-Momberger, 2004, p. 556). Pour Delory-Momberger, la dimension socialisatrice de l'activité biographique tient au processus de réflexivité. Que veut-elle dire par là ? Que nous ne pouvons nous saisir des expériences de notre vie que par la médiation des représentations et des mots que nous posons sur elles : médiation des représentations mentales qui donnent des figures à la rétrospection du passé ou à la projection dans l'avenir, ou des significations au vécu présent, médiation des mots, « ces fragments narratifs qui constituent très souvent le fond de nos échanges quotidiens avec autrui » (2004, p. 553), et enfin, médiation des récits écrits ou parlés, suivis ou parcellaires, destinés à autrui ou gardés pour soi. La réflexivité biographique fonctionne comme une « herméneutique pratique » qui intègre, structure et interprète les situations et les événements du vécu : c'est donc à la fois un processus de subjectivation et un processus de socialisation. Subjectivation en ce sens que le travail biographique est une attitude fondamentale de l' être humain, une « capacité anthropologique », qui permet de se représenter son existence dans le temps et de configurer narrativement la succession temporelle de son expérience : « nous ne vivons notre vie qu'autant que nous la biographions, que nous lui donnons, au sens étymologique du terme, la forme d'une écriture » (Delory-Momberger, 2004, p. 552). Très inspirée par les propositions de Ricœur dans Temps et récit (1983), l'auteur explique que parce que nous faisons le récit de notre vie, nous faisons de notre vie une « histoire » avec des personnages, des épisodes et des intrigues. Processus de socialisation en ce sens que l'individu ne peut saisir le social qu'en le rapportant à sa propre histoire et à ses propres expériences, qu'en construisant le monde intérieur du monde extérieur (Alheit & Dausien, 2005). La construction de l'identité est donc cette « co-élaboration de soi et du monde social » (Delory-Momberger, 2004, p. 557). On pourrait donc dire que ses propositions sont indissociablement constructivistes et constructionnistes puisque « l'activité biographique accomplit ainsi une double et complémentaire opération de subjectivation du monde historique et social et de socialisation de l'expérience individuelles : elle est à la fois et indissociablement ce par quoi les individus se construisent comme êtres singuliers et ce par quoi ils se produisent comme êtres sociaux » (p. 558). Le contexte d'interrogation de l'auteur est celui de l'éducation, de la formation et de l'insertion. On peut donc en saisir la portée par simple translation pour le conseil de carrière. Retenons ainsi que « [. ..] la manière dont les individus biographient leurs expériences et, au premier chef la manière dont ils intègrent dans leurs constructions biographiques ce qu'ils font et ce qu'ils sont dans leur famille, à l'école, dans leur profession, en formation continue, est partie prenante du processus de formation » (2004, p. 559). La signification qui est ainsi allouée aux expériences scolaires, notamment en termes d'identité (ce que les élèves font et sont surtout dans le contexte scolaire), en termes de signification des tâches d'apprendre, de logique des cursus ou de fonction de l'école, détermine largement les intentions d'avenir. Mais ceci est vrai de toutes les activités de formation tout au long de la vie. Pour l'auteur, le travail de réflexivité et de subjectivation qui s'engage dans toute activité biographique participe à la constitution d'une signification de soi et d'un projet de soi au sein de l'espace social. Notons cependant, et ceci avec beaucoup d'intérêt en cette période actuelle de montée du « précariat » (2007, p. 11) et de réflexions politiques conflictuelles sur le monde du travail, le paradoxe que souligne l'auteur dans cet article très récent entre des politiques de l'insertion marquées par la surveillance budgétaire et des injonctions à la responsabilisation individuelle, entre la temporalité longue qu'impliquent la maturation d'un projet et la réflexivité identitaire d'un individu et l'immédiateté « des intimations du management de soi » (p. 10) auxquelles il est soumis et des exigences de la rentabilité économique. L'auteur termine par une interrogation qui nous concerne fortement dans cet article : les projets identitaires qu'il serait possible d'investir biographiquement peuvent-ils se réduire aux programmes et aux objectifs liés aux flux des marchés et de la gestion comptable ? C'est la question perpétuelle au sein de la communauté des conseillers d'orientation psychologues, mais elle se trouve exacerbée aujourd'hui par le contexte dans lequel ils agissent, à l'interface de l'école et de l'emploi. L'article de méthodologie professionnelle de Campbell et Ungar (2004) pour le conseil de carrière est fondé théoriquement sur le constructionnisme social de Gergen. Ces auteurs font aussi de nombreuses références aux réflexions théoriques et méthodologiques afférentes aux thérapies familiales, champ « travaillé » depuis plus longtemps que celui du conseil de carrière par ce renouvellement théorique. Campbell et Ungar revendiquent une inscription clairement constructionniste et leur idée essentielle est que le monde n'est pas objectivement connaissable et déterminé : notre compréhension du monde est le résultat des discours sociaux, des conversations et des interactions auxquels nous participons. On est effectivement très proche des assertions de Gergen (1999/2001) pour qui la réalité est co-construite dans l'expérience avec les autres et par le langage utilisé collectivement pour décrire cette expérience. Ou, selon Foucault, nous ne pouvons penser notre expérience et le monde que dans la mesure où le langage que nous co-construisons avec les autres nous donne les mots pour le dire : c'est le langage qui produit la pensée et non l'inverse comme on le croit habituellement. Si les pensées des individus dépendent des mots dont ils disposent pour se décrire ou décrire le monde, acquérir d'autres mots pour se raconter, et donc pour se penser autrement, cela suppose de nouvelles expériences et de nouveaux contacts. Comme pour Gergen, il n'y a pas pour ces auteurs d'essentialisme du self, pas de conscience de soi, pas de personnalité en dehors des relations avec autrui. Pas non plus d'intentions d'avenir ou de projet de vie qui ne soient dépendants des discours que le sujet échange avec autrui. Les histoires qu'on se raconte collectivement sur le passé et le présent sont l'échafaudage sur lequel chacun de nous construit ses projets d'avenir. Et on ne peut pas bâtir un projet d'avenir plein d'espoir si l'histoire que l'on se raconte sur le passé et le présent est une histoire d'échec (Cochran, 1997). Bien que les individus ne se considèrent pas nécessairement comme participant constamment ou adhérant entièrement à ces discours, ces discours collectifs leur imposent la façon dont ils parlent d'eux -mêmes, ils les asservissent d'une certaine façon. Campbell et Ungar (2004) donnent de nombreux exemples concrets dans le domaine de l'orientation : si, par exemple, il est communément dit dans ces discours collectifs que les astrophysiciens ont un statut social plus élevé que les personnes qui restent à la maison pour élever leurs enfants, des parents qui restent à la maison ne pourront se décrire – et donc se percevoir – que comme des personnes ayant un statut inférieur. Autre exemple évoqué par ces auteurs : si on n'a jamais parlé de soi comme de quelqu'un qui doit aller à l'université, on ne peut éprouver le désir de faire des études universitaires, ni le regret de ne pas en faire. Viennent ensuite les principes constructionnistes qui doivent fonder les pratiques du conseil de carrière. Par analogie avec les thérapies narratives également fondées sur cette conception des liens entre langage et pensée, il s'agit de proposer au consultant de nouveaux mots et de nouvelles façons de penser les événements de tous les jours, d'autres façons d'envisager le monde et le rôle qu'il peut y jouer, et d'autres possibilités d'analyse du contexte. Élargissant le répertoire de mots du consultant, le conseiller propose des processus critiques de déconstruction des discours sur soi : le consultant peut ainsi considérer que ce qu'il perçoit comme le caractérisant n'est que le résultat d'une histoire racontée à un moment donné sur lui -même, une histoire qui peut être contrainte par les conditions contextuelles ou par les discours d'autrui, dans ce contexte -là et à ce moment -là. Interroger le consultant sur ses rêveries et sur ses fantaisies diurnes fait advenir des descriptions de soi moins articulées, moins closes. Dans cette conception du conseil, le récit de soi est essentiel. Le conseiller peut amener le consultant à prendre conscience de ce qu'il privilégie dans ce récit : un récit de soi est toujours une reconstruction sélective du passé et du présent qui conduit à privilégier une certaine façon d'envisager le futur. Le consultant peut saisir que pour construire une histoire cohérente de soi, il sélectionne (et donc il omet) certains types d'événements passés ou présents et donc certaines formes d'accomplissement possibles dans le futur. L'histoire retenue renforce une certaine vision de soi, aux dépens d'autres visions possibles et donc d'autres engagements possibles pour le futur. Le conseiller peut alors amener le sujet à comprendre que la façon dont il se perçoit et dont il perçoit le monde, des professions par exemple, est tributaire du contexte dans lequel il se situe et des discours qui y sont tenus, et donc à relativiser cette perception. Ainsi, un adolescent peut être amené à prendre conscience qu'une profession donnée – ou un comportement, ou une décision, ou encore une expérience sociale – peut être considérée différemment par sa famille et par ses pairs. Le conseiller peut l'amener à repérer, expliciter et nommer différentes contraintes personnelles ou contextuelles (problèmes financiers, handicaps, préjugés, stéréotypes, croyances) et à prendre conscience de la façon dont ces contraintes peuvent limiter la façon dont le sujet se projette dans l'avenir. Il s'ensuit logiquement l'énoncé de sous-objectifs, voire de guide d'entretien, pour le travail d'explicitation du conseiller en entretien avec le consultant : comment aider le consultant à savoir ce qu'il désire, à explorer ses ressources possibles internes et les ressources de l'environnement social ou familial, à savoir ce qu'il craint ou qu'il rejette, à savoir ce qui s'oppose ou qui limite la réalisation de ses projets, à élaborer l'histoire préférée pour son avenir, à s'approprier cette histoire, ou à renoncer à une histoire peu satisfaisante, à entrer dans l'histoire souhaitée ou à sortir d'une histoire peu satisfaisante. A l'issue de la présentation d'une sélection forcément arbitraire de quelques modèles constructivistes et constructionnistes actuels de l'identité, nous examinerons leurs implications sur le « geste professionnel » que constitue la rencontre de conseil avec un consultant. La première observation concerne la sollicitation de la réflexion – et/ou de la réflexivité – du consultant évoquée par plusieurs des auteurs qui en font même le cœur de la rencontre de conseil. Solliciter la réflexion, soit : mais n'a -t-elle pas toujours été au cœur de la rencontre de conseil ? N'a -t-on pas toujours fait réfléchir les consultants sur leurs intentions, leurs préférences, leurs choix, leurs projets, mais aussi sur leurs difficultés, sur les obstacles et les soutiens qu'ils étaient en mesure de repérer ? Examinons donc ce que ces modèles suggèrent de nouveau. Deux d'entre eux mettent plus particulièrement l'accent sur les structures opératoires mentales de la construction identitaire : Berzonsky évoque les « théories de soi » et Guichard les « formes identitaires » comme la matière même de la construction identitaire et des projets d'avenir. Avec la centration sur ces structures mentales, propositionnelles et/ou figuratives, on comprend mieux ce que peut être la sollicitation, lors de la rencontre de conseil, de la réflexion du sujet : certes, elle porte toujours sur les contenus proprement dits (les intentions, les préférences, les projets), mais elle est aussi censée porter sur les processus mentaux mêmes (les représentations, les cognitions, les images, les opérations et les mises en tension entre ces entités mentales) et sur les affects qui colorent la construction de soi et des intentions d'avenir. Elle est donc à la fois une réflexion et une méta-réflexion, c'est-à-dire une réflexion à la seconde puissance, un système de système, une systématisation de la pensée sur sa pensée, c'est-à-dire une réflexivité. Notons que Guichard parle de « réflexivité » et non de réflexion : le terme de « réflexivité » souligne le pouvoir structurant de l'image, non seulement de soi dans le miroir, mais aussi dans le regard de l'autre. C'est la présence des termes « image », « miroir » et « formes » qui justifie dans le modèle de Guichard l'utilisation du terme « réflexivité ». De ces deux auteurs, Berzonsky et Guichard, c'est certainement ce dernier qui décrit le plus concrètement la rencontre de conseil ainsi construite avec ses axes directeurs de l'identification, de l'analyse et de la mise en tension des formes identitaires passées, présentes et anticipées : on y voit donc à l' œuvre le processus réflexif et méta-réflexif. Pour appuyer ces propositions pour les pratiques, faisons référence à nos propres travaux empiriques. Nos études longitudinales auprès d'adolescents et de jeunes adultes mettent effectivement en évidence l'avènement progressif de la méta-réflexion chez les adolescents (Dumora, 2000). Les arguments discursifs qui la constituent prennent la forme de prises de distance critique, voire amusée, par rapport à des motivations antérieures désignées désormais soit comme fictions, soit comme croyances immatures, soit comme effets d'appartenance ou simples conformations adolescentes au goût des autres; mais il s'agit aussi quelquefois de jugements rétrospectifs non plus amusés mais résignés vis-à-vis de rationalisations des seules orientations probables ou de renoncements plus ou moins douloureux (Dumora & Lannegrand, 1999). On peut également solliciter une prise de distance critique des consultants face à des épreuves normalisées, ce qui peut conduire aussi à une approche idiosyncrasique de leurs catégories d'entendement et à leur mise en question. Reprenant les stimuli utilisés couramment dans les questionnaires d'intérêts, on peut demander au consultant de procéder à des regroupements personnels qui vont faire apparaître un système de catégorisation parfois fort éloigné des concepts de la psychologie différentielle. De même, les techniques d'entretiens proposées par Tyler (1961) ou l'approche selon la méthode des « construits » de Kelly (1955) peuvent donner lieu à des productions de récits explicatifs des déterminants et des motivations d'un individu. Le rôle du psychologue est alors de lui permettre de préciser ses représentations et surtout de l'aider à ne pas se censurer dans l'expression de celles -ci. Nous avons présenté une étude de cas (Boy, 2005) qui semble aller dans ce sens. Deuxième remarque suscitée par cette revue de modèles : l'importance accordée au discours sur soi, sous la forme des récits de vie ou des histoires de vie. Qu'apporte de nouveau cette insistance ? On est en droit de se poser cette question car il faut bien remarquer que l'hypothèse de la fonction constructive ou reconstructive du discours sur soi, des histoires et des récits de vie est plus que séculaire en psychologie clinique – puisque le dire sur soi est la condition même de possibilité de son exercice. Cette réflexion est consubstantielle à toute épistémologie des théories psychodynamiques. Relevons aussi qu'en sociologie, dès les années 1930, le « biographique » a opéré une médiation entre l'histoire individuelle et l'histoire sociale, rendant ainsi possible une nouvelle démarche qualitative permettant de décrire, comprendre et analyser l'agir en situation (Bertaux, 1997), de saisir les articulations entre les phénomènes objectifs, les déterminations inconscientes et l'expérience subjective dans une forme d'intelligibilité historienne où « on examine les rapports entre la vie, dans toute son épaisseur existentielle, et ce qu'un individu peut en dire dans un récit » (de Gaulejac, 2000, p. 135). Il faut signaler aussi que dans le domaine du conseil en orientation, le premier recensement des pratiques inspirées par le courant biographique a été réalisé par Blanchard en 1995 : il distingue deux axes d'utilisation, d'une part, l'axe de la recherche où les histoires de vie permettent d'étoffer l'étude développementale des intérêts professionnels ou des intentions d'avenir chez les adolescents ou jeunes adultes et, d'autre part, l'axe de la pratique même du conseil où les histoires de vie, les génogrammes et les divers exercices autobiographiques existants permettent aux consultants de construire le sens de leurs expériences passées et de développer ainsi un projet de soi au sein de l'espace social. Le discours sur soi est toujours censé conduire le sujet à des prises de conscience et à de la production de sens. Dans les modèles présentés dans cet article, le discours sur soi est aussi ce témoin et ce facteur de la construction identitaire, mais il est aussi explicitement conçu comme un levier possible pour un décalage critique et constructif, et mobilisateur d'énergie, dans la relation de conseil et d'éducation à l'orientation. Il ne s'agit plus seulement de retrouver du sens à ses expériences passées, mais bien de prendre vis-à-vis d'elles une position et une distance critiques : il s'agit de se décaler pour s'affranchir. Ceci rejoint certaines positions de sociologues actuels : ainsi, pour Touraine (1992), se décaler, c'est être capable de reconnaître la non-correspondance des rôles sociaux, des images de soi que donne ou qu'impose l'école ou la société, et de l'affirmation de soi comme sujet créateur de sa propre existence. La subjectivation (le processus qui construit le Je, le sujet) ne peut donc se réduire à la socialisation (l'identité, le soi, somme des rôles et des images sociales), elle en est même l'opposé : la socialisation est passive, intériorisée alors que la subjectivation est une activité du sujet, une activité critique et une recherche de distance à soi, aux divers soi perçus et aux identités intériorisées. C'est une volonté consciente de construction de son expérience personnelle et de ses relations aux autres. Autre exemple constructiviste : pour la sociologie clinique, l'appropriation de son avenir personnel et professionnel passe par le récit et par l'écriture de soi, comme elle passe aussi par le militantisme et par l'humour; la parole sur soi est donc conçue comme libération et comme « décalage » par rapport à la honte et au secret (de Gaulejac, 1996). Troisième remarque : chacun à sa manière, les auteurs mettent l'accent sur la particularité de toute rencontre de conseil. La professionnalité du conseiller évolue donc non seulement dans le temps de sa propre carrière, mais elle se configure aussi différemment dans l'ici et maintenant de chaque rencontre avec un consultant : avec la particularité de son contexte de vie, de son travail, de son âge et de la temporalité de la question d'orientation qui se pose à lui et des échéances effectives qui ponctuent sa vie. C'est dire combien la question est complexe, tous les individus ne semblant pas en mesure, en même temps et au même degré, d'affronter l'exigence sociale actuelle de l'autonomie et de la construction de soi. Considérons ainsi la spécificité liée à l' âge : c'est une évidence que l'adolescent scolarisé et l'adulte qui se reconvertit, qui cherche une opportunité ou qui assume une transition existentielle ou professionnelle, n'ont pas les mêmes besoins. On peut se demander si la psychologie du conseil prend suffisamment en compte l'apport de la psychologie du développement. Ainsi, en ce qui concerne l'adolescence, mises à part les références habituelles mais souvent succinctes à Piaget, ou celles, très rares, à Bruner, Wallon, Kohlberg ou Vygotski, la psychologie du conseil ne s'est pas vraiment approprié les propositions de la psychologie du développement, notamment cognitif, et moins encore ses avancées les plus récentes, celles des travaux anglo-saxons comme ceux de Fischer (2008) ou celles des travaux en langue française de Lehalle (2006) qui décrivent minutieusement la conquête cognitive à l'adolescence. Ces travaux permettent de comprendre les différences interindividuelles et intra-individuelles : la progression des habiletés cognitives vers l'abstraction n'est pas uniforme dans tous les domaines fonctionnels où elles s'appliquent, le synchronisme est même tout à fait relatif et ce plus particulièrement dans les domaines du raisonnement social et du raisonnement sur soi, c'est-à-dire les deux domaines concernés par la réflexion sur l'orientation. Cet ensemble de travaux offre des grilles de lecture pertinentes de l'évolution des intentions d'orientation à cette période -là : l'évolution de leurs contenus (des images concrètes et figuratives des gestes professionnels les plus visibles aux fonctions sociales et professionnelles), l'évolution du rapport aux professions (d'abord simple participation fusionnelle ou identification globale et syncrétique à un personnage professionnel puis progressive décentration et analyse), l'évolution de la pensée probabiliste (de la certitude magique chez les plus jeunes à la confrontation de plus en plus organisée et stratégique). On pourrait par ailleurs se demander aussi si la psychologie du conseil s'ouvre suffisamment aux travaux comparatifs de la psychologie interculturelle : comme les sciences humaines et sociales en général, la psychologie du conseil s'est développée dans le cadre de la société occidentale, elle est enculturée, selon le terme de Dasen (2008), c'est-à-dire inventée, formatée et appliquée, dans un monde qui est aujourd'hui très minoritaire. Les théories et les pratiques du conseil ne sont-elles pas ethnocentrées ? Guichard insiste aussi sur les différences interindividuelles, mais il s'agit davantage de différences sociales et positionnelles, notamment scolaires pour les adolescents. Le travail réflexif doit alors permettre, selon cet auteur, de prendre en compte les effets des positions scolaires et sociales, c'est-à-dire de s'interroger sur les modèles, les normes, les valeurs et les influences extérieures sur sa propre façon de se concevoir et de décider : intervient donc ici la sollicitation d'une réflexivité quasi sociologique, en tous cas attentive aux contextes et aux « théories implicites de l'orientation » qui en émanent. Ces théories implicites – il s'agit bien entendu ici des théories des consultants – sont en effet des conceptions schématiques, réductrices, construites dans les interactions sociales, entre adolescents en particulier, qui assurent une fonction de catégorisation fortement tributaire de l'appartenance à un groupe. Très proches de cette conception, les propositions pratiques de Campbell et Ungar consistent en un guide d'entretien qui sollicite la réflexion du consultant sur ses propres récits de soi et sur ses projets de vie. Centrée sur les processus de sélection, et donc aussi d'omission et d'occultation, la réflexion permet de relativiser récits et projets comme « points de vue » parmi d'autres possibles : ces principes, en quelque sorte déconstructionnistes comme chez Gergen, participent à cet idéal d'émancipation de la personne par rapport aux limites et aux obstacles qu'elle s'impose et de prise de distance par rapport aux « évidences » qui s'imposent à elle. Enfin, dernière remarque conclusive : si le geste professionnel du conseil est une sollicitation de la réflexion et de la réflexivité sur les images et formes identitaires de soi, il s'accompagne aussi de soutien et de recherche conjointe et active de solutions d'accomplissement ou de rechange. Il se déploie donc nécessairement sur fond de savoirs très affûtés, très puissants et très actuels sur le monde du travail, sur les opportunités de formations, d'emplois, de passerelles, sur les organismes d'aide à l'insertion et à l'orientation – à tous les niveaux, du local à l'international – et avec l'aide des techniques les plus sophistiquées de l'information, de l'informatique et de la communication. Ce qui implique que le conseiller soit aussi capable de réflexion sur les transformations des représentations des consultants induites par les développements actuels des technologies : qu'il s'agisse par exemple de la transformation des modes et des rapports de production (dématérialisation des échanges financiers, mondialisation du marché du travail, exigences en termes d'adaptabilité et de rentabilité) ou qu'il s'agisse de la diversification des modes de communication et d'interactions sociales (pages de présentation personnelle sur Internet, appartenance à des réseaux sociaux et à des espaces d'échanges à distance, constructions d'identités « virtuelles » sous forme d'avatars). La rencontre de conseil requiert ainsi du professionnel du conseil une vigilance et une réflexion sur les effets de l'utilisation libre ou guidée des TIC, notamment chez les plus jeunes. De façon plus générale, le conseiller doit être capable sinon d'anticiper, du moins de décrypter la part du « déterminisme technologique », du constructivisme social et de l'appropriation de ces techniques par les utilisateurs dans l'évolution des représentations sociales et du rapport au travail dans nos sociétés (Valenduc, 2005) . | Notre contribution à ce numéro spécial sur les théories constructivistes et constructionnistes de l'identité se présente sous la forme de deux articles. Dans ce deuxième article, « Modèles constructivistes et constructionnistes de l'identité et psychologie du conseil », nous examinerons plusieurs modèles récents de l'identité en soulignant leur intérêt pour les pratiques du conseil et de l'orientation. La caractéristique commune de ces modèles est l'accent mis sur les interactions et les communications avec autrui et sur le rôle joué par les discours sur soi dans la construction de l'identité et dans la pratique du conseil. | psychologie_09-0214183_tei_971.xml |
termith-747-psychologie | La théorie sociale cognitive est l'une des conceptions les plus heuristiques pour décrire le processus d'orientation scolaire et professionnelle. Betz et Hackett (1981) ont été les premières à s'appuyer sur les travaux de Bandura (1977, 1986, 1997) et à conduire des recherches sur l'auto-efficacité professionnelle. Par la suite, la théorie sociale cognitive de l'orientation scolaire et professionnelle développée par Lent, Brown et Hackett (1994) a apporté une contribution significative à la recherche. Trois concepts jouent un rôle central dans la théorie sociale cognitive : l'auto-efficacité, les attentes de résultats et les objectifs. Selon Lent, Brown et Hackett (1994), l'auto-efficacité est le concept de la théorie sociale cognitive qui a été le plus étudié. L'auto-efficacité se rapporte aux « jugements que les personnes portent sur leurs capacités à organiser et à réaliser les types d'action requis pour atteindre certains objectifs » (Bandura, 1986, p. 391). Bandura (1989) considère que les croyances d'auto-efficacité constituent le mécanisme principal de « l'agentivité, cette capacité humaine à influer intentionnellement sur le cours de sa vie et de ses actions » (Carré, 2004, p. 30). Les croyances d'auto-efficacité aident les individus à déterminer le choix de leurs activités et des moyens à mettre en œuvre, ainsi que l'effort, la persistance, les configurations cognitives et les réactions émotionnelles, lorsqu'ils sont confrontés à des obstacles (Carré, 2004). L'auto-efficacité, ou la confiance de l'individu à l'égard de sa capacité à exécuter avec succès une tâche déterminée ou un ensemble de tâches, permet de prévoir si l'individu s'engagera, persévérera et aboutira au succès (Lent, Hackett & Brown, 1999, 2004). Les croyances personnelles relatives aux résultats probables qu'un comportement permet d'atteindre constituent une autre composante importante de la théorie sociale cognitive et elles englobent l'anticipation des conséquences de l'exécution de certains comportements. Les attentes de résultats se réfèrent aux croyances relatives à ce qui arrivera suite à l'exécution d'une action, c'est-à-dire que les attentes de résultats concernent les conséquences des efforts comportementaux déployés (Bandura, 1997). Par exemple, alors que l'auto-efficacité peut être formulée ainsi : « je considère que j'arriverai à me comporter de façon adéquate pendant l'entretien de sélection pour cet emploi », les attentes de résultats peuvent s'exprimer comme suit : « si je me comporte de façon appropriée – c'est-à-dire de telle et telle façon – pendant l'entretien, la probabilité est grande que ma candidature à cet emploi soit retenue ». Ces attentes de résultats orientent aussi le comportement de l'individu (Lent, Hackett & Brown, 1999, 2004) car, si elles sont faibles, la probabilité d'entreprendre une démarche s'en trouvera diminuée. Les objectifs ou les buts jouent aussi un rôle important dans l'autorégulation du comportement. Ainsi, les objectifs se réfèrent au degré de détermination de l'individu qui s'engage dans une certaine activité en vue d'atteindre le résultat qu'il s'est fixé, comme, par exemple, réussir à un examen ou travailler dans un certain domaine professionnel (Lent, Hackett & Brown, 1999, 2004). « Les objectifs sont des éléments omniprésents, mais généralement implicites, dans les théories du choix et de la prise de décision professionnelle. Les concepts de projets professionnels, de décisions, d'aspirations et de choix exprimés relèvent tous de mécanismes orientés par des objectifs. Dans chacun de ces cas, leur contribution provient de leur rôle présumé dans la motivation du comportement (ou dans la symbolisation du comportement envisagé); les distinctions entre ces différents termes utilisés pour désigner un but sont liées principalement à leur degré de spécificité et de proximité temporelle de la mise en œuvre du choix véritable. Par exemple, on a souvent qualifié les objectifs professionnels d'aspirations ou de rêves professionnels lorsqu'ils sont évalués longtemps avant l'entrée dans une profession, lorsqu'ils n'exigent pas d'investissements ou n'impliquent pas de conséquences réelles et lorsqu'ils n'exigent pas que la personne prenne en considération certains aspects de la réalité, comme par exemple les réalités du marché de travail. Les objectifs professionnels sont plutôt qualifiés de choix exprimés, de plans ou de décisions lorsqu'ils impliquent des intentions spécifiques (par exemple, la détermination à s'engager dans un domaine professionnel ou un rôle particulier), lorsqu'ils sont évalués peu de temps avant ou au moment de l'entrée professionnelle et lorsqu'ils exigent un engagement. » (Lent et al., 1994, p. 85) Même si le comportement des individus est influencé par certains facteurs environnementaux et par leur histoire personnelle, les individus peuvent néanmoins orienter leur comportement et le maintenir sur de longues durées en se fixant des objectifs, et cela même en l'absence de renforcements externes, ce qui augmente la probabilité qu'ils atteignent les résultats désirés (Bandura, 1997); en d'autres termes, c'est par leur capacité à se fixer des objectifs que les individus améliorent leurs capacités de contrôle sur le déroulement de leur propre action et sur leurs résultats. La sélection d'objectifs permet ainsi d'orienter ses propres comportements; c'est un mécanisme critique qui encourage le contrôle personnel (Lent et al., 1994). Les objectifs jouent principalement leur rôle grâce à la capacité de l'individu à se représenter symboliquement les résultats futurs ambitionnés et à exercer une évaluation de son propre comportement en se fondant sur des représentations internes de réussite. Les objectifs permettent à la personne de développer sa propre motivation du fait des liens entre l'autosatisfaction, la concrétisation de l'objectif et l'orientation vers des comportements qui satisfont des objectifs que la personne s'est fixés elle -même (Bandura, 1986). La théorie sociale cognitive identifie plusieurs propriétés des objectifs qui affectent la probabilité de leur concrétisation, sachant que les objectifs professionnels qui représentent le mieux les choix, les plans et les décisions sont ceux qui expriment des intentions spécifiques (par exemple, être déterminé à entrer dans une filière universitaire ou un domaine professionnel); indépendamment de leur nature évolutive, ils sont évalués peu avant le choix d'options professionnelles (Gottfredson, 1981, 1996) et requièrent un investissement de la part de l'individu (Lent, Brown & Hackett, 1994). À propos des mécanismes à travers lesquels les objectifs influencent l'exécution des tâches, Locke et Latham (2002) défendent l'idée que les objectifs remplissent « une fonction énergétique » qui influence le comportement de l'individu. Quels rôles l'auto-efficacité, les attentes de résultats et les objectifs jouent-ils lors de la transition entre les études universitaires et l'entrée dans un emploi ? Lent, Brown et Hackett (1994) ont développé un modèle sociocognitif de l'orientation scolaire et professionnelle – fondé sur la théorie sociale cognitive de Bandura – qui nous servira de base conceptuelle pour l'étude du processus de transition entre les études supérieures et l'entrée dans l'emploi. La transition entre les études supérieures et l'emploi s'inscrit dans le cadre plus général du processus d'orientation professionnelle de l'individu qui commence avant la fin de sa formation et qui se poursuit après l'obtention d'un diplôme universitaire. En fait, l'entrée dans le monde du travail est précédée par une longue période d'anticipation et de préparation et suivie d'une autre longue période d'adaptation à l'activité professionnelle et/ou à d'autres rôles de vie (Lent, Hackett & Brown, 1999, 2004). Cette conception processuelle de la transition entre les études et l'emploi est partagée par d'autres spécialistes de l'orientation professionnelle et notamment par Blustein et ses collaborateurs (1997) qui considèrent cette transition comme un processus d'apprentissage de rôles professionnels au cours d'une période de longue durée où la personne occupera plusieurs emplois et multipliera les expériences de vie. De même, pour Reitzle, Vondracek et Silbereisen (1998), la transition entre les études et l'emploi est un processus complexe comprenant plusieurs étapes successives prenant place tout au long d'une période s'étendant du début des études jusqu' à l'obtention d'un emploi qui permet d'accéder à l'autonomie financière. En abordant la question de la transition vers l'emploi, nous ne pouvons pas ignorer les caractéristiques majeures du marché du travail actuel. En fait, les nouvelles formes d'organisation du travail, l'évolution scientifique et technologique, l'interdépendance des économies et le chômage structurel sont des facteurs qui contribuent tous à l'instabilité du marché du travail (Coimbra, Parada & Imaginário, 2001; Coimbra, 2001). En outre, la massification de l'accès à l'enseignement supérieur n'est pas sans influer sur la façon dont s'effectue l'entrée de ses diplômés dans le monde du travail. Au Portugal, entre 1993 et 2003, on a constaté que le nombre d'élèves inscrits pour la première fois dans l'enseignement supérieur est en effet passé de 68 634 à 92 961, ce qui a eu pour conséquence qu'au cours de cette période, le nombre de diplômés a plus que doublé (le nombre de diplômés est passé de 32 622 à 67 673; OCES, 2004). Comme les offres d'emploi deviennent moins nombreuses et que le nombre de diplômés continue d'augmenter (au Portugal, le taux de chômage des nouveaux diplômés est passé de 2,2 % en 2001 à 4,9 % en 2003; CNAVES, 2004), on ne peut plus s'attendre à ce que les diplômés de l'enseignement supérieur considèrent leur insertion professionnelle comme facile. C'est pourquoi il nous semble particulièrement important de contribuer à mieux comprendre le processus de transition entre les études supérieures et l'emploi et à l'envisager dans toute sa complexité (Vieira & Coimbra, 2005). Dans ce contexte économique défavorable à une insertion professionnelle rapide et facile des nouveaux diplômés de l'enseignement supérieur, nous considérons que les variables sociales cognitives comme l'auto-efficacité, les attentes de résultats et les objectifs remplissent un rôle primordial dans ce processus. Par exemple, sachant que l'auto-efficacité et le fait de persister dans un comportement sont étroitement liés – et cela, même en présence d'obstacles – nous faisons l'hypothèse qu'un nouveau diplômé qui a des croyances d'auto-efficacité fortes à l'égard de la recherche d'emploi persistera à présenter sa candidature à des offres d'emploi alors qu'un autre diplômé ayant un faible sentiment d'efficacité à l'égard de la recherche d'emploi pourra se décourager plus vite et diminuer ainsi ses chances de trouver un emploi, ce qui illustre la thèse principale de la théorie sociale cognitive. Lent, Hackett et Brown (1999) soulignent le fait qu'il serait nécessaire de réaliser davantage d'études sur la transition entre les études supérieures et le monde du travail, en les conduisant sur divers types de groupes en vue d'explorer les différences intragroupe en matière de processus mis en œuvre et de résultats atteints. En nous appuyant sur les modèles présentés par Lent, Brown et Hackett (1994) et, plus précisément, sur quelques-unes de leurs hypothèses qui nous semblent être les plus pertinentes pour notre objet d'étude, nous proposons un modèle sociocognitif spécifique à la transition entre les études supérieures et le monde du travail. Toutefois, nous pensons qu'il est important d'attirer l'attention sur quelques caractéristiques générales du modèle social cognitif de l'orientation scolaire et professionnelle (voir à ce sujet l'article de Lent dans ce numéro) que nous prenons aussi en compte dans notre modèle spécifique. En s'appuyant sur le modèle général de la théorie sociale cognitive, Lent, Brown et Hackett (1994) séparent, de façon quelque peu artificielle, le développement des intérêts, le choix d'objectifs et l'exécution d'actions, en trois modèles distincts mais liés entre eux. Ces modèles décrivent les pistes causales prédominantes qui relient certaines variables. Cependant, restant fidèles à la théorie sociale cognitive de la causalité triadique réciproque des influences, les auteurs défendent l'idée que, tout au long du développement, les trois éléments théoriques principaux (personne, comportement et contexte) auront tendance à s'influencer de façon multidirectionnelle si bien qu'au cours du temps, pour certains individus, certaines variables pourront exercer un effet causal différentiel. Note. Figure extraite de Vieira et Coimbra (2006). Version réduite. La théorie sociale cognitive postule l'existence d'importantes relations réciproques entre auto-efficacité, attentes de résultats et systèmes d'objectifs. La figure 1 présente un modèle sociocognitif restreint à la description de la transition entre les études supérieures et l'emploi. Sur cette figure, la flèche A représente l'influence qu'exerce l'auto-efficacité sur les attentes de résultats face à des comportements de recherche d'emploi. La flèche B représente l'influence directe de l'auto-efficacité sur les objectifs professionnels, une fois que les études sont terminées. La flèche C représente l'influence directe que les attentes de résultats relatives à des comportements de recherche d'emploi exercent sur les objectifs professionnels une fois que les études supérieures sont terminées. Les flèches en pointillés représentent les liens directs avec l'anticipation de succès de la transition vers l'emploi, liens qui ne seront pas étudiés dans cet article. Conformément aux suggestions de Lent, Brown et Hackett (1994) faites à propos des recherches futures conduites dans le cadre de la théorie sociale cognitive de l'orientation professionnelle, le principal objectif de notre étude est d'explorer les relations entre l'auto-efficacité, les attentes de résultats et les objectifs professionnels, dans le domaine de la transition entre les études supérieures et l'emploi. Nos principales hypothèses sont les suivantes : l'auto-efficacité à l'égard de la transition vers l'emploi influence positivement les objectifs professionnels. l'auto-efficacité à l'égard de la transition vers l'emploi influence positivement les attentes des résultats relatives aux activités de recherche d'emploi. les attentes de résultats influencent positivement les objectifs professionnels. Au-delà de l'exploration de ces hypothèses, nous aborderons aussi l'analyse de la question suivante : l'influence des attentes de résultats sur les objectifs professionnels passe -t-elle par une éventuelle médiation de l'auto-efficacité ? L'échantillon est constitué de 629 étudiants de l'enseignement supérieur polytechnique (407 filles et 222 garçons) qui suivent le dernier semestre d'études dans une variété de disciplines. L' âge moyen des participants est de 23 ans, l'écart type étant de 3 ans. 64 % d'entre eux fréquentent la 3 e année, 24 % la 4 e année et 12 % la 5 e année. Cette diversité relative aux années d'études est due à l'hétérogénéité des cursus du système d'enseignement supérieur public polytechnique (quelques licences, faites en deux étapes, se déroulent sur 4 années alors que d'autres se déroulent sur 5 années). De plus, prenant comme critère d'échantillonnage le fait que les étudiants de notre enquête sont en dernière année d'études supérieures, année immédiatement antérieure à leur entrée probable dans une activité professionnelle, on constate souvent, dans certaines filières universitaires, que l'activité professionnelle débute à la fin de la 3 e année universitaire – l'année du « bacharelato » –; c'est la raison pour laquelle il y a une majorité d'étudiants de 3 e année dans notre échantillon. La description de l'échantillon en fonction du domaine de formation et de l'année d'étude est présentée dans le tableau 1. Auto-efficacité relative à la transition vers l'emploi. L'AETE (voir annexe A) est un questionnaire de 28 items dont l'objectif est d'évaluer l'auto-efficacité des étudiants de l'année terminale de l'enseignement supérieur par rapport à la transition vers l'emploi. Cet instrument présente trois sous-échelles : l'auto-efficacité relative à l'adaptation au travail (qui comporte 12 items), l'auto-efficacité relative à la régulation émotionnelle (qui comporte 9 items) et l'auto-efficacité relative à la recherche d'emploi (qui comporte 7 items). Nous demandons aux sujets d'indiquer le niveau de confiance dans leur capacité à accomplir des activités diverses, sur une échelle de Likert en 6 points (allant de « pas du tout confiant » jusqu' à « totalement confiant »). L'alpha de Cronbach calculé pour le questionnaire AETE a une valeur de .96 et ce questionnaire explique 56 % de la variance totale des résultats. Sa structure factorielle, ses indicateurs d'homogénéité interne, ainsi que les parts de variance expliquée figurent dans le tableau 2. Source : Vieira et Coimbra, 2005. Attentes de résultats relatives aux activités de recherche d'emploi. Ce questionnaire ARARE (voir annexe B) comporte 7 items présentés sur une échelle de Likert en 6 points (allant de « d'aucune utilité » à « beaucoup d'utilité »). Nous demandons aux sujets d'indiquer dans quelle mesure chaque activité (par exemple, chercher un emploi en lisant les annonces des journaux) peut aider à trouver un emploi lorsque les études seront terminées. L'indice alpha de Cronbach pour le questionnaire ARARE est de 0,81, ce qui correspond à une valeur satisfaisante (Walsh & Betz, 1995). À l'aide du programme EQS (version 6.1), nous avons fait une analyse factorielle confirmatoire du modèle unifactoriel du questionnaire ARARE. La valeur de Satorra-Bentler 2 (14) est de 63,57 (p < 0,000) et les valeurs d'ajustement au modèle se montrent assez satisfaisantes (CFI = 0,94; RMSEA = 0,08, avec un intervalle de confiance qui se situe entre 0,058 et .095; SRMR = 0,04) (Vieira, Maia & Coimbra, 2006). Objectifs d'investissement professionnel. Ce questionnaire OIP (voir annexe C) comporte 5 items présentés sur une échelle de Likert en 6 points (allant de « je ne suis pas du tout d'accord » jusqu' à « je suis totalement d'accord »). Nous demandons aux sujets d'indiquer jusqu' à quel point chaque affirmation (par exemple, « consacrer une grande partie de mon énergie à ma vie professionnelle ») représente leurs intentions à la sortie de leurs études. L'indice alpha de Cronbach pour le questionnaire OIP est de 0,86, ce qui indique une bonne homogénéité interne d'échelle. Le modèle unifactoriel du questionnaire OIP a été soumis à l'analyse factorielle confirmatoire selon le programme EQS (version 6.1). Le modèle final donne une valeur de Satorra-Bentler 2 (4) de 7,65 (p < 0,000) et des indices d'ajustement satisfaisants (CFI = 0,99; RMSEA = 0,04, avec un intervalle de confiance compris entre 0,000 et 0,079; SRMR = 0,02) (Vieira, Maia & Coimbra, 2006). Les questionnaires ont été administrés de façon collective en salle de cours, après avoir obtenu l'accord de l'enseignant. Les participants ont été informés de l'objectif général de l'étude, de son caractère volontaire et la confidentialité des résultats a été garantie. Pour tester la significativité des différences d'auto-efficacité, d'attentes de résultats et d'objectifs des étudiantes et des étudiants, nous avons utilisé le T-test. En ce qui concerne l'auto-efficacité relative à la transition entre l'enseignement supérieur et l'emploi, nous avons observé des différences selon le sexe des étudiants dans deux sous-échelles : Pour la sous-échelle d'auto-efficacité relative à la régulation émotionnelle (t = 3,00, p < 0,01), la moyenne des hommes (M = 4,49) est supérieure à celle des femmes (M = 4,27). Pour la sous-échelle d'auto-efficacité dans la recherche d'emploi (t = – 2,98, p < 0,01), les femmes ont fait état d'une confiance perçue pour s'engager dans des activités de recherche d'emploi plus élevée (M = 4,14) que celle des hommes (M = 3,92). Nous avons également constaté des différences significatives dans les attentes de résultats (t = 5,48, p < 0,001), la moyenne des étudiantes (M = 4,89) étant plus élevée que celle des étudiants (M = 4,56). Finalement, en ce qui concerne les objectifs d'investissement professionnel, nous avons trouvé aussi des différences en fonction du sexe des étudiants (t = 3,46, p < 0,01), la moyenne du groupe féminin (M = 5,10) étant supérieure à celle du groupe masculin (M = 4,90). À l'aide d'analyses de régression, nous avons cherché dans un premier temps à évaluer, de manière isolée, chacune des liaisons (matérialisées par les flèches A, B et C). Étant donné que nous avons trouvé des différences entre les étudiantes et les étudiants au cours de l'analyse préliminaire, nous avons contrôlé la variable « sexe des étudiants » dans tous les traitements ultérieurs. La liaison A Note. AE = auto-efficacité; * p < .001; modèle total, F (4,625) = 66,02, p < .001. concerne la contribution de l'auto-efficacité sur les attentes de résultats et nous avons réalisé une analyse de régression, les attentes de résultats fonctionnant comme variable dépendante et l'auto-efficacité comme variable indépendante. Ainsi que nous l'avions prévu, une fois l'effet du genre contrôlé, l'auto-efficacité explique 26 % de la variance des attentes de résultats (voir tableau 3). La liaison B concerne la contribution de l'auto-efficacité sur les objectifs. Les résultats de l'analyse de régression conduite en prenant l'auto-efficacité comme variable indépendante et les objectifs comme variable dépendante ont montré que l'auto-efficacité explique 25 % de la variance des objectifs (tableau 4). Note. AE = auto-efficacité; * p < 0,001; modèle total, F (4,625) = 48,41, p < .001. La liaison C concerne la contribution des attentes de résultats sur les objectifs. Les résultats de l'analyse de régression qui prend les attentes de résultats comme variable indépendante et les objectifs comme variable dépendante montrent que les attentes de résultats expliquent 15 % de la variance des objectifs ( R 2 = 0,15; F (2,627) = 53,12, p < 0,001; = 0,37, p < 0,001). À partir d'une analyse de régression multiple, nous avons cherché à évaluer la contribution conjointe de l'auto-efficacité et des attentes de résultats dans la fixation des objectifs d'investissement professionnel. Ces résultats sont présentés dans le tableau 5. Note. AE = auto-efficacité; * p < 0,05; ** p < 0,001; modèle total, F (5,624) = 45,17, p < 0,001. Dans le cadre du modèle global (représenté sur la figure 1), l'effet conjoint de l'auto-efficacité et des attentes de résultats explique 29 % de la variance des objectifs. L'influence de l'auto-efficacité sur les objectifs est plus forte que l'influence des attentes de résultats (respectivement 24 % et 3 % de la variance des objectifs). Cela signifie que, lorsque l'on contrôle l'influence de l'auto-efficacité sur les objectifs, l'influence des attentes de résultats sur les objectifs est substantiellement plus faible (elle ne représente que 3 % de la variance des objectifs) que lorsqu'elle est considérée de façon isolée (elle représente alors 13 % de la variance des objectifs). En fait, l'auto-efficacité dans le travail semble avoir un pouvoir prédictif supérieur à celui des attentes de résultats (voir tableau 5) sur les objectifs. Étant donné que la valeur prédictive des attentes de résultats diminue fortement quand l'effet de l'auto-efficacité est contrôlé, on conclut que l'on est en présence d'un modèle de médiation partiel (Baron & Kenny, 1986), c'est-à-dire que l'auto-efficacité remplit une fonction de médiation partielle à l'égard de l'effet des attentes de résultats sur les objectifs. Le modèle de médiation n'est pas total parce que les attentes continuent à avoir une part de valeur prédictive, bien que de moindre grandeur, lorsque l'on contrôle l'effet de l'auto-efficacité. Lent, Brown et Hackett (1994) présentent le modèle social cognitif de l'orientation scolaire et professionnelle comme une théorie en cours de construction s'appuyant sur des recherches empiriques. Ils pensent que leur modèle est susceptible de faciliter une certaine convergence théorique en permettant de faire des liens entre des théories et des phénomènes apparemment différents (Lent & Savickas, 1994). Lent, Brown et Hackett (1994) – en s'appuyant sur le fait que Super (1990) a caractérisé la théorie de l'apprentissage comme un élément commun à plusieurs domaines et à certains déterminants de l'orientation professionnelle – s'attendent à ce que la conception sociale cognitive, qui met l'accent sur les processus clés de l'apprentissage et de l'expérience, puisse contribuer à une compréhension plus approfondie et plus globale des processus d'orientation scolaire et professionnelle. Notre étude, conduite dans le cadre de la théorie sociale cognitive, apporte une contribution à l'étude des relations entre l'auto-efficacité, les attentes de résultats et les objectifs dans le domaine de la transition entre l'enseignement supérieur et l'emploi. Nous avons pu observer que les attentes de résultats, ainsi que l'auto-efficacité, exercent un effet (et ont de ce fait un pouvoir prédictif) sur les objectifs d'investissement professionnel, l'influence de l'auto-efficacité étant la plus forte. La conception sociale cognitive appliquée à la description de la transition entre l'enseignement supérieur et l'emploi s'est trouvée confirmée dans notre étude; nous avons en effet constaté que plus les croyances d'auto-efficacité et les attentes de résultats relatives à des activités de recherche d'emploi sont élevées, plus les objectifs d'investissement professionnel sont élevés. Ces résultats sont en accord avec les résultats des recherches antérieures sur les relations entre l'auto-efficacité, les attentes de résultats et les objectifs tels qu'ils sont présentés dans la littérature (Betz & Voyten, 1997; Lent et al., 1994). Conformément aux recommandations faites par Bandura (2006), Betz et Hackett (2006) et Lent et Brown (2006) en matière d'évaluation de l'auto-efficacité, des attentes de résultats et des objectifs, nous tenons à souligner le fait que notre étude a été réalisée avec des questionnaires d'évaluation construits « sur mesure » dans le but d'évaluer les variables sociales cognitives relatives au domaine spécifique de la transition entre les études supérieures et l'emploi. Pour les futures recherches dans ce domaine, il est impératif de construire des instruments d'évaluation des divers indicateurs qui ont des qualités psychométriques satisfaisantes. En outre, et plus précisément en ce qui concerne le questionnaire AETE (qui évalue l'auto-efficacité relative à la transition vers l'emploi), signalons qu'une version adaptée à la réalité brésilienne a donné des résultats comparables à ceux de la version originale, notamment sur le plan de l'homogénéité interne et de la structure factorielle (Vieira, Soares & Polydoro, 2006). Il va sans dire que d'autres études seront nécessaires pour valider et améliorer le questionnaire, travail que les auteurs ont déjà entamé (Vieira, Maia & Coimbra, 2007) en conduisant une analyse factorielle confirmatoire de cette échelle auprès d'un échantillon indépendant. À l'avenir, il serait intéressant d'étudier l'effet de l'auto-efficacité sur les résultats de la transition entre les études supérieures et l'emploi, en testant l'hypothèse selon laquelle les individus qui ont des niveaux d'auto-efficacité les plus élevés sont aussi ceux qui obtiennent les meilleurs résultats au terme de leur période de transition. La recherche réalisée par Moynihan, Roehling, LePine et Boswell (2003) met en évidence le fait que les jeunes qui ont des niveaux élevés d'auto-efficacité relative à la recherche d'emploi sont aussi ceux qui ont réussi à obtenir le plus grand nombre d'offres d'emploi. En fait, en ce qui concerne les objectifs professionnels et leur influence sur la régulation du comportement personnel, il serait également utile de vérifier si les individus qui ont les niveaux « d'objectifs professionnels » les plus élevés sont bien ceux qui parviennent aux meilleurs résultats lors de leur transition entre les études supérieures et l'emploi. Étant donnée l'importance du rôle joué par l'auto-efficacité dans la définition des objectifs professionnels et dans leur mise en œuvre, nous considérons que les interventions psychologiques d'orientation professionnelle, conduites dans le but de promouvoir des sentiments d'efficacité personnelle positifs et réalistes, seront susceptibles d' être plus efficaces lors de leur transition entre leurs études supérieures et l'emploi. Si l'on prend en compte les différentes sources des croyances d'auto-efficacité, il est possible d'envisager quelques stratégies d'intervention en vue d'accroître les sentiments d'efficacité personnelle des étudiants. Ainsi, les établissements d'enseignement pourront organiser des activités qui permettront aux étudiants : (a) de participer à des expériences personnelles en vue de développer leurs sentiments d'auto-efficacité – et la satisfaction personnelle qui s'y attache – relatifs à la réalisation de tâches universitaires ou de travaux qui représentent des défis dont le niveau de difficulté est progressivement augmenté; (b) d'examiner leurs expériences de réussite antérieures et (c) d'analyser leurs réussites actuelles et passées afin de clarifier et de développer la perception de leurs compétences (Brown & Lent, 1996; Lent et al., 1996; Lent, Hackett & Brown, 1999; Lent, Hackett & Brown, 2004). Par exemple, la réalisation de stages en entreprise tout au long du parcours universitaire pourra permettre à l'étudiant de réaliser des apprentissages professionnels qui contribueront à augmenter ses sentiments d'efficacité personnelle, suite à un travail d'explicitation et de recension des compétences mené au cours de l'intervention psychologique d'aide à l'orientation professionnelle. En vue de faciliter l'apprentissage par observation (ou vicariant), des activités d'exploration professionnelle peuvent être organisées, en ayant recours à des modèles réels ou symboliques, proches des étudiants, modèles auxquels ces derniers pourront s'identifier en fonction de multiples dimensions qui ont du sens pour eux (âge, sexe, niveaux socioculturels d'appartenance, compétence perçue, etc.) ce qui est susceptible de renforcer ainsi l'effet du modelage (Lent, Hackett & Brown, 2004). On peut par exemple inviter des jeunes diplômés issus du même établissement de formation, ayant géré avec succès leur transition entre les études supérieures et l'emploi, afin de faire partager leurs expériences professionnelles avec d'autres étudiants qui sont encore en formation. Au cours de cette activité, les étudiants pourront bénéficier de l'expérience de ceux qui jouent le rôle de modèle en racontant comment ils ont surmonté les difficultés rencontrées tout au long de leur parcours d'intégration au marché du travail et comment ils ont réussi à contrôler leurs émotions négatives (comme l'anxiété, le stress, la crainte, la dépression. ..) qui sont inévitables au cours de ce processus. La persuasion verbale, enfin, est aussi une source de croyances d'auto-efficacité et, à cet égard, il serait également intéressant, dans le contexte éducatif, de sensibiliser les professeurs et formateurs à l'importance de l'encouragement verbal, à partir du moment où cet encouragement est conforme aux capacités réelles de l'étudiant. En accord avec Lent, Hackett et Brown (2004), les interventions relatives à la transition entre les études supérieures et l'emploi peuvent être l'occasion de souligner l'importance majeure de l'évolution professionnelle et de l'apprentissage tout au long de la vie et de mettre l'accent sur la nécessité, pour l'individu, d'explorer ses intérêts dans de nouveaux domaines et d'actualiser ses compétences, plutôt que de penser que l'orientation professionnelle prend fin avec l'entrée dans le monde du travail, ou que la formation initiale garantit, une fois pour toutes, la capacité à exercer des rôles professionnels. Finalement, quelles que soient les expériences que chaque individu est amené à réaliser pour faire face à cette transition ou aux transitions futures dans le domaine professionnel, il s'avère indispensable que ces expériences soient décrites et analysées et qu'elles fassent l'objet d'une réflexion permettant leur intégration, faute de quoi ces expériences (même si elles sont très nombreuses) risquent d' être improductives et sans effet sur l'orientation professionnelle des étudiants (Vieira & Coimbra, 2006). Nous espérons que le développement de la recherche conduite dans le cadre du modèle sociocognitif de la transition entre l'enseignement supérieur et l'emploi permettra, d'une part, de mieux comprendre l'expérience de cette transition et, d'autre part, de fournir aux institutions d'enseignement supérieur et à ceux qui y travaillent (notamment aux psychologues et aux conseillers) des indicateurs et des pistes d'interventions qui leur permettront de mieux préparer les étudiants à affronter les difficultés rencontrées lors de leur future intégration dans le monde du travail . | Cet article, qui s'inscrit dans le cadre de la théorie sociale cognitive de l'orientation scolaire et professionnelle, présente un modèle sociocognitif spécifique à la transition entre l'enseignement supérieur et l'emploi et explore les relations entre auto-efficacité, attentes de résultats et objectifs professionnels. La recherche analyse les relations entre l'auto-efficacité à l'égard de la transition vers l'emploi, les attentes de résultats face au comportement de recherche d'emploi et les objectifs professionnels auprès d'un échantillon de 629 étudiants en dernière année de l'enseignement supérieur portugais. Les résultats sont conformes aux hypothèses initiales selon lesquelles l'auto-efficacité a une valeur prédictive, liée aux attentes de résultats, des objectifs professionnels. Les attentes de résultats sont aussi prédictives des objectifs professionnels mais cette relation est partiellement médiatisée par l'auto-efficacité. Dans notre conclusion, nous dégageons les implications de nos résultats pour la recherche future et pour les interventions auprès des étudiants. | psychologie_08-0381475_tei_979.xml |
termith-748-psychologie | Dans le domaine d'étude des représentations sociales, certains objets ont motivé plus de recherches que d'autres. Parmi elles, nous pouvons remarquer les nombreuses recherches effectuées sur la représentation sociale des Études depuis plus d'une dizaine d'années (Bonardi & Roussiau, 2000; Flament, 1999; Guimelli & Rateau, 2003; Moliner & Tafani, 1997; Rateau & Huchon, 2002; Tafani, 2001 ainsi que Tafani & Bellon, 2001; Tafani & Souchet, 2001). Un autre thème attire de plus en plus l'attention des chercheurs dans divers domaines : celui de la motivation intrinsèque. En 1950, Harlow, Harlow et Meyer avaient étudié ce type de motivation. Ensuite, d'autres travaux tels que ceux d'Herzberg (1971) ont influencé la gestion du personnel en entreprise. Aujourd'hui, nous pouvons trouver des études sur les effets de cette motivation dans le sport (Brière, Vallerand, Blais & Pelletier, 1995; Vallerand, 2007), dans les loisirs (Pelletier, Vallerand, Green-Demers, Blais & Brière, 1996), ou encore dans le domaine de l'éducation (Lieury & Fenouillet, 1996; Vallerand, Blais, Brière & Pelletier, 1989). Cet article présente deux études qui visent à établir un lien entre la représentation sociale des Études et la motivation intrinsèque. Cette recherche poursuit notamment l'objectif de contribuer à répondre aux diverses questions que se posent de plus en plus les différents acteurs de l'éducation, les parents ainsi que les étudiants au sujet de l'orientation des études, du décrochage scolaire ou de la réussite. Par exemple, pour l'année scolaire 2007/2008, 848111 étudiants étaient inscrits au sein du cursus Licence en France, contre 449249 au sein du cursus Master. Cette différence est considérable et la baisse d'effectifs est encore plus flagrante dans certaines filières. En sciences humaines et sociales, le chiffre passe de 135396 inscrits en cursus Licence à 63463 en Master (chiffres de l'Insee). Nous nous sommes alors demandés si au sein de la représentation sociale des Études, nous ne pourrions pas trouver un reflet du positionnement des étudiants face à un élément essentiel de la vie scolaire : la motivation ! En effet, Abric (1994) propose quatre fonctions principales de la représentation sociale : la fonction de savoir, la fonction identitaire, la fonction d'orientation et la fonction justificatrice. Les deux dernières participent à légitimer notre champ d'investigation, c'est-à-dire, la représentation sociale des Études pour un thème tel que la motivation liée aux études pour lesquelles nos sujets sont portés à faire des choix et à se positionner. En ce sens, cette représentation va permettre aux sujets d'anticiper ou d'agir selon un contexte social particulier. Cette étude ne répondra pas directement aux questions suscitées par les problèmes évoqués plus haut, mais elle contribuera à mieux connaître la dynamique motivationnelle qui s'installe face aux Études. Avant d'en arriver là, il nous faut premièrement savoir comment les étudiants semblent se représenter les Études. La plupart des recherches sur la représentation sociale des Études se situe dans le cadre de la théorie du noyau (Abric, 1976, 1989). Rappelons que cette théorie considère qu'une représentation sociale s'organise autour de quelques éléments fortement consensuels qui déterminent l'essentiel de sa signification. Ces éléments renvoient aux valeurs ou aux normes dominantes d'un groupe social. Autour de ces éléments centraux, on trouve des éléments périphériques davantage concrets ou contextualisés, renvoyant aux expériences individuelles et faisant donc l'objet d'importantes divergences interindividuelles. À propos des Études, les différentes recherches (Tafani, 2001 ainsi que Tafani & Bellon, 2001; puis Tafani & Souchet, 2001) font apparaître un noyau central composé de deux dimensions : la finalité intellectuelle et la finalité pragmatique des études. Ce résultat semble d'autant mieux établi que ces recherches ont été réalisées auprès de populations différentes (étudiants, lycéens. ..). La finalité intellectuelle des études renvoie à l'enrichissement intellectuel acquis par les études en elles -mêmes, englobant la culture, les connaissances, la réflexion, le savoir, etc. Tandis que la finalité pragmatique fait référence aux possibilités d'ascension sociale permises par les études, c'est-à-dire la profession, la qualification, l'avenir professionnel, les diplômes, la valorisation sociale, etc. Moliner (1996), puis Bonardi et Roussiau (2000) suggèrent que la finalité intellectuelle des Études est plus valorisée par les sujets que la finalité pragmatique. Pour rendre compte de cette valorisation, nous pouvons reprendre le modèle bi-dimensionnel des représentations sociales (Moliner, 1994, 1995). Ce modèle analyse les représentations à partir de deux dimensions distinctes. La première est relative à la centralité, telle qu'elle est présentée dans la théorie du noyau. La deuxième dimension est relative au caractère évaluatif des éléments d'une représentation. La valeur positive ou négative d'un élément trouve son origine dans les valeurs qui circulent dans un groupe. En croisant ces deux dimensions, le modèle bi-dimensionnel permet de distinguer quatre champs distincts. Le premier champ concerne celui des définitions (éléments centraux, peu évaluatifs). Ces éléments nous permettent de définir l'objet de la représentation par la logique des significations. Le champ des normes (éléments centraux, évaluatifs) définit l'objet de représentation et exprime un jugement de valeur sur cet objet fondé sur des valeurs sociales. Le champ des descriptions, dont les éléments se situent en périphérie sont peu évaluatifs. Ces derniers sont généralement attribués à l'objet de représentation, mais ne sont pas nécessaires à sa définition et ne sont investis d'aucune valeur. Enfin, le champ des attentes (éléments périphériques, évaluatifs) permet l'expression des attitudes individuelles, des désirs et des craintes à l'égard de l'objet de représentation. L'étude de la valeur de la représentation sociale ne peut pas être séparée de l'étude du groupe social et d'autres mécanismes sociaux se manifestant au sein de celui -ci, tels que le jugement interindividuel et intra-individuel. Les recherches sur l'internalité ont permis de mieux comprendre le phénomène du jugement. Depuis les premières réflexions sur l'attribution causale (Heider, 1958), on s'est aperçu que les explications que l'on pouvait apporter au comportement d'un acteur ou aux événements auxquels il était confronté se regroupaient en deux grands types. Les explications externes sont celles qui concernent le contexte d'apparition du comportement ou de l'événement. Elles ont pour caractéristique essentielle de minimiser la responsabilité de l'acteur. Les explications internes concernent au contraire les spécificités de l'acteur (compétences, personnalité, motivation, etc.). Elles maximisent donc la responsabilité de cet acteur dans les comportements qu'il adopte ou dans ce qui lui arrive. Si de nombreuses recherches avaient déjà mis en évidence la fréquente préférence des individus pour les explications internes (Lefcourt, 1966, 1976, 1980; Lefcourt & Wine, 1969; Miller & Ross, 1975; Stern & Manifold, 1977), Jellison et Green (1981) ont été les premiers à évoquer le concept de norme d'internalité à propos de ce phénomène. Dans une de leurs études, ils présentent à des évaluateurs les réponses de personnes cibles ayant prétendument rempli un questionnaire permettant d'évaluer leur orientation interne ou externe. À l'aide de cette méthode, appelée le « paradigme des Juges », les auteurs montrent que les évaluateurs préfèrent les personnes internes aux personnes externes. Dans une autre étude, les mêmes auteurs utilisent un paradigme « d'Autoprésentation ». Il s'agit ici de demander aux sujets de répondre à un questionnaire d'évaluation de l'internalité selon différentes consignes, notamment en essayant de donner une « bonne image d'eux -mêmes ». Dans cette condition, on constate une nette augmentation des réponses « internes ». Pour plusieurs auteurs, ces résultats peuvent s'expliquer par l'existence d'une norme sociale de jugement (Beauvois, 1984; Beauvois & Dubois, 1988; Beauvois & Le Poultier, 1986; Dubois, 1994; et plus récemment Pansu, Bressoux & Louche, 2003; Dubois & Beauvois, 2003), particulièrement active dans les situations d'évaluation. Si, lorsqu'ils sont évalués, les individus se montrent internes, c'est parce qu'ils ont appris que les évaluateurs (parents, enseignants, employeurs, etc.) voient leur tâche facilitée s'ils songent que les personnes qu'ils évaluent sont responsables de leurs actes. Il existerait donc une norme sociale d'internalité guidant à la fois les évaluateurs et les personnes évaluées, notamment lorsque l'évaluation concerne « l'utilité sociale » de ces personnes (Beauvois & Deschamps, 1990, cité par Ghiglione, Bonnet & Richard, 1990), c'est-à-dire leur efficacité dans un rapport de production. En effet, lorsque l'évaluation se focalise sur la sympathie inspirée par les personnes ou leur sociabilité (désirabilité sociale), on constate une nette diminution de l'impact de la norme d'internalité (Moliner, 2000). Les recherches sur la normativité de l'internalité ont inspiré François (2004), qui a proposé de tester l'hypothèse d'une interprétation normative de la motivation intrinsèque comme Dubois (1994) par exemple l'a fait à propos de l'internalité. Grâce aux recherches déjà effectuées, nous allons voir que ce type de motivation semble socialement valorisé, et c'est dans cette voie que notre étude s'inscrit. Avant d'aller plus loin, il importe de revenir à la genèse de la théorie de Deci et Ryan (1985), sur laquelle nous nous sommes appuyés. L'expérience princeps de Deci (1971) repose sur une activité de puzzle de type soma (dont le but est d'assembler sept pièces afin de reconstituer un cube). Les sujets étaient soumis à des passations individuelles, et la moitié d'entre eux seulement était récompensée pour chaque puzzle résolu. Enfin, ils étaient prévenus que l'expérience était terminée, et avaient le choix d'attendre les résultats dans la salle. Ainsi, on notait si les sujets effectuaient d'autres activités, les puzzles ou s'ils ne faisaient rien. Deci a nommé le temps passé sur l'activité cible, en dehors de toute contrainte, la période de « libre choix », période qui reflète la motivation intrinsèque du sujet. Deci et Ryan (1985) considèrent alors deux types de motivation : la motivation intrinsèque (MI) et la motivation extrinsèque (ME). La première renvoie à la satisfaction que procure le fait de réaliser une activité spécifique tandis que la seconde concerne les conséquences positives (comme les récompenses reçues) ou négatives produites par la réalisation de cette activité. Il est à rappeler que ces conséquences peuvent êtres obtenues par d'autres moyens que cette activité précise. Vallerand et al. (1989) et Vallerand, Pelletier, Blais, Brière, Sénécal & Vallières (1992) distinguent trois types de MI. La MI aux stimulations est une forme de motivation qui concerne les personnes effectuant une activité leur apportant des sensations fortes : par exemple, un individu va décider d'exercer le métier de pompier pour la montée d'adrénaline qu'il ressent face à un feu à éteindre. La MI à la connaissance est liée aux activités qui apportent la satisfaction et le plaisir d'apprendre des choses nouvelles. Nous pouvons prendre l'exemple d'un journaliste heureux d'interviewer tous les jours des personnes différentes sur des thèmes divers car il découvre de nouvelles choses. Et enfin, la MI à l'accomplissement se réfère aux individus qui réalisent une activité pour la satisfaction et le plaisir d'effectuer ou d'accomplir des tâches d'une façon efficace et originale. L'individu a le sentiment de relever des défis. Un quadragénaire qui reprend des cours du soir juste pour le plaisir ou un architecte qui a su retranscrire la personnalité d'un client dans une décoration intérieure sont des exemples de ce type de MI. Il faut toutefois noter que les types de MI ne sont pas liés aux métiers, mais bien aux raisons pour lesquelles les individus ont choisi d'effectuer ces professions. La motivation intrinsèque a sa place dans la sphère individuelle mais aussi dans la relation entre le sujet et l'activité pour laquelle il pourrait être motivé ou non. Néanmoins, la motivation intrinsèque semble apparaître uniquement sous certaines conditions. Deci et Ryan (1985) ont proposé la théorie de l'évaluation cognitive. Selon les auteurs, la motivation repose sur deux besoins : le besoin de compétence et le besoin d'autodétermination, qui renvoient respectivement aux sentiments de compétence et d'autodétermination d'un individu. Tous les facteurs qui affectent ces besoins contribuent au développement de la MI. Ils se sont donc intéressés aux facteurs sociaux qui produisent des variations dans ce type de motivation. Les événements interpersonnels qui engendrent des sentiments de compétence durant l'activité réalisée peuvent augmenter la motivation intrinsèque pour cette même activité. Cela apporte satisfaction au sujet. Il a été remarqué que les feedbacks positifs des performances augmentent la motivation intrinsèque (Deci, 1971; Harackiewicz, 1979) alors que les feedbacks négatifs des performances font diminuer cette motivation (Deci & Cascio, 1972). Cette théorie spécifie aussi que les sentiments de compétence doivent être accompagnés d'une sensation d' « autodétermination » pour augmenter la motivation intrinsèque. Selon Reeve et Deci (1996), les pressions compétitives (examens, évaluations, notes. ..) semblent diminuer la motivation intrinsèque car les sujets perçoivent les compétitions comme « contrôleurs » de leurs comportements, ce qui semble altérer chez eux le sens d'autodétermination. La MI est une tendance humaine et naturelle à avoir de l'intérêt à assimiler, à créer, à apprendre, d'où notre tentative de rapprochement avec la finalité intellectuelle des études. La MI n'est pas limitée à l'enfance, mais constitue bien un trait significatif de la nature humaine qui affecte les performances et la persévérance (Ryan & La Guardia, 1999, cité par Urdan, 1999). De récentes recherches mettent en avant la valorisation de la MI. À performances équivalentes, Pelletier et Vallerand (1996) démontrent que les prouesses des sujets MI sont jugées supérieures à celles des sujets ME. François (2004) a ciblé une population étudiante pour tester la normativité de la MI par le paradigme d'autoprésentation (Jellison & Green, 1981). Pour se faire bien voir, ils se montrent motivés intrinsèquement. La MI est ici valorisée. Cassignol-Bertrand, Baldet, Louche et Papet (2006) obtiennent des résultats semblables en soumettant à des juges (professionnels de recrutement et experts en création d'entreprise) des candidats motivés intrinsèquement et extrinsèquement. Les sujets MI sont valorisés par un jugement plus positif à leur égard. Au regard des théories sur la motivation (Deci & Ryan, 1985) et des recherches sur le noyau central de la représentation sociale des Études (Tafani, 2001; Tafani & Bellon, 2001; Tafani & Souchet, 2001) que nous venons d'évoquer, il apparaît que la finalité intellectuelle des Études peut être considérée comme un élément de motivation intrinsèque, tandis que la finalité pragmatique peut être considérée comme un élément de motivation extrinsèque. En effet, au-delà des bénéfices que peuvent procurer l'enrichissement intellectuel ou l'accès à la culture, on peut supposer qu'il s'agit là de propriétés susceptibles de procurer des satisfactions concomitantes à la poursuite d' Études supérieures. Or, si comme le suggèrent les travaux cités plus haut, la motivation intrinsèque correspond à une norme sociale de jugement (François, 2004) et que la finalité intellectuelle des études est plus valorisée que la finalité pragmatique (Moliner, 1996; Bonardi & Roussiau, 2000), nous supposons que les étudiants valoriseraient la finalité intellectuelle afin de répondre à une norme sociale. Nous avons fait le choix d'utiliser le paradigme d'autoprésentation et le paradigme des juges (Jellison & Green, 1981), fréquemment utilisés pour l'étude de l'internalité pour tester cette hypothèse. Les sujets seront amenés à se positionner face aux études ou à juger la façon dont d'autres étudiants considèrent les études. Pour la première recherche, nous nous attendons à ce que des étudiants encouragés à donner une bonne image d'eux -mêmes, valorisent dans leurs réponses la finalité intellectuelle des études. Dans le mouvement inverse, des étudiants encouragés à donner une mauvaise image devraient minimiser cette même finalité intellectuelle. Enfin, pour la deuxième étude, nous nous attendons à ce que le type de motivation manifesté par un étudiant ait une influence sur les jugements qui seront portés sur lui par ses pairs. Logiquement un étudiant exprimant des éléments de motivation intrinsèque par rapport aux Études devrait recueillir plus de jugements positifs qu'un étudiant exprimant des éléments de motivation extrinsèque. Les deux études qui suivent ont été réalisées pour mettre ces différentes hypothèses à l'épreuve. Elles reposent toutes deux sur un même questionnaire, directement inspiré de recherches antérieures sur la représentation sociale des Études (Flament, 1999; Moliner, 1995; Moliner & Tafani, 1997) et plus particulièrement sur le noyau central de cette représentation. La deuxième étude explore également la valeur des jugements en termes de désirabilité et d'utilité sociale. Cette première étude a pour objectif de voir comment les étudiants préfèrent se présenter et quelle valeur ils semblent attribuer à la finalité intellectuelle des études. Elle est inspirée du Paradigme d'Autoprésentation (Jellison et Green, 1981). Les participants sont issus d'une population d'étudiants de première année en sciences humaines et sociales, mention psychologie (n = 106, 91 étudiantes et 15 étudiants, âge moyen = 20.36, écart-type = 4.27). Le questionnaire se présentait sous la forme d'une liste de 12 questions. Chacune d'elles était orientée soit vers un item de la finalité intellectuelle des études (FI : items 2, 4, 8,12), soit un item de la finalité pragmatique (FP : items 1, 5, 7, 10), soit un item neutre, mais concernant l'investissement dans les Études (N : items 3, 6, 9, 11). Ainsi, nous avons par exemple : Les études sont-elles pour vous un moyen de préparer l'avenir professionnel ? (FP) Les études sont-elles pour vous un moyen d'acquérir des connaissances ? (FI) Les études sont-elles pour vous une activité qui demande beaucoup de volonté ? (N) Pour chaque question, les participants indiquaient leur réponse sur une échelle en 7 points (1 = pas du tout d'accord, 7 = tout à fait d'accord). Les sujets étaient répartis en trois sous-groupes selon la consigne donnée avant de répondre au questionnaire. Le premier sous-groupe (n = 35) n'avait aucune consigne particulière (consigne Standard). Il leur était simplement demandé de répondre à un questionnaire sur les Études supérieures. Les sujets du second sous-groupe (n = 35) avaient pour consigne de répondre en essayant de donner une bonne image d'eux -mêmes (consigne Normative). Enfin les membres du troisième sous-groupe (n = 35) avaient pour consigne de donner une mauvaise image d'eux -mêmes (consigne Contre Normative). H1 : on s'attend à ce que les scores moyens des items « Finalité Intellectuelle » (items 2, 4, 8, 12) soient plus élevés en condition Normative qu'en condition Standard. Inversement, on s'attend à ce que les scores moyens de ces items soient plus faibles en condition Contre Normative qu'en condition Standard. Nous avons premièrement effectué un traitement item par item. Scores moyens et écart-types par item selon la consigne de passation Notes. (P) = Items finalité pragmatique; (I) = Items finalité intellectuelle; (N) = Items neutres Sur une même ligne, un indice (a,b,c) différent indique une différence significative : Test LSD (P) = Pragmatic Items; (I) = Intellectual items; (N) = Neutral items Average scores and standard deviations for each item according to the questionnaire statement Comme on peut le constater sur le tableau 1, il n'y a que très peu de différences entre les conditions Standard et Normative. Seul l'item « préparation de l'avenir professionnel » voit son score moyen augmenter entre les deux conditions. Si l'on compare à présent les conditions Standard et Contre Normative, on constate un phénomène inverse. À l'exception de l'item « difficiles » (item 6), tous les autres items du questionnaire voient leur score moyen baisser significativement entre les deux conditions. Afin de tester la consistance interne des échelles de notre questionnaire, nous avons calculé un alpha de Cronbach pour les quatre groupes d'items qui le composent. L'alpha est de .89 pour les items « Finalité Pragmatique »; .93 pour les items « Finalité Intellectuelle » et .81 pour les items « Neutres ». Compte tenu des alphas élevés, nous avons réalisé une analyse par type d'items en calculant, pour chaque participant et dans chaque condition un score moyen pour les items « Finalité Pragmatique », un score moyen pour les items « Finalité Intellectuelle » et un score moyen pour les items Neutres (cf. tableau 2). Ces scores ont été soumis à une analyse de variance selon le plan Sujets < Consigne3 * Type d'items3 > où le facteur « Type d'items » est un facteur intra sujets. Scores moyens des items « Finalité pragmatique », « Neutres » et « Finalité intellectuelle » dans les trois conditions Average scores of “pragmatic ”, “neutral” and “intellectual” finality's item in the three conditions L'analyse révèle un effet simple de la condition (F (2-103) = 68.91, p < .0001). Globalement tous les items obtiennent un score plus faible en condition Contre Normative (m = 3.28) que dans les deux autres conditions (m = 5.75 en Standard, F (2-103) = 96.16, p < .0001 et m = 5.92 en Normative, F (2-103) = 109.18, p < .00001). Par ailleurs, on ne trouve aucune différence entre les conditions Standard et Normative. Enfin, on constate une interaction entre les conditions et le type d'items (F(4-206) = 15.07, p < .0001). En condition Standard, il n'y a pas de différences entre les scores moyens des trois types d'items. En revanche, en condition Normative, les items « Finalité Pragmatique » et « Finalité Intellectuelle » obtiennent des scores significativement plus élevés que les items neutres (m = 6.10 vs m = 5.57 F (1-103) = 4.75, p < .05; m = 6.08 vs m = 5.57 F (1-103) = 5.31, p < .05). À l'inverse, en condition Contre Normative, les items « Finalité Pragmatique » et « Finalité Intellectuelle » obtiennent des scores plus faibles que les items neutres (2.86 vs 4.14 F (1-103) = 29.13, p < .0001; 2.85 vs 4.14 F (1-103) = 35.44, p < .0001). Au vu de ces résultats, il apparaît que notre hypothèse n'est que partiellement vérifiée. Si, comme prédit, les items « Finalité Intellectuelle » ont un score plus faible en condition Contre Normative qu'en condition Standard, ils n'obtiennent pas un score plus élevé en condition Normative. De fait, lorsque les participants répondent au questionnaire en condition Standard, ils le font exactement de la même manière qu'en condition Normative. Ce résultat s'explique peut-être par un effet de seuil. Compte tenu des scores observés en condition Standard, il eût fallu que les participants produisent des réponses extrêmes en condition Normative pour espérer observer des différences significatives. Mais nous pouvons aussi invoquer un phénomène d'autoprésentation implicite. En condition Standard, les participants tenteraient malgré tout de donner une bonne image d'eux -mêmes. Quoi qu'il en soit, on constate des différences indéniables dans l'expression de la finalité intellectuelle des Études lorsque les participants sont encouragés à donner une bonne ou une mauvaise image d'eux -mêmes. Ce résultat va dans le sens de l'hypothèse du caractère normatif de cette dimension, même si les items correspondant à la finalité pragmatique font l'objet d'un traitement identique de la part des participants. Nous avons ensuite réalisé une deuxième étude nous permettant de tester encore une fois l'hypothèse de la valorisation de la dimension intellectuelle des études par les étudiants. À l'inverse de la première étude, le paradigme utilisé place les sujets du côté évaluateur (alors qu'ils étaient en position d'évalués). Cette seconde étude s'inspire du Paradigme des Juges de Jellison et Green (1981). Il s'agit de présenter aux participants les réponses d'une étudiante 1 à propos des Études. On s'intéresse alors aux effets que pourront avoir ces réponses sur les jugements qui seront portés sur l'étudiante sensée les avoir produites. Les participants à cette étude sont des étudiants de première année de psychologie (n = 96, 73 étudiantes et 23 étudiants, âge moyen = 19.42, écart type = 1.97). Ils étaient répartis en trois sous-groupes (n = 32). Chaque groupe prenait connaissance des réponses d'une étudiante fictive en psychologie, ayant répondu à un questionnaire de représentation sur les Études durant l'année précédente. Les participants recevaient donc un exemplaire du questionnaire de représentation utilisé dans l'étude 1. Pour un premier sous-groupe, le questionnaire était saturé en réponses « Finalité Pragmatique ». C'est-à-dire que, pour les questions 1, 5, 7 et 10, la prétendue répondante avait donné des degrés d'accord maximum (score 7). Elle avait également donné des degrés d'accord minimum (score 1) pour les questions « Finalité Intellectuelle » (items 2, 4, 8, 12) et des degrés d'accord moyen (score 4) pour les questions « Neutres » (items 3, 6, 9, 11). Selon le même procédé, les participants du second sous-groupe prenaient connaissance d'un questionnaire saturé en réponses « Finalité Intellectuelle ». Enfin pour le troisième sous-groupe, la prétendue répondante avait donné un degré d'accord moyen à toutes les questions (scores entre 3, 4 et 5). Dans les trois sous-groupes, le questionnaire fictif était introduit par la consigne suivante : « Voici un questionnaire auquel a répondu l'an dernier une étudiante de première année de psychologie. Après avoir attentivement pris connaissance des réponses de cette étudiante, indiquez l'impression qu'elle vous donne. » Venait ensuite une liste de 13 questions (cf. tableau 3) concernant la prétendue répondante. Ces questions, élaborées a priori abordaient différents aspects du jugement. Certaines d'entres elles correspondaient à des jugements sur la sociabilité de la cible (désirabilité sociale) ou à son efficacité perçue dans la réussite de ses études (utilité sociale). D'autres correspondaient à des qualités perçues de la cible ou à son goût pour les études. Rappelons brièvement que la désirabilité sociale renvoie aux attitudes et comportements recherchés dans les relations à autrui. Sa valeur permet d'appréhender la capacité d'un individu à développer des relations interpersonnelles satisfaisantes. L'utilité sociale quant à elle fait référence aux attitudes et comportements attendus pour atteindre les objectifs fixés. Sa valeur permet d'appréhender les chances de réussite ou d'échec d'un individu pour une activité (Cambon, Djouari & Beauvois, 2006). Pour chaque question, les participants indiquaient leur réponse sur une échelle en 7 points (1 = pas du tout, 7 = tout à fait). En ce qui concerne la désirabilité sociale, nous avons par exemple la question « Pourriez -vous devenir amis ? » (7); pour l'utilité sociale : « Va -t-elle réussir ses études ? » (2); pour son goût pour les études : « Aime -t-elle les études ? » (4). H2 : on s'attend à ce que les jugements portés sur la cible « Finalité intellectuelle » soient globalement plus positifs que ceux portés sur la cible « Finalité Pragmatique », puisque la première est considérée comme un élément de motivation intrinsèque. H3 : on s'attend à ce que les différences observées entre les jugements portés sur les différentes cibles ne concernent que les jugements situés dans la sphère de l'utilité sociale (Moliner, 2000). Le tableau 3 fournit les réponses moyennes aux 13 items de notre questionnaire. Scores moyens et écart-types par question selon le type de cible Note. Sur une même ligne, en indice (a, b, c) différent indique une différence significative : Test LSD Average scores and standard deviations for each item according to the questionnaire statement Nous avons ensuite calculé, pour chaque participant et pour chaque cible un score moyen de jugement. Ce score, variant de 1 à 7 est d'autant plus élevé que les sujets portent des jugements positifs sur la cible 2. Globalement, l'analyse de variance (plan S < Cible3 >) fait apparaître un effet du facteur « Cible » sur ce score de jugement (F (2-93) = 5.27, p < .01). Si l'on observe aucune différence entre la cible « Neutre » et la cible « Intellectuelle » (m = 3.62 vs m = 3.85), on remarque une différence tendancielle entre la cible « Neutre » et la cible « Pragmatique » (m = 3.62 vs m = 3.26, F (1-93) = 3.72, p < .06), et une différence significative entre la cible « Pragmatique » et la cible « Intellectuelle » (m = 3.26 vs m = 3.85, F (1-93) = 10.42, p < .01). Ce résultat va tout à fait dans le sens de notre seconde hypothèse. Afin de mettre notre troisième hypothèse à l'épreuve, nous avons réalisé une Analyse en Composantes Principales (ACP) sur l'ensemble des réponses des sujets des trois sous-groupes. ACP réalisée sur l'ensemble des réponses des sujets des trois groupes PCA (Principal component analysis) for the three group dataset. Cette analyse fait apparaître trois facteurs (voir tableau 4) qui rendent compte de près de 58 % de la variance totale. Le facteur 1 concerne la capacité de travail et les perspectives de réussite, qui traduisent l'utilité sociale (Items 6, 10, 9, 2 et 1 du tableau 3). Le facteur 2 concerne la sociabilité (« Sympathie », « Devenir amis », « Sociable »). Le facteur 3, qui oppose le goût pour les études (« Aimer les études ») à la forte ressource en capacité de travail (Item 8, cf. note 2) renvoie selon nous, à la motivation intrinsèque; cette opposition révèle en effet un goût pour la pratique des études qui s'opposerait à une capacité de travail facilitant celle -ci 3. Classiquement, l'ACP repose sur la matrice initiale des corrélations entre variables et permet de résumer cette matrice sous forme de facteurs. Mais la méthode permet aussi de mettre en facteur les différentes mesures dont est extraite la matrice de corrélation. En d'autres termes, les facteurs de l'ACP nous fournissent les coordonnées d'un ensemble de variables (dans notre cas, les 13 questions), mais ils fournissent aussi les coordonnées des individus qui se sont positionnés sur ces variables (dans notre cas, les participants). Dès lors, ce que l'on appelle les « scores factoriels » d'un participant indiquent la manière dont ce participant se positionne sur les facteurs et la moyenne d'un ensemble de scores factoriels permet d'estimer comment un groupe de participants a répondu à un ensemble de questions. Scores factoriels moyens pour les dimensions « Utilité sociale », « Désirabilité sociale » et « Motivation intrinsèque » selon le profil Neutre, Intellectuel ou Pragmatique de la cible Average score for “Social utility ”, “Social desirability” and “Intrinsic motivation”'s item according to the profil (Neutral, intellectual or pragmatic) Pour ce qui nous concerne, nous avons considéré les scores factoriels de chaque participant sur les trois dimensions qui se dégagent de l'ACP (cf. tableau 5). Puis nous avons soumis ces scores à une analyse de variance suivant le plan S < Cible3 * Dimension3 > où le facteur « Dimension » est un facteur intra sujets. L'analyse révèle une interaction entre le facteur Cible et les Dimensions de l'ACP (F (2-93) = 7.69, p < .001). Pour la dimension Utilité sociale, on ne constate aucune différence entre les trois cibles. En d'autres termes, que la cible soit Neutre, qu'elle affiche une préférence pour la Finalité Intellectuelle des Études ou leur Finalité Pragmatique, les participants ont porté sur elle les mêmes jugements en termes de réussite universitaire et professionnelle. Pour la dimension Désirabilité sociale, on constate que la cible Pragmatique est moins bien évaluée que la cible Neutre (m = - .58 vs m = .15, F (2-93) = 10.58, p < .0001) et que la cible Intellectuelle (m = - .58 vs m = .45, F (2-93) = 20.19, p < .0001). Enfin, pour la dimension relative à la Motivation Intrinsèque, la cible Intellectuelle est mieux évaluée que la cible Neutre (m = .46 vs m = - .01, F (2-93) = 4.15, p < .05) et que la cible Pragmatique (m = .46 vs m = - .45, F (2-93) = 15.45, p < .0001). En définitive, lorsque la cible manifeste à travers ses réponses un intérêt pour la Finalité Intellectuelle des Études, elle obtient des jugements positifs en termes de Sociabilité et de Motivation Intrinsèque. Lorsqu'elle manifeste un intérêt pour la Finalité Pragmatique des Études, elle obtient des jugements négatifs sur ces mêmes dimensions. Au contraire de ce que prévoyait notre troisième hypothèse, les variations observées dans les jugements des participants ne se cantonnent pas à la sphère de l'utilité sociale. Cette recherche a pour objectif principal de vérifier si la finalité intellectuelle des études est valorisée par des sujets afin de répondre à une norme sociale de motivation intrinsèque. En effet, nous supposons que cette finalité est une composante principale de la motivation intrinsèque pour les études. Par le paradigme d'autoprésentation et le paradigme des juges, nous avons placé les étudiants en tant qu'évalués et en tant qu'évaluateurs en émettant l'hypothèse que nos sujets valoriseraient la finalité intellectuelle pour se faire bien voir et pour émettre des jugements positifs. En dépit d'un éventuel effet de seuil ou d'autoprésentation implicite, les résultats de l'étude 1 montrent que les finalités intellectuelle et pragmatique des Études apparaissent comme des éléments normatifs que les participants mettent en avant lorsqu'il s'agit de donner une bonne image d'eux -mêmes et minimisent lorsqu'il s'agit de faire mauvaise impression. Dans le même sens, les résultats de l'étude 2 montrent que lorsqu'une cible exprime un intérêt pour la finalité intellectuelle des Études, elle est davantage perçue comme quelqu'un qui « aime les études » que lorsqu'elle exprime un intérêt pour la finalité pragmatique de ces dernières. En d'autres termes, ces résultats confortent la thèse du caractère normatif de la finalité intellectuelle des études et de son lien avec la motivation intrinsèque. Toutefois, ils soulèvent plusieurs questions. La première concerne l'utilisation différenciée de la finalité pragmatique des Études selon que les participants sont placés en position d'évalués ou d'évaluateurs. Manifestement, dans le premier cas, il s'agit d'un élément normatif positif. Mais dans le second, cet élément devient négatif. Le statut de l'évaluateur semble donc avoir une conséquence sur la valeur normative que peut prendre la finalité pragmatique des Études. Ce constat est à rapprocher d'une étude récente (Louche, Bartolloti et Papet, 2006) qui montre que la normativité de la motivation intrinsèque se montre plus forte lorsque des salariés soumis au paradigme d'autoprésentation ont à se présenter à des supérieurs hiérarchiques que lorsqu'ils ont à se présenter à des collègues de travail. Or, dans l'étude 1, on peut supposer que les participants aient fait des inférences sur la personne à qui ils devaient faire bonne ou mauvaise impression, en supposant par exemple qu'il pouvait s'agir d'un enseignant, voire d'un parent. C'est-à-dire d'un évaluateur qui, du point de vue social, occupe une position dominante par rapport à eux -mêmes. Mais dans la seconde étude, les participants sont amenés à évaluer un pair qui ne semble privilégier que les bénéfices matériels procurés par les Études. On peut alors supposer que ce pair n'est peut-être perçu que comme un concurrent (arriviste, opportuniste, intéressé) à qui l'on ne prédit pas la réussite et que l'on trouve peu sympathique. Il ne s'agit bien sûr ici que d'une hypothèse qu'il conviendrait de tester par des recherches ultérieures. La seconde question soulevée par nos résultats concerne les similitudes observées entre les conditions Standard et Normative de l'étude 1. Dans ces deux conditions, les deux finalités des études subissent le même traitement. De manière spontanée ou pour se faire bien voir, les étudiants mettent en avant la finalité intellectuelle autant que la finalité pragmatique. Nous pouvons alors nous demander si une norme de motivation en général, incluant l'attraction pour la finalité intellectuelle et la finalité pragmatique des études ne se manifesterait pas. En ce qui concerne les études, la norme concernerait alors les deux types de motivation. En parallèle à la théorie de la motivation intrinsèque, nous pouvons observer les résultats concernant les buts de maîtrise et les buts de performance adoptés à l'université. De nombreux auteurs comme Nicholls (1984) et Dweck (1986) considèrent que les individus peuvent poursuivre deux types de buts dans une situation d'accomplissement, qui créent des cadres de références au travers duquel les individus interprètent, évaluent et agissent dans une tâche d'accomplissement (Dweck, 1986). Le but de maîtrise correspond aux désirs de comprendre le problème, mais aussi d'apprendre et d'acquérir de nouvelles connaissances, aspirations que l'on retrouve dans la finalité intellectuelle des études. Le but de performance concerne quant à lui le désir de mettre en avant ses capacités, de réussir mieux que les autres et repose sur une comparaison normative et socialement référencée. La finalité pragmatique des études repose également partiellement sur une base de comparaison sociale (diplômes, qualifications ,. ..). Dans une étude récente, Darnon, Dompnier, Delmas, Pulfrey et Butera (2009) ont émis l'hypothèse que les deux buts seraient encouragés à l'université. Les enseignants valoriseraient les buts de maîtrise mais le système de sélection, surtout pour l'entrée en Master incitent les étudiants à adopter les buts de performances. Les résultats de cette recherche nous montrent qu'en autoprésentation, les sujets devant se montrer sympathiques (désirabilité sociale) adoptent des buts de maîtrise. Devant se montrer compétent (utilité sociale), ils adoptent également des buts de maîtrise, mais aussi des buts de performances. Les deux buts semblent valorisés à l'université, tout comme les deux finalités le sont dans notre étude. L'explication que donne Darnon et al. (2009) concernant le système universitaire encourageant à adopter les deux types de buts semble également une piste d'explication pour notre recherche puisque les finalités des études et buts de maîtrise et de performance semblent liés. Les étudiants, conscients de donner une bonne image aux enseignants mais aussi responsables de leur réussite se montrent attirés par les deux types de finalités. Enfin, la dernière question soulevée par cette recherche concerne le champ d'action de la norme de motivation intrinsèque dans la représentation sociale des Études. Il semble que nos résultats ne vont pas dans le sens des travaux initiés par Beauvois et ses collègues (voir supra), où la notion de norme sociale a toujours été envisagée au regard de rapports sociaux asymétriques. Or, rien n'interdit de penser que, dans certains cas, une norme puisse s'établir entre pairs et reposer davantage sur des valeurs de coopération que sur des valeurs de domination sociale. En effet, les résultats de la seconde étude montrent que cette norme s'exprimerait davantage dans la sphère de la sociabilité que dans celle de l'utilité sociale. On peut tenter d'expliquer ce phénomène en invoquant ce qui a été dit plus haut. Un pair apparaîtra peut-être plus sympathique lorsqu'il se montre désintéressé que lorsqu'il nous semble animé d'un désir de réussite sociale. Rappelons par exemple ici une recherche de Flament (1984) qui montre que lorsque des individus ont à classer par ordre de préférence différents groupes qui leur sont décrits, ils utilisent une norme de jugement fondée sur la notion d'égalité sociale. Selon Lévy-Leboyer (1981, p.50), « la motivation déclenche l'activité, l'oriente vers certains buts et prolonge l'action, jusqu' à ce que ces buts soient atteints ». Au-delà de la description du contenu et des composantes motivationnelles des représentations sociales des études, il ne faut pas oublier qu'un autre objectif important est d'étudier leurs conséquences et les mécanismes par lesquels elles peuvent affecter la réussite des étudiants, et la persistance, notamment dans les filières longues et difficiles. Nous constatons chaque année dans diverses filières que la baisse d'effectifs entre la première année universitaire et la deuxième est énorme. Ce constat a plusieurs causes, connues ou inconnues et l'étude de la motivation intrinsèque peut contribuer à dépister certaines causes . | Cette recherche a pour but de mettre à l'épreuve l'hypothèse d'une norme sociale de motivation intrinsèque (NMI) dans la représentation sociale des Études. Deux études ont été effectuées auprès d'une population étudiante (n = 106 ; n = 96), utilisant les paradigmes des juges et d'autoprésentation. Les résultats suggèrent l'internalité de la motivation intrinsèque (MI) dans la représentation sociale des Études, qui s'exprimerait davantage dans la sphère de la sociabilité que dans celle de l'utilité sociale. Ce type de motivation ne semblerait pas forcément offrir de perspectives de réussite après évaluations. | psychologie_11-0221072_tei_929.xml |
termith-749-psychologie | L'indécision est l'incapacité d'une personne à exprimer un choix pour une activité différenciée lorsqu'elle est incitée à le faire. On fait état d'indécision vocationnelle lorsque le choix porte sur la future activité professionnelle ou sa préparation. L'épreuve permet, d'une part, d'estimer l'intensité de l'état d'indécision vocationnelle telle qu'il est ressenti par la personne et l'on distinguera l'indécision professionnelle (celle qui porte sur la fin, le métier) et l'indécision scolaire (celle qui porte sur le moyen, la formation). L'épreuve permet, d'autre part, d'évaluer l'importance de facteurs susceptibles d'expliquer cet état d'indécision. L'épreuve existe sous deux formes chacune adaptée à un type principal d'utilisation. La forme S (scolaire) est plus pertinente pour les activités collectives d'aide à l'orientation menées, pour l'essentiel, dans le cadre de l'enseignement secondaire : il s'agit alors, soit d'estimer les besoins de groupes pour mieux ajuster les interventions des équipes éducatives, soit d'évaluer à quel point ces besoins ont été satisfaits. La forme I (insertion) est plus adaptée aux consultations d'orientation et des bilans individuels : il s'agit de déterminer la nature de l'aide à apporter aux personnes indécises pour la construction de projets personnels de carrière. Dans sa forme S, celle qui est présentée ici, l'épreuve est particulièrement destinée aux jeunes de l'enseignement secondaire : de la classe de quatrième de collège, voire de cinquième pour les collégiens ayant un niveau verbal suffisant, jusqu'au premier cycle de l'enseignement supérieur. Elle permet d'estimer les poids relatifs de six facteurs dans la détermination de l'indécision : manque de développement, manque de connaissance de soi, manque d'information sur le monde vocationnel, absence de méthode de décision, anticipations pessimistes et obstacles externes. L'épreuve comporte 55 items (forme S) dont 5 permettant d'évaluer l'état d'indécision tel qu'il est perçu, les autres items permettant d'estimer les poids respectifs des six déterminants considérés. Elle peut être passée en situation individuelle ou collective. Le temps de passation est libre; en règle générale, il est de l'ordre de 15 à 20 minutes, temps de lecture des consignes compris. L'épreuve et son manuel (Forner, 2009) sont disponibles aux Éditions Eurotests (www.eurotetsts.fr); le présent article résume la partie consacrée à la forme S de l'épreuve. On peut distinguer quatre grandes conceptions de l'indécision vocationnelle parmi celles qui ont guidé l'élaboration de l'EDV-9 : l'absence de choix, l'état transitoire d'élaboration d'un choix, le dysfonctionnement des processus de choix et la multi-détermination potentielle. Pour certains (pour une analyse plus précise et des références, on se reportera aux écrits signalés en bibliographie), on peut faire état d'indécision de carrière quand une personne éprouve des difficultés à arrêter un choix de carrière. Cette conception élargie de l'indécision semble fréquemment adoptée depuis plus d'une décennie. Ce n'était pas celle des premières études où l'indécision était simplement définie par l'absence de réponse d'une personne à un questionnement sur ses intentions d'avenir en matière professionnelle. Cette approche syncrétique, que l'on pourrait qualifier d'administrative, incite à considérer également indécises des personnes qui n'ont en commun que leur état d'indécision, sans qu'une hypothèse ne soit formulée quant aux causes de cet état. Au terme d'études portant souvent sur de grands effectifs, on parvenait à une synthèse décevante plutôt : très généralement jeunes décidés et jeunes indécis ne se différencient quasiment pas. La déception était à la mesure des attentes, car le problème devenait important avec l'allongement et la spécialisation des formations, et à la mesure des moyens investis dans les recherches. Des études plus récentes peuvent également être rattachées à cette approche dichotomique : celles où l'on substitue un continuum de décision - indécision à la simple opposition décidé/indécis. On y établit des corrélations entre la dimension indécision et d'autres dimensions, comme la planification, l'exploration professionnelle, le développement de l'identité ou l'estime de soi (corrélations négatives), la timidité, la peur de réussir ou l'externalité du contrôle (corrélations positives). Cette démarche a été particulièrement utilisée pour des dimensions de personnalité comme l'anxiété, la peur de l'engagement, l'introversion ou la dépression. Le relatif échec de ces premières approches était compatible avec les conceptions développementales selon lesquelles, une fois passées les rêveries de l'enfance, les décisions d'orientation ne peuvent se prendre qu' à l'issue d'un long processus. Il en résulterait l'existence, en cours d'adolescence, d'une nécessaire période d'élaboration du choix et, donc, d'indécision. Comme les personnes quittent cette période à des âges (chronologiques) différents, ces décalages font apparaître décidées les personnes dont le développement est précoce, et indécises celles dont le développement est tardif. Dans cette conception développementale, on a parfois fait de la tendance à décider (par opposition à l'indécision) une dimension de la maturité vocationnelle, un état préparatoire aux prises de décision de carrière. Ce nouveau modèle a été conforté par diverses études, mais il laissait apparaître une difficulté : tous les états indécis ne décroissent pas lors de l'adolescence. L'indécision n'est plus alors un inévitable état transitoire de l'adolescence, mais une caractéristique de la personne. Cette première différenciation permettait d'expliquer, en partie, la faiblesse voire l'inconsistance des contrastes entre les personnalités des jeunes décidés et des jeunes indécis, ces derniers ne formant pas un groupe homogène. On repérait donc une forme ancrée d'indécision : l'indécision chronique. Caractéristique des personnes, elle était censée se manifester dans d'autres situations que les décisions de carrière, c'est pourquoi on a fait également état d'indécision généralisée. Pour certains, ce serait la manifestation d'une personnalité indécise, l'association d'un manque de maturité vocationnelle (manque de connaissance de soi et des milieux professionnels) et d'insuffisances moins développementales (comme le manque de confiance en soi ou l'intolérance à l'ambiguïté). D'autres ont envisagé l'existence de deux voies de développement vocationnel à l'adolescence : l'une normale, et l'autre (marquée par une forte anxiété) se manifestant par des perturbations du processus de décision notamment la tendance à la forclusion et la peur de l'engagement). Des conceptions cognitives de l'indécision ont complété l'approche développementale : elles visaient à déterminer formes et contenus des phases du traitement nécessaire de l'information concernant la personne elle -même, les métiers, le monde du travail et celui des formations. Un modèle de décision prévoyait cinq phases, chacune caractérisée par l'utilisation dominante d'un processus : communication (prélèvement d'information), analyse (exploration), synthèse (cristallisation), évaluation et exécution. Ces traitements de l'information sont contrôlés par des règles métacognitives plus ou moins pertinentes (une règle non pertinente serait, par exemple, celle selon laquelle il n'y aurait qu'une seule profession satisfaisante pour soi). Dans ces approches, qui sont particulièrement représentées dans le monde francophone par la démarche A.D.V.P., l'indécision n'est pas considérée spécifiquement mais traitéecomme la conséquence du dysfonctionnement de l'un, au moins, des processus de décision. Cette conception normative est opérationnelle mais elle mène les auteurs à étendre la notion d'indécision. Certains, en effet, considèrent décidées les seules personnes qui ont exercé de manière approfondie les processus requis : en conséquence, un jeune qui indiquerait un choix unique et réaliste, mais formulé à l'issue d'un traitement superficiel de l'information, serait un « faux positif », artificiellement décidé ! Une telle fidélité à la logique des processus risque d'éloigner de la réalité des comportements : un jeune peut décider à l'aide d'un processus insuffisant; on n'a pas montré qu'il s'adaptera différemment d'un autre au monde professionnel. La diversité potentielle des processus. L'opposition initiale entre indécision développementale et indécision généralisée a préfiguré diverses distinctions. Ainsi, l'insuffisance de l'information sur soi ou sur les professions a pu être associée à d'autres états d'indécision. Il s'agit souvent d'une insuffisance subjectivement ressentie, car il n'apparaît pas que la tendance à choisir et la sûreté du choix augmentent mécaniquement avec la quantité d'information dont on dispose. L'existence d'un état indécis a également été associée à celle d'un conflit interne (il s'agit ici d'un conflit du type approche, celui éveillé par la coexistence de plusieurs buts également attirants, mais mutuellement exclusifs). Pour une formalisation plus opérationnelle de cette forme d'indécision, on a caractérisé les personnes par leur absence de méthode de décision, suggérant que la mise à disposition d'une méthode les amène à se déterminer. On est ainsi passé d'une analyse de deux formes possibles d'indécision à l'analyse de l'importance, chez un même sujet, de ses principaux facteurs potentiels et on a fait état d'un diagnostic différentiel de l'indécision. Cette approche, plus fine que les précédentes, nécessitait des outils de mesure plus systématiques et précis et plusieurs échelles ont été élaborées. Les réponses à ces questionnaires ont été traitées à l'aide d'analyses factorielles dont les dimensions sont devenues des déterminants potentiels de l'indécision. Dans ce questionnaire on distingue l'intensité perçue de l'état d'indécision et les facteurs individuels de son installation. L'importance subjective de l'état d'indécision est appréciée à l'aide de deux questions dont l'une porte sur l'élaboration d'un choix d'étude ou de formation, et l'autre sur un choix de métier ou d'activité professionnelle. Pour chacune, le jeune indique l'intensité de son indécision en se repérant en fonction des quatre situations proposées. Les scores, croissants de 0 à 3 pour chaque question, peuvent être additionnés pour fournir un indice total d'indécision (variant donc de 0 à 6). Les facteurs d'indécision considérés sont au nombre de huit, appréciés chacun à l'aide de cinq items. 1) Obstacles externes (exemple d'items : « J'ai découvert que je ne pourrai pas exercer le métier qui m'intéresse »), 2)Indécision développementale (« Je me préoccupe encore assez peu de mon avenir professionnel »), 3) Indécision généralisée (« Je retarde toujours autant que je peux la prise de toute décision »), 4) Absence de méthode (« Plusieurs métiers me semblent également attirants »), 5) Anxiété dans la décision (« Devoir choisir un métier me met très mal à l'aise »), 6) Manque d'information (« Je manque d'information sur les professions »), 7) Anticipations pessimistes (« J'ai peur de ne pas réussir dans les études que je voudrais faire »), 8) Désinvestissement du travail (« Je trouve que faire des études ne me servirait à rien »). Formulation initiale, ce questionnaire n'a plus lieu d' être utilisé. Une recherche (Forner, 1995) visait à éprouver les qualités de cette première forme du questionnaire et du modèle sous-jacent, puis à dégager des indications pour d'éventuels aménagements. Les principaux résultats sont les suivants : 1) l'intensité de l'indécision a été précisée. 2) Les fréquences des causes d'indécision sont très diverses : le manque d'information est très courant; le désinvestissement du travail est rare. 3)La structure des relations entre les items incite à reconsidérer certains facteurs : notamment, les dimensions Indécision généralisée et Anxiété de décision apparaissent quasiment indissociables. À l'inverse, la formulation du Désinvestissement du travail manque de cohérence (on distingue des items dont le contenu est scolaire et d'autres dont le contenu est professionnel). Comme précédemment, le sujet doit estimer son niveau d'indécision, puis répond à 32 items à partir desquels on pourra déterminer ses scores sur les facteurs suivants : 1)Personnalité (« J'ai peur que mon choix professionnel ne soit pas le bon »), 2)Développement (« Je n'ai pas besoin de choisir dès maintenant ce que je ferai plus tard »), 3) Méthode (« Je manque de méthode pour choisir les études qui me plairaient »), 4)Information (« Je manque d'informations sur le monde du travail »), 5) Obstacles externes (« Mes projets sont bloqués à cause de mes résultats scolaires »). 6)Anticipations pessimistes (« Je crains de ne pas parvenir au métier qui m'intéresse »), 7)Désinvestissement scolaire (« Je trouve que toutes les formations sont sans intérêt pour moi »). L'organisation de l'épreuve est inchangée : après s' être identifié, l'utilisateur doit d'abord estimer son indécision scolaire, puis, il doit expliciter sa réponse. Il doit alors estimer son indécision professionnelle et doit, de même, expliciter sa réponse. Puis il doit répondre à 48 items, chacun de ces items correspondant à un facteur censé permettre d'expliquer l'état indécis. Les facteurs considérés ici sont : 1) un développement tardif en matière vocationnelle, 2)le manque d'information sur le monde vocationnel, 3)le manque de connaissance de soi, 4)le manque de méthode pour décider, 5)des obstacles externes qui empêchent la réalisation d'un projet et 6)des anticipations trop pessimistes pour permettre la constitution d'un projet. Cette forme S se double d'une forme I non présentée ici. L'épreuve concerne les adolescents et jeunes adultes qui éprouvent des difficultés dans l'élaboration de leurs projets de formation et d'emploi. Elle s'adresse, d'une part, aux personnes qui fréquentent l'enseignement secondaire ou le début de l'enseignement supérieur et vise plus particulièrement les jeunes des lycées, qu'ils suivent un enseignement général ou technologique, voire professionnel. Elle peut être utilisée à partir de la classe de quatrième de collège jusqu'au premier cycle universitaire. L'épreuve s'adresse, d'autre part, aux personnes engagées dans une activité de bilan : bilan de compétences personnelles et professionnelles, bilan de réinsertion professionnelle des demandeurs d'emploi, bilan mené lors de stages d'insertion ou de reconversion. Pour ces dernières situations, la forme EDV-9 I est sans doute plus adaptée. Elles figurent sur la première page de la feuille de passation. Il convient de les lire à voix haute aussi strictement que possible. La lecture devra être d'autant plus rigoureuse que le niveau de formation des personnes sera faible. On pourra adapter cette lecture pour les personnes de niveau de formation élevé (pour plus d'indications, on se reportera au manuel de l'épreuve). Pour les évaluations de l'état d'indécision, les scores bruts du sujet sont les chiffres correspondant à ses réponses. Le score brut d'indécision vocationnelle est la somme des deux scores précédents. L'étalonnage se limite à des indications sur le rang du sujet (voir tableau 7). Pour les évaluations des facteurs de l'indécision, il faut établir les scores bruts sur chaque échelle en sommant les notes obtenues aux 8 items des échelles avec A = 1; B = 2; C = 3 et D = 4. L'étalonnage est un décilage (voir tableau 8). On trouvera dans le manuel des étalonnages différenciés selon le genre. L' Épreuve de Décision Vocationnelle est d'abord un outil destiné au spécialiste du conseil : cet outil lui indique un mode de réponse spécifique à une personne indécise et lui fournit un guide pour un entretien plus approfondi. Mais ce peut être également un outil psychopédagogique destiné à la personne indécise pour lui permettre de prendre conscience de la représentation qu'elle a de sa propre situation, d'élaborer cette représentation et de la faire évoluer. En ce sens il faut fournir une information synthétique de ses déclarations au jeune (pour plus d'indications, on se reportera au manuel de l'épreuve). La population est celle des jeunes de l'enseignement secondaire. Une enquête a été menée auprès d'élèves de classes de première (N = 642), ainsi qu'auprès d'élèves de classes de troisième (N = 510). L'échantillon retenu comporte donc 1152 participants : 455 garçons (39,5 %) et 697 filles (60,5 %). Les âges variaient de 12 à 20 ans autour d'une moyenne de 15,62 ans avec un écart-type de 1,35 an. Les participants ont été interrogés collectivement, dans le cadre scolaire traditionnel, au cours des deuxième et troisième trimestres scolaires. La distribution des scores d'indécision scolaire (question A) figure au tableau 1. En matière de formation, un jeune sur sept (13,5 %) est totalement indécis et un sur trois (35,6 %) hésite entre plusieurs voies. Les pourcentages ont été cumulés à partir des plus faibles scores, c'est-à-dire des sujets les plus décidés. La distribution des scores d'indécision professionnelle (question C) figure au tableau 2. En matière d'activité professionnelle, un jeune sur six (16,7 %) est totalement indécis et un sur trois (30,8 %) hésite entre plusieurs activités. La distribution des scores d'indécision vocationnelle figure au tableau 3. En matière de carrière, un jeune sur cinq (12,2 % + 3,9 % = 16,1 %) est totalement décidé au moins sur une des deux échelles et un sur six (20,4 %) est totalement indécis au moins sur une des deux échelles. Quarante-huit items décrivent des causes potentielles de l'état (évalué par les précédents items). La description de ces items figure en annexe I.On note l'asymétrie de la distribution de 5 items, relevant tous de l'échelle Obstacles. L'étude de cette asymétrie sera reprise, ci-dessous, dans l'étude des échelles. L'indécision scolaire dans l'enseignement secondaire (N = 1152) L'indécision professionnelle dans l'enseignement secondaire (N = 1152) L'indécision vocationnelle dans l'enseignement secondaire On a procédé à une analyse factorielle exploratoire sur les items. La structure après la rotation Varimax figure au tableau 4. L'hypothèse est celle d'un regroupement des items sur 6 composantes correspondant aux échelles précédentes. Ces 6 composantes expliquent près de la moitié (48,05 %) de la variance du questionnaire. (N.B. On a utilisé ici systématiquement le terme « composante » pour désigner chacune des dimensions issues de l'analyse factorielle et le terme « facteur » pour désigner chacune des causes potentielles d'indécision évaluées par le questionnaire). La première composante (C1 dans le tableau 4) sature les items 30, 41, 13, 7, 46, 36, 02, 19; elle explique 20,86 % de la variance et peut être interprétée comme une composante de manque de développement. La seconde composante (C2) sature les items 29, 24, 12, 6, 1, 32, 45, 18, 15 elle explique 8,49 % de la variance et peut être interprétée comme une composante de manque de Méthode. La troisième composante sature les items 15, 03, 09, 26, 24, 38, 16, 39; elle explique 6,66 % de la variance et peut être interprétée comme une composante d'anticipations pessimistes. La quatrième composante sature les items 44, 40, 17, 11, 33, 28, 23, 47; elle explique 4,84 % de la variance et peut être interprétée comme une composante de manque d'Information. La cinquième composante sature les items 10, 27, 05, 22, 48, 43, 35, 21; elle explique 3,66 % de la variance et peut être interprétée comme une composante de manque de connaissance de Soi. La sixième composante sature les items 20, 08, 03, 37, 31, 42, 14, 25; elle explique 3,54 % de la variance et peut être interprétée comme une composante d'obstacles externes. Ces composantes sont orthogonales, elles correspondent à l'idée de 6 sources de variation indépendantes (i.e. un score observé pour un sujet sur une composante ne permet aucun pronostic sur le score de ce sujet sur les autres composantes). L'organisation des saturations présentées au tableau 4 permet de conforter l'hypothèse selon laquelle l'état d'indécision des jeunes de l'enseignement secondaire relève de six principales sources indépendantes. Analyse factorielle exploratoire sur les items Rotation Varimax – N = 1152 élèves de l'enseignement secondaire Les saturations inférieures à .20 ont été supprimées L'unidimensionnalité des échelles a été examinée en appliquant une analyse factorielle (suivie de la rotation Varimax) aux items de chaque échelle. L'hypothèse d'unidimensionnalité ne paraît jamais prise en défaut. Pour chaque échelle on trouvera (tableau 5) divers indices caractérisant la distribution des scores : tendance centrale (la moyenne), dispersion (l'écart-type), normalité (le coefficient de Kolmogorov-Smirnov), forme (les coefficients d'asymétrie et d'aplatissement) et homogénéité (coefficient alpha de Cronbach). Pour préciser l'homogénéité on trouvera au tableau 6, pour chaque item, le coefficient de corrélation avec son échelle de rattachement (coefficient corrigé pour l'appartenance de l'item à l'échelle). N.B. : L'asymétrie des distributions est évaluée par un coefficient de skewness fondé sur le rapport du moment centré d'ordre 3 au cube de l'écart-type. Ce coefficient est négatif lorsque la distribution est plus dispersée pour les faibles valeurs de la variable; il est nul lorsque la distribution est symétrique; il est positif lorsque la distribution est plus dispersée pour les fortes valeurs de la variable. L'aplatissement des distributions est évalué par un coefficient de kurtosis fondé sur le rapport du moment centré d'ordre 4 au carré de la variance. Ce coefficient est négatif lorsque les valeurs extrêmes sont plus rares que dans une distribution gaussienne; il est nul pour une distribution strictement gaussienne; il est positif lorsque les valeurs extrêmes sont plus fréquentes que dans une distribution gaussienne. L'homogénéité des échelles est appréciée par le coefficient alpha de Cronbach, qui est fonction du nombre d'items de l'épreuve : ici, malgré la brièveté des échelles (8 items), on note que les indices d'homogénéité sont satisfaisants. La normalité des distributions des échelles est évaluée par test de Kolmogorov-Smirnov. On note ici qu'aucune distribution n'est strictement normale, mais pas au point de ne pouvoir utiliser les statistiques paramétriques (sur ce point on peut voir). Caractéristiques des échelles (N = 1152) Appartenance des items aux échelles : corrélations item-échelle corrigées (N = 1152) Échelle « Développement » Échelle « Soi » Échelle « Information » Échelle « Méthode » Échelle « Anticipations » Échelle « Obstacles » Une comparaison simple des scores moyens des collégiens de troisième et des lycéens de première montre : que pour quatre comparaisons, les scores des collégiens sont les plus élevés : indécision vocationnelle, manque de développement, manque de connaissance de soi et obstacles externes; que pour les trois autres comparaisons, ce sont les scores des lycéens qui dominent : manque de méthode, manque d'information et anticipations pessimistes; qu'aucune de ces différences n'est significative. On peut conclure à l'absence d'effet simple du niveau de formation sur l'indécision et ses facteurs. Garçons et filles présentent en moyenne des états d'indécision comparables (F = .98; n.s.), mais ils ne sont pas indécis pour les mêmes raisons : l'indécision des garçons est plutôt le fait d'un manque de développement (F = 58,76; p < .001), l'indécision des filles étant plus marquée par des anticipations pessimistes (F = 40,24; p < .001), un manque de connaissance de soi (F = 21.63; p < .001) et, peut-être, un manque de méthode (F = 5.74; p < .02). Bien que significatives, ces différences restent d'ampleur très modeste et n'imposent pas l'usage d'étalonnages différenciés. Les corrélations entre l' âge et les variables d'indécision sont toujours très faibles (comprises entre - .10 et +.10) et jamais significatives : - .06 (pour l'indécision vocationnelle), - .05 (manque de développement), - .02 (manque de méthode), +.05 (anticipations pessimistes), +.01 (manque d'information), - .05 (manque de connaissance de soi), - .01 (obstacles externes). On peut conclure à l'absence d'effet simple de l' âge sur l'indécision et ses facteurs. L'indécision dans l'enseignement secondaire (N = 1152) Indécision scolaire Indécision professionnelle Indécision vocationnelle Les facteurs d'indécision dans l'enseignement secondaire (N = 1 152 ) | L'indécision vocationnelle désigne l'incapacité à faire un choix en matière de formation ou d'emploi quand celui-ci s'avère nécessaire. Les causes potentielles de cet état indécis sont nombreuses et il est important de les recenser pour préciser la forme à donner au conseil en orientation. C'est ce que permet l'EDV-9, une nouvelle version du questionnaire EDV. La nouvelle épreuve est présentée de manière détaillée: fondements théoriques, évolution du questionnaire, qualités psychométriques et étalonnage. Le questionnaire EDV-9 (forme S) est fourni. | psychologie_11-0221069_tei_932.xml |
termith-750-psychologie | L'injonction actuelle à l'autonomie individuelle et à la construction de soi est très présente aujourd'hui dans notre société de façon générale et dans le champ de l'orientation et du conseil en particulier. Selon Ehrenberg (1998) qui rejoint en cela un certain nombre de philosophes et de sociologues dans l'analyse de notre modernité, le séisme de l'émancipation a bouleversé collectivement l'intimité même de chacun et la modernité démocratique – c'est sa grandeur – a progressivement fait de nous des hommes sans guide en nous plaçant peu à peu dans la situation d'avoir à juger par nous -mêmes et à construire nos propres repères : nous sommes devenus des individus au sens où aucune tradition, aucune obligation ne nous indiquent du dehors qui nous devons être et comment nous devons nous conduire. Les parcours personnels, tout en restant sous l'emprise de processus globaux, ont une autonomie croissante et ce qui était octroyé hier par les institutions et les appartenances sociales est censé être produit aujourd'hui par la réflexion des individus sur eux -mêmes (Martuccelli, 2002). L'injonction à l'individualisation et à la construction de soi dans un contexte mouvant se décline de la même façon en ce début du 21 e siècle dans le champ de l'orientation et de l'insertion dans le monde du travail qui nous intéresse plus précisément : les carrières d'aujourd'hui sont imprévisibles, évolutives et faites de courtes étapes réactives aux contraintes ou aux opportunités de l'environnement. Les trajectoires scolaires et de formation professionnelle elles -mêmes se sont diversifiées et complexifiées. Face à la montée de l'incertitude et à la perte des repères traditionnels, l'individu – adolescent et adulte tout au long de sa vie – est confronté à l'exigence d'un projet réflexif et continu de soi et la formation des intentions d'avenir est un versant, un aspect de la construction de soi. C'est donc la professionnalité même du conseiller qui est concernée par cette transformation car ses modèles théoriques, modèle « personne-environnement » et modèle « développement professionnel », centrés sur la stabilité plutôt que sur la flexibilité et la mobilité sont devenus obsolètes (Savickas, 2007) : ni la rationalité abstraite des schèmes moyens-fins (des moyens de formation ou d'orientation pour atteindre des fins d'accomplissement professionnel de soi à long terme) qui constituait l'objectif des pratiques d'aide à l'orientation, ni l'ordre hiérarchique et séquentiel des tâches d'appariement entre le soi et l'environnement qui ordonnait la plupart des programmes d'intervention éducative dans le dernier quart du 20 e siècle, ne répondent plus aux problématiques de l'orientation. La consultation et le conseil en orientation doivent désormais aider le sujet à se construire et un certain nombre d'écrits récents de chercheurs anglophones et francophones proposent des modèles constructivistes pour la psychologie du conseil et de l'orientation. Notre objectif est de présenter ces nouveaux modèles, de voir en quoi ils diffèrent des modèles traditionnels et d'analyser leurs implications concrètes pour la consultation de conseil. Nous procèderons en deux étapes. Ce premier article, « Constructivisme et constructionnisme : fondements théoriques », est une présentation générale succincte des courants du constructivisme et du constructionnisme dans lesquels s'inscrivent ces nouveaux modèles. Un deuxième article, « Modèles constructivistes et constructionnistes de l'identité et psychologie du conseil », constituera la présentation proprement dite des modèles de l'identité dans le champ de l'orientation. Le point commun des conceptions constructivistes et constructionnistes en sciences humaines est l'idée que les objets de ces sciences seraient « le produit d'un processus de construction dans lequel les interactions, les activités individuelles et les interlocutions jouent un rôle majeur » (Guichard & Huteau, 2006, p. 216). Seraient ainsi construites les structures mentales ou les représentations des individus qu'étudie la psychologie, et la réalité sociale qu'étudie la sociologie : dans le premier cas, l'accent est mis sur le sujet individuel, conçu comme interprétant et construisant sa propre réalité. Dans le second, les relations – interactions et interlocutions – sont fondamentales : « la réalité est co-construite dans l'expérience avec les autres et par le langage mis en œuvre dans ces expériences ». (p. 218) Cette distinction entre le constructivisme psychologique et le constructionnisme social est aussi celle de Gergen (1999/2001) : « pour les constructivistes, le processus de construction du monde est psychologique; il s'opère “dans la tête ”. Pour les constructionnistes au contraire, ce qui est tenu pour vrai est le résultat de relations sociales » (p. 413). C'est aussi la distinction anglo-saxonne. Ajoutons que Gergen définit aussi un « constructivisme social », celui de Vygotski ou de Bruner par exemple. Il affirme alors que « l'esprit » construit la réalité par sa relation au monde et par les relations sociales. Quant au « constructionnisme social », il le définit comme un courant dans lequel « l'accent principal est mis ici sur le discours comme véhicule autour duquel s'articulent le Soi et le monde, et sur la manière dont le discours fonctionne dans les relations sociales » (pp. 110-111). Constructivisme social et constructionnisme social se définissent donc tous deux par l'importance du langage et des relations dans le processus de construction des structures mentales pour le premier et, pour le second, de l'ensemble des productions humaines sociales telles que les valeurs, les représentations sociales, les traditions, les recherches scientifiques, les idéologies, les pratiques et le self. Car il faut préciser ici que Gergen, psychologue social, considère le self comme une production sociale parmi d'autres. Dans ce premier article, nous débuterons notre réflexion par le constructivisme piagétien en raison de l'exemplarité de sa démonstration dans le domaine du développement cognitif. Nous verrons ensuite en quoi les constructivismes sociaux – de Vygotski et de Bruner entre autres – et le constructionnisme social de Gergen ouvrent des perspectives de compréhension pour cet objet particulier qu'est la construction de l'identité. Nous analyserons dans l'article suivant les modèles théoriques récents, constructivistes et constructionnistes, de l'identité et leurs implications pour les pratiques dans le champ de l'orientation et du conseil. Le constructivisme est d'abord une posture épistémologique selon laquelle la réalité n'est pas immédiatement connaissable mais construite par l'esprit humain. Le terme de « constructivisme » a été proposé par Piaget dans le cadre de son projet d'épistémologie génétique pour désigner le processus de construction des connaissances qu'il a étudié chez l'enfant, la psychologie de l'enfant n'étant pour lui que le moyen de parvenir à une théorie générale de la construction des connaissances. Si le terme est piagétien (ou n'est-il que réactivé par Piaget, il est difficile de le dire. ..), l'interrogation sur l'inaccessibilité immédiate du réel s'enracine dans une longue tradition que l'on peut faire remonter aux pré-socratiques et dans laquelle on trouve aussi bien les nominalistes médiévaux, la phénoménologie que le pragmatisme américain. Le constructivisme de Piaget s'oppose radicalement d'une part au behaviorisme associationniste qui invoque une progression passive et progressive des connaissances ainsi qu'au cognitivisme innéiste de Chomsky et de Fodor. Pour Piaget, l'activité constructive du sujet est le processus même de l'intelligence, à tous les niveaux de développement : dès le stade sensori-moteur puisque l'intelligence de l'enfant se construit alors elle -même en construisant le monde, ce qui lui permet de passer « du chaos au cosmos » (Piaget, 1977, p. 7), c'est-à-dire du chaos du réel perçu au cosmos de la représentation construite du réel – par une coordination des schèmes d'action sur les objets et une différenciation progressive de l'assimilation et de l'assimilation de ces schèmes. C'est par cette coordination croissante des schèmes sensori-moteurs et leur intériorisation dans des ébauches anticipatrices que l'intelligence devient symbolique ou représentative : comme le schème d'action, la représentation suppose un jeu complexe d'assimilations conceptuelles et d'accommodations perceptives (Piaget, 1978). Remarquons ici que, pour Piaget, le langage n'est qu'une fonction parmi d'autres telles que le jeu symbolique et l'imitation différée dans le développement de la pensée et de l'intelligence. Au stade opératoire concret, les actions constructives de l'enfant deviennent des opérations mentales sur des représentations d'objets concrets; quant à la pensée logique de l'adolescent, elle est une pensée réfléchie et elle construit des théories. Pour Piaget, structure et genèse sont indissociables, l'une étant un état, l'autre le passage d'un état d'équilibre à un état d'équilibre supérieur dont le champ d'application est plus étendu : « l'équilibration majorante », par son double aspect de construction et de cohérence accrue, est une « élaboration d'opérations portant sur les précédentes, de relations de relations, de régulations de régulations etc., bref de formes nouvelles portant sur des formes antérieures et les englobant à titre de contenus » (Piaget, 1975, p. 171). Si nous comprenons avec Piaget ce que peut être l'activité constructive du sujet dans son rapport au monde, il faut bien dire que son système explicatif, circonscrit à ce rapport au monde physique et au raisonnement logico-mathématique – pas plus que son évolution néo-structuraliste chez Case ou Pascual-Leone plus proche du modèle du traitement de l'information (Bideaud, 1999) – ne nous éclaire pas sur le rapport à soi et sur la construction identitaire. C'est aussi de la construction de la réalité par le sujet qu'il s'agit chez Kelly (1955) et le construct a la même fonction d'unité de base dans sa théorie que le schème dans celle de Piaget. Cependant, c'est de la réalité sociale et plus précisément de la représentation de l'environnement social immédiat qu'il s'agit dans le modèle de Kelly qui est clinicien. Il explique le fonctionnement des construits par la métaphore du chercheur : toute personne est un chercheur qui interprète de façon active son univers et procède à des catégorisations qui donnent du sens aux événements, aux situations, aux relations et aux actions des personnes et de soi -même. Les construits qui permettent cette catégorisation sont des dimensions bipolaires qui permettent d'abstraire en regroupant des éléments observés en fonction de leur similitude et de les discriminer en fonction de leurs différences (Huteau, 1985). Les construits sont donc des « théories implicites » élaborées à partir des régularités observées et qui permettent d'anticiper et de décider ou de changer ses actes personnels. Comme le schème chez Piaget, le construit peut être révisé lorsque des événements défient, voire invalident, ses présupposés. La théorie de Kelly peut être considérée comme une formulation psychologique des principes de Rogers : il s'agit d'aider le consultant à mettre à jour son système de construits, à prendre conscience de la façon dont ils s'organisent dans son esprit, à repérer les éléments de dissonance et à modifier ce système de construits en l'enrichissant ou en le modifiant. Classée d'abord dans le champ de la psychothérapie, puis considérée ensuite comme une théorie cognitive de la personnalité par les psychologues (Huteau, 1985), la théorie de Kelly n'est pas restée cantonnée à ces disciplines. Ainsi, les grilles d'évaluation des construits personnels élaborées par Kelly pour constituer des instruments d'analyse et un support pour le travail thérapeutique ont aussi été appliquées à un ensemble d'activités d'intervention et de prévention dans de nombreux domaines de la prévention sociale et de la formation. Dans le domaine du conseil et de l'orientation, les modèles théoriques et méthodologiques de Berzonsky et Kurtines et al. (1992), que nous présenterons dans l'article suivant, sont une application de la théorie des construits de Kelly. Notons cependant que, sans ignorer l'influence des relations avec autrui et le monde, cette théorie reste focalisée sur les constructions mentales, le travail de construction de la réalité étant un travail interne au sujet et restreint à ses dimensions cognitives, même s'il y a, selon Huteau, une conception implicite de la motivation chez Kelly. Ce qui nous intéresse davantage est l'ensemble des constructivismes sociaux. La première raison de cet intérêt est que, partant des propositions de Piaget et/ou des critiques de ces propositions, ils ont donné à l'interaction sociale, à la culture et au langage une importance majeure dans l'évolution du fonctionnement mental de façon élargie, et non restreint au fonctionnement cognitif – ou plutôt « redonné » car Baldwin, un des pères fondateurs de la psychologie du développement de type piagétien, disait en 1913 : « [la société est] un ensemble de produits mentaux, un réseau de relations psychiques qui façonne et forme chaque nouvelle personne vers sa maturité. [. ..] Dans le moi personnel, le social devient individualisé » (cité par Doise, 1993, p. 18). Constructiviste aussi, Vygotski (1934/1997) s'oppose aux premiers travaux de Piaget dont il critique vigoureusement la conception égocentrique du développement enfantin jusqu' à huit ans. Car pour Vygotski, les individus sont inséparables de leur environnement social et physique et le développement réside dans le processus par lequel le jeune enfant s'approprie, au sein de situations communicatives, les outils culturels les plus élaborés de son temps, notamment « l'instrument psychologique » qu'est le langage, et se trouve transformé du fait même de cette appropriation. Renversant les propositions piagétiennes, Vygotski met en évidence que le mouvement réel du processus de développement propre à la pensée enfantine s'effectue non pas de l'individuel vers le social, mais du social vers l'individuel : le constructivisme de Vygotski est donc bien un socio-constructivisme. Doise examine aussi les limites du constructivisme piagétien trop strictement focalisé sur l'interaction avec l'environnement physique et sur le niveau intra-individuel des fonctionnements cognitifs (Doise, 1993). Il analyse un ensemble multiforme de recherches mettant en évidence des « logiques sociales dans le raisonnement » – c'est le titre de son ouvrage – et ceci à différents niveaux d'explication : ainsi, l'articulation interindividuelle de points de vue divergents dans le conflit socio-cognitif génère des progrès du raisonnement individuel (Doise & Mugny, 1981); l'appartenance à des groupes sociaux et le marquage positionnel des individus – notamment le marquage scolaire – dans ces groupes agissent aussi sur l'appropriation des savoirs (Monteil, 1989). Enfin, les appartenances et les effets positionnels qu'étudie la psychologie sociale ne jouent pas seulement sur les processus cognitifs mais aussi sur les processus d'attribution de causalité (Dubois, 1987), sur les représentations de soi et d'autrui et sur les dynamiques de différenciation et de comparaison sociales (Codol, 1987) : et ceci constitue la deuxième raison de notre intérêt pour les constructivismes sociaux puisqu'ils affrontent le problème même de la construction identitaire. Ainsi, pour Bruner, qui regrette « l'ombre de Piaget » portée sur les théories du contexte social des opérations mentales (Bruner, 1983, p. 7), le langage, les interactions et plus largement les productions culturelles et idéologiques des sociétés ou des groupes particuliers affectent les processus intra-individuels aussi bien cognitifs qu'identitaires (Bruner, 1990/1991, 1986/2000, 2002). Le socio-constructivisme de Bruner nous intéresse donc à plus d'un titre. Premier point : le rôle constitutif de la culture. Bruner propose de remettre au centre du questionnement de la psychologie « la construction de la signification » (1990/1991, p. 18), ce que les cognitivistes, dont il était, ont manqué par la sophistication et le morcellement de l'étude du traitement de l'information. Pour revenir à la construction de la signification, les psychologues doivent réfléchir au concept de culture, car c'est la culture, avec ses systèmes symboliques, qui donne forme à la vie et à l'esprit : pour l'auteur, notre façon de vivre, culturellement adaptée, dépend des significations, des concepts et des modes de discours que nous partageons avec les autres et qui nous permettent de négocier les différences qui peuvent apparaître dans les significations et les interprétations. Ce que Bruner appelle la « psychologie populaire » existe dans toutes les cultures; elle est constituée d'un ensemble de descriptions reliées les unes aux autres et plus ou moins normatives, qui nous disent, entre autres choses, « comment “fonctionnent” les hommes, à quoi ressemblent notre esprit et celui des autres, comment agir dans des situations précises, quels sont les différents modes de vie possibles et comment il faut s'y conformer » (p.49). La psychologie populaire donne la capacité aux gens d'organiser une vision d'eux -mêmes, des autres et du monde : elle est à la fois le fondement de la signification personnelle et de la cohésion d'une culture. Deuxième point théorique qui nous intéresse dans la psychologie culturelle de Bruner : sa conception de la construction du self. Bruner conçoit d'une part le self comme le produit de l'histoire et des situations dans lesquelles se trouve la personne et, d'autre part, comme le produit de la réflexivité humaine, « notre capacité à nous retourner vers le passé et à modifier le présent à la lumière du passé, ou le passé à la lumière du présent » (p. 119). Le self n'est pas intuitivement évident, c'est une construction qui procède autant de l'intérieur – de la mémoire, des sentiments, des croyances, de la subjectivité – que de l'extérieur – de l'estime que les autres nous portent, des attentes que nous reconnaissons très tôt dans nos différents contextes de vie, et de notre culture. Bruner, rejetant tout essentialisme, met ici en question la conception du self comme centre de conscience, de motivations, de cognitions, unique et intégré. Il y substitue l'image d'un self « distribué » parce que lié au réseau des autres et dépendant d'eux (Bruner, 2002) : le self, pour lui, est transactionnel. La capacité « à entrer en transaction avec autrui pour mener avec lui sa propre vie, à partir d'intuitions sur la vie de l'esprit de l'autre » (1986/2000, p. 82) est très précoce chez l'enfant et l'usage mutuel et conjoint du langage avec autrui lui permet la compréhension de l'esprit d'autrui, la négociation avec lui et la création de réalités partagées (p. 85). Le self ne peut être indépendant de cette existence conjointe dont on peut dire qu'elle est historique, contextuelle et culturelle. Cette idée est proche des développements de Vygotski sur la zone proximale de développement; elle est proche aussi de la notion de « vicariance ». Nos approches du monde se produisent à travers des transactions avec autrui dont les récits constituent l'essentiel : pour Bruner, notre sensibilité aux récits est le lien principal entre le self et autrui. Ce qui nous conduit au troisième point que nous retiendrons de Bruner : la fonction du récit autobiographique et l'idée que le self est un récit permanent (Bruner, 2002). Les enfants apprennent à donner un sens au monde qui les entoure, à construire des significations par les récits qu'ils entendent dans leur environnement immédiat et par les récits de leurs propres actions qu'ils deviennent très tôt capables de faire. Notre capacité à restituer l'expérience en termes de récits n'est pas seulement un jeu d'enfant : c'est un outil pour fabriquer de la signification, qui domine l'essentiel de notre vie au sein d'une culture. Nous pouvons par le récit que nous en faisons, reconceptualiser le passé et par notre capacité à trouver des alternatives, fabriquer d'autres manières d' être, d'agir ou de lutter. La pratique du récit et du conte se nourrit évidemment dans la réserve de culture narrative d'une société donnée : ses histoires, ses mythes, ses genres littéraires. Les façons de parler de soi évoluent avec le temps personnel, c'est-à-dire avec l' âge et la succession des contextes significatifs, et avec le temps social, c'est-à-dire avec l'évolution des formes narratives, avec les modes des récits de soi : « ce sont des sortes de sermons, des synopsis tout préparés destinés à organiser le récit que nous faisons de nous -mêmes » (p. 59). Ces « modèles de personnalité » ne sont cependant jamais catégoriques et laissent de l'ambiguïté et donc une marge de manœuvre pour se construire comme unique et différent d'autrui. C'est en comparant les récits que nous produisons sur nous -mêmes avec ceux que les autres nous proposent d'eux -mêmes que nous y parvenons. Le récit de soi que nous racontons aux autres dépend ainsi de ce que nous pensons qu'ils pensent que nous sommes et de ce que nous pensons que les autres attendent de nous. La définition du self que donne Bruner, et que nous reprenons ci-dessous, condense différentes perspectives de sa théorie puisqu'elle est à la fois constructiviste, développementale, contextuelle, discursive et descriptive : Le self est une construction [. .. ]. Le self est un texte qui dit comment nous sommes situés par rapport aux autres et par rapport au monde; je crois qu'il s'agit d'un texte qui nous parle de compétences et de capacités, de dispositions, et qui évolue tandis que nous passons de l'état de jeune à celui d'adulte, ou que nous passons d'un cadre à un autre. L'interprétation qu'un individu fait de ce texte in situ est le sens qu'il a de lui -même dans cette situation. Il est fait d'espoirs, de sentiments d'estime et de pouvoir, etc. (Bruner, 1986/2000, p. 156) Gergen est le représentant majeur de ce courant. Il fonde sa théorie sur quatre postulats : Pour le constructionnisme social, « les termes par lesquels nous percevons le monde et le soi ne sont pas dictés de manière absolue ou nécessaire par “ce qui existe” » (Gergen, 1999/2001, p. 89). Nous pourrions nous représenter, parler de nous -mêmes, nous décrire, mais aussi expliquer, peindre, photographier ou cartographier le monde et chaque situation de mille façons différentes. Le langage et toutes les autres formes de représentation ne constituent qu'une possibilité parmi un nombre illimité de descriptions possibles de la réalité et de nous -mêmes. « Nos modes de description, d'explications et/ou nos représentations sont issus des relations » (p. 90) : ce sont donc les relations – les accords, les négociations, les affirmations – qui sont à l'origine de ce qui est dit et donc pensé comme vrai des choses, et non l'esprit ou l'expérience. Les relations sont au centre de tout et produisent la signification en donnant un sens au soi. La conception constructionniste de l'homme se libère donc de l'orientation cognitive qui traitait le monde social comme un simple produit secondaire des esprits individuels. « Par nos diverses manières de décrire, d'expliquer ou de symboliser, nous donnons forme à notre avenir » (p. 91). Le langage constitue la vie sociale elle -même et permet que se maintiennent les rituels, les traditions, le sens commun et les liens avec nos proches. Mais aussi, c'est par le langage que nous pouvons transformer la vie sociale, générer de nouvelles significations et donc construire l'avenir, y compris notre propre avenir en tant qu'individu. « Une réflexion sur nos formes de compréhension est vitale pour notre bien-être futur » (p. 93). Ceci est une invitation – une « célébration », dit Gergen – à la réflexivité. Ce qui paraît évident, ce qui est tenu pour vrai, ce qui semble s'imposer, doit être mis en perspective, et même en doute. Il s'agit de réfléchir au caractère limitatif de ce qui semble juste, réel et nécessaire, de reconnaître que ces « vérités » sont inscrites dans une histoire, dans une culture et ainsi de les relativiser en s'ouvrant à d'autres possibles. Ce sont toujours des vérités relatives à des « points de vue ». Parmi les exemples pédagogiques qui fourmillent chez Gergen, retenons -en un, tout simple : prenant l'exemple d'une connaissance objective qu'il pourrait avoir de son environnement familier, Gergen définit son bureau par ces propriétés : solide, teinté palissandre, d'un poids de 35 kg, sans odeur; pour faire immédiatement remarquer qu'un physicien nucléaire le décrirait comme non solide, fait essentiellement de vide, un spécialiste en balistique relativiserait son poids, un physiologiste sa couleur ou son odeur. Chaque spécialiste, dit-il, interprète le monde avec ses concepts et la science ne peut pas affirmer une vérité universelle, puisque toutes les affirmations sur la vérité sont spécifiques à des traditions particulières fondées sur la culture et l'histoire. Ce qui s'applique à la description d'un objet concret s'applique aussi à l'ensemble des situations de notre vie, y compris à notre identité : ce que nous pouvons en dire et en penser dépend du contexte, de nos interlocuteurs et du moment, c'est-à-dire des « points de vue » selon lesquels nous nous plaçons à ce moment. Deux objectifs complémentaires donc chez Gergen : le premier est de proposer la théorie du constructionnisme social qui rend compte du mode opératoire, relationnel et langagier, de toutes les productions humaines : sciences, culture, traditions, vie sociale, Soi. Le deuxième objectif est de formuler énergiquement une injonction à la réflexivité sur ces productions humaines – on pourrait presque dire que cet objectif est « déconstructionniste », mais dans un sens différent du déconstructionnisme de Derrida qui ne peut conduire, selon Gergen, qu' à un « désespoir sans issue » (p. 60). L'injonction de Gergen à la réflexivité est censée au contraire conduire à « l'émancipation, l'enrichissement et la transformation » et « générer des alternatives » (p. 207) : dans un élan poétique, Gergen la considère même « comme une invitation à danser, à jouer, à réfléchir sur nos vies, nos sociétés et notre avenir » (p. 61). Cette injonction concerne tous les niveaux de la vie sociale : Gergen l'explicite ainsi dans le domaine des connaissances scientifiques où il prône le dialogue réflexif et critique entre scientifiques – il cite d'ailleurs La Structure des révolutions scientifiques de Kuhn (1970) comme le livre constructionniste le plus marquant du 20 e siècle – et dans celui, multiforme, des relations micro-sociales quotidiennes comme des relations macro-sociales. Enfin, et c'est ceci qui nous intéresse ici, l'injonction à la réflexivité s'applique aussi à l'identité. Car la construction identitaire pour Gergen est bien affaire de relations, donc de mots, de tournures, de conversations et de récits de soi au sein d'un groupe d'appartenance. Dans tout groupe, un univers commun de significations et de conventions, « une ontologie commune » (Gergen, p. 148), se cristallise par les répétitions et les routines des mots et des tournures employées pour parler de soi et d'autrui. Un groupe peut ainsi, par ses discours, permettre à ses membres de se percevoir dans un rapport de pouvoir différent de celui couramment admis par la société dans son ensemble. Gergen prend l'exemple des écoliers étudiés par Willis dans le cadre de ses travaux sur la constitution de l'identité ouvrière (1977) : ces écoliers se regroupent pour construire un monde dans lequel ils se considèrent comme différents et meilleurs que les enfants des classes supérieures, ceci à partir d'une description de leurs enseignants qui leur est propre. Les registres d'un groupe se maintiennent par les justifications, les « amendes honorables » (Gergen, p. 153) et les excuses de ceux qui s'en écartent, ou les réprimandes aux enfants ou aux adultes pour les y inscrire ou ré-inscrire, tout un ensemble discursif mobilisé pour consolider le registre commun toujours menacé par le désordre et la nouveauté liés aux appartenances multiples : « l'identité est en situation instable, soumise aux déplacements subtils des mots, des intonations, des gestes » (p. 147). L'identité est donc relationnelle : conversations, récits et dialogues la construisent et la transforment. Se rapprochant aussi bien de l'interactionnisme symbolique, de la psychologie culturelle que de la phénoménologie sociale, Gergen affirme que « le psychologique est modelé par le social » (p. 231). Signalons cependant que, bien qu'il « [s]'enflamme beaucoup pour l'idée du soi relationnel », et qu'avec cette conception du Soi, il pense que nous soyons au seuil d'une « seconde période des Lumières » (p. 246), Gergen ne fait peut-être que rejoindre une tradition bien ancienne qui commence avec Baldwin (1913), premier psychologue à considérer la personnalité d'un individu comme un produit social et culturel et le socius comme un soi bipolaire avec l'ego à un pôle et l'alter à l'autre. On peut aussi le rapprocher de Cooley (1902) et de son concept de « soi-miroir » (the looking-glass self) : le sujet s'imagine représenté dans l'esprit d'une autre personne, et il anticipe les jugements que cette personne porte sur ses manières, sur son caractère, sur ses actions. Et bien sûr de Mead (1963) qui considère qu'il n'y a ni soi, ni conscience de soi, ni communication en dehors de la société, c'est-à-dire en dehors d'une structure qui s'établit à travers un processus dynamique d'actes sociaux communicatifs, à travers des échanges entre des personnes qui sont mutuellement orientées les unes vers les autres : lorsqu'un geste a le même sens pour deux ou plusieurs individus, il devient un symbole qui permet à chacun, grâce au langage, de comprendre l'ensemble des échanges, de prévoir le comportement des autres et de se situer par rapport à eux. Pour Mead, la conscience de soi n'est pas donnée mais elle se constitue au fur et à mesure que l'individu est capable de comprendre sa propre contribution par rapport à celle des autres et de se mettre à la place des autres. L'essentiel de son enseignement, dans un ouvrage au titre explicite L'Esprit, le Soi et la Société, est de montrer le jeu complexe d'internalisation des autrui, auxquels réagissent les Je, ce qui produit le Soi. Bien avant Gergen donc, Mead critique déjà une psychologie qui ne s'intéresse qu'au soi comme élément isolé et indépendant, comme une certaine entité qui pourrait exister par elle -même. Ce qu'apporte cependant Gergen par rapport à ces auteurs réside dans son insistance sur le récit de soi comme constitutif et transformationnel de l'identité, dans son analyse des sociétés contemporaines, dans son injonction au dialogue réflexif et, plus précisément dans le cadre qui est le nôtre, dans sa proposition pour une « auto-réflexivité » (1999/2001, p. 287) – une réflexion sur sa propre réflexion, sur sa pensée, sur son sentiment même de soi – dont il fait le pré-requis de nombreuses pratiques thérapeutiques ou éducatives et que nous retrouverons ci-dessous, sous diverses formes, dans les propositions pour les pratiques du conseil en orientation. Appliquer les thèses du constructionnisme social à la thérapie ou au conseil revient à poser la question : qu'est -ce qui se passerait s'il n'y avait pas de problème, si toute la douleur et le désespoir qui amènent les gens en consultation étaient sans fondement ? La pensée constructionniste suggère ce genre de question. Pour Gergen, nous sommes confrontés à des problèmes difficiles dans notre vie, les problèmes ne sont pas là à l'extérieur comme des réalités indépendantes de nous, ils le deviennent par notre manière de négocier la réalité. Il convient donc d'amener le consultant à parler des issues favorables possibles, au lieu de se centrer sur les causes de cette situation au risque de les rendre de plus en plus « réelles » : c'est ce que les praticiens nomment « la thérapie centrée sur la solution ». Les conceptions constructivistes et constructionnistes que nous venons d'évoquer ont influencé plus ou moins directement et plus ou moins profondément les réflexions spécifiques dans le champ de l'orientation et du conseil. La conception piagétienne, focalisée sur le développement cognitif, n'a pas eu dans le domaine de l'orientation et du conseil le retentissement qu'elle a eu dans celui de l'éducation et des apprentissages. La description de l'avènement de l'abstraction et de la pensée formelle à l'adolescence apporte cependant un éclairage intéressant pour les chercheurs qui étudient l'évolution cognitive des intentions d'avenir chez les adolescents, collégiens et lycéens, concernés au premier chef par la question de l'orientation. Cette description piagétienne de la spécificité de l'adolescence, approfondie et élargie à d'autres secteurs du raisonnement par Lehalle aujourd'hui (2006) nous paraît constituer une grille de lecture beaucoup plus fine que les descriptions brossées à grands traits de l'adolescence dans les théories de Super (1957), de Ginzberg, Ginsburg, Axelrad, et Herma (1951) ou de Gottfredson (1981), références pourtant fondatrices de la psychologie de l'orientation. Dans les études longitudinales des arguments des collégiens et des lycéens que nous avons menées (Dumora, 1990, 2000), notre analyse, fondée entre autres références sur la théorie de Piaget, montre ainsi que l'adolescent devient capable de différencier les catégories du possible, du probable et du réel, donc de penser l'incertitude, le doute et les hasards inhérents à la problématique de l'orientation : c'est ce que nous avons appelé la « pensée probabiliste ». D'autre part, la « méta-réflexion », mise en évidence dans ces mêmes travaux, fonctionne effectivement comme un raisonnement sur le raisonnement puisque les adolescents construisent a posteriori des jugements critiques sur leurs intentions actuelles et passées et sur leur propre fonctionnement cognitif face à la complexité de l'orientation. Pour reprendre des termes piagétiens, la pensée probabiliste et la méta-réflexion constituent des moyens de penser l'avenir, de rompre ainsi avec le manichéisme et la pensée magique enfantine et surtout d'en prendre conscience. On voit le parti qui peut être tiré de cette possibilité réflexive et méta-réflexive adolescente pour susciter en entretien ou dans les séquences éducatives collectives une élaboration et une prise de distance par rapport aux intentions d'orientation ou par rapport aux évaluations de l'école et à ses assignations. Les modèles théoriques de l'identité que nous examinerons dans l'article suivant sont des constructivismes sociaux. Ce sont des constructivismes parce que les sujets élaborent des représentations de soi et de leur environnement qui médiatisent leur rapport à la réalité et ce sont des constructivismes sociaux parce que c'est fondamentalement dans les interactions des sujets avec leurs environnements familiaux, sociaux, scolaires ou professionnels, que se forment ces représentations du monde et que se construisent le soi et les intentions d'avenir. Ces interactions sont de nature multiple mais les constructivistes donnent une fonction privilégiée aux interactions langagières dans la construction identitaire des sujets : dialogues, récits de soi, argumentation à l'intention d'autrui et confrontation de points de vue. Les références aux conceptions dialogiques de Jacques (1979, 1982), de Bruner (1990/1991) et de Ricœur (1983) sont présentes dans plusieurs des modèles constructivistes que nous présenterons, notamment dans les modèles francophones. Avec la multiplication des expériences sociales, le sujet parvient à élaborer le sens et à concevoir les implications et les inférences de ses actions et de ses réactions, comme de celles d'autrui. L'activité constructive mentale du sujet en interaction avec le contexte est donc explicite et centrale dans chacun de ces modèles, qu'elle soit désignée sous le terme de construct par Berzonsky (1993) à la suite de Kelly (1955), de réflexivité personnelle ou de créativité par Kurtines dans une filiation semblable (Kurtines et al., 1992), résumée sous la forme « se faire soi » par Guichard (2004) ou sous celle de « travail biographique » par Delory-Momberger (2004, 2007). Cette activité devient enfin construction et déconstruction des discours sur soi dans le modèle de Campbell et Ungar (2004), dans la stricte application du modèle constructionniste de Gergen pour qui le centre de gravité de la construction de soi réside quasi exclusivement dans les discours qui sont tenus sur lui. Dans l'article suivant, après une présentation de chacun de ces modèles, nous en examinerons la pertinence dans le cadre du conseil et de l'orientation dans la société d'aujourd'hui et nous verrons en quoi ils représentent une alternative aux modèles traditionnels . | Notre contribution à ce numéro spécial sur les théories constructivistes et constructionnistes de l'identité se présente sous la forme de deux articles. Dans ce premier article, « Constructivisme et constructionnisme: fondements théoriques », nous définissons les termes en les référant aux théories fondatrices du constructivisme psychologique de Piaget, du socio-constructivisme de Bruner et du constructionnisme social tel qu'il est proposé par Gergen. | psychologie_09-0214179_tei_972.xml |
termith-751-psychologie | L'autonomie est invoquée comme une compétence centrale et transversale pour les adolescents en contexte scolaire et pour les adultes en transition professionnelle. Bien sûr, cette notion est fortement chargée idéologiquement et largement polysémique dès lors que l'on tente d'en définir un contenu opérationnel. Auzoult (2008) distingue dans la littérature psychologique trois conceptions différentes. La première, qualifiée d'émancipatrice, assimile l'autonomie à l'indépendance et oppose cette dernière à l'influence ou au pouvoir d'autrui. La seconde, qualifiée de particulariste, décrit l'autonomie comme une forme d'expression de soi non aliénée par autrui. Dans ce cas, l'état opposé à l'autonomie est l'hétéronomie, c'est-à-dire l'aliénation de soi par autrui. Enfin, une troisième conception, qualifiée de situationniste (Auzoult, 2005) envisage l'autonomie comme la capacité à participer à l'équilibration des instances de causalité, physique, sociale, cognitive, biologique et temporelle qui structurent l'environnement. Dans ce cas, l'autonomie est opposée à la situnomie, c'est-à-dire à « l'impossibilité de percevoir et/ou d'influer sur les multiples instances qui structurent les jugements et les conduites » (Auzoult, 2008, p. 241). Cette conception situationniste et psychosociale de l'autonomie possède l'avantage de rompre avec une conception idéologiquement dominante mais pragmatiquement faible de la personne, simple individu opposé au social et non ancré physiquement, biologiquement, etc. De même, elle rend compte des conduites effectives des acteurs qui, au travers des multiples dépendances, notamment familiale et institutionnelle, construisent leur parcours scolaire ou professionnel (Prêteur, Constans & Féchant, 2004). L'étude que nous présentons vise à élaborer un outil d'évaluation de l'autonomie des adolescents évoluant en contexte scolaire. Notre approche reprend les travaux initiés par Deslandes, Potvin et Leclerc (1997; 2000) proposant une mesure psychosociale de l'autonomie dans le prolongement des travaux de Greenberger sur la maturité psychosociale. Dans ce cadre, l'autonomie se présente comme un ensemble de compétences, d'habiletés et d'attitudes permettant à l'adolescent d'interagir comme un être mature socialement et de satisfaire les besoins de la société à son égard (Greenberger & Sørensen, 1974; Greenberger, Josselson, Knerr & Knerr, 1975; Greenberger, 1984). L'autonomie s'appréhende alors à travers le degré de structuration de soi et/ou d'identité, le degré de persévérance et de réalisation dans le travail, dénommé orientation vers le travail et le degré d'auto-dépendance caractérisé par le contrôle de soi. L'échelle de Deslandes, Potvin et Leclerc (1997) permet alors d'opposer schématiquement un élève situnome, ayant une image brouillée de lui -même et étant incapable de développer des stratégies efficaces, via le travail ou autrui, pour faire évoluer sa situation scolaire à un élève autonome, c'est-à-dire clairvoyant et potentiellement actif vis-à-vis de sa situation. Les travaux usant de cette échelle ont permis de mettre en évidence une relation positive entre l'autonomie des élèves et leur réussite scolaire (Deslandes, Potvin & Leclerc, 2000). De même, ces travaux établissent une relation positive entre l'implication, le style éducatif parental et l'autonomie des adolescents (Mantzicopoulos & Oh-Hwang, 1998). L'élaboration de l'autonomie apparaît donc liée aux interactions directes des adolescents avec leur entourage immédiat. De plus, ces travaux (Deslandes, 2002) mettent en évidence des différences liées au sexe, les filles apparaissant plus autonomes sur la dimension de l'indépendance vis-à-vis d'autrui. L'échelle de Deslandes, bien qu'intégrant une dimension psychosociale de l'autonomie, ne rend toutefois pas totalement compte de la conception situationniste de l'autonomie que nous adoptons comme perspective à la fois d'étude et pratique. Effectivement, l'identité rend compte de la potentialité à définir le sens de sa relation à l'environnement. L'indépendance, quant à elle, rend compte de la possibilité de trouver en soi les moyens d'agir. Enfin, l'orientation vers le travail rend compte de la potentialité à mettre en œuvre des moyens d'agir efficaces pour faire face aux difficultés scolaires, à savoir essentiellement un travail scolaire assidu et important. Cependant, l'échelle de Deslandes et al. ne fait pas référence à la perception des sources d'emprise agissant sur la trajectoire scolaire pas plus qu'elle ne fait référence à des variables déterminant la capacité à agir pour modifier la situation. Or, à s'en tenir à la réussite scolaire comme résultante de l'autonomie des élèves, la littérature permet d'établir que le sentiment de posséder une capacité à choisir sa trajectoire, le sentiment d'auto-compétence ainsi que la perception des obstacles à venir, sont déterminants dans la réussite scolaire (Corbière, 1997). Nous avons donc introduit une dimension supplémentaire dans le processus de construction de notre échelle de situnomie-autonomie en élaborant des items faisant référence à la conscience et aux initiatives mises en œuvre vis-à-vis des sources d'emprise qui structurent les trajectoires scolaires (Ajzen & Fishbein, 1980; Bandura, 1997/2003). L'examen précis de l'échelle de Deslandes, Potvin et Leclerc (1997) amène à considérer que l'autonomie est composée de plusieurs construits psychologiques, entre autres, du locus de contrôle (par ex., « la raison principale pour laquelle je ne réussis pas mieux est que je suis malchanceux »), de l'estime de soi (par ex., « Je suis quelqu'un qui ne peut rien faire de bien »), l'auto-suffisance (par ex., « dans un groupe, je préfère laisser les autres gens prendre des décisions ») ou du sentiment d'aliénation (par ex., « je me sens très inconfortable quand je ne suis pas d'accord avec ce que pensent mes amis »). Par ailleurs, dans les travaux de Deslandes, un item initialement inclus dans la sous-échelle d'indépendance a été intégré, après analyse factorielle, dans la sous-échelle d'orientation vers le travail. Ces constats nous ont incités à reconstruire une échelle nouvelle englobant initialement les items de l'échelle de Deslandes et al. ainsi que de nouveaux items traduisant la dimension conscience/initiative. Une analyse factorielle nous a permis de dégager de nouvelles dimensions regroupant au mieux les données obtenues. Dans le cadre du processus de validation nous avons également étudié les relations entre l'autonomie et certains indicateurs rendant compte des trajectoires scolaires et personnelles des élèves, comme les évaluations scolaires, les risques de décrochage ou l'intégration vis-à-vis des contextes de vie des élèves. Avant d'aborder ces relations nous présentons l'échelle d'autonomie-situnomie que nous avons élaborée. L'échelle que nous avons élaborée en plusieurs temps est constituée dans sa version finale de 15 items. Notre processus d'élaboration s'est appuyé sur l'échelle de Deslandes et al. (1997) qui comprenait 30 items et traduisait trois dimensions, à savoir l'orientation vers le travail, l'indépendance et l'identité. Notre intention initiale était de reprendre telle quelle cette échelle en ajoutant 10 items renvoyant à une quatrième dimension, à savoir la conscience/initiative vis-à-vis des sources d'emprise. Néanmoins, après avoir élaboré trois versions successives d'une échelle à 40 items, nous avons décidé de réduire le nombre d'items afin de trouver une solution factorielle satisfaisante. Par rapport à l'échelle initiale de Deslandes et al., certains items ont été remplacés pour modifier la valence, l'échelle originale ne contrebalançant pas les items négatifs et positifs; Ainsi, pour la sous-échelle d'orientation vers le travail, l'item « souvent, je ne finis pas mon travail le plus important parce que je passe trop de temps sur d'autres choses » a été remplacé par « je finis toujours mon travail le plus important même si je passe beaucoup de temps sur d'autres choses ». L'échelle finale comprend 7 items positifs et 8 items négatifs. D'autres modifications visaient à faciliter la compréhension, par exemple, pour la sous-échelle d'indépendance, l'item « ça ne sert à rien de décider de la carrière que je veux faire parce que ça ne dépend pas juste de moi » a été remplacé par « c'est utile de décider du métier que je veux faire parce que cela ne dépend que de moi ». Enfin, d'autres modifications visaient à décontextualiser l'échelle du contexte scolaire, par exemple, l'item « souvent, je ne finis pas mes devoirs si les émissions de télévision sont intéressantes le soir » a été remplacé par « je termine toujours mon travail même si j'ai quelque chose de plus divertissant à faire ». Pour ce qui concerne la dimension conscience/initiative, nous avons créé des items traduisant la conscience des déterminants agissant sur la trajectoire du répondant (« Cela m'arrive souvent de ne pas comprendre pourquoi certaines choses arrivent dans ma vie »). De même, elle fait référence au sentiment de pouvoir sur la situation (« Je suis capable de réaliser mes projets professionnels ») ainsi qu'au sentiment de situnomie, c'est-à-dire d'emprise de la situation sur la personne (« Quand cela ne va pas comme je veux dans ma vie, je ne sais pas toujours comment réagir »). Les sujets répondent à ces items à l'aide d'une échelle de type Likert en cinq points traduisant leur accord/désaccord vis-à-vis des propositions. 643 sujets (247 sujets masculins et 396 sujets féminins) ont répondu à l'échelle. Ils étaient collégiens de troisième dans cinq collèges différents ou lycéens professionnels. En moyenne, ils étaient âgés de 15 ans et 9 mois. L'analyse en composante principale accompagnée d'une rotation Varimax avec normalisation de Kaiser fait ressortir 4 facteurs dont la valeur propre dépasse l'unité (voir tableau 1). Un premier facteur rendant compte de l'orientation vers le travail, explique 21 % de la variance et comprend 7 items (3, 7, 8, 10, 12 et 15). Les coefficients de saturation se distribuent de .55 à .71 sur ce facteur. Un second facteur, qui explique 9.5 % de la variance, regroupe les items 9, 11, 13 et 14 et traduit la conscience des sources d'emprise. Les coefficients de saturation se distribuent de .45 à .70 sur ce facteur. Un troisième facteur, qui explique 9.1 % de la variance, regroupe les items 1, 2 et 4 et traduit le sentiment de pouvoir sur la situation. Les coefficients de saturation se distribuent de .59 à .74 sur ce facteur. Enfin, le dernier facteur, qui explique 6.8 % de la variance, regroupe les items 5 et 6 et traduit l'identité. Les coefficients de saturation sont de .78 pour les deux items de ce facteur. L'analyse factorielle que nous avons menée sur les données ne reproduit pas strictement les trois facteurs mis en évidence dans les travaux de Greenberger et de Deslandes sur des populations nord-américaines et la quatrième dimension que nous avons introduite. Dans la version finale, on retrouve néanmoins les facteurs orientation vers le travail et identité de l'échelle de Deslandes ainsi que la conscience des sources d'emprise et le sentiment de pouvoir sur la situation qui renvoient à notre dimension théorique conscience/initiative. Par ailleurs, on constate une fidélité acceptable : sur une population de 72 élèves ayant répondu deux fois à notre questionnaire final à trois semaines d'intervalle, on observe une corrélation test/re-test de .68 (p < 0.01). De même, on observe un alpha de cronbach de .71 pour l'ensemble de l'échelle (N = 643). On observe respectivement sur la dimension orientation vers le travail un alpha de .70, sur la dimension de la conscience des sources d'emprise un alpha de .59, sur la dimension du sentiment de pouvoir sur la situation un alpha de .56 et sur la dimension de l'identité un alpha de .53. Compte-tenu du faible nombre d'items pour chaque dimension, on peut considérer ces scores de consistance interne comme étant suffisants. Les sujets ayant la possibilité de s'exprimer sur une échelle en cinq points, on observe qu'ils ont effectivement utilisé tous les niveaux de réponse pour chaque question. Notre processus d'élaboration d'une échelle d'autonomie-situnomie reposait sur une démarche en deux temps : premièrement, il s'agissait d'adapter l'échelle de Deslandes et al. à notre population scolaire française. Puis, dans un deuxième temps, nous souhaitions ajouter une série d'items traduisant une nouvelle dimension théorique, à savoir la conscience/initiative vis-à-vis des sources d'emprise. Il a été impossible à travers nos analyses de reproduire la structure tri-factorielle de l'autonomie trouvée dans les études nord-américaines par Deslandes et al. En l'occurrence, la dimension orientation vers le travail reste prégnante dans notre échelle ainsi que dans une moindre mesure la dimension identité, mais la dimension indépendance a totalement disparue. Plusieurs explications peuvent être avancées, d'ordre culturel ou formel, liées aux modifications et/ou aux formulations des énoncés. On peut néanmoins constater que l'échelle finale rend compte de manière satisfaisante du construit théorique de l'autonomie tout en ayant des qualités psychométriques appréciables. Dans le même temps, la conscience/initiative se décline à travers deux facteurs que sont le sentiment de pouvoir sur la situation et la conscience des sources d'emprise, ce qui permet d'introduire des items liés à la perception de la situation. On peut à ce titre remarquer que les items liés au locus de contrôle (items 11 et 4) se retrouvent incorporés à ces deux nouveaux facteurs (conscience des sources d'emprise et sentiment de pouvoir sur la situation) qui rendent compte des perceptions et des conduites d'initiatives alors qu'ils traduisaient dans l'échelle de Deslandes la dimension indépendance à autrui. À ce titre, cette nouvelle échelle d'autonomie-situnomie nous paraît rendre compte plus adéquatement de la correspondance de certains items aux dimensions théoriques qu'ils sous-tendent. Dans le même temps, l'échelle finale comprend peu d'items pour certains des facteurs, ce qui peut expliquer les faibles scores de cohérence interne observés à l'exception de la dimension de l'orientation vers le travail. C'est pourquoi, au-delà des quatre dimensions de l'échelle d'autonomie-situnomie, nous envisagerons également l'autonomie de manière globale en considérant la totalité des items. Ce choix se justifie à la fois par l'indice de cohérence interne qui s'avère satisfaisant pour l'ensemble de l'échelle et par l'analyse factorielle avant rotation Varimax qui fait ressortir un premier facteur expliquant 21 % de la variance et qui comprend 14 items qui présentent une saturation supérieure à .30 sur les 15 items de l'échelle. Après avoir présenté le contexte d'élaboration et les qualités psychométriques de l'échelle d'autonomie-situnomie, il reste à aborder les relations éventuelles qu'entretient l'autonomie sous cette forme et divers éléments rendant compte des trajectoires scolaires, ceci en vue d'examiner la validité externe de l'outil que nous présentons. Au-delà de la présentation de ses qualités psychométriques, la validation d'un outil s'appuie sur la qualité des relations que l'on peut observer entre la dimension psychologique qu'il permet d'appréhender et divers indicateurs rendant compte de ce qui est supposé être mesuré. Dans le cas présent, nous cherchons à construire une échelle permettant de prédire au mieux la réussite scolaire des élèves mais aussi leur risque de décrochage. En effet, la réussite scolaire, le décrochage passif sous la forme d'une démobilisation et le décrochage actif par l'abandon scolaire (Bloch & Gerde, 1998) ne sont rien d'autres que différentes formes de relation de l'élève à l'environnement scolaire (Janosz & Le Blanc, 1996; Hayden, 1997). En ce sens, ces indicateurs sont l'expression de la situnomie et/ou de l'autonomie réelle de l'élève dans le contexte scolaire. De fait, on devrait observer des relations entre l'autonomie globale et les cibles d'interactions des adolescents, au-delà de celle déjà mise en évidence avec l'implication parentale. Enfin, la perspective que nous adoptons considère le contexte scolaire au sens large, c'est-à-dire dans sa fonction éducative, d'enseignement mais aussi d'orientation, cette dernière concourant aussi bien à la réussite qu' à l'échec scolaire. Ainsi, d'un point de vue opérationnel nous considérerons la relation entre l'autonomie globale et la maturité de carrière qui est un état préparatoire à la prise de décision en orientation (Forner, Gasqueres, Nafati & Tintillier-Pauwels, 2005). Cette dernière s'évalue à partir du degré de connaissance des élèves concernant eux -mêmes, les formations scolaires, les métiers, le monde du travail ainsi qu' à partir de leur aptitude à prendre des décisions (explorer, décider, planifier). Globalement, on doit s'attendre à ce que plus les élèves sont autonomes, plus ils possèdent de connaissances sur soi (hypothèse 1) et leur environnement (hypothèse 2). Dans le même sens, on doit s'attendre à ce que la dimension identité de l'échelle d'autonomie soit reliée à la dimension liée au soi de l'échelle de maturité de carrière (hypothèse 1a), toutes les deux rendant compte du degré de structuration identitaire. De même, on peut s'attendre à une relation positive entre l'autonomie globale et la capacité à prendre des décisions (hypothèse 3) et plus précisément entre la dimension du sentiment de pouvoir sur la situation et la dimension processus de l'échelle de maturité de carrière (hypothèse 3a). Les travaux de Bandura (1997/2003) invitent à postuler ce type de relation, le sentiment d'efficacité personnel, traduisant un sentiment de pouvoir personnel, étant lié au fonctionnement cognitif complexe, notamment en matière de prise de décision. Globalement, ceci nous conduit à supposer l'existence d'une relation positive entre l'autonomie globale et la maturité vocationnelle (hypothèse 4). Compte tenu de la littérature sur le sujet, nous nous attendons également à une relation forte et positive entre l'autonomie globale des élèves et leur évaluation scolaire (hypothèse 5). Précisément, on s'attend à ce que l'orientation pour le travail (hypothèse 5a) et le sentiment de pouvoir sur la situation (hypothèse 5b) soient liés à la réussite scolaire (Bandura, 1997/2003; Deslandes, Potvin & Leclerc, 2000). A contrario, si l'on considère l'échec scolaire sous forme de décrochage, c'est-à-dire en relation avec le risque de déscolarisation, on peut s'attendre à une relation négative entre l'autonomie globale des adolescents et leur risque de décrochage (hypothèse 6). Nous investiguerons ce lien à l'aide du LYCAM qui est un outil de dépistage du décrochage (Gosling, Scheurer & Barbacci, 1993) permettant de mesurer le risque de décrochage lié à l'attitude de la famille vis-à-vis de l'école, le projet scolaire, le rendement scolaire, la confiance en soi, l'absentéisme, le besoin de soutien des enseignants et l'intérêt pour l'école. Aussi, de manière plus spécifique et tenant compte de la littérature, on s'attend à observer une relation négative entre l'orientation vers le travail et les risques liés au rendement scolaire (hypothèse 6a) ou à l'absentéisme (hypothèse 6b). De même, l'actualisation d'un projet d'orientation scolaire supposant une clarification de soi et du fonctionnement scolaire, on peut s'attendre à une relation négative entre les risques liés au projet scolaire et la dimension identité (hypothèse 6c) ou la dimension conscience des sources d'emprise (hypothèse 6d). Enfin, on doit s'attendre à ce que le sentiment de pouvoir sur la situation soit lié négativement aux risques de décrochage résultant du rendement scolaire (hypothèse 6e) ou à l'intérêt scolaire (Cosnefroy, 2007; hypothèse 6f). Enfin, comme nous l'avons mentionné précédemment, les interactions directes que vivent les adolescents sont susceptibles de faire évoluer leur autonomie. Ce faisant, on doit considérer qu'il existe une relation entre l'autonomie et la perception que peuvent avoir les adolescents de leurs relations avec les différents acteurs évoluant dans leurs contextes de vie. Précisément, compte tenu de la littérature, on peut s'attendre à une relation positive entre l'autonomie globale et l'affiliation contextuelle avec la famille (Cartierre, Demerval & Coulon, 2007) qui traduit la qualité de ces interactions dans le contexte familial (hypothèse 7). Sans poser d'hypothèse, nous explorerons également la relation entre l'autonomie et l'affiliation dans le contexte scolaire et le contexte amical des adolescents. Nous avons mesuré la maturité de carrière à l'aide de l'échelle de Forner et al. (2005). Celle -ci comprend 108 items dont 36 permettant de mesurer la représentation de soi, à savoir l'expérience (« faire du bricolage », par ex.), les capacités perçues (« réparer des objets », par ex.) et les résultats scolaires (en français, mathématiques, etc.). De même, 36 items permettent d'évaluer la connaissance du monde vocationnel, à savoir les formations (les filières d'études au lycée, par ex.), les professions (« parmi 5 professions repérer celles où l'on travaille en extérieur », par ex.) et le monde du travail (le nombre de chômeurs en France, par ex.). Enfin, la maîtrise des processus (36 items) rend compte de l'exploration (« je m'informe auprès des personnes dont la profession m'intéresse »), de la décision (« si je devais choisir entre deux entreprises pour faire un contrat d'apprentissage : je suivrais les recommandations d'un enseignant, je déterminerais avec précision laquelle me serait la plus utile, je me déciderais immédiatement pour celle qui me plairait le plus, je prendrais celle qui, selon moi, me correspondrait le mieux ») et la planification (« j'ai déjà présenté dans le détail mes projets d'avenir à mes parents »). 63 sujets (23 sujets masculins et 40 sujets féminins) de collège âgés en moyenne de 14 ans et 2 mois ont répondu au questionnaire de maturité vocationnelle de Forner et al. On observe que l'autonomie globale est corrélée positivement avec toutes les dimensions de l'échelle de maturité. Ainsi, plus les élèves sont autonomes et plus ils déclarent avoir des expériences nombreuses (r = .32, p < .05), des capacités perçues importantes (r = .37, p < .05) et des résultats scolaires élevés (r = .56, p < .05). L'hypothèse 1 est vérifiée. De même, plus l'autonomie globale est élevée, plus les connaissances des élèves concernant les professions (r = .27, p < .05) et les formations (r =. 25, p < .05) sont élevées. L'hypothèse 2 est vérifiée. On observe également que plus le score sur la dimension identité de l'échelle d'autonomie est élevé et plus le score sur la dimension de soi de l'échelle de maturité de carrière (capacité, expérience et résultats scolaires) est élevé. L'hypothèse 1a est vérifiée. Enfin, plus les élèves sont autonomes, plus leur score concernant l'exploration (r = .38, p < .05), la décision (r = .35, p < .05) et la planification (r = .41, p < .05) est élevé. L'hypothèse 3 est vérifiée. Globalement, ces résultats traduisent une relation positive entre l'autonomie globale et la maturité vocationnelle (hypothèse 4 vérifiée). On observe également une relation positive entre l'orientation vers le travail et quasiment toutes les dimensions de la maturité vocationnelle à l'exception de la connaissance des professions et du monde du travail. Ceci peut supposer que le travail a essentiellement une signification scolaire et personnelle pour notre population. De même, on observe différentes relations (tableau 2) entre la maturité et les dimensions de l'identité et du sentiment de pouvoir sur la situation sans que l'on puisse repérer de régularité quant aux sous-dimensions de la maturité. Par contre, seule la connaissance des résultats scolaires est reliée à la conscience des sources d'emprise ce qui souligne la prégnance dans le champ perceptif des élèves des évaluations académiques. Nous avons collecté à la fois l'auto-évaluation des élèves concernant leur niveau scolaire à partir de cinq catégories (plutôt faible, passable, moyen, bon et très bon) mais également les hétéro-évaluations académiques réalisées par les enseignants. Dans ce dernier cas, la moyenne générale ainsi que les évaluations en français et en mathématique nous ont servi d'indicateur. Nous avons demandé à 147 sujets de collège d'indiquer leur niveau scolaire subjectif. Les résultats (tableau 3) mettent en évidence une relation croissante de l'autonomie globale avec le niveau scolaire auto-évalué (F (2,144) = 20,80, p < .0001). Descriptivement, plus les élèves s'auto-évaluent positivement et plus leur niveau d'autonomie globale s'élève. De même, plus le niveau scolaire augmente et plus l'orientation vers le travail (F (2,144) = 16,73, p < .0001), la conscience des sources d'emprise (F (2,144) = 4,87, p < .009), le sentiment de pouvoir sur la situation (F (2,144) = 14,06, p < .0001) et la clarté de l'identité (F (2,144) = 4,23, p < .01) augmentent. De même, nous avons collecté les évaluations scolaires de 119 élèves (56 sujets masculins et 63 sujets féminins) en français, en mathématique et concernant l'ensemble des disciplines scolaires. On observe une relation positive et significative entre l'autonomie globale et l'évaluation en français (r = .39, p < .05), en mathématique (r = .32, p < .05) et avec la moyenne générale des matières (r = .41, p < .05). L'hypothèse 5 est vérifiée. De même, on observe une corrélation positive entre l'orientation pour le travail et la réussite scolaire (r = .37, p < .05) ainsi qu'entre le sentiment de pouvoir sur la situation et la réussite scolaire (r = .33, p < .05). Les hypothèses 5a et 5b sont vérifiées. Nous avons mesuré les risques de décrochage à l'aide du LYCAM. Il permet d'établir un degré de risque de décrochage (de 0 à 41) à partir de 7 dimensions, à savoir l'attitude de la famille vis-à-vis de l'école (5 items; « mes parents savent dans quelle classe je suis », par ex.), le projet scolaire (8 items; « j'ai obtenu l'orientation que je souhaitais », par ex.), le rendement scolaire (5 items; « après le lycée, combien d'heures par semaine passes -tu à tes devoirs ou leçons ? + de 10, 6 à 10, 2 à 5, - de 2, aucune »), la confiance en soi (5 items; « en général, je suis à peu près sûr de réussir ce que je fais », par ex.), l'absentéisme (6 items; « j'aime m'absenter du lycée », par ex.), le besoin de soutien des enseignants (6 items; « en général, mes professeurs essayent de me comprendre », par ex.) et l'intérêt pour l'école (6 items; « je préférerais avoir d'autres cours que ceux de cette année », par ex.). L'étude de validité établit une liaison positive entre le score au LYCAM et l'abandon scolaire. 195 sujets (83 sujets masculins et 112 sujets féminins) âgés en moyenne de 15 ans et 6 mois et scolarisés en lycée professionnel ont répondu au LYCAM. Globalement, on observe (tableau 5) une relation négative entre l'autonomie globale et tous les facteurs menant potentiellement au décrochage scolaire, y compris, donc, avec le nombre total de facteurs de décrochage (hypothèse 6 vérifiée). De même, on observe une relation négative entre l'orientation vers le travail et les risques liés au rendement scolaire (r = - .35, p < .05) et à l'absentéisme (r = - .42, p < .05). Les hypothèses 6a et 6b sont vérifiées. On observe également une relation négative entre les risques liés au projet scolaire et la dimension identité (r = - .25, p < .05) et la dimension conscience des sources d'emprise (r = - .19, p < .05). Les hypothèses 6c et 6d sont vérifiées. Enfin, on observe une relation négative entre le sentiment de pouvoir sur la situation et les risques de décrochage liés au rendement scolaire (r = - .22, p < .05) ou à l'intérêt scolaire (r = - .19, p < .05). Les hypothèses 6e et 6f sont vérifiées. Nous avons mesuré l'affiliation à l'aide de l'échelle d'affiliation contextuelle pour adolescents de Cartierre, Demerval et Coulon (2007). Cette dernière mesure le degré d'affiliation du répondant au sein de sa famille à partir de 6 items (« j'aime bien parler avec ma mère ou avec mon père », par ex.), au sein du collège à partir de 6 items (« les enseignants sont souvent injustes avec les élèves », par ex.) et avec ses pairs à partir de 6 items (« avec les jeunes de mon âge, je me sens souvent rejeté », par ex.). Les sujets répondent sur une échelle Likert en 4 points (oui, plutôt oui, plutôt non, non). Le codage allant de 0 pour « non » à 3 pour « oui », chaque contexte peut donner lieu à un score allant de 0 à 18. 77 sujets (42 sujets masculins et 35 sujets féminins) de collège âgés de 14 ans en moyenne ont répondu à l'EACA de Cartierre et al. Globalement, on observe une relation positive entre l'autonomie globale et les trois contextes d'affiliation (hypothèse 7 vérifiée), ce qui implique, potentiellement, qu'au-delà de la famille, les intervenants éducatifs en milieu scolaire et les pairs jouent un rôle dans l'élaboration de l'autonomie. On observe également (voir tableau 6) que l'orientation vers le travail et la conscience des sources d'emprise sont reliées aux trois contextes d'affiliation. Par contre, le sentiment de pouvoir sur la situation n'est pas relié au contexte des pairs et la dimension identité n'est reliée à aucun contexte d'affiliation. Cette étude avait pour objectif de développer un outil permettant de mesurer le potentiel d'autonomie auprès de populations adolescentes scolarisées et d'évaluer la validité de ce construit au regard d'indicateurs traduisant des conduites autonomes, parmi d'autres, en milieu scolaire. L'échelle que nous présentons possède des qualités satisfaisantes. Elle reprend deux des trois dimensions mises en évidence dans les études nord-américaines et intègre deux dimensions supplémentaires traduisant la conscience des éléments agissant sur les élèves et le sentiment de pouvoir agir vis-à-vis de la situation. Ce faisant, cette échelle permet d'appréhender l'autonomie selon une conception situationniste tel que nous le souhaitions. Par ailleurs, les mesures que nous avons effectuées auprès de notre population d'étude permettent d'établir que plus les élèves sont autonomes dans leurs réponses à l'échelle d'autonomie-situnomie plus leurs connaissances sont importantes concernant des éléments importants de leur futur projet professionnel, plus leur représentation de soi est positive et riche, c'est-à-dire basée sur de nombreux éléments, et plus leur aptitude à prendre des décisions efficaces est élevée. Cette relation laisse supposer que l'autonomie permettrait ainsi aux élèves de construire des projets efficaces, c'est-à-dire reposant sur un maximum d'éléments objectifs (soi, filières d'étude, environnement socio-économique) et sur une prise de décision rationnelle (exploration, décision, planification). De plus, la relation observée entre la dimension identité de l'échelle d'autonomie et la dimension du soi de l'échelle de maturité vocationnelle témoigne de la validité de la dimension identité pour notre échelle. Au-delà des éléments rendant compte de la construction de projet d'orientation, on observe une relation entre l'autonomie et un élément central dans l'appréhension des trajectoires scolaires, à savoir les évaluations académiques. Plus l'autonomie est importante et plus les auto et/ou les hétéro-évaluations scolaires des élèves sont élevées. Ce résultat confirme ceux déjà observés auprès de populations nord-américaines avec l'échelle de Deslandes. Par ailleurs, nos résultats permettent d'établir une relation négative entre les risques de décrochage et l'autonomie des élèves scolarisés dans la voie professionnelle. Une forte orientation vers le travail serait associée à de faibles risques de décrochage liés au travail scolaire ou à l'absentéisme. Une nouvelle fois, la dimension « identité » est liée à la présence d'un projet d'orientation efficient, c'est-à-dire ici excluant un risque de décrochage. Conformément à la littérature sur le sujet on retrouve une relation négative entre le sentiment de pouvoir sur la situation et les risques liés au rendement ou à l'intérêt scolaire. La dimension conscience des sources d'emprise est reliée également à des éléments d'évaluations scolaires et aux risques de décrochage scolaire. Enfin, on observe une relation entre l'affiliation des élèves dans leurs contextes de vie et leur autonomie. Globalement, chacune des dimensions de l'échelle d'autonomie est reliée à un élément rendant compte des trajectoires scolaires. Par ailleurs, l'analyse des relations permet d'observer que la dimension « conscience des sources d'emprise » est peu reliée à la maturité de carrière et aux risques de décrochage, contrairement aux trois autres dimensions. Par ailleurs, l'identité n'est pas liée aux contextes d'affiliation, contrairement aux trois autres dimensions. De plus, les dimensions « conscience des sources d'emprise » et « identité » sont moins reliées que les deux autres aux résultats scolaires. Ces éléments, en même temps qu'ils témoignent de la validité divergente des sous-dimensions de l'échelle globale d'autonomie, suggèrent un regroupement des différentes dimensions selon deux sphères de fonctionnement, l'une liée à l'action (orientation vers le travail et sentiment de pouvoir sur la situation), l'autre liée à la perception, de soi (identité) ou de la situation (conscience des sources d'emprise). Dans cette perspective, l'autonomie pourrait être considérée comme une capacité à percevoir son environnement et à y agir de manière efficiente. Dans ce sens, si ce regroupement était propice, il impliquerait que le développement de l'autonomie suive des processus distincts selon la dimension en jeu et se traduise dans des pratiques spécifiques. Les relations nombreuses entre les mesures d'autonomie et divers indicateurs rendant compte des trajectoires scolaires apparaissent comme des relations au sens large. De fait, de nombreuses questions émergent au vu des résultats que nous avons observés. À titre d'exemple, on peut se demander si la relation entre les mesures d'autonomie et les évaluations scolaires est de nature normative ou fonctionnelle ? Les élèves se montrent-ils autonomes en même temps qu'ils sont bien évalués académiquement parce qu'ils se conforment à certaines normes de jugement ou répondent-ils de manière autonome, leurs réponses traduisant un ensemble d'attitudes favorables à une efficience scolaire ? De même, l'absence de relation entre la dimension identité de l'échelle d'autonomie et les différentes dimensions d'affiliation est surprenante si l'on admet que l'identité se construit à travers les interactions sociales directes à l'adolescence ? On doit souligner que la validation de nos hypothèses concernant les relations entre l'autonomie, ses dimensions et les divers construits psychologiques rendant compte des trajectoires scolaires ne s'appuyait que sur l'examen de corrélations.Aussi, doit-on à travers nos résultats considérer une relation directe entre l'autonomie et les facteurs de décrochage, l'un ou l'autre de ces éléments déterminant le second ? Par ailleurs, on peut mettre en parallèle les relations observées entre l'autonomie et les facteurs comme l'attitude de la famille vis-à-vis de l'école, le besoin de soutien des enseignants et l'intérêt pour l'école, et les données que nous avons obtenues entre les scores d'autonomie et les scores d'affiliation. De fait, ces résultats suggèrent, en relation avec les travaux de Deslandes, que les interactions directes des élèves avec leur entourage pourraient concourir au développement de leur autonomie. Dans cette perspective, il s'agit également d'intégrer les interactions avec les pairs dans l'explication de la genèse de l'autonomie. Dans le même ordre d'idée, on peut penser que l'autonomie qui repose sur une identité stable et claire, telle que nous la mesurons, devrait être source de confiance en soi chez les élèves. C'est du reste ainsi que nous interprétons la relation négative entre les risques liés à la confiance en soi et l'autonomie des lycéens. De ce point de vue, il reste à investiguer la force et la nature des relations que nous avons observées avec les indicateurs de trajectoires scolaires ainsi qu'avec les conduites réelles des élèves. Sur le plan pratique, cette étude a permis de créer un outil ayant une validité satisfaisante, l'échelle finale étant relativement courte ce qui offre un avantage pour sa passation en milieu scolaire. Ce faisant, cette échelle peut tout aussi bien servir dans l'évaluation des compétences du socle commun à l'école que dans des pratiques d'orientation, comme par exemple celle de bilan. À ce titre, il serait intéressant de comparer cet outil avec d'autres instruments mesurant l'autonomie. En effet, si notre échelle considère globalement l'autonomie selon une conception situationniste, il existe d'autres instruments de mesure de l'autonomie, comme l'échelle d'autosuffisance de Dubois et Beauvois (2002) qui traduit davantage une conception émancipatrice de l'autonomie ou l'échelle de perception d'autodétermination dans les domaines de vie (ÉPADV-16) de Blais et Vallerand (1991) qui traduit une conception particulariste de l'autonomie . | Dans le prolongement des travaux de Deslandes, Potvin et Leclerc (1997) et de Auzoult (2008), nous présentons les qualités psychométriques d'un outil mesurant l'autonomie en contexte scolaire. Nous présentons également les relations entre l'autonomie et d'autres construits rendant compte des trajectoires scolaires. Les résultats révèlent une relation positive entre la maturité de carrière, la réussite scolaire et l'autonomie. On observe également une relation négative entre l'autonomie et les risques de décrochage scolaire. Enfin, on observe une relation entre l'autonomie et le degré d'affiliation des adolescents dans leurs contextes de vie, ce qui ouvre des perspectives explicatives sur l'élaboration de l'autonomie. | psychologie_10-0447025_tei_938.xml |
termith-752-psychologie | Les personnes en situation de désinsertion sociale et professionnelle n'ont pas bénéficié, pour la plupart, des apports des formations générales et/ou professionnelles de base qu'elles ont, au moins un temps, suivies. Les engager dans des formations à ce niveau appelle donc, en plus, la mise en place de procédures d'accompagnement à une réinsertion professionnelle, voire sociale. Mais une procédure ne vaut que par les processus dans lesquels elle est insérée. L'objet de cette contribution est d'interroger ces processus qui, trop souvent, restent implicites ou deviennent des allant de soi. Or, si les procédures, aspects visibles des dispositifs sociaux, ne sont plus interrogées, là où la situation de ces personnes exigerait des actions de type « sur mesure », c'est du « prêt-à-porter » qui leur est appliqué. Cette simplification du mode d'action, renvoie à une simplification des modes de pensées dénoncée par Edgar Morin (1990). C'est ce phénomène simplificateur qui sera donc ici fortement mis en question à la fois en en cherchant les raisons sociales et culturelles ainsi qu'en en montrant les effets dévastateurs sur les sujets dont il est question. Loin de se référer au seul modèle logico-mathématique et donc à une pensée linéaire pourtant prégnante aujourd'hui dans nos sociétés, nous adopterons ce que nous avons appelé « le modèle spiralaire » (Biarnès, 1999) basé sur trois principes, celui de la rétroaction (mettre de l'ordre ici c'est aussi générer un nouveau désordre là sur lequel il faut revenir), celui de l'essai perpétuel de relier (et non de séparer même si la séparation est un moment du processus) ce qu'Edgar Morin (1995) nomme la « reliance », et enfin le principe de la non-finitude du processus qui s'autoalimente perpétuellement d'interrogations et de nouvelles problématiques. Ainsi d'une interrogation critique de certains concepts très présents dans l'énoncé des dispositifs d'insertion nous passerons à un questionnement des effets de la mondialisation sur l'action sociale et ses acteurs pour ouvrir des perspectives essayant de répondre aux effets complexes que cela pose pour l'insertion de ces personnes étiquetées « bas niveau de qualification ». Commençons par interroger la notion de « bas niveau de qualification » et le contexte dans lequel elle est employée. Partons de trois cas concrets, le premier issu d'une observation d'un geste professionnel, le deuxième d'un test ayant comme objectif la « mesure de l'intelligence », le troisième étant l'observation des compétences d'un enfant étiqueté psychotique. Dans le premier cas, il s'agit d'un ouvrier carrossier en situation d'illettrisme et ne pouvant donc pas être qualifié par un diplôme quelconque, voire même par un niveau d'étude. Appréhendée sans analyse de la situation, cette personne serait aujourd'hui classée comme « bas niveau de qualification ». Or, devant la carrosserie d'une voiture accidentée sur laquelle il devait travailler, nous avons pu observer des séquences de gestes professionnels organisées de façon extrêmement rationnelle et efficace : observation visuelle puis manuelle de la zone d'enfoncement à redresser; appréciation manuelle de l'épaisseur de la tôle à redresser; chauffage à blanc au chalumeau de certains points de la tôle sur le pourtour de l'enfoncement (dilatation de la tôle); jets d'eau froide sur les points chauffés à blanc avec une éponge plongée et replongée plusieurs fois dans un seau d'eau préparé à l'avance (rétractation de la tôle par refroidissement instantané); disparition quasi totale de l'enfoncement; aplanissement au tas et au marteau de la tôle froissée. Certes cet ouvrier ne pouvait expliquer par des mots son travail mais il savait très bien adapter ces séquences d'action en fonction du degré d'enfoncement, de son étendue, de l'épaisseur de la tôle, etc. Incapable de répondre à une investigation rationalisée de son travail, il en avait cependant une connaissance d'expérience (Barbier, 1996) d'un haut niveau de technicité et d'efficacité. À l'aune des diplômes, cette personne pouvait être dite de « bas niveau de qualification », mais la qualification se mesure -t-elle aux seuls diplômes ou également aux compétences liées à l'intelligence d'expérience ? Le deuxième cas, très différent, pose la même question. Dans l'une des épreuves d'un test prétendant « mesurer l'intelligence » des enfants et adolescents, il est demandé à la personne testée de dire ce qu'il y a de « bête » dans chaque histoire qu'on va lui raconter. Ainsi dans celle -ci : « Un vieux monsieur se plaint de ne plus pouvoir faire le tour de son jardin. Il ne peut plus aller qu' à la moitié et revenir. Qu'est -ce qu'il y a de “bête” dans cette histoire ? ». La culture scolaire, c'est-à-dire la culture logico-mathématique, infère que la bonne réponse suppose d'avoir compris que si ce vieux monsieur fait la moitié du tour de son jardin et revient, c'est comme s'il en avait fait le tour entier. Il n'a donc pas à se plaindre puisqu'il parcourt la même distance ! Oui, mais l'enfant peut se dire « si le vieux monsieur ne peut plus aller dans l'autre moitié de son jardin, c'est peut-être qu'il existe une cause à cela, mais surtout cela a pour conséquence qu'il ne peut plus aller arroser ou sentir ses fleurs, il ne peut plus cultiver cette autre partie de son jardin ». Il a alors toutes les bonnes raisons de se plaindre, il n'y a donc rien de « bête » dans cette histoire. Quelle réponse est définie comme intelligente ? La première bien sûre, celle qui fait appel à l'intelligence logico-mathématique et surtout pas celle qui fait appel à l'intelligence d'expérience qui est pourtant à la base de toute construction logico-mathématique. En fait, si l'on interroge les jeunes ayant répondu par l'une ou l'autre de ces réponses nous constatons qu'ils connaissent les deux réponses possibles. Seulement certains ont appris les codes et les attentes de l'école et pas les autres. Les auteurs d'outils de mesures de l'intelligence ou, pour être plus proche des préoccupations actuelles, de mesures des compétences, sont pétris de pensée logico-mathématique. L'organisation des épreuves, les attentes qui en émanent sont donc liées majoritairement à ce type de pensée. Or, ces deux exemples nous montrent que de nombreux fonctionnements de la pensée et de l'agir répondent à d'autres types de logiques non prises en compte dans l'espace scolaire ou de formation. De plus un savoir ou un savoir-faire peut s'actualiser dans un contexte mais pas dans un autre qui pourtant le réclamerait. Savoir transférer un savoir ou un savoir-faire d'un contexte à un autre s'apprend, encore faut-il multiplier les situations problèmes pour l'apprenant, ce qui nécessite chez l'accompagnant ou le formateur l'absolue certitude qu'une compétence est toujours située et que ce n'est pas parce qu'elle ne s'actualise pas dans un contexte que le sujet ne la possède pas, et à l'inverse, ce n'est pas parce qu'elle s'actualise dans un domaine que le sujet peut s'en servir de manière flexible, créative et non pas uniquement liée à ce contexte. Dans une classe spécialisée un enfant de neuf ans nous semblait totalement perdu dans l'espace. Il fallait qu'il se déplace dans l'école en ne perdant pas le contact avec les murs. Quand il eut réussi à s'en détacher un peu et qu'il eut commencé à jouer à un jeu de balle avec ses camarades, il ne savait plus de quel côté il fallait la lancer quand il la recevait. « Déficit sévère dans l'organisation spatiale et spatio-temporelle » avions nous inscrit dans son dossier de suivi. Un matin, sortant de chez nous pour aller à l'école, nous avons trouvé sur le paillasson un billet de métro et la montre de cet enfant. Il habitait dans une banlieue difficile d'accès avec seulement une ligne de bus. Arrivé à l'école nous lui avons demandé ce que cela voulait dire. Celui -ci répondit qu'il voulait voir où nous habitions. Il avait pris le métro et le bus, mais comme il était arrivé assez tard, il n'avait pas osé sonner. Il était reparti chez lui. Face à notre étonnement de ce périple pour un enfant de 9 ans, il expliqua qu'il quittait souvent son domicile en soirée. La famille comptant onze enfants, cela ne se voyait pas. Il allait alors par les transports en commun voir les avions décoller à l'aéroport du Bourget et revenait. Pas un des camarades de sa classe, pour lesquels pourtant, aucune remarque quant à un possible déficit de l'organisation spatiale n'avait été constaté, n'aurait été capable de faire seul ces trajets. Nous n'avons jamais plus écrit de diagnostic global et définitif sur un élève, un étudiant ou une personne en formation. Au contraire quand nous constations un quelconque déficit chez une personne avec laquelle nous avions travaillé, la première question que nous nous sommes depuis toujours posée a été de savoir si ce n'était pas nous qui étions aveugle aux compétences de cette personne parce que nous n'avions pas ouverts des espaces différenciés où les compétences et savoirs requis auraient pu s'actualiser. Nous ne remercierons jamais assez cet enfant pour ce qu'il nous a appris. Vingt ans plus tard, lorsque, dans un programme d'insertion de jeunes sans qualification (que nous présenterons ci-après) un formateur nous présenta comme preuve qu'une stagiaire était « nulle en math » [sic] parce qu'elle ne savait pas faire une division simple lors d'un exercice sur table, nous lui avons proposé d'essayer de la faire se confronter à l'utilisation du concept de division dans différentes situations sociales. On observa alors que cette jeune personne établissait à chaque fois qu'elle en avait besoin un véritable plan d'expériences pour résoudre une problématique mathématique où la division devait être utilisée. Loin d' être « nulle en math » elle ne présentait comme déficit que la non-acquisition du mécanisme opératoire de cette opération. En partant alors de ses propres expériences ce dernier fut alors rapidement appris (Biarnès & Azoulay, 1998). Si penser c'est catégoriser, organiser, hiérarchiser, ce serait une erreur de raisonnement que de penser qu'une hiérarchie telle que celle présentant un niveau haut ou bas, par exemple, s'appliqueraient à toutes les catégories, toutes les organisations auxquelles fait appel un sujet pour dire, faire et penser. Ainsi le concept, si toutefois cela en est un, de « bas niveau de qualification » est vide de sens s'il n'est pas accompagné d'un qualifiant : l'activité support, le contexte, les outils de mesure. On peut être en effet de « bas niveau de qualification » dans un domaine et être extrêmement efficace et performant dans un autre. La question qui se pose est alors de savoir comment identifier les avoirs et savoir-faire pour les personnes fonctionnant davantage sur une intelligence d'expérience que sur l'intelligence logico-mathématique ou sur toute autre forme d'intelligence (Gardner, 1995). À partir de ce qui vient d' être dit, il devient nécessaire, pour tout dispositif et pour tous les acteurs sociaux, de développer des démarches ouvertes aux « possibles » afin de pouvoir faire effectivement ressortir les savoirs et savoir-faire réels des personnes dans différents domaines et suivant différentes formes de pensée. C'est ce type de démarche que nous avions mise en place entre 1992 et 1994 dans notre groupe de recherche et que le cabinet de Madame Aubry, alors ministre du travail, avait labellisé « centre expérimental de bilan de compétences » pour un programme P.A.QU.E.. Il s'agissait de créer une méthodologie de bilan de compétences pour des publics sans qualification et en échec scolaire ce que nous avions intitulé Pour que le bilan de compétences ne soit pas un bilan d'incompétences (Biarnès & Azoulay, 1998). C'est sur ce même pari que Bertrand Schwartz (1993) avait créé les Missions Locales en 1987 et qu'il fut institué dans le même temps les écoles de la seconde chance par Édith Cresson. Il est plus simple et sûrement moins coûteux même si c'est réducteur et destructeur du sujet, de l'étiqueter « bas niveau de qualification ». Sur le terrain où se pose et se travaille la problématique de l'insertion professionnelle, la première notion qui apparaît dans le discours des acteurs de l'insertion vis-à-vis des personnes en insertion professionnelle est celle de leur projet professionnel, comme si cela pouvait être travaillé comme un concept isolé. Le projet professionnel d'une personne est, et ne peut être qu'inclus, dans un projet beaucoup plus vaste, qui est le « projet de vie » de chacun d'entre nous (Boutinet, 2005). Ce dernier ne se limite pas à la définition d'une trajectoire professionnelle. Il naît et se nourrit de l'imaginaire et des aspirations profondes de l'individu. Ce constat peut paraître trivial, mais il est toujours bon de rappeler que nous fonctionnons tous à partir des idéaux et des représentations plus ou moins construites de ce que nous voudrions être. C'est Gilbert Durand (1990) qui, à la suite de Gaston Bachelard, affirme que notre appartenance au monde des images est plus forte que notre appartenance au monde des idées. C'est le croisement des images de soi, de « soi en devenir », du monde et de « soi dans le monde » qui nous permet une lecture subjective mais réelle de notre « être ». Les personnes en situation d'exclusion sociale et/ou professionnelle ne fonctionnent pas autrement. Seulement cet imaginaire est broyé par le quotidien. Comment se penser en devenir quand l'urgence est de penser comment manger à midi, où dormir ce soir ? La première obligation que devrait se donner tout acteur social serait de ne pas en rajouter sur ce registre et d'essayer de faire fonctionner à nouveau cette dimension de l'imaginaire chez toute personne en désinsertion sociale et professionnelle. Derrière la demande récurrente que l'on trouve à l'accueil des Missions Locales d'un travail ou d'un logement immédiatement, il y a du désir à « être » tout simplement. C'est pourquoi tous les désirs, même les plus utopiques, chez une personne, doivent être sollicités et doivent constituer une dimension essentielle de l'accompagnement à l'insertion. Si le conseiller commence à demander à la personne son projet, celui -ci l'entend comme projet professionnel, autrement dit comme une obligation à en avoir un pour être reconnu par l'autre. La problématique est dramatiquement inversée. « Être » devient alors avoir un projet alors qu' « être » devrait toujours être en projet. La personne, qui a besoin d' être reconnue, va répondre à cette injonction sociale mais le projet énoncé ne s'appuiera pas sur ses désirs profonds, ce qui ne la mettra pas dans une dynamique de construction d'un devenir. La mise en œuvre d'un tel projet sera un échec, et l'acteur social verra revenir cette personne, avec la même demande ou avec une autre, mais en étant encore un peu plus « abîmée » par cet échec supplémentaire. Réduire ainsi avec le concept de projet, c'est le rendre « assassin d'avenir » (Biarnès, 1995). En effet, non seulement la personne considérera petit à petit, au fil des échecs successifs, qu'elle est la seule responsable de ceux -ci (Castel, 1995) mais elle finira par s'interdire à jamais de fonctionner avec cette dimension essentielle de l' être qu'est l'imaginaire. On a là une des racines de cette souffrance sociale que décrit Christophe Dejours (1998) en particulier pour les publics en situation de précarité. Mais c'est également ce que dénonce Denis Castra (Castra & Valls, 2008) en montrant combien la centration sur le projet, sur le contrat ou encore sur le parcours individualisé a un effet pervers de stigmatisation de la personne. Affirmer que cette part d'imaginaire est indispensable ne veut pas dire qu'il faille en rester là. En effet, à partir d'un discours référent aux désirs, le projet doit se construire en mettant en interrogation ceux -ci avec le réel, avec les possibles. Cela oblige chacun à abandonner une part de ses désirs, pour un temps ou définitivement, mais nul ne le sait sur l'instant. Savoir et pouvoir faire le deuil d'une partie de ses désirs pour pouvoir gagner autre chose, c'est cela qui permet de construire une trajectoire de vie qui, faisant référence à une autre part de ses désirs, a de grandes chances d' être une trajectoire de réussite. Certes ce ne sera pas une trajectoire linéaire, « logico-mathématique », elle sera « spiralaire » parce qu'elle référera à l'humain et que l'accompagnant social travaillera par « bricolage méthodique » comme l'a défini Lapassade (1971). Cette posture, loin d' être psychologisante, remet le sujet en relation constante avec le réel, avec le social dans un aller et retour perpétuel entre désir et réalité. Mais dans une société où priment la productivité, le chiffre et la rentabilité, cette démarche peut sembler être une perte de temps, donc constituer un surcoût formatif. Ceux qui avancent une telle affirmation ne peuvent être de bons gestionnaires. En effet cette assertion renvoie à un calcul des coûts à court terme, ceux que font les actionnaires en attente de dividendes. Or nous sommes dans le social, dans l'humain et la « formation-insertion » est une démarche dont les « fruits mûrissent » à moyen terme voire à long terme. Le retour sur investissement dans le social ne peut jamais se mesurer dans l'immédiateté. Pourquoi ce qui semble de l'ordre de l'évidence ne peut-il pas être actualisé ? Pourquoi les institutions d'insertion et les acteurs sociaux ont-ils tant de mal à mettre une telle démarche en place ? Est -ce par la seule logique de la rentabilité, dont la partie visible est la mise en place de la LOLF ? Cette raison est importante, mais à partir des entretiens que nous avons eus avec les institutions et les acteurs des structures d'insertion par l'économique d'un département français (Bonnafous & Biarnès, 2010), nous sommes certains qu'une autre raison, certes liée à la première, mais peut-être plus pernicieuse que celle -ci, explique les freins mis à ce type de processus que nous qualifions comme étant « centré sur le sujet » (Biarnès, 1999). Aujourd'hui travailler à partir d'une démarche incluant l'imaginaire des personnes en insertion fait peur autant à l'institution qu' à l'acteur social. C'est en effet travailler avec le sujet, avec sa complexité. C'est abandonner la sécurité de pouvoir le « contrôler ». Quelles sont les raisons qui induisent de tels comportements visant à nier le sujet ? Comme nous l'avons montré (Biarnès, 2006), la troisième mondialisation dans laquelle nous sommes change radicalement les luttes de pouvoirs au niveau mondial. Si le soubassement du pouvoir s'est maintenu à travers les trois formes de mondialisation (Mongin, 2005), le jeu des échanges économiques, les territorialisations du pouvoir généré par les enjeux de ces échanges ont radicalement changé. Dans le second type de mondialisation la territorialisation du pouvoir se faisait à partir de la reconnaissance et de la transgression des frontières des nations européennes d'une part, et la désignation de « l'autre monde », les non-européens d'autre part. Or, on assiste aujourd'hui à une déterritorialisation de ces luttes de pouvoir par rapport aux frontières nationales. « Si, dans cette longue histoire de la conquête et de la colonisation, les pays dominants ont pu situer les “barbares” de l'autre côté de la mer, aujourd'hui les “barbares ”, parfois aussi appelés “sauvageons” ou “racailles ”, sont de l'autre côté de la rue » (Biarnès, 2006, p.22). S'il était facile de maintenir le « barbare » de l'autre côté de la mer, comment maintenir le « barbare » quand il est de l'autre côté de la rue ? Si les espaces de pouvoirs ne sont plus garantis par des frontières naturelles ou politiques, comment faire pour maintenir les « non-élus » hors des espaces où se concentrent les détenteurs des pouvoirs financiers, politiques, scientifiques ? Comment faire sinon en contrôlant leurs faits et gestes, leurs espaces, voire leurs idées ? Mais le propre de l'humain est de ne pas être contrôlable car l' être est un et multiple, cohérent et paradoxal, rationnel et irrationnel tout à la fois. Seul l'objet peut être sous contrôle. Pour défendre les frontières très floues de ces îlots de pouvoir que Benassayag (2004) appelle des « individus », les possédants de ces îlots n'ont donc qu'une solution, réifier l'autre, celui qui n'en est pas, le rendre « chose », le rendre objet. Les politiques dites sociales vont alors « segmenter » le sujet, en faire un assemblage de pièces que l'on pourra ainsi mieux contrôler. Elles vont alors créer un spécialiste pour chaque pièce : le cognitif d'un côté, le psychologique de l'autre, le médical pour un troisième, le social, l'éducatif, le formatif, le logement, la mobilité, etc. Ces morceaux seront réunis en réunions dites de synthèse. C'est ce que nous avons appelé « la règle de l'ingénieur » qui remplace le complexe par le compliqué (Biarnès, 2006). Puis on ajoutera la « règle du médecin » qui médicalisera tout ce qui apparaîtra aux détenteurs du pouvoir comme en dehors de « sa » norme et, en dernier lieu on rajoutera la « règle du comptable » pour qu'il finisse de réifier le sujet en objet d'une rentabilité que l'on quantifie aujourd'hui depuis la petite section de la maternelle (Pheng, 2010). Nous ne sommes plus dans une société vivante comme le montre Vaneigem (2004) mais dans une société marchande où tout sujet n'est perçu que comme « machine à produire » sinon, il est jeté comme une pièce victime de malfaçon ou bien il s'autodétruit comme le montre le taux actuel des suicides dans certaines entreprises. La « théorie du boulanger » qui pétrit et fait monter la pâte est remplacée par la « théorie du boucher » qui tranche et jette (Hamel & Prahalad, 2004). Le cercle infernal est aujourd'hui mis en route. Chaque structure de formation, d'accompagnement, d'insertion est tenue d' être rentable selon les critères de la LOLF, sous peine de renvoyer ses salariés de « l'autre côté », c'est-à-dire du côté de ceux pour lesquels, normalement, elle travaille. Sur certains territoires existent des ententes économiques entre les structures. Quand, par exemple, l'une compte un nombre suffisant de stagiaires mais que l'autre n'a pas son quota minimum pour survivre, la première « cède » quelques stagiaires à la seconde, à charge de revanche ! La notion de sujet est totalement éradiquée dans de tels comportements engendrés par cette « règle du comptable ». Travailler avec l'imaginaire du sujet-stagiaire est alors incompréhensible et même perçu comme dangereux. L'acteur social est également pris dans cet étau de la rentabilité et s'habitue à appliquer les méthodes d'actions les plus rentables possibles à court terme. Malgré lui, il réifie lui aussi le sujet. Lui demander de travailler à nouveau avec un sujet qu'il ne peut plus contrôler par les méthodes précédemment employées devient alors un danger pour lui. En effet, être sujet, c'est être parlant, actant et désirant. C'est faire des liens en soi avec le hors soi, c'est donc écrire son histoire. Si l'acteur social travaille à faire émerger les désirs de l'autre, cela le renvoie à ses propres désirs et à une vision de l'inacceptable pour lui, à savoir qu'il est lui -même quelque part réifié par la démarche actuelle du monde. Si l'imaginaire ne peut être travaillé chez le sujet en insertion, c'est qu'il ne fonctionne plus également chez les acteurs sociaux ce qui génère chez eux une grande souffrance. Enfin pour boucler ce cercle infernal, la personne en situation d'insertion ou de réinsertion, prise elle aussi dans cette dérive d'une rentabilité immédiate, va demander à refaire ce qu'elle pense avoir raté par les seules méthodes qu'elle a connues. Franz Fanon (1952) a très bien décrit ce rapport dominant/dominé à travers la figure du colonisateur qui est victorieux quand le colonisé prend la défense des valeurs du « maître ». Habermas (1987) reprend ce schéma en montrant comment dans une même société le dominé est conduit à toujours plus d'aliénation en croyant que les seules bonnes valeurs sont celles du dominant et que les moyens pour y accéder sont ceux que le dominant lui offre, sans se rendre compte que cette offre est piégée, puisque seul le dominant détient la maîtrise de ces moyens, ce qui lui permet de choisir les élus et de faire croire aux non-élus que leur situation d'exclusion, de précarité n'est que de leur fait puisque lui, dominant, leur a offert les moyens de s'en sortir. En fonction de ces constats, essayer de réussir l'insertion de personnes qualifiées de bas niveau de qualification appelle des politiques sociales et des postures professionnelles qui développent ce que nous appelons une « politique du sujet ». Ce qui vient d' être dit invite à concevoir toute démarche d'insertion comme une démarche centrée sur le sujet, mais plus encore pour les personnes ne possédant pas les codes des institutions dominantes que sont l'école ou les espaces de formation. Ici encore, les acteurs sociaux sont trop souvent piégés par les mots. En effet les décideurs emploient souvent la phrase-slogan « la personne est au centre de notre dispositif ». Cette position, pour légitime qu'elle soit de la place du décideur, devient illégitime pour l'acteur social. En effet, le décideur travaille avec une représentation moyenne des sujets concernés par le texte légal, mais jamais avec des sujets réels. L'acteur social, lui, travaille avec des sujets réels concernés par des textes qui ne font référence qu' à un citizen average, un citoyen moyen. Aucun sujet réel ne peut être assimilé à ce citoyen moyen qui n'est qu'un objet, une reconstruction de la pensée. Ce « sujet-objet-moyen » est, pour le décideur, pour l'administratif, pour le comptable, l'usager du dispositif. Mais l'acteur social travaille avec une personne qui, certes est l'usager du dispositif, mais est avant tout une « personne » avec toute la complexité de l'humain. Si l'acteur social met la personne au centre du dispositif il la réifie donc, il la rend objet du dispositif. C'est au contraire le dispositif, forgé autour d'un usager moyen, qui doit servir à des sujets réels, tous différents et dont le côté « usager du dispositif » ne recouvre qu'une partie infinitésimale de leur être. L'acteur social doit donc être centré sur les désirs, les besoins des sujets réels et se servir du dispositif pour y répondre. Se servir du dispositif ne peut consister en son application telle quelle puisqu'il est fait pour un sujet fictif, mais c'est l'adapter donc le transgresser pour construire des réponses aux besoins réels des sujets. Si le décideur dit élaborer un dispositif dont l'usager est au centre, si l'acteur social dit devoir être centré sur le sujet et surtout ne pas mettre le sujet au centre du dispositif, ces deux positions sont légitimes et ne se contredisent pas car ni l'une ni l'autre ne parle du même sujet. Le problème est que le décideur tient les « cordons de la bourse » et peut faire admettre très facilement que le sujet dont il parle est le seul auquel il faut faire référence. Le pouvoir de résistance du formateur, voire de l'enseignant est alors très réduit. Si adapter un dispositif au public réel pose des problèmes pédagogiques, cela pose encore plus de problèmes au niveau de l'évaluation de l'efficacité d'un dispositif. Le décideur-financeur d'un dispositif veut savoir, là encore légitimement, car il est responsable des deniers publics, l'impact du dispositif qu'il finance. Mais ses critères d'impact ne peuvent être fixés que par rapport à ce sujet-objet moyen qui n'existe pas. De plus, puisque tout cahier des charges doit être adapté au public réel, les critères d'évaluation construits par le décideur ne peuvent s'appliquer tels quels sur le terrain. Force est donc de concevoir à côté des critères propres aux décideurs, des critères spécifiques au terrain concerné c'est-à-dire qui prennent en compte le qualitatif de l'évolution des personnes. Si l'approche sociétale, par les institutions des politiques de l'insertion, ne peut accepter une approche qualitative et personnalisée des actions de terrain pour l'insertion des personnes réelles, nous sommes dans une démarche de production d'objets et non de promotion du sujet. Pour tous les dispositifs d'insertion et en particulier ceux qui ciblent des personnes en situation de fragilité, nous préconisons quelques repères pouvant servir de base aux acteurs sociaux de l'insertion pour développer une véritable politique du sujet dans leur pratique. Du latin cum qui signifie avec et panis qui signifie pain, accompagner c'est donc partager le pain quotidien des personnes en insertion avec lesquelles on travaille. Partager ne veut pas dire se substituer, mais au contraire se complémentariser dans la construction du parcours d'insertion. Ainsi pour tenter de définir ce que pourrait être « l'accompagnement à l'insertion des personnes dites de bas niveau de qualification », nous avons travaillé avec des chantiers d'insertion et avec les missions locales, et recueilli le témoignage de conseillers, d'autres acteurs sociaux ainsi que de jeunes. Nous nous sommes aperçus que les conceptions et les pratiques en matière d'accompagnement étaient très diverses, parfois même antinomiques. L'accompagnement peut consister simplement à présenter les missions des structures participant à un dispositif et les offres d'emploi ou, à l'inverse, viser à encadrer en permanence la personne, parfois même jusque dans sa vie privée. Nous avons pu identifier une chaîne de procédures qui constituent autant d'étapes du processus d'accompagnement. La première a trait à l'accueil de la personne. Elle constitue un moment fondamental. En effet, si le sujet ne se sent pas immédiatement entendu, reconnu, il ne reviendra pas. Mais est -ce que la personne peut se sentir reconnue quand l'accueillant doit en temps réel, c'est-à-dire tout en accueillant la personne entrer ses caractéristiques sur un logiciel comme « Parcours3 » ? Quel est le gain de temps si la personne ne revient pas parce qu'elle se sent, à juste titre, réifiée ? Dans toutes les autres étapes de cette procédure c'est aussi la question de la confiance qui est posée nous dirons même qu'il s'agit d'un contrat de confiance réciproque. Mais si dès lors que le conseiller ou l'acteur social fait preuve de compétences et d'écoute, la personne en situation d'insertion est prête à lui faire confiance, qu'en est-il de la confiance de l'acteur social pour cette personne ? Loin de mettre en cause les acteurs, ce sont les conditions de travail qui sont à interroger. Les acteurs sociaux vivent de véritables souffrances intérieures face à la souffrance sociale et individuelle des personnes en insertion sociale et professionnelle. Cette fragilité dans la confiance que l'acteur social fait a priori aux personnes dites de « bas niveau de qualification » apparaît alors comme un mécanisme de défense contre sa propre souffrance. C'est là où nous disons que l'accompagnant doit être, lui aussi, accompagné. Avoir confiance en l'autre, rester un repère et une ressource pour lui, ce sont des positions clés pour que l'acteur social puisse permettre à la personne d' être actrice de son parcours. À une personne qui avait réussi à apprendre à lire durant un stage et à laquelle nous demandions ce qui avait été, selon elle, déterminant dans cette réussite, alors qu'elle n'avait pas appris au cours de deux stages précédents, nous avons eu cette réponse : « Quand je suis arrivée sur ce stage, la formatrice a discuté de littérature avec moi ». Cette réponse signifiait de la part de la formatrice « Je crois en toi, tu es capable d'apprendre à lire puisqu'on peut parler de l'intérieur des livres ». Croire en l'autre pourrait être le seul critère de sélection pour être acteur social, formateur ou enseignant. Si cette posture n'est pas centrale pour lui, mieux vaut alors, peut-être, ne pas travailler dans les rapports humains, car c'est la fait d' être certain qu'en l'autre il existe toujours des possibles qui permet d'ouvrir ces possibles. Les problématiques des personnes en situation de difficultés sociales et professionnelles sont tellement complexes qu'aucune institution, qu'aucun acteur social ne peut prétendre y répondre seul. Travailler avec le sujet oblige donc à une approche en partenariat. Or, aujourd'hui, les interactions entre les différentes institutions amenées à jouer un rôle dans l'accompagnement sont faiblement développées. Les structures spécialisées fonctionnent séparément. Le partenariat actuellement est plus une mosaïque d'institutions travaillant côte à côte qu'un ensemble travaillant dans le même sens. Il est vrai aussi que le chevauchement des dispositifs constitue un facteur de brouillage des compétences et des responsabilités. La mise en œuvre d'un véritable partenariat suppose non seulement des procédures partagées, mais également une culture commune en matière d'accompagnement. Autrement dit, les différents acteurs de l'insertion, de la santé et de l'aide sociale devraient s'accorder sur un certain nombre de principes et d'objectifs généraux, avant même d'envisager une répartition des rôles en ce qui concerne l'action concrète. Cette culture commune ni ne se décrète ni ne peut se baser sur la bonne volonté de quelques-uns. Elle se construit au fur et à mesure de travaux, de réflexions menés ensemble et cette construction n'est jamais faite une fois pour toute. C'est la raison pour laquelle les RPIJ étaient des structures particulièrement intéressantes, qui rendaient possible un véritable travail de concertation entre les divers intervenants d'un même territoire. Par exemple, dans une commune de l'est parisien, une opération RPIJ s'était donnée comme objectif d'élaborer un livret de suivi des jeunes sortant du collège à 16 ans sans diplôme, sans qualification, sans affectation. Au final, le livret de suivi co-construit entre la MGI, la Mission Locale, le CIO et la PJJ n'a pas été réellement exploité par les différentes structures. Mais l'important n'était pas là. L'important a été de permettre aux acteurs de l'insertion, de l'aide sociale, de l'enseignement, de la justice, de se réunir, de confronter leurs approches et leurs méthodes de travail respectives et in fine de définir une approche commune. Celle -ci ne consiste pas à faire tous la même chose ou même à travailler avec le même outil, mais à le faire tous dans le même sens, avec les mêmes principes fondamentaux, en conservant la spécificité, la diversité des démarches et des outils. C'est en réalisant en commun qu'un véritable partenariat se construit, ce n'est pas en discutant autour d'une table de sa nature. Les coproductions de ce genre seraient à systématiser, des instances comme les RPIJ devraient en être porteurs. Cette reconnaissance mutuelle du travail de chacun pour un objectif partagé garantit pour l'usager sa place de sujet. En effet c'est quand les structures se mettent en position de concurrence ou d'entente « illicite » pour leur survie que le sujet n'a plus de place, car il devient alors soit un simple enjeu de pouvoir entre les structures ou objet économique. C'est en cela qu'un véritable partenariat est un exercice de pure démocratie parce qu'il est au service des personnes dont on respecte la place d'acteurs et dont on refuse d'en faire des pions manipulés au gré des intérêts institutionnels voire personnels. En 2006, la LOLF instaura 105 critères d'évaluation. Or, ces derniers correspondent à une approche économique et traduisent le point de vue de l'institution. Nous avons vu que nous ne dénions pas le bien-fondé de tels critères d'évaluation. Mais ils ne seront efficaces que s'il existe parallèlement une méthodologie d'évaluation centrée sur le sujet et non sur la seule rentabilité de l'institution. Dans le programme P.A.QU.E. cité ci-dessus, une jeune femme venait pour apprendre à lire afin d'aider son enfant qui allait entrer au CP. Elle n'avait aucune intention d'entrer dans le monde du travail elle souhaitait seulement aider son enfant à réussir. Elle a effectivement appris à lire. Dans les critères institutionnels de l'évaluation, elle a été classée dans la case « échec ». Autre exemple : à la sortie d'un chantier d'insertion, une femme d'une cinquantaine d'années, est encore bien loin d' être « employable » et elle n'a pas encore pu construire un projet professionnel. Elle ne peut donc entrer dans les critères actuels de sorties positives. Pourtant si l'on écoute ce qu'elle dit le dernier jour du chantier « Maintenant on me regarde, je ne suis plus invisible » (Biarnès, 2007), il devient évident que, de la place du sujet, ce parcours en chantier d'insertion a été tout à fait positif. Les critères d'évaluation centrés sur le sujet doivent donc être présents à côté d'une évaluation institutionnelle. Il est aujourd'hui indispensable de se donner ces moyens face à l'institution. C'est vrai pour les personnes en parcours d'insertion, c'est vrai pour les structures et les acteurs sociaux qui travaillent avec ces personnes. Par exemple toutes les structures d'insertion par l'économique d'un département hexagonal ont créé et adopté un carnet de bord pour travailler et suivre les salariés. Ce carnet de bord a pour objet de répertorier les savoirs acquis, les savoir-faire et les savoir-être, en y ajoutant des compétences transversales, celles essentiellement présentes sur les postes de travail pouvant être investis par les personnes en insertion. Chaque critère est décliné selon une échelle de 1 à 5 référant au niveau d'acquisition atteint. La particularité de ces carnets de bord est de permettre un double suivi. Chaque salarié possède le sien auquel correspond un carnet identique détenu par son encadrant. Périodiquement le salarié remplit son carnet et s'auto-évalue, l'encadrant faisant de même sur son propre exemplaire. Salarié et encadrant se rencontrent ensuite. Le but de cette rencontre n'est pas de rechercher une évaluation commune, moyenne, mais d'expliciter chacun, les critères qui lui a fait cocher l'une des cinq cases possibles. Chacun apprend alors de l'autre ses véritables exigences, ses modes de pensée, la hiérarchie de ses critères. Non seulement le salarié s'approprie son propre livret, mais il apprend à se situer, à se connaître, ce qui est l'étape indispensable pour construire un parcours de qualification qui a toutes les chances de réussir, puisqu'il en est l'acteur avec le regard extérieur de l'encadrant. Redonner la parole au sujet, même à ceux que l'on pense quasi sans parole valable puisque sans qualification, est le cœur même d'une « politique du sujet » mais c'est aussi un gage de démocratie. Les professionnels de l'insertion (décideurs et acteurs sociaux) se limitent très souvent aux savoirs et compétences liées directement à la nature du projet professionnel du sujet. Il existe pourtant des compétences qui, bien qu'essentielles aujourd'hui, ne sont pas, ou trop peu, travaillées dans les parcours d'insertion, comme le « savoir-faire savoir » ou ce que Howard Gardner (1995) appelle « l'intelligence sociale ». Les dispositifs actuels ne développent pas chez les personnes en insertion les capacités dont ces derniers ont besoin pour être à même de négocier avec un employeur et d'obtenir un contrat de travail. Mais là encore, ces lacunes se forment dès le collège, où l'accent est mis uniquement sur les connaissances disciplinaires comme le prouve l'enseignement DP3 en 3 e qui est facultatif et ne concerne qu'un nombre minime de collégiens alors qu'en Finlande tous les collégiens vont une journée par semaine en entreprise. Ils ont même un salaire qui est reversé à une œuvre caritative ce qui les inscrit et inscrit leurs apprentissages socialement. En France, on est bien loin de cet apprentissage de savoir présenter qui l'on est et ce que l'on veut et on est encore plus loin de cet apprentissage social d' être un citoyen. Dans la formation initiale comme au sein des programmes de formation professionnelle continue, la personne acquiert des savoir-faire et éventuellement des savoir-être mais le « savoir-faire savoir » est occulté. Pourtant, pour s'intégrer dans le monde du travail, chaque personne à besoin de « savoir-faire savoir » qui elle est, quelles sont ses compétences et quel est son projet professionnel. Cette capacité à communiquer et à s'affirmer est aujourd'hui indispensable. Les étudiants diplômés qui obtiennent rapidement un CDD ou un CDI sont ceux qui savent comment s'y prendre pour valoriser leur parcours et leurs expériences auprès des entreprises. L'expérimentation actuelle par 13 universités du PEC (portefeuille d'expériences et de compétences) financée par le FAJ tente de répondre à cette question en éduquant l'étudiant à analyser tous ses acquis et savoir les présenter en fonction de son appréhension du contexte dans lequel il se trouve. L'accompagnement à la VAE va dans le même sens pour les travailleurs adultes. La méthodologie du travail mis en place pour les jeunes sans qualification dans le programme P.AQU.E. en a été l'un des prémices. Nous avons eu a posteriori et fortuitement une validation de cette démarche qui, centrée sur le sujet, a des impacts sur le sociétal et se relie à nouveau au sujet. À cause de l'arrêt brusque de ce programme les jeunes qui n'avaient pas terminé leur parcours furent repris par les structures d'accueil. Quelques mois plus tard, notre équipe fut sollicitée par le nouveau gouvernement pour revenir travailler sur le terrain auprès de ces mêmes jeunes inscrits dans un nouveau programme intitulé « Mobilisation adaptée ». Comme dès le départ nous avions refusé d'intervenir sur ce programme, nous nous sommes interrogés sur cette demande. Après recherche, nous nous sommes aperçus que l'origine venait des jeunes eux -mêmes qui avaient étonné les structures d'accueil à partir du discours qu'ils tenaient sur leur parcours, leurs projets, leurs désirs, discours soutenu par ce carnet de bord que nous avions co-construit avec eux. Ayant été « sujet-acteur » de leur parcours ils étaient devenus capables d'avoir un impact sur le sociétal. Trop souvent, si un jeune n'a pas réussi à l'école, c'est en partie parce qu'il n'a pas su décrypter ce monde étrange pour lui, c'est qu'il n'a pas su « jouer » entre ce qu'il amenait à l'école et ce que l'école lui demandait. Ceci requiert des compétences sociales qui sont essentielles pour le décryptage de la situation également étrange du monde de l'entreprise et de ses exigences. Dans la recherche-action sur ce programme P.A.QU.E., notre optique par rapport aux « heures en entreprise » était de décider avec chaque jeune le meilleur moment pour qu'il aille y faire ses différents stages. Mais ce processus se heurtait au fait que le maître d' œuvre ne recevait la subvention qu'au moment où il avait consommé 40 % des heures en entreprise. Dans l'idéologie sous-jacente à cette exigence, on pensait que le côté « concret » de l'entreprise allait « sauver » ces jeunes qui avaient échoué devant la dimension « abstraite » de l'école. Notre méthodologie de co-construction avec chaque jeune du moment de son départ en entreprise, a eu comme conséquence que nous ne pouvions arriver assez vite aux 40 % de consommation des heures en entreprise. Le maître d' œuvre, pour éviter « la faillite financière », fut obligé à un moment donné de mettre en stage entreprise tous les stagiaires. Résultat : quand le jeune allait en entreprise selon un parcours travaillé, concerté, il accomplissait l'intégralité de son stage et en tirait des bénéfices d'apprentissage. Mais lorsque le départ en stage a été décidé sans un travail d'accompagnement en amont, 80 % des stagiaires ne sont pas restés sur le lieu de stage le temps imparti. A contrario, l'évaluation finale des 56 programmes P.A.QU.E. de la région nous a placé dernier quant au nombre d'heures-entreprise consommé mais nous situait les seconds quant à l'insertion des jeunes en entreprise en fin de parcours sur des CDD ou CDI. Aujourd'hui où l'on préconise la mise rapide en entreprise, y compris pour le CAE où la formation n'est plus obligatoire, il nous faut nous interroger sur ce mythe de l'entreprise salvatrice des jeunes en échec. Nous disons que la mise sur un poste de travail d'un jeune nécessite, en dehors des savoirs et des savoir-faire, des compétences sociales que l'on ne travaille pas ni à l'école ni en formation continue. Si beaucoup de jeunes évitent l'entrée en situation de travail, c'est qu'eux -mêmes savent bien que ces compétences là, ils ne les possèdent pas et que se faisant face à l'entreprise mais aussi face à n'importe quelle institution, ils perdent leur statut de sujet. Ces exemples montrent bien que l'accompagnement à l'insertion s'il doit bien partir d'une centration sur le sujet doit envisager un perpétuel aller-retour avec le sociétal. Si les personnes en insertion doivent être préparées aux réalités du monde de l'entreprise, cet effort de formation n'incombe pas aux entreprises elles -mêmes. Il faut que nous soyons clairs. La vocation première de l'entreprise ne consiste pas à « faire du social ». L'entreprise a pour finalité de réaliser des bénéfices et de conquérir des parts de marché. Ce que l'on peut demander en termes de « social » à une entreprise, c'est de réinvestir une part des profits réalisés pour la recherche-développement, pour créer des emplois, améliorer les conditions de travail et protéger l'environnement. Cependant, sa visée principale demeure de nature économique. À part certaines formes entrepreneuriales comme les coopératives ou les GEIQ ou autres EI, parler « d'entreprises sociales » est un leurre. Est -ce à dire que l'entreprise doit être laissée à côté des parcours d'insertion que font les personnes exclues du monde du travail ? À partir des différentes recherches-actions que nous avons menées dans le domaine de l'insertion des publics fragilisés, il nous est apparu souhaitable que les entreprises collaborent à ces parcours. L'entreprise peut devenir un partenaire et donc, à ce titre, travailler en continu et non pas occasionnellement avec les structures d'insertion. Pour ce travail en continu nous avons identifié deux objectifs. Le premier serait de rechercher avec les entreprises ce que l'on appelle des « niches d'emploi » possibles. Le second serait de lever les représentations négatives que les entreprises se font des personnes en insertion et de les ouvrir à une vision positive des compétences de ces personnes plutôt qu' à leurs manques. Lors d'une recherche-action que nous dirigions, nous avons examiné l'organisation du travail et les processus de production des quinze entreprises participant à un GEIQ afin de déterminer la nature de postes qui auraient pu être créés. Le directeur de l'une d'entre elles, spécialisée dans le secteur de l'assainissement, nous expliquait qu'il ne pouvait pas créer de nouveaux postes pour des jeunes de « bas niveau de qualification ». Or, au fil des entretiens, il est apparu que les clients qui avaient commandé en urgence un camion pour déboucher telle ou telle canalisation, n'étaient pas entièrement satisfaits du suivi des opérations. Ils souhaitaient connaître immédiatement et en détail les travaux qui avaient été effectués alors qu'ils n'en avaient connaissance qu'au moment où ils recevaient la facture. Dès lors, nous avons démontré à l'entreprise qu'elle pouvait améliorer son image de marque en améliorant la qualité du suivi. Pour ce faire, il fallait créer un poste spécifique sur lequel une personne, chaque matin, pouvait appeler les clients et les informer de ce qui avait été effectué la veille. L'embauche d'un jeune chargé de ces contacts pouvait être dès lors envisagée. L'entreprise a adhéré à notre idée et le poste a pu être mis en place grâce à un premier statut d'emploi aidé puis, être par la suite pérennisé. Ce faisant, l'entreprise apprend à connaître les personnes dans leur réalité et non plus à partir de ses seules représentations. Cet exemple met en lumière la nécessité, d'une part, du jeu indispensable de « développeur territorial » que doit pouvoir jouer une structure d'accueil comme la Mission Locale ou un organisme de formation et, d'autre part, l'importance de prévoir des structures intermédiaires capables de mettre en relation les personnes et les entreprises, et ainsi de développer les bassins d'emploi. Comme tout étiquetage d'une personne, le qualificatif « bas niveau de qualification » n'a aucun sens et ne peut que stigmatiser les sujets. Il laisse entrevoir que la personne est sans savoir-faire alors que c'est peut-être l'environnement qui est aveugle à ce qu'elle sait faire. Pour appréhender la réalité de ces savoirs qui, pour la plupart, sont des savoirs d'expérience, l'acteur social accompagnant le processus d'insertion doit se décentrer de ses modèles et multiplier les espaces où la personne va pouvoir actualiser ses compétences et surtout faire droit de nouveau à son imaginaire. La difficulté aujourd'hui est la culture ambiante de rentabilité et de productivité qui fait penser à l'acteur social qu'il n'a pas le temps de faire ces explorations. Ce faisant, il dénie à la personne sa place de sujet acteur de son parcours et par voie de conséquence devient lui -même objet du système. En se centrant sur la personne en insertion, l'acteur social utilise le dispositif pour lequel il travaille pour répondre aux besoins réels des personnes en insertion. Cette utilisation du dispositif l'invite à innover et créer. Ce faisant, il se soustrait à sa propre réification par le système. C'est au prix de cette résistance qu'il peut aider l'autre à rester acteur de son histoire. Développer une politique du sujet dans les pratiques de l'insertion est un contrepoint indispensable à l'imposition du chiffre comme seule mesure de l'action sociale. Mais cette approche du sujet doit aussi s'étayer sur une approche sociétale de l'insertion par un travail avec les entreprises en amont même de toute problématique individuelle d'insertion professionnelle. Si les entreprises n'ont pas vocation à faire du social, elles ont aussi intérêt à ne pas passer à côté de compétences réelles de sujet, même si ces dernières ne sont pas labellisées par un diplôme, mais seulement par un savoir d'expérience. Amener l'entreprise à considérer autrement les personnes constitue l'approche sociétale de l'insertion professionnelle. Autrement dit le travail d'accompagnement à l'insertion sociale et professionnelle de personnes en situation de fragilisation ne peut se définir de manière univoque et linéaire. En effet, même si l'accompagnant travaille avec la personne sur une tâche précise, celle -ci est toujours située dans un processus complexe qui nécessite partenariat, aller et retour sujet-environnement sociétal . | Interrogeant de manière critique la notion de « bas niveau de qualification », nous identifierons sur quelle « mesure » de l'intelligence et de la compétence elle est construite et à quelles contraintes économiques et technologiques elle répond dans un contexte de productivité et de rentabilité mondialisé. Quels rôles peuvent avoir les professionnels de l'insertion, de quels moyens disposent-ils pour faire reconnaître les compétences liées aux expériences et aux « valeurs du sujet » chez ces publics que les effets de système dans un contexte de mondialisation tendent à précariser et à exclure. | psychologie_12-0370765_tei_913.xml |
termith-753-psychologie | Notre recherche s'inscrit dans le cadre général de l'évaluation qualitative des dispositifs d'aide à la recherche d'emploi. Nous cherchons en particulier à mettre en évidence les déterminants et les effets sociocognitifs des activités conduites au sein de ces dispositifs. Pour la présente étude, nous nous intéressons spécifiquement aux relations entre des dimensions de la représentation de soi, des variables de buts et des variables de satisfaction à l'égard d'un dispositif d'accompagnement vers l'emploi. Notre objectif est triple : tester l'application de la théorie sociocognitive de la carrière de Lent, Brown et Hackett (1994) aux problématiques de recherche d'emploi, préparer un protocole de recherche évaluative longitudinale, montrer que la satisfaction à l'égard d'un dispositif d'accompagnement ne peut se comprendre qu'en étant mise en relation avec des variables de représentation dont elle dépend et qu'elle peut en retour déterminer. Divers travaux se sont intéressés aux processus d'autorégulation rendant compte des conduites de recherche d'emploi. Par exemple, Wanberg, Kanfer et Rotundo (1999) étudient l'effet des dimensions suivantes : la régulation motivationnelle (se donner des buts, faire face aux contraintes de l'environnement, persister dans le temps), le contrôle des émotions (dépasser l'anxiété de la situation) et la capacité perçue à conduire des actions de recherche d'emploi. Ils montrent que ces dimensions favorisent l'intensité des actions de recherche d'emploi, intensité qui diminue le délai d'obtention d'un emploi. Après quelques mois de chômage cependant, seule la régulation motivationnelle conserve son effet. Pour Kanfer, Wanberg et Kantrowitz (2001), les conduites de recherche d'emploi nécessitent une « conceptualisation motivationnelle et autorégulationnelle » mettant l'accent sur le rôle des attentes (contrôle des résultats), des sentiments d'efficacité personnelle, des motivations (valeur des buts) et des supports sociaux. La théorie sociocognitive de la carrière (TSCC) de Lent et al. (1994; Lent, 2008) s'inscrit dans cette perspective de régulation des conduites, en application des recherches de Bandura (1999). Celui -ci postule une causalité réciproque entre le sujet, ses conduites et l'environnement. Le sujet y est conçu, autour de la notion d' « agentivité », comme cherchant à mettre en œuvre des conduites pro-actives (orientées vers un but), qu'il régule en fonction de contraintes et de ressources externes et internes ainsi que des résultats obtenus. Ces derniers sont eux -mêmes évalués en fonction des représentations de soi, de l'environnement et de l'interaction des deux. Ces représentations, construites au travers de feed-back récurrents issus du résultat des actions et de l'environnement social, constituent des cognitions déterminant en retour l'orientation des actions (leurs buts), le choix des actions spécifiques mises en œuvre et l'intensité avec laquelle elles sont réalisées. Quoique la TSCC n'ait pas été appliquée au domaine des actions de transition du chômage vers le ré-emploi, elle nous paraît suffisamment heuristique pour que nous la prenions comme cadre de référence. Pour Lent, Brown et Hackett (2000; Lent & Brown, 2006a), quatre types de cognitions jouent un rôle dans l'autorégulation des conduites : les sentiments d'efficacité personnelle, les attentes de résultats, les obstacles perçus et les buts. Les sentiments d'efficacité personnelle (SEP) constituent une variable de contrôle des actions et sont définis comme la croyance dans la capacité à mettre en œuvre les conduites nécessaires à l'atteinte d'un but. Le SEP se distingue de l'estime de soi renvoyant à la valeur globale que le sujet s'attribue. Deux niveaux de SEP sont envisagés (Betz, 2000; Lent & Brown, 2006a). Le niveau des processus (process efficacy) renvoie à des tâches génériques : par exemple, celles d'accession à un métier ou de gestion de la carrière; le SEP traduit ici « l'agentivité personnelle » : sentiment de contrôle global et de développement personnel dans un domaine considéré (Betz, 2000). Le second niveau concerne les tâches spécifiques à l'intérieur de ce domaine. C'est ainsi que Solberg et al. (1994; Solberg, 1998) ont construit une Échelle d'efficacité relative à la recherche d'une orientation professionnelle (Career Search Efficacy Scale) qui donne lieu à un score global (tâche générique) et à quatre scores renvoyant à des tâches spécifiques : planifier la carrière et chercher des opportunités d'emploi, communiquer dans un entretien, utiliser ses réseaux de relation et explorer ses valeurs, intérêts et capacités. La TSCC de Lent et al. (1994) postule que le sentiment d'efficacité détermine les attentes de résultats, les intérêts professionnels, les choix et les buts, et les comportements découlant de ces buts. Ainsi, Solberg, Good, Fisher, Brown et Nord (1995) montrent que le score global de leur échelle est positivement corrélé avec la clarté des intérêts et des buts et le nombre de démarches d'orientation, et négativement avec le besoin perçu d'informations. Betz et Voyten (1997) observent qu'un SEP faible relatif aux actions préparatoires à des décisions de carrière entraîne une plus grande indécision de choix. Brown, Cober, Kane, Levy et Shalhoop (2006) observent une corrélation positive entre un SEP relatif à la recherche d'emploi et le nombre d'entretiens et d'offres emplois obtenus par des étudiants après la fin de leurs études; mais ils n'observent pas de relation directe entre le SEP et l'intensité des comportements de recherche d'emploi. Saks (2006) confirme ces résultats et montre aussi que des étudiants ayant un SEP élevé font un choix plus sélectif parmi les emplois qu'ils trouvent. Enfin, Gore et Leuwerke (2000) mettent en évidence un effet du SEP et des attentes de résultats relatifs à l'exercice de 84 métiers sur les préférences exprimées par des étudiants à l'égard de ces métiers. Cet effet du SEP et des attentes sur les préférences est supérieur à celui des intérêts professionnels. Les attentes de résultats (outcomes expectancy), distincts des résultats souhaités, portent sur le contrôle des résultats; il s'agit de la croyance dans le fait qu'une action ou un ensemble d'actions coordonnées produiront tels bénéfices (ou désavantages) matériels, psychologiques, sociaux, symboliques, etc. De fait, ces bénéfices sont souvent opérationnalisés dans les recherches en termes de valeurs de travail (Lent & Brown, 2006a). Les attentes de résultats sont considérées dans la TSCC comme influencées par le SEP; elles exercent par ailleurs un effet analogue au SEP sur les autres dimensions prises en compte. Ainsi, Vieira et Coimbra (2008) montrent chez des élèves-ingénieurs un effet d'un SEP à l'égard de l'adaptation au travail et d'un SEP relatif à la recherche d'emploi sur les attentes relatives aux résultats d'activités de recherche d'emploi; en outre, un niveau plus élevé des attentes et du premier SEP s'associe à des intentions plus fortes d'implication future dans le travail et l'emploi. Betz et Voyten (1997) montrent quant à eux chez des étudiants que les attentes de résultats d'un futur emploi influencent l'intensité des comportements d'exploration des métiers. Les buts sont définis comme l'intention de s'engager dans une activité particulière ou d'obtenir un résultat particulier. Ils « constituent une source de motivation du fait de la satisfaction personnelle retirée de leur réalisation et de l'accomplissement de comportements en accord avec soi -même » (Lent et al., 1994, p.85). La TSCC distingue deux niveaux de buts : les objectifs, plans, aspirations de carrière qui procèdent des intérêts et les actions particulières choisies pour atteindre les précédents. Les obstacles, intégrés plus récemment dans la TSCC (Lent & Brown, 2006a), sont définis comme « les événements ou les conditions personnels ou contextuels rendant difficile la progression de carrière » (Lent et al., 2000; Swanson & Woitke, 1997). Ils exercent un effet via un processus d'attribution causale et la perception de contrôle (coping efficacy) qui en résulte (Albert & Luzzo, 1999; Lent et al., 2003; Luzzo & McWhirter, 2001). On distingue les obstacles distaux déterminant les choix et les objectifs de carrière, des obstacles proximaux ou contextuels qui entravent les actions immédiates ou leur réussite. Lent et al. (2000) les considèrent comme des « attentes de résultats » centrées sur les processus d'action (process expectations). De nombreux obstacles ont été considérés (Lent et al., 2002; Luzzo & McWhirter, 2001; McWhirter, Torres & Rasheed, 1998; Swanson, Daniels & Tokar, 1996; Wanberg et al., 1999) que nous classons pour simplifier dans trois domaines : le marché de l'emploi, la vie personnelle et familiale et l'environnement social (par exemple, les représentations sociales des métiers en lien avec le genre). Dans la TSCC, les obstacles déterminent les buts (par exemple, une orientation professionnelle plus accessible est préférée à une orientation plus conforme aux intérêts) et le choix des actions pour atteindre les buts; ils modèrent l'effet des intérêts sur les buts et celui de ces derniers sur les actions. Leur relation avec le SEP ou les attentes de résultats est à approfondir : Luzzo (1996) n'en trouve pas, tandis que Swanson et Woitke (1997) font l'hypothèse d'une détermination du SEP par les obstacles et d'un effet modérateur de ceux -ci sur les effets des SEP et des attentes. Lent et al. (2003) observent chez des élèves-ingénieurs un effet des obstacles sur les buts et les actions mais entièrement médiatisé par un SEP relatif aux études (ce SEP inclut une mesure de la capacité perçue à faire face aux obstacles rencontrés pendant les études : coping efficacy). Lindley (2005), de son côté, met en évidence chez des étudiants une corrélation négative entre les attentes de résultats positifs et les obstacles perçus. Les obstacles ont beaucoup été étudiés en lien avec les choix de carrière, tout particulièrement en fonction des caractéristiques ethniques ou de genre (Luzzo & McWhirter, 2001; McWhirter, 1997). Par contre, ils ont très peu été pris en compte dans les études sur la recherche d'emploi; Wanberg et al. (1999) font à ce sujet exception mais n'observent aucun effet. Le rôle des obstacles dans les actions de recherche d'emploi reste donc encore à approfondir. Les dimensions de la TSCC tirent leur pertinence de leur grande spécificité, qui permet d'envisager la dynamique d'évolution de ces variables en fonction des expériences vécues ou observées et de la réflexivité que le sujet opère sur ses actions en amont, au cours ou en aval de leur réalisation (Bandura, 1999). Ainsi, sort-on de l'écueil personnologique consistant à réduire la compréhension des transactions individu/ environnement à des caractéristiques générales et stables de personnalité : pour Betz et Hackett (2006), les SEP ne sont pas des « concepts-traits ». Ceci ne signifie pas une absence d'effet des traits de personnalité, mais une prise en compte de la médiation de cet effet par des dimensions plus sensibles au contexte (Brown et al., 2006; Lent & Brown, 2006b; Nauta, 2004). Cette spécificité oblige à adapter les variables ou à en créer de nouvelles, dès lors que l'on s'intéresse à un domaine non encore étudié (Betz & Hackett, 2006). La TSCC formalise les processus de l'orientation professionnelle selon plusieurs modèles (Brown & Lent, 1996; Lent, 2008; Lent & Brown, 1996, 2006b; Lent et al., 1994). Dans le modèle de la formation des intérêts professionnels, ceux -ci évoluent en fonction des SEP et des attentes; l'implication dans les actions dépend des intérêts, de la capacité perçue à les réaliser (SEP) et des résultats qu'on en attend. Dans le modèle des choix d'orientation professionnelle, le choix des buts et des actions est influencé par les SEP, les attentes, les intérêts et les obstacles perçus; en conséquence, ce choix ne se conforme pas toujours aux intérêts principaux. Il en résulte une variation, à capacité égale, du niveau professionnel visé et donc atteint. Le modèle de la réalisation de la tâche ou de la performance prévoit un effet du SEP et des attentes sur le niveau de performance visé et le niveau des résultats atteints. Dans ces trois modèles, les résultats obtenus deviennent un acquis d'expérience (positif ou négatif) constituant une cognition qui exerce en retour une influence sur le sentiment d'efficacité personnel et les attentes. Enfin, le modèle de la satisfaction de l'activité (Lent & Brown, 2006b; Lent, Singley, Sheu, Schmidt & Schmidt, 2007) postule, outre un effet direct du SEP, des attentes, des obstacles et des ressources contextuelles sur la satisfaction, l'existence d'une médiation de ces effets par les progrès perçus au cours de l'activité mise en œuvre pour atteindre les buts. Dans la lignée de ces travaux, et nous inspirant du modèle de la satisfaction évoqué ci-dessus, notre objectif est d'étudier les déterminants des progrès perçus et de la satisfaction éprouvée par des sujets participant à un dispositif d'aide au retour à l'emploi. Cette attention portée à l'évaluation de résultats intermédiaires d'actions en cours de réalisation nous permet de mettre en évidence certains aspects des processus d'autorégulation décrits par Bandura (1991, 1999) tels qu'ils se déploient au cours d'une situation de « transition aidée ». Nous nous proposons d'étudier les relations entre trois ensembles ordonnés de variables, chaque ensemble exerçant un effet sur les suivants, conformément au modèle de la TSCC (figure 1). Ces ensembles sont : 1) SEP (envisagés à deux niveaux global et spécifique), attentes de résultats et obstacles perçus, 2) variable de but (intentions d'actions), 3) variables d'évaluation des activités en termes de progrès perçus et de satisfaction. On considère qu' à l'intérieur des ensembles 1 et 3 les premières variables citées influencent les suivantes (à l'exception des obstacles aux relations plus indéterminées), conformément au modèle de la TSCC. Un questionnaire a été proposé à 165 personnes (98 femmes, 67 hommes) de 21 à 60 ans (moyenne : 41 ans, médiane : 42 ans), entrées dans un dispositif d'accompagnement vers l'emploi depuis 1 à 12 mois (moyenne : 5,7mois, médiane : 6 mois) juste après la perte de leur emploi pour cause de licenciement économique. Ce dispositif se structure autour de deux types principaux d'activités : des entretiens hebdomadaires d'orientation, de soutien et de suivi de la recherche d'un emploi et des ateliers collectifs « techniques » : repérage de compétences, rédaction de CV, connaissance du bassin d'emploi, préparation d'entretiens de candidature, etc. Le questionnaire se compose, outre de descripteurs des activités du dispositif, de 85 items portant sur les représentations des personnes relatives à elles -mêmes, leur environnement, leurs objectifs ou les activités du dispositif. Les items ont été élaborés à partir d'une analyse de contenu de 16 entretiens semi-directifs de pré-enquête; l'analyse a consisté à repérer empiriquement quels contenus les personnes évoquaient pour s'exprimer au sujet de thèmes inducteurs qui leur étaient donnés; ces thèmes correspondaient au découpage des variables que nous présentons infra. Dans le questionnaire, chaque groupe d'items (correspondant à chaque variable) est introduit par une question ou une affirmation appelant un jugement de difficulté, de probabilité, d'accord ou d'importance exprimé sur une échelle de Likert en 6 points (exemple sur l'échelle d'attentes de résultats : consigne : « Je pense trouver un emploi me permettant de. .. »; item : T ravailler à mon niveau de compétence; réponses : 1. Pas du tout probable, 2. Très peu probable, 3. Peu probable, 4. Plutôt probable, 5. Bien probable, 6. Tout à fait probable). Le questionnaire a été envoyé par la poste ou remis en main propre aux personnes qui l'ont rempli de façon anonyme chez elles ou sur place (en passation individuelle). La durée de passation varie entre dix et trente minutes. – Variables de représentation de soi et de l'environnement (voir liste des items au tableau 3) Sentiment d'efficacité personnelle à l'égard de la carrière. Introduite par la phrase : « En général, dans ma vie professionnelle, c'est pour moi difficile ou au contraire facile de. .. », cette échelle se compose de 7items. L'alpha de Cronbach de cette variable et des suivantes est fourni dans le tableau 1. Sentiment d'efficacité personnelle à l'égard de la recherche d'emploi. 6items composent cette échelle et sont introduits par la phrase : « Actuellement, j'arrive difficilement ou au contraire facilement à. .. ». Ces deux échelles rejoignent sous certains aspects l'échelle de Solberg et al. (1994) que nous n'avons pas utilisée car elle est beaucoup plus longue (35items), s'adresse à toute personne active (avec ou sans emploi) en situation de transition et se focalise sur la recherche d'une orientation de carrière. Notre première échelle est de ce point de vue plus générale (gestion de la carrière) et notre seconde échelle est plus spécifique (recherche d'emploi par des personnes sans travail). Attentes de résultats dans un futur emploi. Composée de 8 items, cette échelle est introduite par la phrase : « Je pense trouver un emploi me permettant de. .. ». Obstacles perçus à l'obtention d'un emploi. 7 items, introduits par la phrase : « Je considère que c'est un obstacle pour mon obtention d'un emploi. .. », composent cette échelle. Ces obstacles sont centrés sur le positionnement par rapport au marché de l'emploi (sont par exemple absents les contraintes ou les choix familiaux) afin que leur lien soit plus étroit avec les activités du dispositif, puisque notre but est d'étudier la satisfaction à l'égard de ces activités. – Variable de but Intentions d'actions. Introduites par la phrase : « En venant dans le dispositif, j'avais pour but de. .. », elles portent sur 9 actions de préparation ou d'accompagnement des démarches de recherche d'emploi et de candidature (Faire le point sur ma vie professionnelle, Découvrir de nouveaux emplois, Apprendre des techniques de recherche d'emploi, Trouver le soutien d'un professionnel. ..). Une analyse en composantes principales avec rotation varimax (issue de deux facteurs ayant une valeur propre supérieure à 1) a permis d'isoler deux facteurs pour cette variable (la contribution des items à leur axe est comprise entre .55 et .84 et est inférieure à .38 sur l'autre axe) : « exploration de nouvelles pistes d'emploi » (4items, 31 % de la variance) et « aide à la transition professionnelle » (4items, 26 % de la variance). – Variables d'évaluation des activités Progrès perçus. Cette échelle, introduite par la phrase : « Depuis mon entrée dans le dispositif. .. », se compose de 15 items formulés en termes d'amélioration. Une analyse en composantes principales avec rotation varimax a permis d'isoler deux facteurs identifiables par 11 items (la contribution des items à leur axe est comprise entre .56 et .86 et est inférieure à .37 sur l'autre axe). Le premier facteur (7items, 38 % de la variance) porte sur l'amélioration de la connaissance de soi et de la confiance en soi (relatives aux aptitudes, aux compétences, aux intérêts, aux points forts et limites, à la projection dans l'avenir). Le second (4 items, 22 % de la variance) porte sur l'amélioration de la capacité à rechercher un emploi (dépassement du choc du licenciement, connaissance du bassin d'emploi, recherche des offres, communication et présentation de soi). Satisfaction à l'égard de l'accompagnement reçu. L'échelle est introduite par la question « Diriez -vous : “Jusqu' à présent, j'ai été très peu, assez, totalement. .. satisfait(e) par. ..” ? ». Les items, au nombre de 7, sont par exemple : « Les conseils que j'ai reçus pour construire ou confirmer mon projet » ou « Les incitations à rester mobilisé(e) ». Satisfaction à l'égard des ateliers collectifs. 5 items composent cette échelle; ils sont du type : « En général, les ateliers que j'ai suivis m'ont été utiles pour mes démarches » ou « J'ai pris de l'intérêt à la plupart des ateliers que j'ai suivis ». Le tableau 1 fournit les caractéristiques descriptives et les corrélations des différentes échelles de mesure. – Variables de contrôle Ont été introduits comme variables de contrôle dans les analyses le sexe, l' âge et la durée de l'accompagnement (entre la date d'entrée dans le dispositif et la date de l'enquête). Après analyse de l'évolution mois après mois des scores aux échelles de mesure, une variable de durée à 5modalités a été créée : 1-2 mois, 3-5 mois, 6-7 mois, 8-9 mois et 10-12 mois. Cette variable est aussi utilisée comme critère pour l'étude des effets globaux du dispositif. Après avoir observé le rôle du sexe et de l' âge, nous suivrons le sens des relations postulées dans le modèle présenté à la figure 1. Ainsi, nous étudierons successivement les relations entre les variables de représentation de soi et de l'environnement, les déterminants et les effets des buts, les effets conjoints des différentes variables précédentes sur les progrès perçus et la satisfaction. Les résultats seront complétés par l'analyse des effets de la durée de l'accompagnement sur l'évolution des variables. Selon l'objectif de l'analyse et la nature des variables, une analyse en composantes principales, une ANOVA ou une régression multiple hiérarchique ont été effectuées. Pour les ANOVA, les comparaisons partielles des modalités prises deux à deux de la variable indépendante sont réalisées avec le test de comparaison multiple de Bonferroni qui tient compte du taux d'erreur global de la totalité des modalités. Dans les régressions multiples, les variables ont été introduites par blocs successifs dans l'ordre inverse des relations postulées par le modèle, de façon à privilégier les effets des variables les plus proches de la variable prédite et à étudier leur éventuel rôle de médiation des variables moins proches; la méthode d'introduction « pas à pas » a été choisie de façon à ne tenir compte que des variables apportant une contribution significative à l'équation de régression lors de leur introduction. Contrairement aux résultats les plus fréquents, le sexe n'exerce quasiment pas d'effet sur les SEP, les attentes de résultats ou les obstacles (tableau 2). On observe des intentions d'actions plus importantes chez les femmes, notamment celles concernant l'aide à la transition. L' âge, décomposé en quatre classes d'effectifs à peu près égaux : 21-29ans, 30-39 ans, 40-49 ans et 50-60 ans, exerce un effet sur les représentations de soi et de l'environnement et les buts (tableau 2). Les comparaisons partielles montrent que les plus âgés sont plus pessimistes à l'égard des caractéristiques de leur futur emploi, perçoivent plus d'obstacles à leur obtention d'un emploi et ont des intentions d'actions d'une moindre intensité. Ces quatre variables sont toutes corrélées entre elles (tableau 1). Une analyse en composantes principales avec rotation varimax de l'ensemble des items concernés fait apparaître quatre facteurs orthogonaux expliquant 52 % de la variance totale (tableau 3). Nous disposons donc bien de quatre dimensions distinctes. Les attentes de résultats dans un futur emploi sont expliquées à 30 % (régression multiple du tableau 4) non seulement par le SEP à l'égard de la recherche d'emploi mais aussi par celui à l'égard de la carrière (qui apporte une contribution significative après contrôle des effets du SEP_recherche d'emploi). L' âge apporte une légère contribution significative à .03 (les attentes de résultats diminuent avec l' âge) mais cet effet est médiatisé par les SEP puisqu'il disparaît après leur introduction. Les obstacles étudiés sont des obstacles proximaux perçus par les sujets dans leurs conduites actuelles de recherches d'emploi. Leur corrélation (tableau 1) avec le SEP à l'égard de la carrière, lequel est construit sur la base de l'expérience antérieure, peut s'expliquer comme une détermination des obstacles par ce SEP. Les corrélations avec le SEP à l'égard de la recherche d'emploi et les attentes de résultats (tableau 1) invitent à se demander si les obstacles déterminent (en tant que réalité perçue), ou sont déterminés par (en tant que représentation individuelle construite) ces deux variables. Dans des modèles de régression prédisant tour à tour le SEP_recherche d'emploi et les attentes de résultats (tableau 4 pour cette seconde variable), les obstacles n'apportent qu'une contribution tendancielle non significative dès lors que l' âge est contrôlé. Dans un modèle où les obstacles sont la variable prédite (tableau 4), 13 % de leur variation est expliquée par les attentes de résultats et l' âge (les obstacles diminuent avec les attentes et augmentent avec l' âge). L'effet des SEP est médiatisé par les attentes de résultats puisqu'une fois contrôlé l'effet de ces derniers, ils n'apportent pas de contribution supplémentaire significative. Ainsi, la perception d'obstacles prend son origine ailleurs que dans les sentiments d'efficacité (ce qui est cohérent avec le fort ancrage environnemental de cette dimension), mais elle est légèrement associée aux attentes de résultats, ce qui va dans le sens de l'hypothèse de Lent considérant les obstacles comme des attentes de processus. L'observation du tableau 1 montre que les intentions d'actions (prises globalement ou envisagées selon leurs deux composantes) ne sont pas corrélées avec les SEP, les attentes de résultats ou les obstacles. Ce résultat inattendu peut s'expliquer par le fait que ces dernières variables portent sur la gestion de la vie de travail (SEP à l'égard de la carrière) ou sur la recherche d'emploi (SEP_recherche d'emploi, attentes de résultats et obstacles), tandis que les intentions d'actions portent principalement sur les activités menées dans le dispositif pour préparer la recherche d'emploi, et non sur les démarches de recherche proprement dites. Compte tenu de cette absence de liens, il n'y a pas lieu de procéder à une analyse de régression des intentions sur les déterminants sociocognitifs. Le tableau 5 fournit les équations de régression prédisant les progrès perçus et la satisfaction à l'égard des activités. Rappelons que, hormis les variables d'intentions d'action, toutes les autres variables sont corrélées entre elles (tableau 1). Il s'agit donc d'étudier si ces corrélations correspondent à des effets directs ou médiatisés. Dans ce but, les variables sont introduites dans l'ordre de leur proximité avec la variable prédite. Pour simplifier la présentation des données, nous avons retiré de l'analyse les sous-échelles composant les intentions d'actions et les progrès perçus, pour ne retenir que le score global de ces deux variables. La variation des progrès perçus est expliquée à 40 % par les intentions d'action, les obstacles et les attentes de résultats (les β sont respectivement de .27, - .25 et .28) et, dans une moindre mesure, par le sentiment d'efficacité à l'égard de la recherche d'emploi et la durée de l'accompagnement (β à .17 et .12 respectivement). Le SEP à l'égard de la carrière n'apporte pas de contribution à l'équation : son effet est donc médiatisé par les autres variables de représentation de soi et de l'environnement. Se confirme ainsi le lien étroit existant entre but de l'action et résultat (au moins perçu) de cette action. Quant aux autres variables, il est difficile d'interpréter l'importance des unes et le rôle faible ou nul des autres en l'absence de données longitudinales fournissant un état initial de ces variables, au moment de l'arrivée dans le dispositif. La satisfaction à l'égard de l'accompagnement est expliquée à 26 % par les progrès perçus (β = .32) et les attentes de résultats (β = .30), lesquelles médiatisent ainsi les effets des SEP. Cet effet direct des attentes signifie qu'un des fondements du dispositif : l'accompagnement renforcé, est mieux vécu par les sujets les plus optimistes à l'égard de leur futur emploi. On notera que les intentions d'actions ont leurs effets médiatisés par les progrès perçus. L'intérêt éprouvé ou l'utilité perçue relatifs aux ateliers collectifs sont expliqués à 32 % par les progrès perçus (β = .47) et les intentions d'actions (β = .24). La très forte contribution des progrès perçus peut s'expliquer par le caractère technique et thématique des ateliers permettant plus aisément d'en identifier les apports et d'associer ceux -ci aux acquis personnels. Une synthèse du modèle général obtenu est donnée à la figure 2. En considérant des groupes de sujets ayant passé un temps variable dans le dispositif, nous pouvons mettre en évidence de premières indications relatives aux effets du dispositif global sur les sentiments d'efficacité, les attentes, les obstacles, les progrès perçus et la satisfaction. La durée n'influence pas la satisfaction à l'égard de l'accompagnement et des ateliers collectifs (tableau 6). On observe par contre une augmentation continue des progrès perçus jusqu' à 6-7 mois (le test de Bonferroni de la comparaison des tranches 1-2 mois et 6-7 mois est significatif), avec une légère décroissance ensuite, néanmoins non significative : le dispositif pris globalement génère ainsi des acquis subjectifs relatifs aux conduites de transition professionnelle. Cette augmentation s'explique surtout par l'amélioration de la connaissance de soi et de la confiance en soi, les progrès dans la capacité à rechercher un emploi ne montrant pas, pris isolément, de différence significative au cours du temps. La durée de l'accompagnement n'a qu'un effet tendanciel (au seuil de .06) sur le sentiment d'efficacité relatif à la recherche d'emploi, selon la même configuration que le SEP_Carrière. L'effet significatif observé sur le sentiment d'efficacité à l'égard de la carrière s'explique principalement par une diminution, après 2 mois, du score à cette variable (les comparaisons partielles des durées prises deux à deux montrent un effet tendanciel, cependant non significatif). Ainsi, les premières semaines de confrontation à la situation de recherche d'emploi altèrent la capacité perçue à conduire sa vie professionnelle. Cette diminution est suivie à 6-7 mois d'un retour au score initial, lequel diminue à nouveau après 10 mois. Les obstacles perçus constituent la dernière variable affectée significativement par la durée de l'accompagnement. On observe une diminution progressive jusqu' à 6-7 mois (elle est significative au test de Bonferroni sur la comparaison partielle 3-5 mois/6-7 mois), suivie d'une augmentation qui n'atteint cependant pas le taux initial. Ainsi, si le dispositif permet une diminution de la perception d'obstacles à l'emploi, l'allongement de la période de recherche d'emploi, passée un seuil, a tendance à réduire cet effet. Les résultats observés confirment nombre d'aspects du modèle sociocognitif de Lent et al. (1994) appliqué aux processus générant la satisfaction à l'égard d'activités en cours de réalisation. Ces résultats sont issus d'une application nouvelle de la théorie, puisque celle -ci a essentiellement porté sur la construction et la réalisation de projets de carrière et non sur la conduite d'actions de résolution de problèmes, en l'occurrence la perte d'un emploi. Notons en outre que les effets observés ont été mis en évidence dans une situation (un dispositif d'accompagnement) qui, pour être choisie et contractualisée, n'en est pas moins soumise à un contrôle externe élevé tendant à standardiser l'activité, ce qui n'a pas empêché l'apparition de processus d'autorégulation différenciant les sujets. Nous avons en particulier retrouvé un effet du sentiment d'efficacité personnelle sur les attentes de résultats et un effet de ces dernières sur les progrès perçus. Dans ce cadre a été mis en évidence le rôle distinct de deux types de SEP, l'un centré sur des processus généraux de conduite et d'adaptation de la carrière, l'autre, plus spécifique, centré sur les actions immédiates concernées par la situation considérée. On a observé un effet faible du SEP_recherche d'emploi sur les progrès perçus. Par contre, les obstacles perçus centrés sur les caractéristiques du marché en lien avec des caractéristiques professionnelles ou personnelles sont apparus étroitement reliés aux progrès perçus. Ainsi, la perception subjective de progrès au cours du dispositif, dans l'état actuel de nos données, apparaît peu liée à la représentation des actions (en l'occurrence, le sentiment de pouvoir mettre en œuvre efficacement les actions de recherche d'emploi et de gestion de la transition). Au contraire, la perception de progrès s'associe à la représentation de données externes et/ou factuelles : d'une part, la représentation des caractéristiques des emplois susceptibles d' être obtenus (variable attentes de résultats), d'autre part, la représentation des caractéristiques du marché et de soi susceptibles de gêner, voire d'empêcher l'obtention d'un emploi. Par ailleurs, les intentions d'actions (centrées ici sur les activités conduites au sein du dispositif : activités d'orientation, de préparation à la recherche d'emploi, d'échange avec les conseillers. ..) se sont avérées de bons prédicteurs des progrès perçus, conformément au modèle. Mais elles sont apparues indépendantes des SEP, des attentes et des obstacles. Il y aurait lieu d'enrichir ces variables en mettant l'accent sur les buts quantitatifs et qualitatifs relatifs aux différentes actions conduites par les personnes dans leur environnement (consultation des offres d'emploi, visite d'entreprises, actes de candidatures). En particulier, un accent pourrait être mis sur les critères de sélection que les personnes se donnent pour saisir ou non des opportunités d'emploi ne se conformant pas exactement à leurs souhaits initiaux. Sur un plan plus général, des objectifs de carrière (changement d'orientation, accès à un niveau supérieur, etc.) pourraient être aussi introduits comme variable de but. Du point de vue des critères d'évaluation des dispositifs, quelques enseignements peuvent être tirés, qui restent à confirmer par des données longitudinales (permettant d'observer l'évolution des variables au cours du dispositif, évolution éventuellement différente selon le niveau initial des variables) et à mettre en lien avec des indicateurs d'emploi à l'issue de l'accompagnement. On observe une amélioration de la connaissance de soi et de la confiance en soi pendant les 7 premiers mois, résultat important car ces aspects sont déterminants tant pour le bien-être des personnes dans une situation aux possibles effets délétères que pour l'efficacité de la présentation de soi lors d'entretiens de recrutement. Cette amélioration est à rapprocher de l'augmentation entre 3 et 6 mois du sentiment d'efficacité relatif à la carrière. Un autre constat est la diminution progressive des obstacles perçus jusqu' à 7 mois, mais aussi son augmentation ensuite, qui ne ramène néanmoins pas cette perception à son niveau initial. Malgré cette diminution, on n'observe pas une évolution des progrès perçus relatifs à la capacité à rechercher un emploi; de même, n'observe -t-on pas d'évolution du SEP_recherche d'emploi (mais cela peut être lié à des évolutions différentielles de ce SEP, en fonction de son niveau initial). Un dernier constat est que la satisfaction (ici d'un niveau élevé) relative aux diverses activités du dispositif ne peut être réduite à une représentation stéréotypée puisqu'elle varie en fonction de divers indicateurs, notamment des progrès perçus, et cela de façon distincte selon l'activité sur laquelle porte ce jugement de satisfaction. La satisfaction peut être un facteur de plus grande implication dans les actions de recherche d'emploi; cela reste à étudier tout comme les effets de cette implication sur la vitesse de recouvrement d'un emploi, les caractéristiques de ce dernier et la satisfaction à l'égard de cet emploi. Pour conclure, nous donnons plusieurs pistes de réflexion. 1) Compte tenu du lien entre la satisfaction à l'égard d'un dispositif d'aide à la recherche d'emploi et les progrès perçus dans les activités de transition vers le ré-emploi, il semble utile que les conseillers-accompagnants aident les personnes à prendre conscience de leurs « progrès » et à identifier sur quoi ils portent. 2) Le rôle des cognitions relatives à l'interaction perçue soi/environnement (SEP, attentes, obstacles) et le rôle des buts montrent que l'accompagnement vers l'emploi ne peut se réduire à une simple mise en concordance des compétences et capacités des personnes et des caractéristiques des emplois disponibles sur un marché; il est nécessaire de prendre en compte la dynamique des processus psychosociaux dans la mise en œuvre des actions de recherche et d'obtention d'un emploi. 3) Il apparaît que 6-7mois de recherche d'emploi constituent un seuil à partir duquel certaines cognitions deviennent moins positives après avoir suivi une évolution positive. Cela invite à une vigilance avec les personnes pour repérer ces changements de représentation. 4) Enfin, il se pourrait que le gain psychologique et psychosocial apporté par ce type de dispositif se situe plus du côté de la connaissance de soi et de la confiance en soi, que du côté de la représentation des actions mises en œuvre. Ce gain apparaît d'ailleurs plus déterminé par un optimisme à l'égard du résultat final (attentes) et des conditions externes d'accès à ce résultat (obstacles), que par une confiance dans la capacité à mettre en œuvre des actions. Si un tel constat se confirmait, cela inviterait les praticiens à porter une attention plus marquée au processus de réinsertion et de gestion de la transition, et pas seulement à la cible-emploi visée, dans l'aide qu'ils apportent aux personnes . | La théorie sociocognitive de la carrière (Lent, 2008) est utilisée pour étudier les processus d'autorégulation des conduites au sein d'un dispositif d'aide à la recherche d'emploi. 165 sujets remplissent un questionnaire portant sur leurs représentations de leurs conduites de recherche d'emploi, leurs buts et leurs satisfactions. Les résultats montrent notamment que les sentiments d'efficacité relatifs à la carrière et à la recherche d'emploi, les attentes de résultats dans un futur emploi et les obstacles perçus à l'obtention d'un emploi déterminent les progrès perçus au sein du dispositif, lesquels déterminent la satisfaction à l'égard de l'accompagnement reçu ainsi que l'utilité perçue ou l'intérêt relatifs aux ateliers collectifs proposés par le dispositif. | psychologie_10-0285255_tei_949.xml |
termith-754-psychologie | La réussite et l'échec sont, sans nul doute, les préoccupations les plus importantes de l'institution scolaire. De tous temps, ces questions ont mobilisé les enseignants et les responsables de l' Éducation nationale et ont alimenté le débat public (Monteil & Huguet, 2002). Chacun peut spontanément donner une conception du « bon élève » et du « mauvais élève », raccourcis de « élève en réussite » et de « élève en difficulté scolaire ». Cette représentation sociale ne se cantonne pas aux facilités ou aux difficultés d'apprentissage; elle fait également référence à des caractéristiques de personnalité, à des styles relationnels, à des comportements, etc. Ce sont ces représentations, et plus précisément les stéréotypes de la difficulté scolaire, que nous proposons d'étudier dans cet article. Notre objectif est de construire un outil de recueil des stéréotypes de l'élève en difficulté scolaire à l'école primaire applicable à des groupes divers. Cet outil permettra d'isoler les caractéristiques attribuées à ces élèves et d'apporter une meilleure compréhension des comportements de l'entourage à leur égard. Nous présenterons, dans un premier temps, le concept de stéréotype et ses implications sociales. Dans un deuxième temps, nous tenterons de définir la difficulté scolaire. Des recherches ayant trait à l'impact des stéréotypes en milieu scolaire seront développées dans un troisième temps. Enfin, nous exposerons la manière dont nous avons élaboré notre outil auprès de six groupes ayant des liens différents avec la difficulté scolaire : des psychologues scolaires, des étudiants, des parents d'élèves, des élèves de cycle 3, des enseignants spécialisés et des stagiaires professeurs des écoles (PE2). La discussion sera l'occasion de présenter différentes utilisations de cet outil. Le terme de stéréotype a été introduit par Lippmann (1922) pour décrire les « images dans la tête » que nous avons à propos des groupes sociaux. Selon lui, ces croyances rigides permettent aux individus de simplifier la réalité et de s'adapter à la complexité de l'environnement social. Depuis cette première définition, l'intérêt des psychologues sociaux pour le processus de stéréotypisation ne s'est jamais démenti et le concept de stéréotype s'en est trouvé de mieux en mieux connu, d'où une profusion actuelle de définitions (Yzerbyt & Schadron, 1994). Un relatif consensus semble néanmoins se dégager autour de la définition que donnent Leyens, Yzerbyt et Schadron (1994). Ceux -ci considèrent les stéréotypes comme « un ensemble de croyances partagées à propos des caractéristiques personnelles, généralement des traits de personnalité, mais aussi des comportements propres à un groupe de personnes » (p. 129). Les stéréotypes sont donc applicables aux individus, membres d'un groupe social ou perçus comme tels. Le simple fait de percevoir un individu comme membre d'une catégorie, d'un groupe, d'un ensemble social, suffit à activer automatiquement des croyances stéréotypées (Bargh, Chen & Burrows, 1996; De La Haye, 1998; Devine, 1989). Cette assignation dans un groupe est nommée « catégorisation sociale ». Elle désigne la tendance à ordonner l'environnement en termes de catégories (groupes de personnes, d'événements, etc.). Selon Tajfel (1981), la catégorisation est un « processus mettant ensemble des objets sociaux ou des événements qui sont équivalents en regard des actions individuelles, des intentions individuelles et des systèmes de croyances » (p. 254). C'est dans ce cadre qu'émergent les stéréotypes. La stéréotypisation offre ainsi aux individus non seulement un contenu évaluatif des membres d'un groupe mais également l'explication de ce contenu (Schadron, 2006). En conséquence, les stéréotypes sont appréhendés comme reflétant la nature véritable des gens comme si l'appartenance à un groupe était sous-tendue par une essence (Brewer, Hong & Li, 2004; Corneille & Leyens, 1994; Haslam, Bastian & Bissett, 2004; Haslam, Rothschild & Ernst, 2000, 2004; Rothbart & Park, 2004; Yzerbyt & Schadron, 1996). Cette « essentialisation » des catégories, et donc des différences entre les personnes et entre les groupes, a pour effet de maintenir et de justifier les inégalités intergroupes. La participation des stéréotypes dans le maintien du statu quo a été avancée par Jost et Banaji (1994) dans le cadre de la théorie de la justification du système (voir aussi Jost, Banaji & Nosek, 2004). Ces théories essentialistes peuvent, par exemple, justifier d'un point de vue naturel le fait qu'un élève soit catégorisé comme « mauvais élève ». Cette catégorisation – arbitraire – sera pourtant traitée comme une catégorie naturelle, catégorie dont les traits sont des faits établis. En conséquence, le label « élève en difficulté » va apparaître comme une catégorisation qui révèlerait la nature profonde de l'élève. Cet élève sera ainsi considéré comme possédant les caractéristiques de son groupe d'appartenance. Son statut et les comportements à son égard seront également justifiés par le stéréotype. Les stéréotypes influencent effectivement notre manière de nous comporter (voir Salès-Wuillemin, 2006), la manière dont nous interprétons les comportements d'autrui, la manière dont nous nous remémorons les agissements d'autrui ou les informations à son égard (Hamilton & Rose, 1980; Snyder & Uranowitz, 1978) ainsi que la manière dont nous agissons envers cet autrui (par exemple Word, Zanna & Cooper, 1974). Les stéréotypes concernant la difficulté scolaire devraient de manière logique influencer nos perceptions et nos comportements. Mais que signifie, pour les professionnels de l'éducation, la difficulté scolaire ? La catégorisation en « élèves en difficulté » et en « élèves en réussite » découle directement du fonctionnement du système éducatif : cette dichotomie est logique dans une institution qui classe et qui sélectionne les individus (Trottier, 1983). La catégorie « élèves en difficulté » est néanmoins une catégorie dont les limites sont mal définies et qui sont circonscrites par les normes du système éducatif. C'est en effet l'école qui désigne les élèves en réussite et les élèves en difficulté en fonction des exigences posées. De fait, les frontières de la difficulté scolaire sont dépendantes des enseignants qui l'évaluent et de leurs perceptions du « bon élève » et du « mauvais élève ». Les diverses conceptions de la difficulté scolaire ainsi que les différentes méthodologies utilisées pour sélectionner les élèves en difficulté témoignent de ce manque d'unité dans la définition. Dans un rapport au Haut Conseil de l'évaluation de l'école, Hussenet et Santana (2004) présentent plusieurs méthodes pour estimer le nombre des élèves en échec scolaire. Il peut s'agir des jeunes qui quittent l'école sans qualification ou sans diplôme, des jeunes qui sont orientés dans des structures autres que les classes de quatrième et troisième générales, ou encore des jeunes qui présentent des difficultés de lecture persistantes. Ces critères génèrent des proportions différentes de jeunes en difficulté ou en échec allant de 5 % à 20 %. Cette classification est davantage liée au secondaire, comme si la difficulté scolaire ne pouvait être quantifiée qu'après un laps de temps suffisant. Néanmoins, on ne peut occulter le fait que des élèves du primaire sont désignés – ou tout au moins considérés – comme étant en difficulté scolaire. Dès lors, la difficulté scolaire à l'école primaire peut être appréhendée à partir des réponses institutionnelles ou des besoins éducatifs particuliers. Au cours de ces trente dernières années, des structures et des dispositifs d'aide aux élèves en difficulté se sont multipliés (Hussenet & Santana, 2004). Les élèves en difficulté scolaire qui ne présentent pas de handicap sont pris en charge par le Réseau d'aide aux élèves en difficulté (RASED), réseau visant à prévenir et à réduire les difficultés rencontrées par les élèves. En cas de difficulté, le maître de la classe, les parents et/ou l'enfant peuvent adresser une demande d'aide au réseau composé d'un psychologue scolaire, d'un enseignant spécialisé chargé de l'aide à dominante rééducative, d'un enseignant spécialisé chargé de l'aide à dominante pédagogique. L'aide à dominante pédagogique, délivrée dans les écoles durant le temps scolaire, peut revêtir des formes variées : aides ponctuelles dans la classe, aides ponctuelles avec regroupement hors classes, aides continues, etc. Le concept de besoins éducatifs particuliers (BEP) peut également être utile dans la définition de la difficulté scolaire. L'analyse des BEP est réalisée à partir de l'évaluation des besoins spécifiques de l'élève, d'une réflexion sur les apports d'une intervention spécialisée et sur une logique de parcours scolaire qui s'inscrit dans un projet de vie. Trop longtemps négligé en France (Hussenet & Santana, 2004), ce concept permet pourtant d'apporter des réponses progressives. Dans ce cadre, la difficulté scolaire peut être formalisée comme un continuum allant de difficultés légères et passagères à des difficultés importantes et persistantes. Les réponses adaptées sont donc fonction des difficultés et évoluent avec la progression de l'élève. Même si l'unanimité ne se fait pas autour de la définition de la difficulté scolaire, il n'en reste pas moins que chacun possède une représentation de ces élèves. Connaître la signification accordée par des groupes divers aux « bons » et aux « mauvais » élèves est incontournable pour apprécier les incidences factuelles et sociales de cette catégorisation. L'institution scolaire n'est pas immunisée contre l'émergence des stéréotypes et leurs impacts sur les comportements. Une des recherches de psychologie sociale les plus célèbres au sein de l'éducation est certainement celle sur l'effet Pygmalion menée par Rosenthal et Jacobson (1968) sur les prophéties auto-réalisatrices. Dans cette étude, ces auteurs ont montré que les attentes des maîtres agissent de manière déterminante sur le comportement des élèves. Plus précisément, les élèves qui bénéficient d'attentes favorables font davantage de progrès intellectuels que les élèves qui n'en bénéficient pas. Les résultats obtenus par Rosenthal et Jacobson ont cependant été controversés (pour une revue, voir Jussim & Harber, 2005). Les critiques les plus récurrentes sont le test d'intelligence utilisé et son inadaptation à l' âge des élèves testés (Carlier & Gottesdiener, 1975), la faible validité écologique de l'étude (Bressoux & Pansu, 2003) et l'influence du moment de passation (Bressoux & Pansu, 2003; Raudenbush, 1984). En effet, les enseignants peuvent ne pas être également sensibles aux fausses informations délivrées par le chercheur selon qu'elles sont dispensées en début d'année (quand ils ne connaissent pas les élèves) ou en fin d'année (quand ils les connaissent). Par ailleurs, rien n'atteste de la confiance des enseignants envers le jugement du chercheur. Malgré ces critiques, la plupart des recherches confirment l'existence de ces prophéties auto-réalisatrices en milieu scolaire même si leurs effets sont souvent fragiles et réduits (Bressoux & Pansu, 2003; Jussim & Harber, 2005). Les attentes positives ou négatives ne sont pas forcément déterminées par l'appartenance sociale des élèves; les stéréotypes sociaux ne sont donc pas directement impliqués dans l'effet Pygmalion ou, en tous les cas, ils ne sont pas les seuls responsables de cet effet. Il semble cependant que les membres de groupes stigmatisés tels que les élèves en difficulté scolaire soient plus sensibles aux attentes (Croizet & Claire, 2003). Cette sensibilité serait due, non pas aux attentes plus négatives des enseignants, mais à un manque de ressources des élèves eux -mêmes pour résister à l'effet Pygmalion (Madon, Jussim & Eccles, 1997). De plus, comme le soulignent Rosenthal et Jacobson (1968), comparativement aux membres de groupes favorisés, les membres de groupes défavorisés risquent davantage d'induire des attentes défavorables et, par voie de conséquence, de restreindre les possibilités de progrès. Potvin et Rousseau (1993) ont d'ailleurs montré que les enseignants ont des attitudes moins positives envers les élèves en difficulté scolaire qu'envers les élèves « ordinaires ». De la même manière, des études ont permis de constater que des élèves présentant un retard scolaire sont, à performance effective égale, jugés plus sévèrement par les enseignants que ceux qui ne présentent pas de retard. Ces résultats ont été obtenus à la fois à l'école élémentaire (Jarlégan, 1999, cité par Bressoux & Pansu, 2003; Bressoux & Pansu, 2001, 2003) et au collège (Duru-Bellat & Mingat, 1993). D'autres recherches ont montré l'influence directe des stéréotypes sur le devenir des écoliers. Par exemple, Channouf, Mangard, Baudry et Perney (2005) se sont intéressés aux conséquences des stéréotypes liés à l'origine sociale sur les décisions d'orientation scolaire (voir aussi Duru-Bellat & Henriot-van Zanten, 1992; Mangard & Channouf, 2007; Mosconi, 2004). Ils montrent qu' à dossier égal, les élèves d'origine sociale défavorisée ont plus de probabilité d' être orientés vers une seconde professionnelle que les élèves d'origine sociale favorisée. Symétriquement, les élèves d'origine sociale défavorisée ont moins de probabilité d' être orientés vers une seconde générale que les élèves d'origine sociale favorisée. Une littérature importante a également été consacrée aux stéréotypes sexués en milieu scolaire. De manière quasi-unanime, les résultats des recherches en ce domaine indiquent que l'institution scolaire participe au maintien de ces stéréotypes (Baudoux & Noircent, 1993; Dagenais, 1996; Durand-Delvigne, 1996; Morin-Messabel, 2004; Mosconi, 2004; Solar, 1992; Zaïdman, 1996). Ils montrent en outre que, dans leurs interactions avec les élèves, les enseignants participent eux -mêmes au renforcement des stéréotypes. Enfin, certaines recherches sur la menace du stéréotype (Steele & Aronson, 1995) ou sur l'amorçage et les effets de l'accessibilité du stéréotype (voir par exemple Follenfant, Légal, Marie Dit Dinard & Meyer, 2005) ont permis de montrer que les stéréotypes ont un impact sur les performances des individus. Plus précisément, la production d'un membre de groupe stigmatisé peut être défaillante en raison de l'existence d'un stéréotype (Désert, 2003). La menace du stéréotype a été confirmée auprès de nombreux groupes et dans des domaines variés tels que le sexe et les aptitudes mathématiques (Désert & Leyens, 2002; Shih, Pitinski & Ambady, 1999; Spencer, Steele & Quinn, 1999), la nationalité et les aptitudes en mathématiques (Aronson et al., 1999; Shih et al., 1999), le sexe et la gestion des affects (Leyens, Désert, Croizet & Darcis, 2000), le niveau socio-économique et les aptitudes verbales (Croizet & Claire, 1998), la couleur de la peau et les performances athlétiques (Stone, Lynch, Sjomeling & Darley, 1999). Même si la menace du stéréotype concerne davantage les personnes les plus motivées et les plus performantes de leur groupe (Steele, 1997), n'importe quelle personne qui est la cible d'une réputation négative peut un jour ou l'autre en faire l'expérience (Désert, 2003). Autrement dit, les élèves en difficulté scolaire peuvent, eux aussi, en raison de leur insertion dans la catégorie « mauvais élèves », être sujets à la menace du stéréotype. Ces recherches montrent, sans équivoque, que les stéréotypes se manifestent dans le système éducatif et ont des conséquences sur les élèves et les enseignants. Les résultats mettent à mal la conception de l'école égalitaire pour tous. Ces axes de recherche présentent néanmoins, selon nous, deux lacunes majeures. Tout d'abord, ces travaux indiquent que l'appartenance à certains groupes sociaux peut participer à la reproduction des inégalités sociales en général et aux difficultés scolaires en particulier. En d'autres termes, ils démontrent qu' être issu(e) d'une minorité ethnique ou d'une classe sociale défavorisée par exemple prédispose à une moindre réussite scolaire en raison des stéréotypes associés à ces catégories sociales. C'est le cas dans les études démontrant l'influence des stéréotypes sur les orientations scolaires qui, on le sait, déterminent, pour une part, le devenir des individus. Néanmoins, il n'existe pas, à notre connaissance, de recherches sur l'impact des stéréotypes de la difficulté scolaire sur la difficulté scolaire elle -même. Cette problématique peut paraître surprenante mais il s'agit, en quelque sorte, d'étudier la manière dont cette catégorisation avec son corollaire inévitable, la stéréotypisation des élèves, peut aggraver les difficultés scolaires. De plus, la littérature sur les stéréotypes ne définit que très rarement le contenu des stéréotypes. En effet, de manière générale, les chercheurs activent les stéréotypes en rendant saillante la catégorie sans jamais définir précisément ce qui a été activé. La connaissance du contenu des stéréotypes est susceptible d'offrir une compréhension plus fine des comportements à l'égard des cibles stéréotypées. Par exemple, le comportement d'un enseignant peut être différent selon qu'il pense que les difficultés des élèves sont liées à un manque de travail ou à un environnement social peu propice aux apprentissages. La recherche présentée ici a pour objectif de combler ces deux lacunes. Elle vise aussi à l'élaboration d'un outil permettant de définir le contenu des stéréotypes des élèves en difficulté scolaire à l'école primaire auprès de groupes divers. Cet outil, qui pourra être utilisé dans des contextes différents, permettra de spécifier les stéréotypes. Par ailleurs, il offre des pistes de recherche sur la difficulté scolaire et sur l'impact de cette catégorisation sur les comportements scolaires. Nous avons recueilli auprès de psychologues scolaires, d'étudiants, de parents d'élèves, d'élèves, d'enseignants spécialisés et de stagiaires professeurs des écoles, les traits associés à la difficulté scolaire. Notre objectif était de construire un outil qui pourrait être employé pour identifier les stéréotypes de la difficulté scolaire auprès de groupes divers ainsi que d'avoir la possibilité d'en étudier le contenu en fonction des groupes interrogés. Les répondants ont été choisis en fonction de leurs liens avec la difficulté scolaire. Tout d'abord, nous avons ciblé des professionnels ayant un contact direct d'une proximité plus ou moins importante avec des élèves en difficulté scolaire (enseignants spécialisés, psychologues scolaires) et des professionnels qui anticipent – et souvent appréhendent – ce contact (stagiaires PE2). Il nous apparaissait également important d'interroger des parents d'élèves qui peuvent être affectés par la difficulté scolaire de leur(s) enfant(s); leur regard sur la difficulté scolaire peut également être déterminant pour les enfants. Les élèves, quant à eux, sont les premiers concernés par la difficulté scolaire : ils peuvent à la fois s'auto-stéréotyper de la sorte et/ou être en contact direct avec des élèves en difficulté. De plus, la crainte d' être catégorisé(e) comme étant en difficulté scolaire peut modifier leur regard. C'est pour toutes ces raisons que nous les avons inclus dans notre analyse. Enfin, nous souhaitions interroger des participants n'ayant pas de lien direct avec les élèves en difficulté scolaire : notre choix s'est porté sur des étudiants de première année de psychologie. Cent soixante-sept participants – vingt-quatre psychologues scolaires en formation à l'université de Lille (Nord de la France) âgés de 27 à 52 ans (M = 38 ans et 2 mois; SD = 6,2), vingt-neuf étudiants en première année de psychologie de l'université de Lille âgés de 18 à 23 ans (M = 19 ans et 5 mois; SD = 0,82), seize parents d'élèves scolarisés en cycle 3 dans le Nord de la France âgés de 34 ans à 50 ans (M = 39 ans et 2 mois, SD = 14,7), 53 élèves de CM2 âgés de 8 ans et 6 mois à 11 ans et 6 mois scolarisés dans une école du Nord de la France (M = 9 ans et 8 mois, SD = 0,35), dix-huit enseignants spécialisés en formation continue à l'IUFM de Lille âgés de 25 à 38 ans (M = 38 ans; SD = 15, 67) et vingt-sept stagiaires professeurs des écoles en formation initiale deuxième année (que nous nommerons stagiaires PE2) de l'institut universitaire de formation des maîtres de Douai (Nord de la France) âgés de 21 à 43 ans (M = 24 ans et 2 mois; SD = 16,86) – ont pris part volontairement et bénévolement à cette recherche. L'expérimentateur indiquait aux participants que, dans le cadre d'une recherche, nous avions besoin de leur opinion sur la difficulté scolaire. Chaque participant disposait d'une feuille sur laquelle il devait indiquer les mots ou les expressions qui lui venaient à l'esprit lorsqu'il pensait à un élève en difficulté scolaire en cycle 3 sans limite de temps ni de nombre de mots. L'expérimentateur insistait sur le fait qu'il n'y avait ni bonne, ni mauvaise réponse. Par ailleurs, il était vivement recommandé aux participants de répondre spontanément à cette question sans censurer leur pensée. La consigne était la même pour l'ensemble des répondants. Les conditions de passation étaient toutefois légèrement différentes en fonction des groupes. Les psychologues scolaires, les étudiants de première année de psychologie, les élèves de CM2, les enseignants spécialisés ainsi que les stagiaires PE2 ont été interrogés au début d'un cours, sur leur lieu d'apprentissage donc. Les parents, quant à eux, ont été interrogés chez eux ou dans l'école dans laquelle leur(s) enfant(s) étai(en)t scolarisé(s). Nombre de mots énoncés et consensus. Tout d'abord, le nombre moyen de mots énoncés par participant diffère d'un groupe à l'autre : F (5, 161) = 10,54; p < .001. Le nombre moyen de mots énoncés est de 8,75 pour les psychologues scolaires (SD = .51), 7,44 pour les parents (SD = .63), 6,28 pour les enseignants spécialisés (SD = .59), 6,00 pour les étudiants en psychologie (SD = .47), 5,74 pour les stagiaires PE2 (SD = .48) et 4,52 pour les élèves de CM2 (SD = .35). L'analyse des contrastes post hoc (HSD de Tukey) révèle que les psychologues scolaires énoncent statistiquement plus de mots que les enseignants spécialisés (p = .05), que les étudiants (p = .001), que les stagiaires PE2 (p < .001) et que les élèves de CM2 (p < .001). Les parents ont également rapporté plus de mots que ne l'ont fait les élèves (p < .001). Suite à cette première analyse, nous avons déterminé le nombre de mots différents énoncés dans les groupes pour décrire la difficulté scolaire. Ce nombre varie en fonction des groupes : il est de 26 pour les enseignants spécialisés, 34 pour les stagiaires PE2, 53 pour les parents, 56 pour les étudiants et les psychologues scolaires et 104 pour les élèves. Ces informations doivent néanmoins être nuancées en raison du nombre non équivalent de participants dans chaque groupe et du nombre de mots différents énoncés par les participants. Nous avons donc réalisé, pour chaque participant, le rapport entre le nombre de mots énoncés par le participant et le nombre de mots différents énoncés par son groupe d'appartenance. Il s'agit, en quelque sorte, d'une première idée de la consistance des stéréotypes, c'est-à-dire du consensus. Ce changement de référent a un triple objectif. Ce rapport permet de pondérer ces valeurs en fonction du nombre de répondants et en fonction du nombre total de mots énoncés. En effet, les stéréotypes peuvent être considérés comme moins consensuels dans le groupe si, pour chaque participant, 10 traits sont différents parmi un total de 30 traits énoncés que parmi un total de 10 traits. Ainsi, plus le rapport est faible, moins le stéréotype est consensuel. Cela permet également de réaliser une analyse de variance sur la moyenne des indices individuels pour chaque groupe. L'analyse de variance est significative, F (5, 161) = 54,25; p < .001. Le ratio moyen est de 0,24 pour les enseignants spécialisés (SD = .01), 0,17 pour les stagiaires PE2 (SD = .009), 0,16 pour les psychologues scolaires (SD = .01), 0,14 pour les parents d'élèves (SD = .012), 0,11 pour les étudiants (SD = .009), et 0,04 pour les élèves (SD = .007). L'analyse post hoc des contrastes (HSD de Tukey) indique que les élèves emploient plus de traits différents pour décrire les élèves en difficulté scolaire que les répondants des cinq autres groupes (p < .001 pour l'ensemble des contrastes). Les étudiants utilisent, eux aussi, plus de traits dans leurs descriptions que les stagiaires PE2 (p < .01) et les psychologues scolaires (p < .001). À l'autre extrême, les enseignants spécialisés emploient moins de traits différents pour décrire les élèves en difficulté scolaire que les répondants des cinq autres groupes (p < .001 pour l'ensemble des contrastes). Sélection du corpus. À partir de l'ensemble des traits énoncés, nous avons procédé à une analyse et opéré une sélection. Parmi les 255 mots différents produits, nous avons retenu les 49 qui sont cités par au moins 10 % de l'effectif d'un groupe (voir Lacassagne, Salès-Wuillemin & Castel, 2001). Les 49 traits sont rassemblés dans l'annexe A. Ils sont mutuellement exclusifs même si certains peuvent apparaître proches. Par exemple, le trait « sa famille ne l'aide pas » fait référence à l'absence d'aide de la part de l'entourage familial dans le travail ou dans la vie scolaire alors que le trait « problèmes familiaux » recouvre les problèmes relationnels dans la famille, les difficultés familiales, etc. De la même manière, « difficultés à apprendre des choses nouvelles » renvoie aux difficultés d'apprentissage d'un point de vue général et « difficultés à apprendre ses leçons », à des problèmes de mémorisation. L'obtention de ces deux traits s'est faite en deux étapes. Les traits que nous avons initialement recueillis correspondaient aux termes « problème d'apprentissage » et « difficultés de mémorisation ». Lors d'un test complémentaire réalisé auprès d'enfants de cycle 3, nous nous sommes rendu compte que ces termes leur étaient difficilement compréhensibles. Nous avons alors demandé, dans un second temps, aux participants à l'origine des traits problématiques, de les redéfinir pour les rendre accessibles à des enfants âgés de 8 ans. D'autres traits ont également fait l'objet de modifications. Il s'agit de « besoin d'une aide adaptée à ses difficultés » (initialement, « pédagogie différenciée »), « se trouve mauvais, se juge mal » (initialement, « mauvaise estime de soi »), « ne respecte pas les règles » (initialement, « difficulté d'adaptation sociale »), « difficulté à comprendre » (initialement, « difficulté de compréhension »), « trop timide » (initialement, « inhibé »), « difficulté à se faire des amis dans la classe » (initialement, « difficulté d'intégration au groupe classe »), « difficulté à s'exprimer » (initialement, « problème de langage »), « difficultés à s'adapter à des situations nouvelles » (initialement, « difficultés d'adaptation »), « problèmes dans certaines matières » (initialement, « lacune/déficit »), « incapacité à faire mieux » (initialement, « limité »). Afin de visualiser les traits spécifiques et les traits communs aux groupes interrogés, nous avons reporté dans le tableau 1, pour chaque trait et pour chaque groupe, le nombre de participants l'ayant indiqué ainsi que le pourcentage correspondant par groupe. Note. Les pourcentages supérieurs à 10 sont suivis d'un astérisque. Le tableau 1 indique que seul un trait est commun à tous les groupes, c'est-à-dire exprimé par plus de 10 % de l'effectif de chaque groupe. Il s'agit de « besoin d'aide ». D'autres sont caractéristiques de cinq, quatre, trois, deux ou un seul des groupes que nous avons interrogés. Ainsi, les traits « problèmes d'attention et de concentration » et « manque de motivation » sont, par exemple, communs aux étudiants, parents, psychologues scolaires, enseignants spécialisés et stagiaires PE2. Certains traits sont spécifiques à un groupe interrogé, c'est-à-dire qu'ils sont représentés par plus de 10 % de l'effectif dans un seul groupe. Par exemple, les parents sont les seuls, à plus de 10 %, à livrer des traits comme « regarde trop la télévision ou joue trop aux jeux vidéo », ou « n'a pas d'avenir ». Les élèves, quant à eux, définissent les élèves en difficulté scolaire comme ayant de « mauvaises notes » ou étant « nuls ». Les traits utilisés pour décrire les élèves en difficulté scolaire sont donc, pour une partie, partagés par plusieurs groupes et, pour une autre, spécifiques à un groupe en particulier. En résumé, le nombre de traits dont l'occurrence dans le groupe est supérieure à 10 % est de 21 pour les parents et les enseignants spécialisés, 16 pour les étudiants, 14 pour les psychologues scolaires, 12 pour les stagiaires PE2 et 6 pour les élèves. Ces disparités sont dues à la fois à la différence de consistance des représentations dans chacun des groupes et au nombre de participants. En effet, pour atteindre 10 % de l'effectif total, le nombre d'occurrences devait être de 2 pour le groupe des parents contre 6, pour le groupe des élèves. Il nous fallait donc vérifier que les traits donnés par les autres groupes représentent a minima les conceptions des élèves (même si elles ne dépassent pas 10 % de l'effectif pour les élèves). C'est effectivement ce que nous avons obtenu. Les élèves ont, par exemple, notifié les problèmes de comportement des élèves en difficulté (4 occurrences c'est-à-dire 7,5 % de l'effectif), les problèmes de compréhension (3 occurrences soit 6 % de l'effectif) et de lecture (5 occurrences c'est-à-dire 9 % de l'effectif). Au total, 45 % des traits livrés par au moins deux élèves sont représentés dans les traits retenus. Nous avons obtenu les mêmes résultats pour les étudiants, les psychologues scolaires et les stagiaires PE2; de nombreux traits n'atteignant pas 10 % de l'effectif sont représentés dans l'outil. Cet outil peut donc être utilisé autant pour les élèves que pour les parents ou les étudiants. L'analyse nous a permis d'isoler 49 traits en relation avec la difficulté scolaire. Ces traits pourront être utilisés dans des recherches futures afin de déterminer les stéréotypes entretenus à l'égard des élèves en difficulté scolaire. Dans un premier temps, nous exposerons quelques éléments spécifiques à notre outil. Ainsi, nous tenterons d'expliquer les différences de consensus des groupes interrogés et de dresser un portrait du contenu de ces stéréotypes. Dans un second temps, différentes méthodologies possibles dans le recueil des stéréotypes avec leurs avantages et leurs inconvénients seront développées. Tout d'abord, les résultats indiquent que la loquacité à l'égard de la difficulté scolaire est différente d'un groupe à l'autre. Ce sont les élèves qui énoncent, en moyenne, le moins de traits. Cette faible production peut être liée à la pauvreté de leur vocabulaire dans le domaine concerné, leur lexique étant encore en cours d'élaboration. Les psychologues scolaires, quant à eux, expriment, en moyenne, le plus de traits. Cette attitude peut être due à leurs fonctions et à la diversité des situations qu'ils rencontrent. En effet, ces professionnels de l'éducation sont amenés à rencontrer des élèves dont les difficultés proviennent de causes diverses (trouble de l'attention, souffrance personnelle ou familiale, dyslexie, etc.) et qui nécessitent des dispositifs très différents les uns des autres. Cette pluralité peut déterminer un éventail lexical plus important. Les psychologues scolaires se démarquent, en tant que professionnels, des stagiaires PE2 et des enseignants spécialisés. Les stagiaires PE2 n'ont pas encore été confrontés à la difficulté scolaire en tant qu'enseignants. Ils exposent donc une conception déterminée, au moins en partie, par la formation qui leur est délivrée. Cette conception est, de fait, restreinte à certaines dimensions de la difficulté scolaire ou résumée à ces aspects les plus criants : pédagogie différenciée (« besoin d'une aide adaptée à ses difficultés »), ou aides aux élèves en difficulté par exemple, autant d'éléments généraux abordés dans la formation dispensée par l'IUFM. Cette influence de la formation sur les représentations sociales a déjà été mise au jour dans une étude de Lachal et al. (2005). Par ailleurs, les psychologues scolaires réalisent un certain nombre de rapports et, contrairement aux enseignants spécialisés, sont plus enclins à exposer des cas précis. Cette pratique pourrait les amener à un éventail lexical plus vaste dans ce domaine. Comparativement aux autres participants, les parents énoncent un nombre important de traits pour décrire la difficulté scolaire. Ce résultat reflète le manque de consistance des stéréotypes dans ce groupe. Mais la loquacité ne traduit pas toujours une représentation personnelle ou une représentation éclatée des élèves en difficulté scolaire. En effet, les psychologues scolaires sont plus loquaces que les étudiants mais ont des stéréotypes plus consistants que ces derniers. Schématiquement, les analyses révèlent que les professionnels de l'éducation (enseignants spécialisés, stagiaires PE2, psychologues scolaires) ont des stéréotypes plus consistants que les « usagers » (parents, étudiants et élèves) avec une consistance plus prononcée pour les enseignants spécialisés. Le fait que les enseignants, futurs enseignants et anciens enseignants (psychologues scolaires) possèdent des stéréotypes consistants n'est pas étonnant. Étant des professionnels de la difficulté scolaire, ils ont, tout d'abord, un discours relatif à la difficulté scolaire plus normé. Le lexique est donc plus consensuel pour faciliter les échanges professionnels. Ces spécialistes ont, par ailleurs, des contacts directs avec les élèves en difficulté scolaire, ce qui n'est pas forcément le cas des étudiants ou des parents. Ce résultat est cohérent avec la littérature. Katz et Braly (1933) ont en effet montré que les étudiants avaient des stéréotypes plus consensuels lorsque des contacts directs existaient avec le groupe cible. Les élèves ont, eux aussi, des liens étroits avec la difficulté scolaire voire sont catégorisés de la sorte. Seulement, ils n'ont pas les mêmes liens avec ce concept. De plus, il est difficile pour eux de posséder un lexique dans ce domaine. Ces éléments peuvent être à l'origine du manque de consistance de leurs stéréotypes. L'analyse des descriptions fait apparaître un trait commun à l'ensemble des groupes interrogés et des traits spécifiques à certains groupes particuliers. Cet aspect rejoint la définition même de la notion de stéréotypes, c'est-à-dire des impressions généralisées à l'égard d'un groupe en fonction de contacts avec ses membres, que ces contacts soient directs ou indirects. Les stéréotypes peuvent donc être communs à plusieurs groupes et spécifiques à d'autres en fonction des relations intergroupes, des possibilités de rencontres, et ainsi de suite. Une des critiques qui pourrait être formulée à l'égard de notre outil concerne la sous-représentativité des caractéristiques livrées par les élèves ou les étudiants. Nous avons cependant vérifié que près de la moitié des traits cités par au moins deux élèves ou deux étudiants était représentée dans l'outil. Cet outil peut donc être utilisé auprès de groupes divers. Par ailleurs, rien ne prouve que les traits restent spécifiques au groupe. En effet, il est plausible que les enseignants n'aient pas osé décrire les élèves en difficulté comme nuls ou comme ayant de mauvaises notes mais s'autorisent à le faire à partir de la liste. Notre outil comporte cependant certaines limites quant à l'échantillon utilisé et à la cible du jugement (des élèves de cycle 3). Tout d'abord, notre échantillon est réduit en nombre et est issu du Nord de la France. Dès lors, on peut se demander si la localisation géographique des répondants influence le niveau de stéréotypisation et/ou le contenu des stéréotypes. La même question se pose concernant la cible du jugement : les stéréotypes de l'élève en difficulté scolaire en cycle 3 sont-ils les mêmes que ceux de l'élève en collège ou en lycée ? Il conviendrait de faire des analyses comparatives pour répondre à ces interrogations. La notion d'élève en difficulté scolaire recouvre, de manière logique, des aspects cognitifs tels que les difficultés de compréhension ou d'expression. Mais les représentations ne se limitent pas à ces difficultés. En effet, les élèves en difficulté scolaire sont également décrits dans leurs aspects personnologiques (violent(e), trop timide, etc.), affectifs (malheureux), relationnels (problèmes avec l'enseignant) et familiaux (sa famille ne l'aide pas). En d'autres termes, la catégorie « difficulté scolaire » ne se résume pas à des difficultés d'apprentissage mais active une représentation de ces élèves en termes de comportements et de milieux de vie, par exemple. D'un point de vue général, les participants manifestent la volonté d'expliquer cette difficulté à travers des attributions internes (par exemple, paresse et découragement) et/ou externes (par exemple, problèmes familiaux et différences culturelles). Les explications internes sont cependant plus fréquentes que les explications externes. En effet, l'élève en difficulté scolaire est davantage caractérisé par ses problèmes de comportements ou ses problèmes d'apprentissage que par son environnement social et scolaire. Ces différences sont néanmoins à nuancer en fonction des groupes. Les attributions externes semblent particulièrement négligées par les élèves et les enseignants spécialisés. Sur les 6 traits énoncés par plus de 10 % des élèves, 4 sont typiquement internes (paresseux, indiscipliné, nul et difficultés). Pour les enseignants spécialisés, on peut citer, à titre d'exemple, que seuls 2 d'entre eux établissent un lien entre l'environnement familial et la difficulté scolaire. À l'inverse, le nombre d'occurrences est de 12 pour les parents d'élèves, 8 pour les stagiaires PE2 et 7 pour les psychologues scolaires, toutes difficultés familiales confondues (« besoin d'aide » et « problèmes familiaux »). La difficulté scolaire est donc expliquée différemment en fonction des groupes interrogés. Les groupes se distinguent également dans le degré de stigmatisation des élèves en difficulté scolaire. Même si globalement tous les groupes attribuent des caractéristiques négatives aux élèves en difficulté, force est de constater que les traits énoncés par les élèves sont les plus extrêmes (nul ou fainéant par exemple). Ce dernier résultat ne signifie pas forcément que le comportement des élèves à l'égard d'un élève en difficulté scolaire sera forcément plus négatif de celui des autres répondants. Les adultes (psychologues scolaires, étudiants, parents, enseignants spécialisés et stagiaires PE2) sont probablement plus sensibles à des normes de désirabilité sociale. Ils posséderaient ainsi les mêmes stéréotypes ou des stéréotypes tout aussi stigmatisants que les élèves mais ne les livreraient pas. Cette interprétation est cohérente avec le mode de construction et de transmission des stéréotypes. Les stéréotypes ne sont pas innés : la socialisation est, en partie, responsable de leur développement par le biais des médias, des parents, de l'école, des pairs, etc. (Guimond & Dambrun, 2003). De plus, les liens entre comportements et attitudes sont complexes (LaPiere, 1934). Une inclination négative à l'égard d'un groupe particulier ne donne pas toujours lieu à des comportements concordants en raison de la pression sociale, de l'accessibilité du comportement, etc. (pour une revue des variables modératrices et médiatrices, voir Armitage & Christian, 2003). Quoi qu'il en soit, connaître le contenu des stéréotypes peut offrir une grille d'interprétation des comportements effectifs à l'égard de l'élève en difficulté scolaire au sein du système scolaire. Nous n'irons pas plus avant dans la description des traits produits par les différents groupes interrogés et des conséquences sur les comportements. D'autres études, auprès de groupes différents, devront, par la suite, être menées pour spécifier les stéréotypes. Dans cette visée, diverses méthodologies sont possibles. Tout d'abord, la méthode de Katz et Braly (1933), utilisée avec des étudiants de l'université de Princeton, peut être répliquée avec notre outil. Dans ce cas, les participants devront, parmi la liste de 49 traits, sélectionner ceux qu'ils considèrent comme les plus caractéristiques des élèves en difficulté scolaire au cycle 3. Ils auront la possibilité d'ajouter à cette liste des traits supplémentaires. Suite à cette première sélection, ils devront choisir les 5 traits les plus typiques du groupe-cible. L'avantage de cette méthodologie est de déterminer un indice d'uniformité, c'est-à-dire la consistance des stéréotypes. Il correspond au plus petit nombre de traits requis pour inclure 50 % des assignations des participants. Il serait, par ailleurs, intéressant de déterminer l'image globale du groupe. Ainsi, comme l'ont réalisé Karlins, Coffman et Walters (1969), les participants pourront indiquer si le trait est favorable ou défavorable. Cet indice peut être utile afin de comparer les perceptions différentes des groupes sur les élèves en difficulté scolaire. Ce mode de recueil des stéréotypes peut, cependant, être gênant pour certains participants. En effet, certains peuvent être réticents à attribuer des stéréotypes aux élèves en difficulté et/ou ne pas souhaiter faire de généralisations à l'ensemble du groupe. Cette réticence s'est manifestée fortement dans l'étude de Gilbert (1951) qui a repris la procédure de Katz et Braly (1933) près de dix-huit ans plus tard afin de mesurer la persistance des stéréotypes à travers le temps. Brigham (1971) répond à cette critique en modifiant la méthodologie. Il s'agit de demander aux participants d'indiquer, sur une échelle de 0 à 100, le pourcentage d'élèves en difficulté possédant chaque trait. Ainsi, les participants ont le loisir de mitiger leur position en ne généralisant pas la caractéristique à l'ensemble du groupe. Dans ce cadre, il convient de déterminer un seuil au-delà ou en deçà duquel le trait est considéré comme un stéréotype. Les manières de procéder sont souples; l'important étant de garder à l'esprit qu'un stéréotype est une généralisation injustifiée. Tout d'abord, un trait pour lequel un pourcentage extrême a été attribué (au-dessus de 80 % ou au-dessous de 20 %) pourra être considéré comme un stéréotype. Une autre manière est de considérer qu'il s'agit d'un stéréotype si le trait se situe à un ou deux écarts type à la moyenne. Un score de stéréotypisation pour chaque participant comprenant le nombre et/ou l'intensité de la stéréotypisation peut également être calculé. L'avantage de cette méthodologie est de pouvoir comparer les groupes interrogés entre eux et de déterminer un score de stéréotypisation par individu. Néanmoins, l'attribution de pourcentage peut être une démarche complexe pour de jeunes enfants. L'adaptation possible de cette méthodologie est la représentation graphique. Ainsi, un ensemble de dessins représentant de un à dix individus peut être présenté aux participants en leur demandant le dessin qui caractérise le mieux le nombre d'élèves en difficulté qui possèdent ce trait. Il conviendrait d'appliquer ces méthodologies à des groupes ayant des liens différents avec les élèves en difficulté scolaire. La participation du système éducatif aux obstacles d'apprentissage, ou tout au moins aux maintiens des difficultés scolaires, pourrait ainsi être illustrée . | Les recherches actuelles dans le domaine de l'éducation attestent de l'influence des stéréotypes sociaux sur les résultats académiques des élèves. Afin de connaître les stéréotypes liés aux « élèves en difficulté scolaire » au cycle 3, nous avons construit un outil auprès de psychologues scolaires, d'étudiants, de parents d'élèves, d'élèves de cycle 3, d'enseignants spécialisés et de stagiaires professeurs des écoles (PE2). L'analyse a permis d'obtenir quarante-neuf traits généraux mais aussi spécifiques aux groupes interrogés. Différentes méthodologies permettant de mesurer les stéréotypes avec cet outil sont présentées en discussion. | psychologie_08-0473774_tei_974.xml |
termith-755-psychologie | Les nombreux travaux de Flynn (1984, 1987) sur l'évolution du niveau intellectuel, et du facteur g en particulier, a mis en évidence une augmentation régulière évaluée à environ 0,3 points de QI par année, soit un écart-type en 50 ans comme l'illustre bien la méta-analyse publiée en 1984 et portant sur 73 études américaines couvrant une période de 46 ans. Ce phénomène, que l'on nomme communément l' « effet Flynn », a été confirmé par de nombreuses études de cohorte (Grégoire, 2004; Flynn, 2007). L'objectif de cette contribution est d'étudier cet effet, dans le contexte suisse romand, en comparant les étalonnages constitués par le Groupe travail tests (GTT) de l'Office cantonal d'orientation scolaire et professionnelle (OCOSP) vaudois en 1991 et 2002. La méta-analyse effectuée par Flynn (1984) sur la base de 73 études américaines a permis d'observer une évolution régulière du niveau intellectuel sur une période de 46 ans. En comparant les échelles d'intelligence de différents tests (WPSI, WISC et WAIS), Flynn observe que les sujets obtiennent un QI plus élevé avec les tests dont les normes sont plus anciennes. Ce phénomène a été confirmé par de nombreuses études trans-générationnelles et cela dans différents pays (Flynn, 1987, 1994). L'augmentation constatée du QI semble plus importante dans les pays du Nord que dans les pays du Sud (Wicherts, Dolan, Hessen, et al., 2004). L'augmentation des performances semble cependant diminuer. Flynn (1987), en mentionnant un possible plafonnement, admet que l'évolution du QI n'est peut-être pas un processus linéaire et infini (Grégoire, 2004). En particulier, on constate une diminution du gain dans les épreuves très influencées par les connaissances scolaires. Teasdales et Owen (2005) ont étudié les résultas aux tests d'intelligence d'une population de jeunes hommes danois, testés entre 1959 et 2004 et ont observé une augmentation des performances jusqu'en 1990, suivi par un ralentissement puis une diminution. Ce déclin a été accompagné par une diminution simultanée de la proportion d'élèves qui terminent le secondaire II. Selon les auteurs, cette diminution pourrait expliquer en partie le déclin des scores aux tests (Teasdales & Owen, 2008). L'effet Flynn ne se manifeste pas avec la même intensité selon le type d'épreuves. En effet, en 1998, Flynn remarque une différence entre le gain relatif au QI verbal et celui relatif au QI performance. La progression est plus forte pour les tests mesurant l'intelligence fluide (Gf) que pour les épreuves nettement plus saturées par l'intelligence cristallisée (Gc). L'effet est plus important lors d'épreuves non verbales de raisonnement inductif, comme les matrices de Raven. Enfin, les mesures faisant intervenir les acquis scolaires sont les moins sensibles à l'effet Flynn. Ainsi, l'importance de l'effet Flynn dépend -il de la spécificité de chaque épreuve. Différentes recherches démontrent que l'évolution de la performance n'est pas indépendante du niveau du QI. En effet, Teasdales et Owen (1989) constatent une relation inverse entre l'intensité du gain et le niveau de QI : le gain est plus élevé pour les sujets ayant un QI moyen ou faible et il est moindre, voire inexistant, pour les sujets de QI élevé. Les gains annuels de performances aux épreuves seraient plus élevés pour les élèves de voies scolaires d'un niveau moins exigeant. Pour expliquer l'augmentation observée, Flynn (1999) a proposé plusieurs facteurs, biologiques, sociaux et/ou éducationnels. Mais, dans leur modèle général, Dickens et Flynn (2001) expliquent l'effet Flynn en particulier par une interaction entre les caractéristiques individuelles et l'environnement. Selon ces auteurs, un environnement défavorable désavantagerait les individus ayant des caractéristiques individuelles défavorables ou faibles. Inversement, un environnement favorable aurait un effet positif sur le développement des aptitudes mentales et notamment chez des individus présentant un potentiel avantageux. Le développement économique des pays occidentaux aurait contribué à créer un environnement dans lequel les aspects cognitifs sont mis en exergue (Husen & Tuijnman, 1991). Concernant les facteurs éducationnels, il faut considérer que la nature des connaissances n'est peut-être plus la même. Par exemple, le système scolaire vaudois a changé dernièrement en introduisant l' École Vaudoise en Mutation (EVM). Cette réforme a introduit des changements pédagogiques. L'objectif premier de l'école reste le même : transmettre les connaissances de base aux enfants. Toutefois, devant les exigences nouvelles posées par la société actuelle, l'école a adopté des objectifs supplémentaires. L'accent est mis sur d'autres compétences comme l'autonomie, le développement de soi, la communication, compétences qui ne sont pas toujours évaluées à l'aide des tests psychologiques traditionnels. L'objectif de cette recherche est de décrire l'évolution de l'effet Flynn en étudiant les étalonnages de 13 tests d'aptitudes cognitives évaluant 5 facteurs – le facteur général, verbal, numérique, spatial et l'attention, réalisés dans le canton de Vaud en 1991 et 2002. Il s'agit donc d'une étude de cohorte où l'on considérera l'échantillon de 1991 comme la population de référence. Considérant les résultats de Teasdales et Owen (2005), nous faisons l'hypothèse d'une inversion de l'effet Flynn. Le type de tests ayant un impact sur l'effet Flynn, nous présumons un lien entre le type d'épreuve et l'inversion de l'effet Flynn. De plus, Flynn a clairement mis en évidence l'influence de certaines caractéristiques individuelles sur l'effet qui porte son nom. Ainsi, nous formulons l'hypothèse que cette inversion de l'effet Flynn ne sera pas homogène selon le niveau scolaire. Cette étude a été réalisée sur la base de 2 étalonnages de différents tests réalisés successivement dans le canton de Vaud en 1991 et 2002. Pour chaque type de test, les analyses portent sur les moyennes et les écart-types des trois niveaux scolaires existant dans le canton de Vaud en 1991 et en 2002. Certaines caractéristiques distinguent ces trois voies scolaires. La voie secondaire à option (VSO) offre une formation de base dans les domaines principaux, ainsi que le développement des compétences propres à chaque élève en favorisant leur autonomie. Suite aux changements de la scolarité vaudoise, la VSO remplace la voie terminale à options (TO). La Voie secondaire générale (VSG) offre un apprentissage et un renforcement des connaissances de base et leur structuration, ainsi que l'acquisition de méthodes de travail efficaces. La VSG remplace la Voie supérieure (SUP). La Voie secondaire de baccalauréat (VSB) offre un apprentissage approfondi dans les différents domaines, ainsi que le développement des capacités d'abstraction et de synthèse des élèves. La VSB remplace la Voie prégymnasiale (PG). Ces étalonnages, constitués par le GTT de l'OCOSP vaudois, proposent pour chaque test, pour chaque voie scolaire et pour les garçons et les filles de 14 et 15 ans, sans distinction, une moyenne, un écart-type et un étalonnage en stanines. Il s'agit donc d'échantillons de la population générale en fin de scolarité obligatoire. La taille des sous-échantillons est spécifiée, le niveau socioprofessionnel des jeunes n'est pas contrôlé mais devrait être représentatif de la population générale, les étalonnages ayant été constitués dans un échantillon des classes de l'école publique où sont scolarisés la grande majorité des enfants. Le mode de collecte des données et la taille des échantillons devraient garantir que les échantillons des étalonnages de 1991 et 2002 soient similaires et comparables. Les étalonnages des 13 tests utilisés pour constituer des batteries de tests d'aptitudes sont regroupés selon 5 facteurs, à savoir : Le facteur Général (G), le facteur Verbal (V), le facteur Numérique (N), le Facteur Spatial (S) et le facteur Attention/Concentration (A). Différentes épreuves pour chacun des facteurs ont été sélectionnées (voir tableau 1). Facteur Général (G). Le facteur G est évalué à l'aide de 3 épreuves. Le B 53 (Bonnardel, 1967) est une épreuve permettant de saisir l'aspect dynamique de l'intelligence mise en œuvre dans la résolution des problèmes qui se posent quotidiennement et de différencier les niveaux professionnels. Le coefficient alpha est de 0,93 et la fidélité, estimée à l'aide de la méthode de bissection et corrigée à l'aide de la méthode de Spearman-Brown, varie entre 0,91 et 0,95 selon les groupes de sujets (Thiébaut, 2000). Groupe de lettres (Dupont, 1956) est un test proposant des séries faites de séquences de lettres où il s'agit d'identifier l'intrus. La fidélité, estimée à l'aide de la méthode de bissection, est de 0,73. Suite logique est une épreuve développée par le GTT de l'OCOSP à la fin des années soixante, permettant de mettre en évidence la capacité de raisonnement logique sur des données symboliques, faisant appel à l'induction et à la déduction. Les propriétés psychométriques ne sont pas disponibles pour cette épreuve. Facteur Verbal (V). Le facteur V est évalué à l'aide de 3 épreuves. L ' Élimination 1/6 (Bonnardel, 1966) est une épreuve permettant d'évaluer le niveau de compréhension verbale et, plus particulièrement, le niveau de la compréhension des mots. La fidélité, estimée à l'aide de la méthode de bissection et corrigée à l'aide de la méthode de Spearman-Brown, est de 0,89. Le Gyprover (Dupont, 1960) est une épreuve de compréhension verbale de concepts abstraits. Cette épreuve suit le même principe que le BVC 16 de Bonnardel, mais la difficulté des items est moins élevée. L'homogénéité ou la fidélité de cette épreuve n'est pas spécifiée, mais les résultats de cette épreuve corrèlent avec les performances scolaires, notamment en français. L ' Extension de Classe (Rey, 1958) est une épreuve qui évalue le niveau de vitesse et d'organisation du vocabulaire. Elle permet d'évaluer les automatismes d'accord réciproque de la pensée et du langage. L'épreuve est fondée sur les relations élémentaires de classe à espèce. L'homogénéité ou la fidélité de cette épreuve n'est pas spécifiée. Facteur Numérique (N). Le facteur N est évalué à l'aide de 3 épreuves. Le Choix de solution est une épreuve développée par le GTT de l'OCOSP dans les années soixante-dix, qui met en évidence la capacité du sujet à estimer rapidement le résultat d'opérations numériques simples sur des nombres entiers, fractionnaires et décimaux. Les propriétés psychométriques ne sont pas disponibles pour cette épreuve. Le Numen 81 (Dupont, 1981) est une épreuve permettant d'apprécier les connaissances de base en mathématiques, acquises dans le domaine numérique au cours de la scolarité obligatoire jusqu' à la fin de la 8 e année. L'homogénéité ou la fidélité de cette épreuve n'est pas spécifiée, mais les résultats de cette épreuve corrèlent avec les performances scolaires, notamment en mathématiques. Le Calcul de longueurs (Faverge, 1965) est une épreuve créée dans le cadre d'études de psychologie scolaire et qui se propose de mettre en évidence la facilité d'adaptation en mathématique. La fidélité de cette épreuve a été estimée sans correction à 0,64 et les résultats à cette épreuve corrèlent avec les performances scolaires, notamment en mathématiques, 0,43. Facteur Spatial (S). Le facteur S est évalué à l'aide de 2 épreuves. L'épreuve des Points à Organiser (Rey & Dupont, 1953) permet de déterminer l'aptitude du sujet dans une tâche qui demande d'organiser des données visuelles peu structurées en un ensemble de formes fortement structurées. La fidélité, estimée à l'aide de la méthode de bissection, est de 0,68 et la fidélité à un an est de 0,58. L'épreuve des Cubes, développée par le GTT de l'OCOSP pendant les années soixante-dix, fait appel à l'organisation de l'espace symbolique (3 dimensions). Les propriétés psychométriques ne sont pas disponibles pour cette épreuve. Facteur Attention/Concentration (A). Le facteur A a été évalué à l'aide de 2 épreuves. Code est une épreuve développée par le GTT de l'OCOSP pendant les années soixante-dix, requérant une attention soutenue sur une tâche simple et la mémorisation rapide du code donné. Les propriétés psychométriques ne sont pas disponibles pour cette épreuve. MC 54 Collationnement est une adaptation suisse du Minnesota Clerical Test (voir Andrew & Paterson, 1946; de Cillis Engelhardt, 1950). Il s'agit d'une épreuve requérant une attention soutenue sur une tâche simple consistant à comparer deux expressions et à signaler si elles sont identiques. L'homogénéité ou la fidélité de cette adaptation n'est pas spécifiée. La fidélité de la version originale semble être égale ou supérieure à 0,82 (Longstaff & Beldo, 1958). Dans un premier temps, deux étalonnages d'une batterie de tests d'aptitudes – ceux de 1991 et ceux de 2002 – ont été comparés. Pour réaliser cette comparaison, les scores, pour chaque test et chaque voie scolaire, ont d'abord été transformés en scores centrés réduits (score z), en prenant les scores de 1991 comme référence. Lors de cette première opération, il a fallu corriger les scores pour de légères disparités en fonction du sexe dans les sous-échantillons étudiés. Pour cela, il a été considéré que la population est constituée d'un nombre équivalent d'hommes et de femmes. Pour estimer l'écart-type de la population, la taille des sous-échantillons a été prise en compte (moyenne pondérée). Pour estimer les scores z associés aux 3 voies scolaires, la moyenne a été pondérée en fonction des effectifs pour les différents tests, de manière à attribuer plus de poids aux tests avec des sous-échantillons plus importants. Finalement, pour estimer les scores z associés aux facteurs, il a été considéré que la population se répartit de manière égale à travers les 3 voies scolaires. Ce mode de calcul permet de contrôler les scores pour le sexe et la voie scolaire – tout en attribuant plus de poids aux tests pour lesquels les normes ont été établies sur des sous-échantillons plus importants. Les scores de 1991 correspondent à l'origine, et les scores de 2002 sont positifs lorsque les performances moyennes ont augmenté, ou négatifs lorsque les performances moyennes ont diminué. Pour comparer les scores z observés en 1991 et 2002, une stratégie d'analyse conservatrice a été utilisée. En effet, les étalonnages ont généralement été constitués grâce à des passations collectives en classe d'une batterie de tests (les conditions précises de la récolte des données ne sont cependant pas connues). Cette comparaison a été effectuée à l'aide du test de la comparaison de deux moyennes (t de Student unilatéral, distributions normales, échantillons indépendants). Pour chaque voie scolaire, la moyenne des tailles des sous-échantillons pour les différents tests a été prise en compte pour déterminer les degrés de liberté. Les degrés de liberté considérés pour les différents facteurs résultent également d'une moyenne des tailles moyennes considérées pour les différentes voies scolaires. Cette stratégie d'analyse a pour objectif de limiter le risque d'erreur de type I. Les étalonnages de 2002 ont été analysés plus précisément afin d'étudier la différenciation des 3 voies scolaires, VSO, VSG et VSB, pour chaque facteur. Pour cela, des analyses de la variance ont été effectuées (ANOVA, distributions normales, indépendance des observations, homogénéité des variances). Pour ces analyses, davantage de poids a été attribué aux tests avec des sous-échantillons plus importants. Comme précédemment, une stratégie d'analyse conservatrice a été utilisée pour déterminer les degrés de liberté, de sorte à limiter le risque d'erreur de type I. Les résultats reportés dans la figure 1 montrent une inversion non homogène de l'effet Flynn. En effet, entre 1991 et 2002, les scores moyens par facteur semblent stables ou diminuent. On n'observe pas d'évolution significative pour le facteur G, t (595) = 1,19, p > 0,05 (z = - 0,10), et le facteur A, t (429) = - 0,34, p > 0,05 (z = 0,03). En revanche, on observe une diminution significative des scores moyens pour le facteur V, t (529) = 2,64, p = 0,009 (z = - 0,24), le facteur N, t (513) = 6,03, p < 0,001 (z = - 0,56), et le facteur S, t (412) = 4,12, p < 0,001 (z = - 0,41). Nous observons ainsi une diminution pour 3 des 5 facteurs considérés, suggérant que l'évolution de ces scores dépend du type d'épreuve. La diminution est d'amplitude moyenne pour le facteur N, et petite pour le facteur V et le facteur S. Les évolutions observées pour le facteur G et le facteur A sont négligeables (Cohen, 1988). Note. * p < .05. Les résultats observés vont dans le sens d'une évolution différente des performances selon la voie scolaire des élèves (voir figure 2). Chez les élèves qui sont en VSO, on observe une diminution signi - Note. * p < .05. ficative pour 2 des 5 facteurs. Cette diminution est significative pour le facteur N, t (532) = 3,57, p < 0,001 (z = - 0,33), et pour le facteur S, t (431) = 2,42, p = 0,02 (z = - 0,24). Ces diminutions sont d'amplitude faible. L'évolution est non significative et d'amplitude négligeable pour le facteur G, t (575) = - 0,27, p > 0,05 (z = 0,02), le facteur V, t (392) = - 1,20, p > 0,05 (z = 0,12), et le facteur A, t (441) = 0,40, p > 0,05 (z = - 0,04). Chez les élèves qui sont en VSG, on observe une diminution significative pour 4 des 5 facteurs. La diminution est significative et d'amplitude faible pour le facteur G, t (624) = 3,23, p = 0,001 (z = - 0,28), et le facteur V, t (562) = 5,36, p < 0,001 (z = - 0,46). La diminution est significative et d'amplitude moyenne pour le facteur N, t (480) = 8,34, p < 0,001 (z = - 0,78), et le facteur S, t (416) = 6,58, p < 0,001 (z = - 0,65). L'évolution est non significative et négligeable pour le facteur A, t (431) = 0,66, p > 0,05 (z = - 0,07). En ce qui concerne les élèves de VSB, on observe une diminution significative pour 3 des 5 facteurs et une légère augmentation significative pour 1 des 5 facteurs. La diminution est significative et d'amplitude faible pour le facteur V, t (541) = 4,05, p < 0,001 (z = - 0,37), et le facteur S, t (400) = 3,42, p = 0,001 (z = - 0,34). La diminution est significative et d'amplitude moyenne pour le facteur N, t (546) = 6,14, p < 0,001 (z = - 0,58). L'évolution est non significative et négligeable pour le facteur G, t (581) = 0,62, p > 0,05 (z = - 0,05). L'augmentation est significative et d'amplitude faible pour le facteur A, t (403) = - 2,02, p = 0,04 (z = - 0,20). Les étalonnages sont catégorisés en trois niveaux, selon les trois voies scolaires existant dans le système scolaire vaudois. Une analyse des étalonnages de 2002 montre que, de manière générale, ceux -ci discriminent bien ces trois voies. Les élèves de VSB obtiennent des scores plus élevés que les élèves de VSG qui, à leur tour, obtiennent des scores plus élevés que les élèves de VSO (voir figure 3). Les différences selon les voies scolaires sont significatives pour le facteur G, F (2, 505) = 60,28, p < 0,001, le facteur V, F (2, 472) = 75,39, p < 0,001, le facteur N, F (2, 408) = 30,06, p < 0,001, le facteur S, F (2, 513) = 31,01, p < 0,001, et pour le facteur A, F (2, 447) = 57,04, p < 0,001. Cette différence semble particulièrement marquée pour le facteur V et moins pour le facteur S. Les résultats obtenus dans la présente recherche montrent une inversion de l'effet Flynn pour certain facteurs, notamment le facteur numérique, le facteur verbal et le facteur spatial. Ces donnés confirment les résultats obtenus par Teasdales et Owen (2005, 2008) et coïncident aussi bien aux hypothèses de départ. En effet, on observe une diminution plus particulière pour les facteurs associés aux connaissances scolaires (facteurs V et N). De plus, l'évolution est différente selon la voie scolaire. Pour les élèves de la voie scolaire intermédiaire (VSG), la diminution semble plus systématique alors que l'évolution est moins importante pour la voie scolaire la moins exigeante (VSO). Comme nous l'avons vu auparavant, Flynn a évoqué la possibilité d'une diminution des performances. Selon Dickens et Flynn (2001), les conditions environnementales dans les pays occidentaux au cours du 20 e siècle ont été propices à l'amélioration des potentialités intellectuelles. Cependant, ce phénomène n'est pas infini; l'intelligence humaine possède ses limites de développement. Ces auteurs postulent que ce développement devrait atteindre un plafond. Flynn (1987) a analysé l'évolution du niveau moyen des scores aux Matrices de Raven et à un test de mathématiques et de vocabulaire. Les résultats montrent une tendance à l'effet plafond. En effet, dès 1968, le gain annuel se réduit aux Matrices de Raven. Alors que pour la période 1954-1968, le gain annuel était de 0,63, il passe à 0,22 pour le période 1968-1980. Ces résultats indiquent que l'évolution du QI moyen n'est peut-être pas un processus infini. Les résultats de cette recherche montrent une diminution plus importante aux scores à contenu scolaire. La diminution pour les facteurs de raisonnement est plus faible. Nous pourrions interpréter ces résultats comme révélateurs d'un plafonnement dans le développement des capacités cognitives. Il n'existerait donc pas une réelle diminution des capacités cognitives d'une génération à l'autre, notamment de celle des élèves de 1991 à celle des élèves de 2002, dont les performances sont plus faibles pour certains facteurs. La nature de l'évolution de l'intelligence nous est inconnue; en effet, nous ne pouvons pas déterminer quelles sont les capacités cognitives mises en cause dans l'évolution des performances. De plus, les nombreuses recherches sur l'effet Flynn n'ont pas déterminé si l'augmentation aux tests d'intelligence correspondait réellement à une augmentation de capacités cognitives (Wicherts et al., 2004). Les changements éducatifs constituent un second facteur important permettant d'expliquer une inversion de l'effet Flynn. L'on relèvera qu'entre 1991 et 2002, un changement majeur est intervenu dans le milieu éducatif : l'introduction de la réforme scolaire vaudoise « École Vaudoise en Mutation » (EVM). Il convient alors de se demander quel a été l'impact de cette réforme sur les performances aux tests d'aptitudes et quel rôle elle a joué dans la diminution non homogène observée. La réforme EVM regroupe une cinquantaine de changements touchant divers aspects de l'enseignement public. La mesure la plus visible est d'ordre structurel, l'idée étant d'accorder plus de temps aux élèves pour acquérir des connaissances et construire des compétences de base, et aux enseignants pour assurer, au sein d'une équipe, un meilleur suivi de l'élève qui apprend. À l'heure actuelle, bien qu'EVM ait fait de la lutte contre l'échec scolaire l'un de ses principaux objectifs, force est de constater que le taux moyen de redoublement dans le canton de Vaud (3,0 %) reste plus élevé que le taux suisse moyen (2,0 %) [Daeppen, 2003 ]. Cette recherche constate une diminution non homogène des performances aux tests d'aptitudes affectant plus particulièrement depuis 1991 les élèves de la voie intermédiaire. Il est alors intéressant de se poser la question quant au rôle que jouent ces changements de style éducatif par rapport à la forme et au contenu de l'enseignement, par rapport à l'importance relative des différentes matières enseignées et par rapport aux buts et aux moyens qui sont mis en place pour chacune des trois différentes voies. Ces changements ont mis l'accent sur certaines caractéristiques nouvelles, comme le développement de l'autonomie, de l'esprit d'initiative, de la curiosité, de la motivation, de la confiance en soi, etc. Ces compétences ne sont cependant pas prises en compte dans les tests standardisés. En effet, des nombreux aspects de l'intelligence échappent aux mesures des tests factoriels; il en va ainsi, par exemple, de la créativité, des capacités artistiques et de la sociabilité. Ainsi, la diminution des performances observées pour certains facteurs dans cette étude ne peut pas être considéré comme étant le reflet d'une diminution générale de l'intelligence, ceci dans la mesure où la reforme scolaire a certainement permis de mettre en avant des facettes de l'intelligence dont il n'est pas rendu compte dans les tests actuels. Dans cette recherche, on remarque une diminution plus marquée chez les écoliers en VSG. Les difficultés liées à cette voie intermédiaire pourraient provenir d'un manque d'identité dû au fait qu'elle est tiraillée entre la VSB et la VSO. Pour remédier à la problématique des VSG, une possibilité serait d'unifier les deux voies, VSO et VSG. Cependant, les résultats qui ressortent de l'analyse des étalonnages de 2002, montrent une différentiation significative entre les trois voies. Une autre possibilité à envisager serait alors de changer le statut de cette voie, ou même d'adopter un système de formation avec des classes hétérogènes. Une explication alternative à celles qui sont discutées ci-dessus en termes de développement des capacités cognitives ou de facteurs environnementaux serait d'envisager le fait que les qualités psychométriques des mesures aient été altérées suite au changement, par exemple, de l'environnement éducationnel. En effet, pour effectuer des comparaisons temporelles ou historiques, il s'agit de vérifier l'équivalence structurale, de mesure et scalaire des instruments utilisés (Duarte & Rossier, 2008; Rossier, 2005; Rossier, Aluja, García, et al., 2007). L'étude d'étalonnages ne permet pas de faire ces vérifications et il n'est pas possible d'exclure que les effets observés aient pour origine un biais méthodologique (van de Vijver & Leung, 1997). Il faut remarquer que des réserves similaires ont été faites pour des études antérieures ayant observé l'effet Flynn (Colom, Lluis-Font & Andres-Pueyo, 2005). Bien que les résultats concordent avec ceux de la littérature (Teasdale & Owen, 2005, 2008), cette limitation atteste de l'importance du processus de validation lors de l'élaboration de nouvelles normes et suggère que davantage d'études devraient être effectuées pour décrire de manière plus précise l'évolution des aptitudes cognitives en fonction des contraintes contextuelles ou environnementales (Savickas, Nota, Rossier, et al., sous presse). Selon les résultats de cette étude, l'effet Flynn semble s'inverser, en particulier pour les facteurs fortement associés aux compétences scolaires comme le facteur verbal ou le facteur numérique. On a vu que la société contemporaine et les changements qui sont intervenus dans le système scolaire mettent l'accent sur une multitude de nouvelles compétences qui ne sont pas prises en compte dans les tests utilisés actuellement. Il serait alors intéressant de développer de nouveaux tests permettant de mesurer d'autres facettes de l'intelligence. De plus, il serait utile de voir comment les performances aux tests d'intelligence continuent à évoluer. Enfin, il convient d'appréhender avec prudence les résultats examinés dans cette étude, la diminution des performances à certains tests d'aptitudes telle qu'elle a été observée ne signifiant pas de facto une diminution des capacités intellectuelles. Les tests d'aptitudes en général, ainsi que ceux qui ont été étudiés dans la présente recherche ne constituent qu'un indicateur et ne restituent pas un reflet exact de l'intelligence. D'autre part, la tendance observée pourrait également résulter d'un biais méthodologique associé à des modifications de la validité des instruments utilisés . | Des nombreuses études ont montré une augmentation des scores aux tests d'aptitudes à travers les générations (« effet Flynn »). Différentes hypothèses d'ordre biologique, social et/ou éducationnels ont été élaborées afin d'expliquer ce phénomène. L'objectif de cette recherche est d'examiner l'évolution des performances aux tests d'aptitudes sur la base d'étalonnages datant de 1991 et de 2002. Les résultats suggèrent une inversion non homogène de l'effet Flynn. La diminution concerne plus particulièrement les tests d'aptitudes scolaires, comme ceux évaluant le facteur verbal et numérique. Cette étude pourrait refléter un changement de l'importance accordée aux différentes aptitudes peu évaluées en orientation scolaire et professionnelle. | psychologie_10-0050698_tei_952.xml |
termith-756-psychologie | Le décrochage scolaire en France comme au Québec, est devenu un problème prioritaire tant pour les chercheurs que pour le personnel des écoles et les politiciens. En France, dans les années 90, l' Éducation nationale amène un changement important d'orientation dans l'approche du phénomène avec la loi de 1989 qui spécifie que nul ne doit sortir du système éducatif sans qualification. Malgré les mesures de discrimination positive mises en place à partir des années 80, en 2003, le ministère de l' Éducation nationale recensait 8 % de jeunes décrocheurs. L'Institution, face à la faillite de son désir d'inclusion de tous, alors qu'elle avait plutôt tendance à considérer le problème comme étant la conséquence de carences et de défaillances socioculturelles et familiales, a été amenée à s'interroger sur son rôle en tant qu'acteur de l'insertion sociale et professionnelle de ces jeunes qui sortent du système éducatif sans diplôme ou prématurément (Glasman & Oeuvrard, 2004). Le ministère de l' Éducation nationale définit le décrochage scolaire comme la sortie anticipée et sans qualification du système éducatif. On distingue ainsi la population des moins de 16 ans qui, s'ils quittent le système prématurément, sont en infraction quant à l'obligation scolaire et ceux de plus de 16 ans qui conformément à la loi française ne sont plus contraints à fréquenter l'école mais n'ont pas obtenu de diplôme. Certains sous-groupes de décrocheurs sont considérés comme susceptibles d'adopter des conduites troublant l'ordre social. Le souci d'ordre public est omniprésent et la peur des jeunes en errance considérés comme dangereux nourrit le sentiment d'insécurité collectif mettant ainsi l'absentéisme au cœur des débats tant politiques que médiatiques (Blaya, 2004). Par conséquent, l'intérêt autour du thème du décrochage scolaire tourne autour de trois pôles principaux qui sont l'insertion sociale et professionnelle, le rôle de l'école comme facteur de décrochage, l'insécurité et la prévention de la délinquance juvénile (Glasman, 2004) tant à l'extérieur de l'institution scolaire que dans les établissements où la préoccupation de la violence scolaire ne cesse de croître. La conjonction de ces trois approches s'est concrétisée en 1999 par un appel d'offres interministériel de recherches sur le thème du décrochage scolaire. L'objectif était d'évaluer cette problématique et de mieux comprendre les processus en œuvre lors du décrochage. Au Québec, en 2006, 24,2 % des jeunes du secondaire avaient décroché avant d'obtenir leur diplôme d'études secondaires (11,3 % au Canada) et n'avaient toujours pas obtenu de diplôme à l' âge de 20 ans (ministère de l' Éducation du Québec, 2007). Le ministère de l' Éducation du Québec (2000) définit le décrocheur scolaire comme celui qui quitte l'école sans avoir obtenu de diplôme d'études secondaires (obtention du diplôme de la cinquième secondaire à 17 ans). La différence entre les pourcentages officiels obtenus en France et au Québec, s'explique notamment par la différence de calcul du décrochage : différence en termes d' âge (16 ans en France, 19 ans au Québec pour l'obtention du diplôme d'études secondaires inférieures). Au Québec, le décrochage est compté après 7 ans d'enseignement secondaire à l' âge de 19 ans, car le ministère laisse deux ans de plus pour obtenir le Diplôme d' Études Secondaires ou Diplôme d' Études Professionnelles aux 50 % qui ne l'obtiennent pas à 17 ans. Le décrochage scolaire est donc un souci majeur et la recherche en éducation est très active autour de ce thème et des facteurs associés à la prédiction du phénomène (Fortin, Royer, Marcotte, Potvin & Yergeau, 2004; Janosz, 2000). Les conséquences de tels taux de décrochage sont très lourdes, tant au niveau personnel : troubles du comportement et délinquance (Janosz & LeBlanc 1997; Fortin et al., 2004; Lagrange, 2001); dépression (Marcotte, 2006; Blaya, 2004) qu'au plan socio-économique : taux de chômage élevé, aide sociale et indemnités de chômage plus importantes (Statistique Canada, 2003). Le décrochage est le résultat du cumul de plusieurs facteurs personnels, familiaux et scolaire (Fortin et al., 2004). Parmi ces facteurs, les troubles du comportement sont associés à de sérieux problèmes d'adaptation sociale à long terme tels que la délinquance, une forte consommation de drogue et d'alcool (Loeber & Hay, 1997; Fortin et al., 2004). L'étude de Fortin, Toupin, Pauzé, Déry et Mercier (1996) montre que 80 % des élèves qui manifestent des troubles du comportement ont également des difficultés d'apprentissage. Toutefois, le profil psychologique et sociologique des élèves à risque de décrochage est différent selon les jeunes (Fortin, Marcotte, Potvin, Royer & Joly, 2006) et probablement selon les établissements scolaires (Janosz et al., 2000). Les objectifs de cette étude comparative sont d'étudier quels sont les facteurs personnels, familiaux et scolaires qui différencient les élèves français des élèves québécois parmi les 13-16 ans, puis de comparer les différences entre les élèves à risque de décrocher et ceux qui ne le sont pas dans les deux pays. Dans un deuxième temps, nous identifierons les variables les plus associées au risque de décrochage scolaire dans les deux pays chez les élèves à risque. L'intérêt de cette approche comparative se situe à plusieurs niveaux. La réduction du décrochage scolaire fait partie des priorités éducatives des deux pays (MEN, 1999; MEQ, 2004). La recherche québécoise quant aux facteurs associés au décrochage scolaire existe depuis plus d'une décennie sur la distinction des différents types de décrocheurs alors que la recherche française est plus récente. Enfin, une meilleure connaissance des facteurs de risque est essentielle pour mettre en place des programmes de prévention efficace. C'est ce qui a motivé le choix du Québec comme pays de comparaison. On qualifie d'élèves à risque de décrochage, les jeunes qui fréquentent l'école mais qui présentent une probabilité très élevée de quitter le système éducatif prématurément et/ou sans diplôme (Fortin et al., 2004). Il s'agit d'identifier quels sont les facteurs favorisant l'apparition de difficultés d'adaptation sociale et scolaire chez les individus dans un contexte donné, afin d'élaborer et de mettre en œuvre des programmes de prévention ou d'intervention. Ainsi, sur la base des facteurs de risque identifiés, est-il possible de mettre en évidence des facteurs de protection qui préviennent l'apparition du problème étudié ou permettent la résilience chez certains élèves. Il est reconnu que les facteurs de risque n'ont de valeur prédictive que dans leur accumulation et que ce sont certaines combinaisons de plusieurs facteurs de risque, l'interaction entre les facteurs individuels et environnementaux, qui favoriseront tel ou tel comportement. En ce qui concerne le décrochage scolaire, cette approche multidimensionnelle se justifie par la nécessité d'aller à l'encontre de la tendance à uniformiser sous la même appellation, « décrochage scolaire », des processus différents qui vont amener certains jeunes à quitter le système scolaire avant la fin de la scolarité obligatoire ou sans qualification. Parmi les facteurs les plus fréquemment rapportés dans les études, les jeunes à risque de décrochage vivent des difficultés personnelles telles que des difficultés d'apprentissage (Battin-Pearson et al., 2000), des lacunes d'habiletés sociales, des difficultés du comportement (Jimerson, Egeland, Sroufe & Carlson, 2000) et la dépression (Marcotte, 2006). Selon Lagrange (2001), l'engagement des jeunes dans la délinquance va peu à peu les amener à se désengager de leur scolarité. En France, selon les données sociales de l'Insee (2002-2003), les jeunes qui avaient été préalablement déscolarisés sont surreprésentés dans la population carcérale masculine. Le risque d' être incarcéré est significativement supérieur (3,4 fois) lorsque l'on quitte l'école avant 16 ans. Les travaux de Roché (2001) concluent que la propension à la délinquance est forte chez les jeunes absentéistes qui trouvent aussi dans ce comportement un moyen d'expression de leur opposition à l'autorité des adultes de l'établissement. D'après Jimerson et al. (2000), la fréquence élevée des troubles du comportement est un des facteurs les plus associés au décrochage scolaire. Les comportements perturbateurs en milieu scolaire ont pour conséquence un nombre élevé de retenues, d'absences, d'exclusions de l'école (Alexander, Entwisle & Horsey, 1997; Walker, Colvin & Ramsey, 1995). La délinquance et les comportements externalisés sont des prédicteurs plus significatifs du décrochage scolaire chez les garçons que chez les filles chez qui les comportements internalisés ont un poids plus important (Marcotte, Fortin, Potvin et Papillon, 2002). Toutefois, si la délinquance peut être associée au décrochage scolaire, tous les décrocheurs ne sont pas délinquants, loin s'en faut (Blaya, 2010). Les élèves à risque peuvent provenir de familles où les relations sont conflictuelles (McNeal, 1999) et les pratiques éducatives des parents sont parfois peu aidantes (Potvin et al., 1999) ou encore, de familles en grandes difficultés sociales ou psychologiques (Millet & Thin, 2005). L'impact de l'origine sociale des familles est fortement interrogé et le fait d' être issu de milieux socio-économiquement défavorisés ou de populations différentes (gens du voyage, minorités ethniques) représente un facteur de risque significatif en termes de difficultés d'adaptation aux normes scolaires (Bonnery, 2004). Ceci s'explique par un faible capital culturel permettant le suivi scolaire des enfants ou encore l'instabilité de la vie des familles (Schiff, 2004). À l'école, la plupart des élèves à risque de décrochage sont peu engagés dans leurs activités scolaires et sont souvent en conflit avec leurs enseignants (Fortin, Marcotte, Royer & Potvin, 2005). L'ennui est souvent invoqué par les jeunes en raison d'une orientation scolaire subie ou mal vécue ou encore à cause de difficultés scolaires. Il est probablement l'expression d'une difficulté d'adaptation de l'élève ou de l'école (Blaya, 2003). Les difficultés d'apprentissage, le déficit d'attention surtout lorsqu'il est en interaction avec un autre facteur de risque (Jimerson, Anderson & Whipple, 2002), la scolarisation en classes spécialisées et le retard scolaire sont associés au décrochage (Rumberger, 1995). Le décrochage peut découler d'une mauvaise relation à l'école, de difficultés relationnelles, d'un climat scolaire négatif et peu propice à l'apprentissage (Hrimech, 1993; Rothman, 2001). Le climat de classe et les interactions élèves/enseignants ont un effet sur l'engagement du jeune dans ses activités scolaires et sociales (Bennacer, 2000). De plus, le manque d'organisation dans la classe et une perception négative de l'enseignant augmentent le risque de décrochage scolaire. Cependant, ces facteurs n'ont pas tous la même importance, ce qui rend très difficile l'identification des variables prioritaires lors de l'intervention. Selon Fortin et al. (2004), il existe sept facteurs les plus associés au décrochage scolaire : deux facteurs personnels, deux facteurs familiaux et trois facteurs scolaires. Par ordre d'importance, il s'agit de la présence de sentiments dépressifs, le manque d'organisation et de cohésion familiale, les attitudes négatives de l'enseignant envers les élèves, le manque d'engagement de l'élève dans ses activités scolaires et la faible performance en français et en mathématiques. Battin-Pearson et al. (2000) montrent que la faible performance scolaire, l'affiliation à des pairs déviants et le faible revenu des parents représentent la combinaison qui explique 50 % de la variance du décrochage scolaire, laissant ainsi un pourcentage important inexpliqué. Les élèves à risque de décrochage sont difficiles à identifier dans la mesure où ils n'ont pas tous une attitude perturbatrice et certains attendent calmement la fin de la scolarité obligatoire sans se faire remarquer par les adultes des établissements. Il n'existe donc pour les chercheurs que deux options possibles qui sont soit de s'intéresser aux jeunes qui sont déjà identifiés comme présentant des difficultés de décrochage et/ou perturbateurs, soit d'interroger des groupes d'individus non ciblés dans les établissements scolaires afin d'obtenir les données par autorévélation. Le choix de la deuxième option en ce qui concerne nos travaux s'explique par le désir de s'intéresser aussi aux élèves qui ne sont pas forcément identifiés par l'Institution mais qui cependant sont à risque de décrochage. Les objectifs de cette étude sont d'une part d'identifier et de comparer les variables personnelles, familiales et scolaires qui différencient les élèves français et québécois, puis entre les élèves à risque de décrochage scolaire et ceux non à risque dans les deux pays. Enfin, il s'agit de vérifier quelles sont les variables personnelles, familiales et scolaires les plus associées aux élèves à risque de décrochage et d'établir des comparaisons entre les élèves français et québécois. Au cours de l'année 2003-2004, nous avons invité quatre établissements français situés dans la région d'Aquitaine (Bordeaux et sa banlieue), à participer à cette recherche. L'échantillon regroupait 756 élèves de classes de 4 e et de 3 e, soit l'équivalent de trois classes, par niveau, sélectionnées par tirage au sort. Au Québec, 207 élèvesproviennent de la région de l'Estrie (Sherbrooke et sa banlieue). Le choix de limiter à ces niveaux d'études se justifie par le désir d'obtenir un échantillon comparable en termes d' âge, de provenance socio-économique, du nombre d'écoles et de classes. En France comme au Québec, il y avait deux établissements d'enseignement secondaire de milieu favorisé et deux non-favorisés. En France, le classement s'opère à partir de l'origine sociale des élèves inscrits dans ces établissements et du classement ZEP. Au Québec, les indicateurs socio-économiques proviennent du ministère de l' Éducation (2004). La sélection des groupes à risque et non à risque a été réalisée à partir du questionnaire d'évaluation du risque de décrochage scolaire en milieu scolaire (Potvin et al., 2003). Les critères de sélection sont rapportés ci-dessous. À partir de cet échantillon, deux groupes d'élèves à risque de décrochage ont été formés : 167 élèves à risque de décrochage scolaire français (32,3 % de l'échantillon français) et 43 élèves à risque de décrochage scolaire québécois (19,8 % de l'échantillon québécois). Le décrochage scolaire est le résultat de la conjonction de différents éléments dans un ou des contextes donnés. La variable dépendante est le risque de décrochage scolaire. Les variables indépendantes sont les caractéristiques personnelles, familiales et scolaires. Le questionnaire d'évaluation du risque de décrochage scolaire en milieu scolaire (DEMS) (Potvin et al., 2003). Ce questionnaire a pour objectif d'évaluer le risque du décrochage scolaire chez les élèves du secondaire (12 à 17 ans) et est complété par l'élève. Il se compose des cinq sous-échelles suivantes : Implication parentale (9 items), Attitudes envers l'école (9 items), Perception de son niveau de réussite scolaire (10 items), Supervision parentale (7 items) et Aspirations scolaires (4 items). Le questionnaire a été validé auprès d'un échantillon québécois (Potvin, Fortin & Rousseau, 2009). L'analyse de consistance interne révèle un coefficient alpha de .89 pour l'ensemble des échelles et des coefficients qui varient entre .59 et .83 selon les différentes échelles. La fidélité test-retest du questionnaire est supérieure à .70. Quant à la validité, les résultats des analyses de régressions logistiques ont démontré que ce dernier possède une bonne validité de critère (80,3 % des élèves sont classés correctement) ainsi qu'une validité conceptuelle avec des coefficients qui varient de .10 à .66. Des analyses de régression logistique ont été effectuées en utilisant indépendamment chacun des scores des sous-dimensions ainsi que le score total comme variable prédictrice. Pour l'ensemble de ces analyses de régression, la variable indépendante permet de prédire le décrochage chez les élèves. En effet, pour chacun de ces modèles de prédiction, les logits obtenus sont tous statistiquement significatifs à p < 0,05. Le rapport de côte observé étant supérieur à 1, plus un élève obtient un score élevé à une des sous-dimensions ou au score total et plus sa probabilité de décrocher augmente. Trois niveaux de risque de décrochage ont été identifiés soit, un niveau de risque faible, associé à une probabilité calculée à partir des analyses de régression logistique située entre 30 % et 49 %, un niveau de risque moyen associé à une probabilité calculée située entre 50 % et 69 % et un niveau de risque sévère associé à une probabilité calculée située entre 70 % et 100 %. Les élèves présentant au moins un niveau de risque faible sur au moins une échelle sont considérés comme des élèves à risque. Nous observons que ce processus permet d'identifier 84,7 % des élèves décrocheurs (vrai positif). La sensibilité du test est donc de plus de 84 %. Pour ce qui est de la spécificité, elle se situe à 67,8 % puisque c'est cette proportion d'élèves non décrocheurs qui ont été identifiés comme n'étant pas à risque (vrai négatif). Dans l'ensemble, les résultats démontrent que les scores obtenus sont de bons prédicteurs du décrochage scolaire. Le fonctionnement familial (FAD : Family Assessment Device) (Epstein, Baldwin & Bishop, 1983). Traduction du Family Assessment Device (Epstein et al., 1983) ce questionnaire mesure la perception du jeune au niveau du fonctionnement familial et il est répondu par l'élève. Il est composé de 60 énoncés au choix de réponses sur échelle Likert de 1 (tout à fait d'accord) à 4 (tout à fait en désaccord), réparties en 6 échelles : Résolution de problèmes (6 énoncés), Communication (9 énoncés), Rôles (11 énoncés), Expression affective (6 énoncés), Investissement affectif (7 énoncés), Contrôle des comportements (9 énoncés). Les analyses de validation montrent une fidélité test-retest qui varie de .66 à .76 et une validité très satisfaisante. La valeur discriminative de l'instrument a été démontrée en comparant les résultats de 98 familles cliniques et 218 familles non cliniques (corrélations de Pearson entre 0,4 et 0,6) et les différences significatives entre les moyennes des deux groupes (p < .001) témoignent de la validité de critère. Plusieurs études ont démontré la corrélation élevée du questionnaire avec d'autres mesures autorapportées du fonctionnement familial. Auprès des élèves québécois au cours de l'étude Soutien à la réussite scolaire en Estrie (2000 à 2003), l'analyse de la consistance interne des items des sous-échelles rapporte des coefficients alpha de Cronbach entre .43 et .46 aux trois temps de mesure pour la sous-échelle Résolution de problème, et entre .66 et .88 pour les six autres échelles. L'échelle de l'environnement de la classe (Moos & Trickett, 2002). Ce questionnaire d'évaluation du climat de classe est une version traduite abrégée du Classroom Environment Scale (Moos & Tricket, 2002). Il est complété par l'élève et il permet d'évaluer sa perception quant au climat social de la classe (relations enseignant/élève, relations entre les élèves, structure organisationnelle de la classe). Le questionnaire comprend 45 énoncés comprenant 9 échelles avec choix de réponses (vrai ou faux) : Engagement (4 items), Affiliation (4 items), Soutien de l'enseignant (4 items), Orientation vers le travail (4 items), Ordre et organisation (4 items), Clarté des règlements (4 items) et Innovation (4 items). Les propriétés psychométriques de la version R (intégrale, 90 items) du CES (Moos & Trickett, 1987) ont été établies auprès des élèves de 382 classes (97 classes de formation professionnelle, représentation d'écoles privées/ publiques, divers milieux socio-économiques, uni et multiethniques, etc.) et de 295 enseignants à travers les États-Unis. La version abrégée a été comparée à la version intégrale, auprès d'un échantillon de 38 classes du secondaire, avec des résultats très similaires et notamment des corrélations intraclasses au-dessus de .80 pour 34 classes. Le CES démontre une consistance interne adéquate (alpha de Cronbach entre .52 et .75) et une validité de convergence avec d'autres instruments qui mesurent divers aspects du climat de classe (r de .16 à .40). Lors des trois temps de l'étude Soutien à la réussite scolaire en Estrie, l'analyse de la consistance interne de l'échelle totale de la version abrégée rapporte des coefficients alpha de Cronbach entre .73 et .80, alors que ceux de cinq des sous-échelles varient entre .46 et .65. L'inventaire des comportements (CBCL, Achenbach, 1991). Le CBCL évalue les difficultés de comportement de l'élève. Ce questionnaire distingue les comportements internalisés des comportements externalisés et permet d'observer la présence de comportements anxieux, dépressifs, agressifs, autodestructeurs et de retrait et de somatisation. Ce questionnaire autorapporté et complété par l'élève comporte 113 énoncés sur divers comportements problématiques. Les réponses sont de type Likert en 3 points : « Ne s'applique pas », « Plutôt vrai », « Très vrai ». La cohérence interne de l'instrument a été évaluée à 0,95 pour les problèmes comportementaux et à 0,99 pour la compétence sociale. La fidélité test-retest est évaluée à 0,84 et à 0,97 pour les problèmes comportementaux et la compétence sociale respectivement. On a observé un taux de concordance très élevé (de 94 à 99 %) entre le CBCL et le DSM-III dans le diagnostic des troubles des conduites. L'évaluation des comportements de l'élève (BASC, Reynolds & Kamphaus, 1992). Ce questionnaire autorapporté et complété par l'élève mesure les troubles du comportement et les difficultés émotionnelles, les comportements adaptatifs et problématiques des jeunes en 130 questions sur 12 échelles. Seuls les items se rapportant aux échelles d'attitude du jeune envers l'école et son attitude envers les enseignants ont été retenus, soit un total de 19 questions sur 2 échelles, au choix de réponse vrai ou faux. Sur chacune des 2 échelles, l'élève est considéré à risque lorsque son score est de 6 ou plus. Les propriétés psychométriques de l'instrument sont reconnues : validité de contenu, fiabilité test-retest, et validité de convergence et de divergence. La fidélité du BASC sur ces deux échelles est bonne (alpha de 0,81 à 0,87). L'inventaire de dépression (Beck, 1978). Traduit en français par Bourque et Beaudette (1982), cette mesure autorapportée et complétée par l'élève comprend 21 items permettant d'évaluer l'intensité des symptômes affectifs, comportementaux, cognitifs et somatiques de la dépression. Pour chaque item, un choix entre quatre réponses graduées de 0 à 3 est offert à l'enquêté. Les qualités psychométriques du QDB ont été confirmées auprès d'adolescents québécois, les coefficients de consistance interne variant entre .86 et .88. Un score de coupure de 16 est suggéré pour identifier les sujets présentant les caractéristiques de la dépression clinique. La validité de cet instrument de mesure a été vérifiée (Barrera & Garrison-Jones, 1988; Strober, Green & Carlson, 1981; Teri, 1982). La procédure de recherche a été identique dans les deux pays. Après présentation du projet de recherche aux directeurs des établissements par les chercheurs et une fois l'assentiment du conseil d'administration et les autorisations parentales écrites accordées, nous avons procédé à l'administration des questionnaires. Les jeunes ont répondu aux questionnaires, en dehors de la présence de tout adulte de l'établissement, sous la supervision de 4 assistants de recherche de notre équipe, formés à la passation des tests en groupe classe. Le temps de passation varie de 60 à 90 minutes selon les niveaux de lecture et de compréhension des répondants. L'anonymat et la confidentialité des informations recueillies ont été garantis tant aux établissements, qu'aux familles et aux jeunes. Une fois la présentation de l'étude et de ses objectifs réalisées à l'ensemble du groupe d'élèves, ceux qui malgré une autorisation familiale positive ne désiraient pas participer à ce travail ont été dirigés en salle d'étude. Le premier objectif est d'identifier et de comparer entre l'Estrie et l'Aquitaine, les variables personnelles, familiales et scolaires qui différencient les élèves à risque de décrochage scolaire de ceux non à risque. Dans un premier temps, les analyses ont porté sur les moyennes des échelles de chacun des questionnaires, ensuite, nous avons fait des analyses de test T pour voir s'il existait des différences de moyennes entre les groupes d'élèves français et québécois. Enfin, nous avons fait une matrice de corrélation pour voir si les corrélations allaient dans le même sens et s'il n'y avait pas de variables trop fortement associées entre elles. Le tableau 1 rapporte les moyennes et les tests T obtenus aux échelles des différents questionnaires pour les élèves français et québécois. Au niveau personnel. Au questionnaire d'inventaire des comportements (Achenbach, 1991), l'élève qui est en retrait est celui qui préfère être seul, qui refuse de parler et qui est timide. La somatisation fait référence à l'élève qui affirme souffrir de maux de tête fréquents, de douleurs, de nausées ou de problèmes cutanés. L'anxiété-dépression concerne l'élève qui pleure beaucoup, qui peut avoir peur d'aller à l'école, qui se sent dévalorisé et qui est nerveux et tendu. On constate une différence significative entre les deux groupes. Les élèves français présentent plus de problèmes associées à l'anxiété-dépression que les élèves québécois. Les problèmes sociaux se traduisent par des difficultés à s'entendre avec les autres, le fait de se sentir persécuté, d' être jaloux et peu aimé par les autres. On constate une différence significative entre les deux groupes, les élèves français présentent plus de difficultés associées aux problèmes sociaux que les élèves québécois. Pour les problèmes de la pensée, l'élève déclare des pensées obsessives, des pensées bizarres, des réactions nerveuses et il répète sans cesse les mêmes gestes. L'élève qui a des problèmes d'attention est celui qui a des difficultés de concentration ou qui ne finit pas ce qu'il a commencé ou qui est souvent rêveur ou encore dont le travail scolaire peut être médiocre. Les élèves français présentent des difficultés associées aux problèmes d'attention significativement supérieures à celles des élèves québécois. L'élève qui présente des problèmes de déviance et de délinquance est celui qui commet des vols, qui ment, qui ne respecte pas les règles et qui s'absente de l'école sans raison. L'élève dont les comportements sont agressifs détruit les affaires des autres, agresse physiquement, est têtu, méfiant, colérique et bagarreur. Nos résultats indiquent de façon significative que les élèves français ont plus de difficultés associées aux comportements agressifs que les élèves québécois. Les problèmes intériorisés sont la somme des échelles de retrait de somatisation, d'anxiété-dépression, de problèmes de la pensée et des problèmes d'attention. On note une différence significative entre les deux groupes et les élèves français présentent plus de difficultés associées aux problèmes intériorisés que les élèves québécois. Les problèmes extériorisés sont la somme des échelles des comportements délinquants et agressifs. Il existe une différence significative entre les deux groupes qui montre que les élèves français présentent plus de difficultés associées aux problèmes extériorisés que les élèves québécois. Enfin, l'élève dépressif se caractérise par la tristesse, la perte de l'appétit, la difficulté à se concentrer, le sentiment de solitude, la crainte et des pleurs fréquents. La différence est significative entre les deux groupes, les résultats pour les élèves français reflétant plus de difficultés associées à la dépression que pour les élèves québécois. La matrice de corrélation indique une forte corrélation entre certaines variables. La variable dépression est fortement corrélée avec le retrait et l'anxiété-dépression. La variable anxiété dépression est fortement corrélée avec le retrait, la somatisation. Pour éviter des problèmes de multicoliniarité, nous avons enlevé les variables de retrait, d'anxiété-dépression et de somatisation dans les analyses multivariées. L'échelle des troubles intériorisés regroupe ces variables, nous l'avons aussi retirée des analyses. En fait, ces variables sont regroupées sous la catégorie des problèmes intériorisés et ont certains points communs comme l'anxiété élevée. Pour les autres variables, les corrélations vont dans le même sens tant en France qu'au Québec et varient de .216 à .536, sauf celles des comportements agressifs, des comportements délinquants et des problèmes d'attention. En effet, les comportements agressifs sont fortement corrélés avec les problèmes d'attention et les comportements délinquants. Ces variables peuvent être de nature différente : par exemple, un élève peut avoir des problèmes d'attention sans être délinquant ou agressif, ou être agressif sans être délinquant; il peut aussi rencontrer des problèmes d'attention ou être délinquant, sans pour autant avoir de problème d'attention ou d'agressivité. C'est pourquoi nous avons choisi de les garder dans les analyses. Nous reconnaissons que les comportements agressifs peuvent être un sous-groupe de délinquant. Enfin, ces variables sont souvent fortement associées aux élèves à risque de décrochage scolaire d'où l'intérêt de les conserver. L'échelle des troubles extériorisés regroupe ces dernières échelles, nous l'avons aussi retirée des analyses. Au niveau familial. Nous présentons les résultats aux échelles du questionnaire qui a servi à identifier les variables familiales (Epstein et al., 1983). La résolution de problème mesure les perceptions du jeune par rapport à l'habileté de la famille à résoudre ensemble les problèmes quotidiens, à planifier les étapes requises pour la résolution des problèmes, à composer avec les émotions des membres et mettre en place des solutions. Nous constatons l'existence d'une différence significative entre les deux groupes. Les élèves québécois rencontrent significativement plus de difficultés associées à la résolution de problèmes que les élèves français. La communication mesure les perceptions du jeune de l'efficacité, la clarté, l'étendue et la direction de l'échange d'information dans la famille. La différence est significative entre les deux groupes, ce qui montre que les élèves québécois présentent plus de difficultés associées à la communication que les élèves français. Les rôles mesurent les perceptions du jeune par rapport à l'efficacité de la famille dans l'attribution et/ou l'accomplissement de tâches : paiement de factures, tâches ménagères, responsabilités familiales, loisirs personnels. Les élèves québécois présentent plus de difficultés associées aux rôles que les élèves français. L'expression affective mesure les perceptions du jeune par rapport à l'habileté des membres de la famille à s'exprimer affectivement les uns envers les autres, et avec les émotions appropriées. Il y a une différence significative entre les deux groupes qui montre que les élèves québécois présentent plus de difficultés associées à l'expression affective que les élèves français. L'investissement affectif mesure les perceptions du jeune par rapport à l'investissement affectif au sein de la famille : qualité de l'intérêt envers l'autre, respect de l'autonomie et de l'intimité personnelle. Le contrôle des comportements mesure les perceptions du jeune quant aux normes et latitudes permises dans les comportements dans la famille : règles et conséquences des comportements, situations d'urgence ou danger, agressivité, etc. Les analyses de la matrice de corrélation indiquent que les corrélations sont faibles pour la majorité des variables, c'est-à-dire inférieures à .30 tant pour les élèves français que pour les québécois. Cependant, des corrélations sont plus élevées pour les élèves du Québec entre la communication et la résolution de problème, entre les rôles et la résolution de problèmes ainsi que la communication (Fr. .459; Québ. .639). Au niveau scolaire. Les échelles du questionnaire de l'environnement de la classe (Moss & Trickett, 2002) permettent d'identifier les variables de la classe. L'engagement mesure les perceptions du jeune quant à sa participation et son intérêt pour les activités en classe. La différence entre les deux groupes est significative et les élèves français perçoivent plus de difficultés associées à l'engagement dans la scolarité que les élèves québécois. L'affiliation mesure les perceptions du jeune par rapport aux sentiments d'amitié éprouvés par les élèves les uns envers les autres, soit dans la mesure où ils arrivent facilement à se connaître, à se lier d'amitié et à travailler ensemble. Le support de l'enseignant mesure les perceptions du jeune quant à l'aide, l'intérêt et l'affection manifestés par l'enseignant envers ses élèves. Les élèves français perçoivent significativement un soutien moindre de la part de l'enseignant que les élèves québécois. L'orientation vers le travail mesure les perceptions du jeune quant à l'importance accordée par l'enseignant à la centration sur la tâche scolaire et à la réalisation des activités scolaires prévues. La différence entre les deux groupes est significative. Les élèves québécois ont le sentiment d' être plus orientés vers le travail que les élèves français. La compétition mesure le niveau de compétition entre les élèves. Là encore, on constate une différence significative entre les élèves français et les élèves québécois, ces derniers percevant un niveau de compétition en classe plus élevé. L'ordre ainsi que l'organisation en classe mesurent les perceptions du jeune quant à l'importance accordée à la bonne conduite des élèves et à l'organisation du temps et des activités pendant les périodes d'enseignement. Il y a une différence significative entre les deux groupes qui montre que les élèves québécois perçoivent plus d'ordre et d'organisation en classe que les élèves français. La clarté des règlements mesure les perceptions du jeune quant à l'importance accordée en classe à l'instauration et au respect d'un ensemble de règles claires, cohérentes et bien expliquées, ainsi qu'aux conséquences clairement établies en cas de dérogation. Les élèves québécois déclarent une plus grande clarté dans les règles de la classe que les élèves français. Le contrôle des comportements mesure comment l'enseignant applique les règles. La différence entre les deux groupes est significative, les élèves français perçoivent plus de contrôle des enseignants que les élèves québécois. L'innovation en classe mesure les perceptions du jeune par rapport à l'encouragement à la créativité chez l'élève de la part de l'enseignant et de l'utilisation d'activités et de méthodes pédagogiques innovatrices et diversifiées par l'enseignant. L'attitude de l'élève envers l'école concerne l'opinion de l'élève quant à l'ennui ou l'intérêt que représente l'école, son sentiment qu'il s'agit d'une perte de temps ou d'un lieu enrichissant. Les attitudes de l'élève envers l'enseignant reflètent les représentations qu'il a de l'enseignant comme personne attentive, compréhensive, aidante ou au contraire comme personne trop exigeante, injuste, paresseuse et qui cherche à le prendre en défaut. Les corrélations de la matrice indiquent une variation entre - 0.577 à .553 et que la très grande majorité des corrélations sont en dessous de .300 ce qui suggère qu'elles sont relativement indépendantes entre elles. Enfin, les analyses du x 2 montrent qu'il existe une différence significative entre les élèves français et québécois. Les résultats des analyses de régression logistique pour chacun des contextes personnel, familial et scolaire permettent de pondérer les facteurs qui caractérisent le plus le groupe d'élèves à risque de décrochage scolaire des élèves non à risque. Nous avons testé si les variables s'appliquent de manière identique pour les garçons et les filles : les analyses de régression logistique montrent que les variables sont les mêmes et qu'il n'y a pas de différence selon le genre. Au niveau personnel. Pour les élèves français, cinq variables permettent de différencier les élèves à risque de ceux qui ne le sont pas. Les données montrent que plus l'élève est âgé, plus il a de probabilité de faire partie du groupe à risque. Les élèves à risque présentent plus de problèmes de la pensée que ceux non à risque. Les problèmes de la pensée traduisent des pensées obsessives, bizarres, des gestes répétitifs ou réactions nerveuses. L'élève à risque se différencie aussi des non à risque au niveau des problèmes d'attention ce qui suggère que cet élève a des difficultés d'attention, de concentration, qu'il ne finit pas ce qu'il a commencé, qu'il est souvent rêveur ou encore que son travail scolaire peut être médiocre. On retrouve aussi la présence de problèmes de délinquance. Ainsi, l'élève à risque se perçoit comme ne respectant pas les règles, il peut mentir, voler et s'absenter de l'école sans raison. Enfin, les élèves à risque vivent plus de sentiments dépressifs que les autres car ils estiment être triste, avoir perdu l'appétit, avoir de la difficulté à se concentrer, se sentir craintif et seul et pleurer souvent. L'aire de la courbe ROC est de .733 ce qui montre que la classification est acceptable. Trois variables contribuent le plus au modèle : les problèmes d'attention, les sentiments dépressifs et les problèmes de la pensée. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 21,8 %. Pour les élèves québécois trois variables sont significatives et permettent de différencier les élèves à risque des élèves non à risque : l' âge de l'élève, les problèmes d'attention et l'agressivité qui est marginalement significative. L'échelle d'agressivité décrit des comportements d'opposition, de bruits, de bagarres, de méfiance, de menaces, de cris et de changements soudains d'humeur. Les analyses du x 2 du modèle montrent que deux variables contribuent légèrement plus au modèle : l' âge de l'élève et les problèmes d'attention. L'aire de la courbe ROC est de .736 ce qui montre que le modèle permet une classification acceptable des élèves à risque de décrochage. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 23,5 %. Au niveau familial. Pour les élèves français, une seule variable familiale permet de différencier les deux groupes : les élèves à risque perçoivent moins de contrôle familial que les élèves non à risque. Le contrôle familial fait référence aux normes et règles qui régissent la famille dans les situations de tous les jours et dans les situations difficiles. L'aire de la courbe ROC est de .663 ce qui indique que la classification est acceptable. Le contrôle familial est la variable qui contribue le plus au modèle du x 2. Le calcul du R 2 de Nagel Kerke nous informe que la variance du risque est de 11,4 % ce qui signifie que le contexte familial permet peu de discriminer les élèves à risque de ceux non à risque de décrochage scolaire. Pour les élèves québécois, seule la résolution de problème permet de différencier les deux groupes d'élèves. Par conséquent, les analyses du x 2 du modèle montrent que la variable résolution de problème contribue faiblement au modèle. L'aire de la courbe ROC est de .657 ce qui est une classification médiocre et peut s'expliquer par le fait qu'il y ait une seule variable dans le modèle. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 12,2 % ce qui est peu. Comme pour les élèves français, les variables familiales sont peu discriminantes pour différencier les élèves à risque et non à risque. Au niveau scolaire. Pour les élèves français, les élèves à risque se différencient des élèves non à risque sur trois variables. Les élèves à risque perçoivent plus de compétition en classe. Ils présentent des attitudes plus négatives envers l'école. En effet, ils perçoivent l'école comme étant ennuyeuse, ils pensent que c'est une perte de temps et ils préfèrent ne pas y penser. Ils souhaitent aussi ne pas avoir de bulletins de notes qui sont une source d'irritation associée à l'école. L'élève à risque présente aussi des attitudes négatives envers l'enseignant. Il le perçoit comme trop exigeant, injuste, paresseux et cherchant à le prendre en défaut. L'aire de la courbe ROC est de .663 ce qui est une classification acceptable. L'attitude négative envers l'école est le facteur qui contribue le plus au modèle du x 2. La compétition en classe est aussi un facteur important ainsi que l'attitude envers l'enseignant. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 18,3 %. Pour les élèves québécois, deux variables permettent de différencier les deux groupes d'élèves : les attitudes négatives envers l'école et les attitudes négatives envers l'enseignant. Une seule variable contribue significativement au modèle du x 2 : les attitudes négatives envers l'école. L'aire de la courbe ROC est de .764 ce qui est une classification acceptable des élèves à risque. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 26,6 %. Toutes les variables significatives et marginalement significatives au niveau personnel, familial et scolaire ont été intégrées en bloc dans le modèle final. Trois variables sont significatives : l' âge de l'élève, les problèmes d'attention et les attitudes négatives envers l'école. Deux variables contribuent le plus au modèle du x 2 : les attitudes négatives envers l'école et l' âge des élèves. L'aire de la courbe ROC est de .802 ce qui montre que ces variables permettent une excellente classification des élèves à risque. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 26,6 %. Le deuxième objectif de notre étude est d'identifier les variables personnelles, familiales et scolaires les plus associées aux élèves à risque de décrochage et d'établir des comparaisons entre les élèves français et québécois identifiés comme étant à risque. Pour atteindre cet objectif, le tableau 2 rapporte le modèle final des analyses de régression logistique pour les élèves français. Les variables incluses dans le modèle ont été sélectionnées en fonction de leur différence significative ou marginalement significative car elles avaient un coefficient très près de .05. Les analyses dans chacun des contextes avec la variable dépendante ont été entrées en bloc dans l'équation statistique. Pour les élèves français, huit variables permettent le mieux de prédire l'appartenance au groupe d'élèves à risque. La variable âge nous indique que plus l'élève vieillit plus il est susceptible d'appartenir au groupe à risque, les problèmes de la pensée, les troubles de l'attention, la dépression, la communication parent/adolescent, la compétition en classe, les règles et l'organisation lacunaire en classe ainsi que les attitudes négatives envers l'école. Parmi ces dernières variables, trois variables contribuent le plus au x 2 du modèle : ce sont les attitudes négatives des élèves envers l'école, l' âge des élèves et les problèmes d'attention. Les résultats de l'analyse logistique suggèrent que le modèle final est globalement significatif. L'aire de la courbe ROC est de .791 ainsi, le modèle permet une classification excellente des élèves à risque de décrochage. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 31,6 %. Pour ce modèle final des analyses des élèves québécois, le tableau 3 montre que trois variables sont significatives : l' âge de l'élève, les problèmes d'attention et les attitudes négatives envers l'école. Deux variables contribuent le plus au modèle du x 2 : les attitudes négatives envers l'école et l' âge des élèves. L'aire de la courbe ROC est de .802 ce qui montre que ces variables permettent une excellente classification des élèves à risque. Le calcul du R 2 de Nagel Kerke indique que la variance du risque est de 35,6 % ce qui est relativement élevé compte tenu de la complexité de ce champ d'étude. Les élèves à risque de décrochage qu'ils soient français ou québécois rencontrent un certain nombre de difficultés que ce soit d'ordre personnel, familial ou scolaire. Difficultés qui, cumulées favorisent l'apparition de problèmes d'adhésion ou de réussite à l'école. Les résultats de cette recherche n'indiquent pas de différence selon le genre des participants. L'étude des variables personnelles indique que pour les participants français, les variables les plus associées sont celles des problèmes d'attention, l' âge, les comportements délinquants et la dépression. Chez les élèves québécois, les variables personnelles les plus associées au risque de décrochage sont l' âge, les comportements agressifs (faiblement) et les problèmes d'attention dans une moindre mesure. Ainsi, ces résultats rejoignent les conclusions de recherches précédentes identifiant les problèmes de délinquance et d'agressivité comme étant associés au décrochage scolaire (Roché, 2001; Lagrange, 2001; Blaya, 2010; Jimerson et al., 2000; Marcotte, Fortin, Potvin. et Papillon, 2002; Fortin et al., 2004). De plus, comme nous l'avons vu, les problèmes d'attention sont fortement corrélés avec le retrait, l'anxiété et la dépression chez les participants français. D'après Jimerson et al. (2000), la fréquence élevée des troubles du comportement est un des facteurs les plus corrélés au décrochage scolaire. De plus, les élèves ayant un trouble du comportement (délinquance, agressivité), ont un rendement scolaire très faible et présentent un niveau de dépression élevé (Fortin et al., 2004), ce qui est cohérent avec la concomitance des variables délinquance et dépression dans notre recherche. Les conduites inadéquates comme l'agressivité, le refus de coopérer avec l'enseignant, le non-respect du règlement scolaire ont pour conséquences un nombre élevé de retenues, d'absences, d'exclusions de l'école (Alexander et al., 1997). Autant d'éléments pouvant amener un jeune à se marginaliser peu à peu du milieu scolaire, par un renforcement des conduites perturbatrices (Blaya, 2003). Toutefois, ces variables sont peu discriminantes dans le modèle comme nous l'avons rapporté dans la présentation des résultats. Les résultats indiquent qu'en France tout comme au Québec, le risque de décrocher augmente avec l' âge. Ceci peut s'expliquer par le cumul des difficultés tant au niveau personnel que scolaire au fil des années. Les difficultés d'apprentissage non résolues d'emblée vont avoir un effet cumulatif avec l'avancement dans la scolarité, sur le sentiment de compétence et la motivation des individus. Or, l'on sait que la motivation s'enracine dans la perception que l'effort investi produira des effets positifs, que la réussite permettra d'atteindre le but visé par le sujet (en l'occurrence la réussite scolaire, l'obtention de diplôme) et dans la valeur accordée à la réussite scolaire (selon la théorie VIE de Vroom sur la motivation (Bourgois, 2006) i. Les redoublements ainsi que les orientations dans des filières professionnalisantes sont souvent subies comme un déclassement. Les élèves dont la motivation intrinsèque est élevée obtiennent de meilleurs résultats (Martinot, 2001). Celle -ci est favorisée par l'affiliation (appartenance à l'école, au groupe de pairs), par un sentiment de compétence suscité par un apprentissage de niveau approprié à celui de l'apprenant et par l'impression de jouir d'une certaine autonomie. Chez l'élève le sentiment d'avoir la capacité de contrôle sur sa carrière scolaire et non pas celui d'agir sous la contrainte est primordial. Or, redoublements et orientations subies dans des classes spécialisées ou de formations professionnelles, sont autant d'éléments qui contribuent à réduire ces sentiments et par conséquent la motivation à apprendre. La recherche sur les élèves à risque de décrochage indique que la dépression est un des facteurs le plus associé au décrochage scolaire. Les résultats de notre étude indiquent que ce facteur est présent chez les deux groupes d'élèves à risque (France et Québec) par rapport aux répondants non à risque. Toutefois, on note une plus grande importance de ce facteur chez les répondants français. La dépression est en lien avec les problèmes de pensée et peut traduire des problèmes d'anxiété liés au milieu familial ou scolaire. Les élèves présentant des problèmes de dépression, selon la typologie de Fortin (2004), sont ceux qui présentent le moins de problèmes de comportements externalisés et sont donc le moins remarqués par leurs enseignants. Les élèves dépressifs, outre des troubles de l'humeur, sont plus susceptibles d'une perte d'intérêt pour les activités quotidiennes et d'avoir des difficultés à se concentrer, ce qui pourrait expliquer le fait que les problèmes d'attention soient une des variables différenciant les élèves à risque des élèves non à risque. De plus, ils rencontrent des difficultés d'ordre familial, des difficultés relationnelles contribuant sans doute à leur perception négative du climat de classe. La dépression ou encore le déficit d'attention, surtout lorsqu'il est en interaction avec un autre facteur de risque, ce qui est le cas notamment pour les participants français, sont fortement associés au décrochage (Rumberger, 1995; Jimerson et al., 2002; Marcotte, 2006). Déjà dans les années soixante et soixante dix, des chercheurs rapportaient que la famille était un facteur essentiel de la réussite scolaire des enfants (Coleman, 1961; Jencks, 1972). Les résultats des recherches de Potvin et al. (1999) montrent que les pratiques éducatives familiales ont un impact sur le décrochage scolaire en raison notamment d'un soutien affectif faible, d'un manque de cohésion et d'une communication perçus comme négatifs. Les élèves à risque de décrochage peuvent provenir de familles conflictuelles et l'investissement parental dans la scolarité est parfois insuffisant (Epstein, 1990) ou inadéquat à la demande scolaire dominante (Thin, 1998). Plus récemment, Englund, Egeland et Collins (2008) montrent que l'engagement ainsi que le soutien des parents envers leur adolescent sont associés à l'obtention du diplôme de leur enfant. Les résultats de notre étude, confirment les recherches précédentes dans le sens où dans l'échantillon français, la variable familiale la plus associée aux élèves à risque de décrochage est celle du contrôle parental faible en ce qui concerne les règles et les normes. De plus comme le montrent les résultats en termes de problèmes de comportement, les élèves à risque de décrochage français affichent une forte association de la variable délinquance, rejoignant ici la théorie du contrôle social de Hirschi (1969) selon laquelle la supervision et des liens forts sont des facteurs de protection contre la délinquance juvénile. On peut aussi rapprocher cela à la théorie de l'attachement selon laquelle les comportements déviants ou délinquants augmentent lorsque l'attachement d'un individu à la société ou à son environnement social est faible (Fillieule, 2001). De leur côté, les répondants québécois à risque de décrochage affichent une plus forte association avec l'incapacité de la famille à résoudre les problèmes de façon positive. Les climats familiaux conflictuels, sont un frein à la concentration et favorisent l'absentéisme. Cumulés à d'autres facteurs de type personnel et scolaire, ils peuvent accélérer le décrochage scolaire (Lessard et al., 2007; Tremblay, Côté, Boissonneault, Michaud, Allaire, 2005). L'on sait que le rapport au savoir des adolescents est influencé par les socialisations familiales et scolaires (Charlot, 1997) et celui de ceux qui évoluent dans un milieu conflictuel est influencé négativement en termes de baisse de motivation et de démobilisation scolaire (Prêteur, Constans, Féchant, 2004). Toutefois, nos résultats montrent que les variables familiales sont peu discriminantes entre les élèves à risque de décrocher et ceux non à risque. Si les facteurs personnels et familiaux contribuent à faciliter le décrochage, le milieu scolaire a sa part de responsabilité. À l'école, la plupart des élèves à risque de décrochage sont peu engagés dans leurs activités scolaires et sont souvent en conflits avec leurs enseignants (Fortin, Marcotte, Royer, et Potvin, 2005). Les travaux sur l'impact du milieu scolaire sur la scolarité, indiquent que sa structure organisationnelle et les problèmes relationnels jouent aussi un rôle important et peuvent amener des élèves à décrocher (Gottfredson & Gottfredson, 1985; Baker, Derrer et al., 2001). Ce que confirment les résultats des répondants français, les élèves à risque estimant qu'il y a trop de compétition dans la classe en lien avec le bulletin scolaire et donc le rendement scolaire. Mais aussi ceux des répondants québécois, la variable scolaire (attitudes négatives envers l'école) expliquant 26,6 % de la variance quant à la différence entre les élèves à risque et les autres. Le décrochage peut découler d'une mauvaise relation à l'école, de difficultés relationnelles, d'un climat scolaire négatif et peu propice à l'apprentissage (Hrimech, Théorêt, Hardy & Gariépy, 1993; Rothman, 2001), ou encore d'un sentiment d'ennui chez les élèves qui considèrent l'école comme une perte de temps (Blaya, 2010). Le climat de classe et les interactions élèves/ enseignants ont un effet sur l'engagement du jeune dans ses activités scolaires et sociales (Bennacer, 2000). Ainsi, le manque d'organisation dans la classe ainsi qu'une perception négative de l'enseignant augmentent le risque de décrochage scolaire. Nos résultats suggèrent que divers facteurs scolaires sont fortement discriminants entre les élèves à risque et les élèves non à risque pour le décrochage, notamment l'attitude générale envers l'école et l'attitude envers les enseignants pour l'ensemble des participants à risque et le sentiment de compétition pour les participants français en ce qui concerne l'atmosphère de la classe. Ce sentiment de compétition, est souvent mentionné par les élèves identifiés comme à risque de décrochage, notamment par les élèves en échec scolaire qui se sentent stigmatisés à la fois par l'institution et leurs pairs (Blaya, 2003). Cet effet d'étiquetage peut avoir pour conséquence le retrait de ces élèves et l'adoption de stratégies d'évitement d'une situation vécue comme douloureuse conduisant à des pratiques d'absentéisme de plus en plus fréquentes et à un décrochage. Ce rejet, tant de l'institution que des enseignants, peut être généré par les aspects scolaires déclinés précédemment et engendrer un abandon des études. Ceci va tout à fait dans le sens de ce que Dubet (1991; 1994) qualifie de culture anti-scolaire, d'une opposition grandissante des jeunes de milieux populaires à l'Institution qui se traduit par des violences scolaires et des comportements perturbateurs en réaction à un échec scolaire grandissant et à une insertion sociale et professionnelle compromise. Les résultats de notre étude montrent qu'un grand nombre de variables sont associées aux élèves à risque de décrochage, ce qui nous a amenés à tester l'ensemble des variables personnelles, familiales et scolaires à partir de régressions logistiques afin d'identifier lesquelles sont le plus fortement associées au phénomène. Les trois variables les plus importantes, tant pour la France que pour le Québec sont l' âge, l'attitude générale envers l'école et les problèmes d'attention dans une moindre mesure. Les problèmes d'attention, lorsqu'ils interagissent avec un autre facteur de risque favorisent les problèmes de comportement et les difficultés scolaires (Bird et al., 1988) car ils sont souvent en lien avec les problèmes de concentration, d'anxiété. Le cumul de ces facteurs favorise une attitude négative envers l'école qui est souvent aussi le résultat d'une perception négative des jeunes quant à l'enseignant et aux relations entre les pairs. Toutefois, l'école peut agir positivement et Bennacer (2000) montre que les enseignants peuvent favoriser la réussite scolaire en développant un meilleur climat social de la classe. La qualité de la relation enseignant-jeune, de par les attitudes et les comportements qui peuvent en résulter, a un impact sur le rendement et la persévérance scolaire du jeune (Englund et al., 2008; Fortin, Marcotte, Potvin, Royer & Joly, 2006). Cette recherche, permet de confirmer, dans la lignée des travaux précédents (Fortin et al., 2004), que c'est la combinaison et le cumul d'un nombre important de facteurs personnels, familiaux et scolaires qui favorise le décrochage scolaire, qu'il n'y a pas une cause unique aux difficultés rencontrées et que cette combinaison varie entre les individus et les contextes. Ceci devrait aider à orienter l'intervention tant au niveau individuel que national. En effet, à une époque où se développent les évaluations des programmes d'intervention et les recensions des écrits à partir des méta-analyses sur l'efficacité de ces programmes, il semble important de rappeler que l'intervention ne peut être efficace que si l'on tient compte du contexte tant au niveau individuel que scolaire et local afin de répondre au mieux aux caractéristiques et besoins des élèves en difficultés et de leur environnement. On pourrait reprocher à cette étude de s' être basée sur les perceptions des élèves à partir de mesures autorapportées. Notre démarche se situe dans une approche compréhensive faisant le lien entre le savoir scientifique et le savoir des acteurs sociaux (Aron, 1967). Il s'agit de laisser l'acteur donner du sens à son vécu, l'action et les comportements sociaux étant étroitement liés à la perception qu'ont les individus de cette expérience (Dubet, 1994). Cette recherche visait à identifier les variables les plus associées au décrochage scolaire à Bordeaux et en Estrie : variables personnelles, familiales, scolaires et dans un deuxième temps, nous avons vérifié, sur l'ensemble des variables significatives, quelles étaient les plus discriminantes quant au décrochage dans chaque pays participant. Les résultats montrent que les variables qui différencient les élèves à risque de décrochage des élèves non à risque sont à la fois des variables personnelles, familiales et scolaires. Contrairement à ce qui est véhiculé dans l'opinion publique ainsi que dans le milieu scolaire quant à l'impact des variables familiales, on constate une prépondérance des variables scolaires. Les deux groupes d'élèves à risque de décrochage présentent des résultats similaires en ce qui concerne l' âge, confirmant un processus de cumul des difficultés au fur et à mesure de la scolarité débouchant au décrochage définitif. Si les élèves québécois à risque de décrochage affichent plus de problèmes de comportement agressif, sûrement en réaction à la situation de classe et à leur rapport aux enseignants, les élèves français montrent plus de problèmes de dépression et de délinquance. Les problèmes familiaux ne sont pas exempts du modèle dans le sens où les familles des répondants français assurent une faible supervision alors que le milieu québécois semble plus affecté par des relations conflictuelles, confirmant ainsi que le milieu familial, la mauvaise qualité du climat familial et le peu d'engagement dans la scolarité jouent un rôle important dans l'insertion et la réussite scolaire des individus. En ce qui concerne les variables scolaires, l'attitude envers l'école et les enseignants ainsi qu'une atmosphère perçue comme trop compétitive dans la classe caractérisent les participants français alors que pour les participants québécois, ce sont les attitudes envers l'école et envers les enseignants qui prédominent. Ainsi, plus les difficultés d'apprentissage et les problèmes relationnels avec les enseignants sont importants, plus les élèves auront tendance à se désengager et à rejeter l'école. Ce que confirment les résultats du modèle final puisque lorsque l'on mesure le poids de l'ensemble des variables personnelles, familiales et scolaires sur le risque de décrochage, les variables les plus fortement associées aux élèves à risque sont l' âge, les problèmes d'attention et l'attitude envers l'école pour les élèves français et québécois. Ces résultats confirment la complexité des facteurs qui conduisent un jeune à quitter le système scolaire prématurément et sans diplôme et attestent que le décrochage est un processus résultant du cumul de difficultés engendrées par les échecs scolaires et les difficultés relationnelles (Fortin et al., 2004; Glasman & Oeuvrard, 2004). Aussi, l'intervention doit-elle nécessairement prendre en compte la diversité démontrée si elle veut être efficace et tenter d'agir sur les facteurs de protection permettant de réduire la vulnérabilité des jeunes concernés. De plus, les résultats nous amènent à nous interroger quant aux représentations des élèves sur l'école et les enseignants, montrant bien que les actions ponctuelles et s'intéressant essentiellement aux apprentissages ne peuvent suffire si l'on veut réduire les pourcentages de jeunes en décrochage. Qu'ils soient français ou québécois, les élèves à risque de décrochage partagent une vision assez négative de l'école. Les résultats ouvrent de nouvelles perspectives tant en termes de prévention et de lutte contre le décrochage scolaire qu'en termes d'avancée du développement des connaissances. Les différents acteurs et institutions chargés d'accompagner les jeunes dans leur éducation et leur scolarité voient ainsi confirmer que la responsabilité des difficultés n'incombe pas aux uns ou aux autres mais à l'ensemble des acteurs et que la position qui s'impose, si l'on veut réduire ces difficultés est celle de la collaboration et non celle de la culpabilisation. Une des futures étapes possibles et pertinentes, pourrait être pour la France, une approche plus fine des différents types de décrocheur et un travail d'élaboration de politiques d'intervention basé sur des résultats scientifiques tel que cela se fait actuellement au Québec (Fortin et al., 2006) . | Cette recherche évalue les facteurs personnels, familiaux et scolaire associés au risque de décrochage scolaire chez les élèves (12-16 ans) de secondaire inférieur au Québec (Estrie) et en France (Aquitaine) et compare les facteurs de risque entre les deux pays. Les résultats montrent des différences significatives quant aux résultats obtenus entre les deux pays. Toutefois, quels que soient les participants, si les variables personnelles et familiales peuvent avoir un impact négatif sur le risque de décrochage, les facteurs scolaires sont aussi très présents et expliquent une grande part de la variance. Ce travail confirme la complexité des facteurs qui conduisent un jeune à quitter le système scolaire prématurément et sans diplôme et la nécessité d'interventions multi-niveau afin de prendre en compte la diversité des jeunes à risque de décrochage. | psychologie_11-0379297_tei_927.xml |
termith-757-psychologie | Pour Marcia (1966), la construction identitaire à l'adolescence se résume en une quête d'engagement nécessitant un processus d'exploration active de soi et de son environnement. Il est possible que l'expression de la créativité puisse concourir et/ou résulter de cette construction (Dollinger, Clancy-Dollinger & Centeno, 2005) : résulter, car le véritable acte créatif implique la résolution de toutes les crises psychosociales (Erikson, 1988); concourir, parce que la créativité peut être envisagée comme une composante du processus d'exploration identitaire (Berman, Schwartz, Kurtines & Berman, 2001). Néanmoins, il existe peu d'évidences empiriques permettant de confirmer ces relations. Il en résulte un certain flou, qui provient également du fait que, pendant longtemps, les champs de l'identité et de la créativité se sont mutuellement ignorés (Dollinger et al., 2005). Dans cet article, nous cherchons à clarifier ce flou en envisageant le paradigme des statuts identitaires de Marcia (1966) comme un cadre théorique pertinent pour comprendre les liens entre identité et créativité. À travers une synthèse de la littérature, ce paradigme nous permet d'identifier des structures identitaires plus ou moins propices à l'expression de la créativité. Par la suite, nous présentons une recherche visant à enrichir et confirmer l'intérêt de ce cadre théorique, en étudiant les liens entre les statuts identitaires et des facteurs jouant un rôle important dans la créativité : la pensée divergente et la pratique d'activités de loisirs créatifs. Opérationnalisant le concept d'identité soutenu par Erikson (1968), le paradigme de Marcia (1966) est devenu une approche dominante dans l'étude de l'identité à l'adolescence (Bosma, 1994). Ce paradigme s'appuie sur deux processus : 1) un processus d'exploration par lequel l'adolescent expérimente de nombreuses alternatives identitaires, et 2) un processus d'engagement qui renvoie aux choix, décisions, oppositions de l'adolescent dans différents domaines. Marcia s'est rendu compte que la manière dont l'adolescent parvenait à faire ses engagements faisait une grande différence selon qu'il avait connu, ou non, une période d'exploration. Ainsi, il a développé un paradigme en quatre statuts identitaires possibles selon le niveau, faible ou élevé, d'exploration et d'engagement (voir tableau 1) : la réalisation identitaire décrit les adolescents qui ont exploré différents domaines de vie puis se sont engagés à travers des choix personnels. Ces adolescents sont considérés comme sûrs d'eux -mêmes, capables d'articuler les raisons de leurs choix. À l'opposé, la diffusion identitaire se définit par une faible exploration qui ne débouche pas sur une production de choix. Elle caractérise les adolescents marqués par un profond désintérêt, ayant des difficultés à se positionner. Le moratoire identitaire est une période d'exploration, de questionnements intenses avec une quête d'engagement. Ce statut décrit les adolescents en « crise », parvenant difficilement à formuler des choix. À l'opposé, la forclusion identitaire (ou identité héritée) se détermine par des engagements très affirmés, qui ne résultent pas d'une période d'exploration mais plutôt d'une intériorisation profonde des valeurs sociales et parentales. Ces engagements laissent peu de place à l'exploration d'alternatives identitaires. Durant quatre décennies, plusieurs prolongements ont enrichi ce paradigme en apportant des précisions sur les processus d'exploration et d'engagement (Barbot, 2008). D'autres travaux se sont consacrés à l'examen de différences inter-statuts, fournissant en même temps une validité nomologique au paradigme de Marcia (Berzonsky & Adams, 1999). Par exemple, des aspects motivationnels ont différencié les adolescents selon leur statut identitaire (motivation intrinsèque et extrinsèque notamment). La motivation intrinsèque décrit le type d'activités qu'une personne fait volontairement et pour la satisfaction qu'elles lui procurent, alors que la motivation extrinsèque concerne l'investissement d'un individu dans des activités, non pas pour l'intérêt qu'elles présentent en elles -mêmes, mais parce qu'elles sont nécessaires pour l'atteinte d'objectifs qu'on s'est fixés (Blanchard, Vrignaud, Lallemand, Dosnon & Wach, 1997). Waterman (2004) envisage la motivation intrinsèque comme une dimension complémentaire pour définir l'identité, parce qu'elle renseigne sur la qualité des engagements (les choix sont-ils motivés par des désirs ou sont-ils adaptatifs ?). Des études indiquent que le statut de réalisation serait associé à une orientation motivationnelle intrinsèque (contrairement à la diffusion), alors que la forclusion caractériserait davantage les adolescents extrinsèquement motivés (Waterman, 2004). D'autres différences inter-statuts ont été identifiées sur plusieurs variables de personnalité. Pour les théoriciens de l'identité, la personnalité pourrait apporter une fondation aux processus identitaires (Clancy & Dollinger, 1993) et constituerait une composante relativement stable qui oriente son développement (Grotevant, 1987). Il est présumé que la stabilité émotionnelle (reflétant une faible réactivité émotionnelle et une capacité à faire face aux situations stressantes) soit liée au processus d'engagement qui fournit aux adolescents une définition d'eux -mêmes (Bourne, 1978). Sans engagements, ils seraient ainsi enclins à une forte anxiété (Yoder, 2000). En accord avec cette hypothèse, Clancy et Dollinger (1993) ont montré que les statuts diffusion et moratoire sont associés à une faible stabilité émotionnelle qui prédit aussi une « crise » identitaire plus longue et intense. Envisagée comme une facette de surface de la stabilité émotionnelle, l'estime de soi positive est associée de manière cohérente aux statuts engagés (réalisation et forclusion) et ce, dans différents domaines de l'estime de soi (Barbot & Lubart, 2006). En outre, l'ouverture aux expériences (qui se manifeste par des intérêts larges, une capacité à vivre et rechercher des expériences nouvelles) serait conceptuellement reliée à l'exploration identitaire (Clancy & Dollinger, 1993). En effet, les adolescents ouverts seraient prédisposés à prendre en considération de nouvelles valeurs et à expérimenter de nouveaux rôles. Par conséquent, les statuts avec exploration (moratoire et réalisation) présentent un plus haut niveau d'ouverture (Clancy & Dollinger, 1993). Au contraire, Bennion et Adams (1986) ont montré que la forclusion était davantage associée à des attributs rattachés au pôle négatif du trait d'ouverture (rigidité intellectuelle et conformisme). Ce statut caractérise aussi les adolescents peu disposés à prendre des risques (Jones & Hartmann, 1984); la prise de risque (tendance à l'engagement dans des situations incertaines) étant également favorisée par le trait d'ouverture. Plus largement, il semble que les personnes peu ouvertes aient des centres d'intérêts moins étendus (notamment pour l'art) et un faible investissement dans diverses activités de loisirs (Costa, McCrae & Rolland, 1998). En conséquence, les adolescents en réalisation et moratoire, considérés comme plus ouverts, s'investiraient davantage dans ce type d'activités en raison d'une plus grande « sophistication culturelle » (intérêts pour l'art, la musique, la littérature) que les autres (Waterman & Waterman, 1974). Or, l'investissement dans des loisirs constitue un facteur jouant un rôle significatif dans la formation de l'identité (Feinsten, Bynner & Duckworth, 2006), permettant aux adolescents de découvrir des intérêts, formuler une identité personnelle (Erikson, 1968), et de l'affirmer pour eux -mêmes ou par rapport aux autres (Haggard & Williams, 1992). Néanmoins, la relation entre loisir et développement de l'identité dépend du sexe et de la nature sexuée des activités investies (Shaw, Kleiber & Caldwell, 1995). En effet, il existe des variations claires dans la participation et les intérêts pour différents loisirs en fonction du sexe (Poole, 1986) en raison des stéréotypes de genre qui les caractérisent. Depuis la description du concept de créativité par Guilford (1950), la littérature abonde de recherches et de définitions ayant apporté différents éclairages à cette notion. Aujourd'hui, il existe un consensus autour d'une définition générale selon laquelle la créativité est la capacité à réaliser une production, à la fois nouvelle et adaptée au contexte dans lequel elle se manifeste (Sternberg & Lubart, 1995). Selon l'approche multivariée (Lubart, 1999), la créativité requiert une combinaison particulière d'un ensemble de facteurs individuels (cognitifs, conatifs et émotionnels), et environnementaux. Les facteurs cognitifs impliqués renvoient aux processus de la pensée qui conduisent à la production créative. Une manière courante de définir la créativité d'un point de vue cognitif fait seulement référence à la pensée divergente (Guilford, 1967), parce que cette capacité prédit bien le potentiel créatif des individus (Lubart, Mouchiroud, Tordjman & Zenasni, 2003). La pensée divergente est un processus permettant de rechercher de manière pluridirectionnelle de nombreuses idées ou réponses, à partir d'un simple point de départ. Elle comprend les facteurs de fluidité (productivité des idées), flexibilité (variété des idées), et d'originalité (rareté statistique des idées proposées par rapport à celles répertoriées dans la population testée). Les facteurs conatifs font référence à des façons préférentielles de se comporter, dont certaines sont importantes pour la créativité. Ils facilitent l'utilisation des composantes cognitives intervenant dans le processus créatif. Plusieurs traits de personnalité présentent des relations avec la créativité (Lubart et al., 2003), tels que la prise de risque (proposer une idée nouvelle contient le risque que cette idée soit mise en échec) et plus particulièrement, l'ouverture aux expériences. En effet, la tendance à être ouvert à la nouveauté induit une motivation à être créatif qui interagit avec la pensée divergente pour rendre la production créative possible (McCrae, 1987). Ainsi, la motivation des individus influence également la nature et la force de leurs désirs à s'engager dans une activité créative. La motivation intrinsèque prédit un plus haut niveau de créativité que la motivation extrinsèque, et ce, que le domaine de motivation étudié soit en rapport avec la tâche créative à réaliser (Amabile, 1996), ou ne le soit pas (Moneta & Siu, 2002). Enfin, les facteurs environnementaux exercent un rôle dans le développement de la créativité et les diverses formes que peut prendre l'expression créative. Des recherches montrent que les enfants provenant d'une famille à structuration rigide trouvent moins d'idées que les enfants provenant de famille à structuration souple dans des tâches de pensée divergente (Lubart & Lautrey, 1998). Par ailleurs, il pourrait exister des liens stables entre le rang dans la fratrie et certains traits de personnalité importants pour la créativité; les puînés étant plus sociables et ouverts que les aînés (Lubart & Lautrey, 1998). Concernant l'environnement scolaire, Clifford et Chou (1991) montrent que plus les élèves avancent dans leur parcours, plus ils évitent la prise de risque (importante pour la créativité mais pouvant conduire à l'échec scolaire). Enfin, des études indiquent que l'investissement dans des activités créatives artistiques renforce les aptitudes créatives générales (Hickey, 2002). Ceci suggère qu'un environnement favorable au développement de la créativité permet à l'individu de multiplier ses expériences créatives. Bien que la recherche dans le champ de l'identité ait porté peu d'attention à la créativité (Dollinger et al., 2005), il existe quelques travaux qui ont tenté d'intégrer les concepts de créativité et d'identité. Une première approche se focalise sur la façon dont les personnes réputées créatives construisent leur identité et renvoient une image créative d'eux -mêmes (identité créative). Une seconde perspective s'intéresse à la créativité comme une composante ou une expression de la construction identitaire. Dans cette dernière approche, un cadre théorique, probablement négligé pour appréhender les liens entre identité et créativité, envisage le statut identitaire comme une structure organisant le potentiel créatif. L'identité créative : une organisation interne des expériences créatives. Le terme d'identité créative (proche de celui « d'identité artistique »), désigne l'image de soi issue de la façon dont une personne organise ses expériences de la créativité. Une grande partie des recherches s'intéressant à l'identité créative a exploré la composante motivationnelle qui pousse un individu à s'engager dans des activités créatives. Selon Rothenberg (1990), le développement d'une identité créative spécifique durant l'adolescence (investissement dans une activité créative) est une base nécessaire pour la motivation et la capacité à créer durant toute la vie. Rostan (1998) précise que cette motivation à créer est reliée à l'identité personnelle. Enfin, Petkus (1996) propose un cadre pour comprendre la motivation à s'engager dans un comportement créatif. Il suggère une relation cyclique entre une identité de « rôle créatif », l'exécution du rôle créatif et l'appui de rôle. Une personne avec une identité créative se comporte de manière à obtenir l'appui de rôle, ce qui renforce ainsi son identité de rôle. Par conséquent, la force d'une identité de rôle va significativement influencer la motivation à s'engager dans un comportement créatif. La créativité comme composante ou expression de l'identité. Plusieurs auteurs ont évoqué le rôle de la créativité dans le processus de construction identitaire ou proposé une analogie entre processus créatif et processus d'identisation. Par exemple, Berman (1998) soutient que la construction identitaire est en soi une forme de créativité. D'autres auteurs ont, selon les cas, envisagé la créativité comme « cause » ou « conséquence » du développement identitaire. Considérée comme une « cause », la créativité devient un processus utile au développement de l'individu. Pour Rothenberg (1990), l'engagement dans des activités créatives aide généralement à construire une identité cohérente durant et après l'adolescence. Selon Winnicott (1975), c'est seulement en étant créatif que l'individu découvrira le soi. En tant que moyen d'expression de soi, la créativité peut également s'avérer utile dans le processus de différenciation (Sudres, 1998). Parce qu'elle implique une forme de flexibilité, elle peut permettre à l'adolescent de s'adapter aux nombreux changements qu'il traverse (Berman, 1998), et de se penser autrement à travers une « transformation créative de soi » (Getz & Lubart, 1998). Les travaux de Berman et al. (2001) suggèrent que la créativité pourrait être une composante du processus d'exploration. Ces chercheurs ont constaté une contribution d'une forme de créativité sociale (production de solutions alternatives dans des dilemmes de choix de vie hypothétiques) dans le processus d'exploration identitaire. Une approche réciproque et complémentaire suggère que la créativité pourrait être intrinsèque à l'identité et refléter une expression du soi. Selon cette approche, J. Erikson (1988) affirme que le véritable acte créatif nécessite la résolution de toutes les crises psychosociales. Wolff (1981) avance que l'originalité est plus une question « d' être » que de « faire », et existe dans la nature même de l'individu qui l'exprime. Selon lui, l'originalité représenterait l'unicité d'un individu. En cohérence, Joy (2001) montre que le besoin d' être différent est prédictif de l'originalité des réponses dans des tests de pensée divergente. En outre, Dollinger et al. (2005) ont montré que plus l'identité d'un adolescent est accomplie, et plus l'adolescent a tendance à être créatif et ouvert. Enfin, une approche plus intégrative propose que la créativité et l'identité personnelle émergent et se développent interactivement (Albert, 1990). Statuts identitaires et approche multivariée de la créativité. Les travaux mentionnés précédemment font partie des rares tentatives ayant cherché à intégrer les concepts d'identité et de créativité, mais ils manquent souvent de fondements permettant d'asseoir cette intégration. Le paradigme de Marcia constitue pourtant un cadre théorique qui suggère largement certains recouvrements. Si l'on peut aisément pressentir des liens entre le processus d'exploration et la créativité, parfois confirmés par des recherches, il semble cohérent que les statuts identitaires résultant de ce processus expliquent des différences en termes d'aptitudes créatives. En effet, plusieurs variables importantes pour la créativité sont différentiellement liées aux statuts identitaires (et pas uniquement au processus d'exploration). Le tableau 2 offre une synthèse de ces variables qui expliquent à la fois des différences inter-statuts et constituent des facteurs importants dans l'expression de la créativité. La mise en équation de travaux sur la créativité et de recherches portant sur les différences inter-statuts, suggère donc l'existence de profils multivariés plus ou moins propices à la créativité selon les statuts. Sans présenter un croisement exhaustif de ces deux domaines de recherche, les travaux cités dans le tableau 2 montrent que les profils multivariés théoriques des statuts réalisation et moratoire (c'est-à-dire les statuts avec exploration) sont, en principe, plus propices à l'expression créative que ne le sont les statuts diffusion et forclusion. (+) = facteur positivement lié au statut identitaire; (−) = facteur négativement lié au statut identitaire. Le paradigme de Marcia offre un cadre pertinent pour envisager l'identité comme structurant le profil créatif multivarié des adolescents. Néanmoins, il semble que les profils théoriques identifiés devraient être confirmés et enrichis par l'examen d'autres variables jouant un rôle important dans l'expression de la créativité et la construction de l'identité. En particulier, la pensée divergente est une dimension de la cognition créative essentielle pour la créativité (Guilford, 1950) qui pourrait contribuer au processus d'exploration (Berman et al., 2001). Ainsi, nous faisons l'hypothèse que les statuts identitaires avec exploration (réalisation et moratoire) sont associés à de plus hauts niveaux de pensée divergente que ne le sont les autres statuts. Par ailleurs, l'investissement dans des loisirs, et plus particulièrement dans des loisirs créatifs, peut être envisagé comme structurant pour l'identité (Feinsten et al., 2006) et l'expression de la créativité (Hickey, 2002). Puisque les adolescents dans les statuts réalisation et moratoire font montre d'intérêt pour ce type d'activités, nous faisons l'hypothèse qu'ils les investissent davantage. En nous appuyant sur Shaw et al., (1995), nous présumons que ces différences inter-statuts peuvent varier en fonction du sexe. Plus largement, nous supposons des différences inter-sexes et des spécificités développementales dans l'expression de la pensée divergente et l'investissement dans les activités créatives. Ainsi, nos objectifs secondaires visent à examiner l'effet de ces facteurs (âge et sexe) afin d'identifier leurs éventuels effets modérateurs quant aux liens entre statut identitaire et créativité. Nous avons interrogé 1 139 adolescents, scolarisés en classes de troisième, seconde et première, habitant dans la communauté urbaine de Bordeaux. 54 % des participants sont des filles (2 % n'ont pas renseigné leur sexe). Ils sont âgés de 15,7 ans en moyenne (Min = 13,7, Max = 19,1, ET = 1,1). Plus précisément, notre échantillon est majoritairement constitué d'adolescents en classe de troisième (68 %). Les adolescents provenant de lycées sont représentés dans une plus faible proportion (18 % en classe de seconde, 16 % en classe de première), mais de manière suffisante pour permettre des analyses comparatives entre niveaux scolaires. Les élèves de première issus de filières générales et technologiques sont équitablement représentés : 43 % sont en série Scientifique, 13 % en Littéraire, 26 % en Sciences médico-sociales, 18 % en série Sciences et technologies de la gestion. Concernant la situation professionnelle des parents, 73 % des participants ont leurs deux parents actifs, 22 % ont un parent actif et un parent sans activité professionnelle, 5 % ont leurs deux parents sans activité. Les chefs de famille sont pour 22 % agriculteurs exploitants, artisans, commerçants ou chefs d'entreprise; 17 % sont cadres ou de professions intellectuelles supérieures; 34 % sont employés ou de professions intermédiaires; 10 % sont ouvriers; 2 % sont retraités ou dans d'autres cas d'inactivité (14 % des participants n'ont pas renseigné cette information). Processus et statuts identitaires. Dans le cadre d'études préliminaires, nous avons construit l' Échelle multidimensionnelle des processus identitaires (EMPI). Cette échelle est une mesure dérivée du statut identitaire (elle permet une classification en statut identitaire sur la base de scores continus d'exploration et d'engagement), composée de 48 items présentés sous forme d'affirmations, à partir desquels les participants sont invités à estimer leur degré d'accord par l'utilisation d'échelles de Likert en 5 points. L'EMPI permet d'évaluer les processus et statuts identitaires en tenant compte des prolongements majeurs du paradigme de Marcia (Barbot, 2008) : détails des processus d'exploration (passée, présente, en largeur, et détaillée) et dimensionnalité des processus et statuts identitaires dans 4 domaines de vie (loisirs, profession future, amitié, famille). L'EMPI contient donc 4 échelles d'exploration passée, 4 échelles d'exploration présente et 4 échelles d'engagement spécifiques aux domaines. Outre ces 12 échelles spécifiques, l'EMPI permet le calcul de scores composites (exploration passée, exploration présente et engagement) afin d'évaluer le statut identitaire global. Nos études de validation ont montré une bonne consistance interne des échelles spécifiques et globales (alpha de Cronbach médian de .89), et une bonne fidélité test-retest (coefficient de stabilité médian de .75). L'examen de la validité théorique de l'outil, utilisant des analyses factorielles confirmatoires, a indiqué un ajustement adéquat des données au modèle théorique sous-jacent (chi 2 = 89,66, dl = 39, p < .00, chi 2 / dl = 2,3, NFI = .97, AGFI = .97, RMR = .041, RMSEA = .038). La validité critériée a été évaluée à l'aide de deux échelles anglo-saxonnes de processus et statuts identitaires traduites et adaptées : l'EIPQ (Balistreri, Busch-Rossnagel & Geisinger, 1995) et l'EOMEIS2 (Bennion & Adams, 1986). Nos résultats ont montré un patron de corrélation cohérent entre les échelles globales de l'EMPI et ces critères externes. Exemple d'items : « Dans le passé, j'ai exploré les nombreuses possibilités de métiers que j'aurais pu choisir » (exploration passée); « Je suis sûr(e) de la profession que je veux exercer » (engagement). Pensée divergente. Nous avons utilisé une tâche de pensée divergente graphique (plus ludique et facile à administrer en passation collective que sur support verbal), « les ronds incomplets », inspirée des tâches classiques de Guilford (1950, 1967). À partir d'une série de 33 ronds incomplets, les participants ont exactement 8 minutes pour compléter le plus de ronds possibles en faisant des dessins variés et originaux. Cette tâche nous a permis de mesurer deux aspects de la pensée divergente : la fluidité, qui correspond au nombre de réponses fournies (aspect quantitatif) et l'originalité, qui renvoie à la rareté statistique des idées proposées (aspect qualitatif). Après avoir répertorié l'ensemble des réponses (plus de 16 000), nous avons estimé leur probabilité d'occurrence dans la population testée. Par la suite, nous avons transformé les fréquences relatives de chaque réponse en points d'originalité, par l'utilisation du barème de Torrance (1976) : idée proposée par plus de 20 % de la population = 0 point; 5 % à 19,9 % = 1 point; 2 % à 4,9 % = 2 points; moins de 2 % = 3 points. Enfin, la note totale d'originalité a été calculée pour chaque sujet par la somme des points obtenus à chacune de ses idées. L'annexe A présente le stimulus utilisé dans cette tâche et des exemples de réponses plus ou moins originales (0 à 3 points). Participation dans des activités de loisirs créatifs. Un questionnaire portant sur la participation culturelle des adolescents (« les pratiques en amateur » issu de l'enquête sur la participation culturelle et sportive, INSEE, 2003) a été proposé afin de rentre compte de leur degré d'investissement dans des activités de loisirs créatifs. Par un système de choix dichotomique, les participants doivent indiquer pour chacune des activités proposées (écriture, dessins, théâtre, musique) s'ils ont, au cours des 12 mois précédant l'évaluation, participé ou non à cette activité en dehors du contexte scolaire. Un degré de participation total a été calculé en faisant la somme des activités investies par chaque adolescent. Avec le soutien et l'accord du rectorat de l'académie de Bordeaux, puis l'obtention de l'accord des chefs d'établissements concernés par cette étude, nous avons fourni un courrier d'information aux familles des participants, avisant chacun de nos interventions dans les classes. Ce courrier indiquait le thème général de la recherche sans faire explicitement référence à la notion de créativité, afin de ne pas susciter d'attitudes de réponse et l'impression de « testing » à éviter dans les épreuves de créativité (Torrance, 1976). Les familles et les participants eux -mêmes étaient informés du caractère facultatif et anonyme de la participation dans cette étude. Les adolescents ont été interrogés en classes entières et ont complété une série d'informations sociodémographiques (nationalité, catégorie socioprofessionnelle des parents, fratrie) ainsi que leur sexe et date de naissance. Dès lors, nous leur avons administré les différents outils dans l'ordre suivant : questionnaire sur la pratique de loisirs créatifs, EMPI, et ronds incomplets. Suivant le paradigme de Marcia, la classification des participants dans les statuts identitaire requiert l'indépendance des dimensions d'exploration passée et d'engagement. Dans cette étude, nous observons une indépendance relative de ces deux dimensions (corrélation entre exploration et engagement de r = .30). L'EMPI ne disposant pas de points de coupure déterminant le niveau élevé ou faible d'exploration et d'engagement, la classification des participants en statut identitaire a été effectuée par la technique des nuées dynamiques portant sur leurs scores composites centrés réduits d'exploration et d'engagement. La solution obtenue est cohérente avec la conceptualisation de Marcia. Sa propension à maximiser les différences intergroupes et minimiser les différences intragroupes (F [6, 2268] = 655,07, p < .001) ainsi que la robustesse des classifications, reflètent la qualité de cette solution. Les quatre groupes homogènes ainsi identifiés ont été nommés en fonction de leur profil moyen (voir figure 1). Enfin, un statut global a été attribué aux participants en fonction de leur groupe d'appartenance. Selon cette classification, 25 % des adolescents de notre échantillon apparaissent en diffusion identitaire, 34 % en forclusion, 26 % en moratoire et 15 % en réalisation. Une analyse de variance multivariée portant sur les scores d'exploration et d'engagement, utilisant les variables sexe, niveau scolaire et statut identitaire comme facteurs principaux, indique qu'il n'existe pas d'effet d'interaction entre ces facteurs. Néanmoins, nos analyses montrent des différences dans la distribution des statuts en fonction du niveau scolaire. En effet, si la forclusion identitaire est, après la diffusion, le statut le plus fréquent en classes de troisième (avec 35 % des élèves qui occupent ce statut) et de seconde (42 %), le statut modal en classe de première est le moratoire (39 %). À l'inverse, le moratoire est le moins courant en classe de troisième. Analyses corrélationnelles. Nos analyses corrélationnelles visent à apporter une vue d'ensemble des relations existantes entre les processus d'exploration et d'engagement, la pensée divergente (fluidité et originalité) et le degré d'investissement dans des loisirs créatifs. Les coefficients de corrélations obtenus entre ces variables (r de Bravais-Pearson) sont présentés dans le tableau 3. Les corrélations en gras sont significatives à p < .001 (N = 1 139). Bold characters indicates significant values at p < .001 (N = 1 139). Ces résultats indiquent une indépendance relative des différents aspects évalués dans cette étude. L'exploration est indépendante des variables de fluidité et d'originalité, et apparaît seulement corrélée très faiblement au degré d'investissement dans les activités créatives (r = .18), lui -même lié de façon négligeable à l'originalité (r = .12). Seuls les scores de fluidité et d'originalité entretiennent une colinéarité de plus grande ampleur (r = .65), ce qui apparaît cohérent avec l'idée selon laquelle, plus un individu donnera de réponses dans une tâche de pensée divergente, et plus il aura de chances de fournir des réponses rares (Torrance, 1976). Différences inter-sexes. Une analyse de variance multivariée sur les variables de pensée divergente, utilisant le sexe comme facteur principal indique un effet du sexe sur la productivité et l'originalité des idées (F [2, 1116] = 31,56, p < .001). En moyenne, les filles tendent à proposer davantage de réponses que les garçons (p < .07), mais apparaissent moins originales (p < .01). En outre, il existe des différences inter-sexes concernant le degré de participation dans les activités de loisirs créatifs (F [1, 1117] = 72,56, p < .001). Les filles participent davantage aux activités prises en compte que les garçons (M = 0,67, ET = 0,8 pour les garçons; M = 1,16, ET = 1 pour les filles). Une série de tests de Chi 2 portant sur les activités spécifiques prises en compte dans le degré de participation, montrent que les filles ont davantage pratiqué les activités de dessin (chi 2 = 15,4, p < .001), et surtout d'écriture (chi 2 = 101,85, p < .001), que les garçons. Différences selon le niveau scolaire. Nos analyses démontrent un effet significatif du niveau scolaire sur les scores de pensée divergente et le degré de participation aux activités de loisirs créatifs (F [8, 2266] = 4,00, p < .001). Les tests post hoc de Tukey indiquent que les adolescents en classes de troisième sont moins performants que les adolescents en seconde et première, tant au niveau de la fluidité que de l'originalité des idées. En outre, nous avons identifié un effet significatif de la distribution des statuts identitaires selon le niveau scolaire des participants (chi 2 = 28,4, dl = 6, p < .001). En classe de troisième et de seconde, le statut le plus courant est la forclusion (34 % et 42 %) alors qu'en classe de première, le statut modal est le moratoire (39 %). À partir de la classification des participants en statut identitaire, nous avons procédé à une analyse de variance sur le degré de pratique de loisirs créatifs, utilisant le statut identitaire comme facteur principal. Conformément à notre hypothèse, le résultat de cette analyse (F [3, 1090,4] = 11,34, p < .001) indique que les adolescents en diffusion identitaire (M = 0,84, ET = 0,93) et ceux en forclusion (M = 0,78, ET = 0,90) participent moins aux activités de loisirs à l'étude que les adolescents en moratoire (M = 1,08, ET = 0,96), et surtout en réalisation (M = 1,21, ET =1,10). Les tests post hoc de Tukey utilisés en complément de l'ANOVA indiquent que les statuts diffusion et forclusion ne diffèrent pas significativement. Les statuts moratoire et réalisation ne différent pas non plus. Partant du constat que le degré d'investissement dans les loisirs créatifs est plus important chez les filles, nous avons procédé à une analyse d'interaction factorisant l'effet du sexe. Cette analyse montre que l'effet du statut identitaire sur le degré d'investissement dans les loisirs créatifs tend à être plus marqué chez les filles que chez les garçons (F [3, 1111] = 2,35, p < .07). En d'autres termes, la pratique d'activités créatives différencie moins les garçons en fonction de leur statut identitaire. La figure 2 présente le taux de participation culturelle en fonction du sexe et du statut identitaire. Bien que la pratique d'activités créatives ne reflète pas en elle -même le niveau de créativité, il est tout de même avéré que l'investissement dans ce type d'activités favorise d'autant la créativité que ces activités sont multiples et variées (Hickey, 2002). C'est effectivement ce que nous observons avec un effet du nombre d'activités créatives investies par les adolescents sur leurs scores de pensée divergente (F [6, 2268] = 3,1, p < .006). Les adolescents ayant investi deux activités ou plus, ont fourni des réponses plus nombreuses et originales au test de pensée divergente. Suivant la même procédure, nous avons réalisé une analyse de variance multivariée sur les scores centrés réduits de pensée divergente, utilisant le statut identitaire comme facteur principal. Le résultat de cette analyse (F [6, 2268] = 2,41, p < .03), complétée par les tests post hoc de Tukey, indique que le statut moratoire est associé aux meilleures performances de pensée divergente que les autres statuts ne le sont, tant sous l'angle quantitatif (fluidité des idées) que sous l'angle qualitatif (originalité des idées). Contrairement à nos attentes, les adolescents en réalisation identitaire ne montrent pas de supériorité dans leur capacité de pensée divergente. Alors que les filles tendent à être plus fluides et les garçons plus originaux, une analyse d'interaction factorisant l'effet du sexe, indique que l'effet du statut identitaire sur les capacités de pensée divergente est le même pour les filles que pour les garçons (p = ns). La figure 3 présente les niveaux moyens de fluidité et d'originalité en fonction du statut identitaire. Les liens entre identité et pensée divergente observés dans cette étude ne vont pas entièrement dans le sens suggéré par la littérature. En particulier, nos analyses démontrent que l'exploration n'est pas liée aux scores de pensée divergente. Ce résultat entre en contradiction avec les travaux de Berman et al. (2001), à ceci près que les auteurs utilisaient une tâche de pensée divergente dans le domaine social (peut-être davantage congruente avec le processus d'exploration que ne l'est le dessin). En dépit de ces faibles liens, nos résultats indiquent que les adolescents en moratoire ont de meilleures performances de pensée divergente, ce qui est cohérent avec les spécificités de ce statut, et notamment le processus actif d'examen des possibles qui le définit. Ainsi, la pensée divergente semble bien différencier les adolescents selon leur statut identitaire, ce qui n'est pas exclusivement à comprendre par les liens supposés entre pensée divergente et processus d'exploration. Cette précision raffermit l'intérêt de la typologie de Marcia et confirme son efficacité pour envisager les liens entre identité et créativité. Cependant, nous nous attendions également à trouver de meilleures performances de pensée divergente chez les adolescents en réalisation, ce qui n'est pas le cas. Ce résultat peut lui aussi s'interpréter au regard des spécificités de ce statut, caractérisé par des engagements supposés réfléchis, qui sont l'aboutissement d'un processus d'exploration. Cette caractéristique indique que, théoriquement, la réalisation ne devrait plus être associée à un processus présent d'exploration. En effet, bien que leur niveau d'exploration et d'engagement diffère, les statuts diffusion, forclusion et réalisation identitaire ont ceci de commun que les adolescents dans ces statuts ne sont pas, ou plus, dans un processus de recherche active d'engagement. En accord avec Waterman et Waterman (1974), nos résultats indiquent que les adolescents en moratoire et réalisation investissent davantage des activités de loisirs créatifs, confirmant ainsi le rôle joué par les loisirs dans la formation de l'identité (Feinsten et al., 2006). Ces loisirs, surtout lorsqu'ils permettent l'expression de la créativité (tels que ceux étudiés dans notre recherche), constituent une plateforme utile pour affirmer son identité (Haggard & Williams, 1992). L'investissement dans ce type d'activités pourrait donc être structurant parce qu'il implique des engagements, et fournit un support d'expression utile pour la construction de l'identité (Rothenberg, 1990). Néanmoins, le lien entre statut identitaire et pratique d'activité créative apparaît plus marqué chez les filles, renforçant l'idée selon laquelle les relations entre loisir et développement de l'identité dépendent du sexe des adolescents (Shaw et al., 1995). Ceci met en question le rôle joué par ces activités dans le développement de l'identité des garçons. Il est possible que ces derniers investissent davantage des activités non investiguées dans cette étude, et que celles prises en compte (écriture, dessins, théâtre, musique) soient caractérisées par des stéréotypes de genre qui n'auraient pas le même effet dans la construction de leur identité. En effet, selon Shaw et al. (1995), les garçons seraient enclins à participer à des activités masculinisées, et en particulier le sport, qui les enfermeraient dans un univers autoritaire peu propice à l'exploration et la métaréflexion. Au contraire, les filles seraient moins conformistes dans leurs choix de loisirs et investiraient des activités moins traditionnelles, ce qui encouragerait leur autonomie et leur propension à explorer des alternatives identitaires. Cet effet du sexe sur la pratique d'activités créatives pourrait aussi expliquer le gain observé sur les scores de fluidité des filles. Dans notre étude, le degré d'investissement dans des activités créatives est lié à la pensée divergente, conformément à la synthèse d'Hickey (2002). Il n'est pas à exclure que ces activités stimulent la fluidité des idées. Nos résultats indiquent aussi que les garçons produisent, en moyenne, des réponses plus originales. Toutefois, l'explication des différences inter-sexes dans les capacités de pensée divergente est un sujet controversé en raison de la diversité des résultats obtenus. Il semble que les filles soient plus fluides pour les tâches de pensée divergente dans le domaine verbal et, plus largement, dans les domaines artistiques, alors que les garçons réussiraient mieux ce type de tâches dans les domaines scientifiques et mécaniques (Baer, 1998). Les capacités de pensée divergente semblent également influencées par l' âge (opérationnalisé dans cette étude par le niveau scolaire) : les adolescents en classes de troisième produisent des réponses moins nombreuses et originales que ceux en classes de seconde et de première. Cette spécificité développementale peut se comprendre à travers les réorganisations identitaires rattachées à la période adolescente. Selon Erikson (1968), la formation de l'identité inclut le développement parallèle des capacités cognitives qui servent à organiser et intégrer les informations recueillies à travers les expériences personnelles. Il est possible que la pensée divergente joue également un rôle utile dans cette construction, en favorisant le processus d'exploration (Berman et al., 2001). Ainsi on s'attend à ce que la maturation identitaire, impliquant un processus d'exploration, corresponde à de meilleures capacités de pensée divergente. En accord avec cette hypothèse, nos résultats indiquent que le statut moratoire, moins fréquent en classe de troisième, est associé aux meilleures performances de pensée divergente. Le constat de cet effet de l' âge sur les performances de pensée divergente et la distribution des statuts identitaires, permet donc d'envisager un développement parallèle, ou interactif, de l'identité et de la créativité. Cette hypothèse doit être examinée au regard des tâches développementales rattachées à chaque tranche d' âge étudiée. Il est possible que la classe de première soit propice au moratoire en raison des échéances scolaires qui impliquent une exploration des choix d'orientation. Chez les plus jeunes, la classe de troisième (associée majoritairement aux statuts diffusion et forclusion) pourrait correspondre à une période où l'adolescent s'engage de manière adaptative, en réponse aux demandes sociales, possiblement prématurées, lui imposant de formuler des choix. Associées au développement de la pensée divergente, ces demandes contextuelles spécifiques pourraient donc favoriser une structure identitaire plutôt qu'une autre (Yoder, 2000). Des études longitudinales examinant les transitions dans le statut identitaire (passage d'un statut à un autre) et leurs liens avec le développement de la pensée divergente sont nécessaires pour approfondir cette question. Longtemps ignorée, la créativité apparaît comme un concept utile aux théories de l'identité soucieuses de leurs applications pratiques. Sa définition elle -même semble métaphoriser le processus de construction dialectique de l'identité : capacité à produire une solution à la fois nouvelle (aspect unique, original, différenciation, versant personnel de l'identité) et adaptée au contexte (être reconnu dans le champ et/ou par les autres, dimension sociale de l'identité). Plus loin qu'une analogie entre expression créative et construction de l'identité, nous avons envisagé le paradigme des statuts identitaires de Marcia (1966) comme un cadre théorique pertinent pour comprendre les liens entre l'identité et la créativité à l'adolescence. Au-delà des avancées théoriques, la recherche sur ce thème pourrait constituer une base sérieuse dans l'objectif de développer des programmes d'intervention soutenant la construction identitaire (voir Archer, 1994). Par exemple, il est envisageable de promouvoir des activités créatives chez des adolescents dans des configurations identitaires peu structurées, afin de stimuler le processus d'exploration et favoriser leur transition identitaire. Néanmoins, de telles applications nécessitent d'importants efforts de recherche. En effet, la question des liens entre identité et créativité, et la recherche de causalité entre les deux, nécessitent une compréhension de leur dynamique développementale, une appréciation longitudinale. Est -ce que les processus identitaires forment le développement de la créativité et conduisent à un meilleur accomplissement créatif (Dollinger et al., 2005) ? Est -ce que l'activité créative conduit à des transitions dans le statut identitaire et aide au développement de soi (Barbot & Lubart, 2007) ? Si le paradigme de Marcia offre un cadre théorique qui permet d'envisager l'identité comme une structure organisant le profil créatif, il n'est pas à exclure que le profil créatif des adolescents oriente le développement de leur identité. Plus précisément, il est possible que les hypothèses causales entre identité et créativité formulées dans la littérature soient toutes plausibles, quels que soient la cause et l'effet, mais que leur pertinence puisse dépendre de la transition identitaire dans laquelle se situe l'adolescent. Au cours de l'adolescence, il existe peut-être des périodes où la créativité est utile au développement de l'identité (passage de diffusion à moratoire par exemple), d'autres où elle en sera le reflet ou la conséquence (accès au statut réalisation). La recherche de cause à effet entre le développement de l'identité et celui de la créativité devrait ainsi s'opérationnaliser par l'identification de trajectoires identitaires dans lesquelles la créativité jouerait un rôle différent. Une telle compréhension permettrait de personnaliser davantage les programmes de médiation créative et pourrait nous conduire à des avancées non négligeables tant dans la compréhension des processus de formation identitaire que dans celle du développement de la créativité en général . | Le paradigme de Marcia (1966) offre un cadre pertinent pour comprendre les liens entre l'identité et la créativité : il permet d'identifier des structures identitaires (ou statuts) qui pourraient favoriser l'expression créative. Cette hypothèse est examinée dans une recherche étudiant les liens entre les statuts et des facteurs impliqués dans la créativité (la pensée divergente et la pratique d'activités créatives). 1 139 élèves scolarisés en classes de troisième à première ont complété une mesure du statut identitaire, une tâche de pensée divergente, et un questionnaire renseignant leurs pratiques créatives. Des analyses de variance indiquent un effet significatif du statut sur la pensée divergente et les pratiques créatives, et suggèrent des effets modérateurs du sexe et de l'âge quant au lien entre identité et créativité. Ces résultats sont discutés en termes de développement interactif de l'identité et de la créativité, offrant des perspectives utiles aux théories de l'identité, soucieuses de leurs applications pratiques. | psychologie_09-0254042_tei_967.xml |
termith-758-psychologie | Le développement de l'enfant est un processus complexe qui se réalise au sein de divers milieux. Si la famille et l'école sont les premiers milieux de développement de l'enfant, les activités de loisirs peuvent également revendiquer leur place comme milieu de vie et de développement (Bronfenbrenner, 1979). Alors que les loisirs constituent un champ d'investigation qui a su trouver sa légitimité dans la littérature anglo-saxonne, cette perspective reste plus marginale en France. Traditionnellement, ce champ reste plutôt dévolu aux sociologues qui le posent comme un temps en expansion à considérer dans une perspective sociohistorique (Dumazedier, 1962). Le temps des loisirs fournit pourtant l'occasion d'évoluer dans d'autres milieux, susceptibles de contribuer de manière spécifique et significative au développement cognitif et social, les enfants et les adolescents n'y sont pas passifs. En effet, les loisirs constituent un domaine où des choix peuvent être effectués. Les loisirs apparaissent ainsi comme des révélateurs des intérêts et des besoins psychologiques des enfants et des adolescents. En ce sens, ils sont susceptibles d'apporter des informations utiles aux psychologues et conseillers d'orientation-psychologues sur les interactions entre la personnalité de l'adolescent et son environnement. De nombreux facteurs semblent en effet à l' œuvre dans les relations associant les caractéristiques personnelles des jeunes aux activités de loisirs qu'ils pratiquent. Ainsi, l'objectif poursuivi ici est de contribuer à mieux comprendre la place qu'occupent les loisirs dans le développement de l'enfant et de l'adolescent. Nous proposons dans un premier temps de redéfinir les activités de loisirs d'un point de vue psychologique et de comprendre leur rôle dans le développement par la mise en perspective de différents travaux disponibles sur cette question. Dans un second temps, nous revenons sur les facteurs socioculturels et individuels qui contribuent à la prédilection pour certaines activités de loisirs. Enfin, nous cherchons à clarifier les mécanismes en jeu pouvant expliquer comment les loisirs interviennent dans le développement. Concevoir les activités extrascolaires comme milieu de développement exige de les situer préalablement par rapport aux concepts de temps extrascolaire et de loisirs, et en particulier par leurs évolutions historiques. La question du temps libre et des loisirs a traditionnellement été développée en France dans le champ de la sociologie et a été plus spécifiquement théorisée pour les adultes. L'idée de temps libre (qu'on peut associer à la première signification du mot « loisir ») est une notion purement quantitative, c'est l'élément résiduel issu du non-travail. Il est appelé par Dumazedier (1962) « temps ipsatif », manière d'exprimer un « temps à soi », non contraint par des contingences externes (incluant aussi bien le temps professionnel que le temps ménager). En psychologie du travail, des auteurs proposèrent quant à eux de modéliser les interactions étroites entre temps de travail et hors travail, suggérant en particulier l'intervention active et compensatoire des loisirs dans les ajustements au travail (Curie & Hajjar, 1987; Curie, Hajjar, Marquié & Roques, 1990). Le pendant chez l'enfant se retrouve par l'utilisation du terme « temps extrascolaire ». Ce premier niveau, le plus souvent quantitatif, permet de définir les moments dégagés des obligations scolaires. Il est opposable au temps passé dans l'école (scolaire), mais aussi à celui consacré aux devoirs et/ou aux déplacements pour se rendre à l'école (périscolaire). Le temps extrascolaire a connu en France une évolution historique. En un siècle, le temps occupé par l'école s'est réduit de près de 40 % (Sue & Rondel, 2002). Ce constat rejoint celui proposé dans la littérature anglo-saxonne qui suggère que 50 % du temps éveillé constitue un temps libre (Fine, Mortimer & Roberts, 1990; Larson & Verma, 1999). L'expansion de ce temps extrascolaire légitime s'il est besoin l'intérêt qu'il convient de lui porter. L'acceptation actuelle du mot loisir renvoie aussi à un niveau plus subjectif : d'un simple « temps à soi », il recouvre dorénavant différents modes de pratique des activités de loisirs, ayant pour objectif l'épanouissement ou la réalisation de soi. Le loisir n'est plus seulement un temps mais devient en ce sens un véritable milieu de développement, susceptible d'apporter une contribution au développement de la personne. En interrogeant directement les représentations subjectives des adolescents, nous voyons apparaître les critères nécessaires et suffisants, issus de leur définition, qui fondent le loisir comme milieu de développement. De cette manière, les activités réalisées entre pairs correspondent à l'activité de loisirs « prototypique » (Bartko & Eccles, 2003; Zaffran, 2000), et ce, quel que soit le pays (Fitzgerald, Jospeh, Hayes & O'Regan, 1995). Les adolescents plébiscitent aussi largement les multimédias et le farniente. Moins l'activité apparaît contrainte et contiguë aux exigences scolaires, plus elle correspond à l'idée de loisirs chez les jeunes. Cependant, ils pratiquent aussi des activités relativement exigeantes, comme le sport, qui, si elles ne correspondent pas à leur vision centrale de loisirs, peuvent avoir le statut de hobbies (1) pour eux. Au travers de ces représentations, deux dimensions fondamentales apparaissent : le libre choix et le plaisir dont la centralité s'affirme avec l'avancée en âge (Passmore & French, 2001). Ces dimensions inhérentes aux loisirs leur confèrent une variabilité dans le temps qui leur est consacré autant que dans la nature des activités réalisées. Les études mesurant de manière fine la diversité des activités de loisirs effectuées, par agenda hebdomadaire ou technique du « beeper » (2), relèvent un panorama large et varié (Larson & Richards, 1991; McHale, Crouter & Tucker, 2001; Viira & Raudsepp, 2000). Elles nous indiquent par ailleurs que les activités extrascolaires présentent de nombreuses variations liées aux opportunités quotidiennes mais aussi saisonnières, rendant par là d'autant plus difficile leur étude systématique. Face à cette abondance d'activités de loisirs potentiels, différentes taxonomies ont été proposées. Ainsi, Passmore et French (2001) classifient les activités extrascolaires selon le but poursuivi dans l'activité, suggérant de cette manière une dimension psychologique aux activités. Ces auteurs identifient trois catégories principales de buts poursuivis : (a) les activités de « réalisation de soi », nécessitant des régulations cognitives et sociales importantes (sports, arts. ..), (b) les activités sociales, prétextes à la relation avec les pairs (discuter, chatter, sortir. ..) et (c) les activités de détente, sans exigences particulières (farniente, écoutes télévisuelles et radiophoniques. ..) Ce type de regroupement a priori permet d'envisager sur quelles caractéristiques de la personne les activités de loisirs sont susceptibles de jouer. L'influence possible des activités de loisirs propose ainsi qu'au-delà d'un simple temps, ces activités revendiquent un véritable statut de milieu de développement. La notion de « milieu » en psychologie du développement suggère l'intervention des conditions physiques ou sociales dans le développement de l'enfant. En ce sens, un milieu n'existe pas uniquement parce qu'il possède des caractéristiques en lien direct avec l'enfant mais surtout parce qu'il l'influence (Bronfenbrenner, 1979). Les activités de loisirs forment-elles un réel milieu de développement ? La recension des travaux variés sur la question le suggère, en particulier parce que ces activités sont bien associées de manière spécifique à l'adaptation scolaire, comportementale et émotionnelle. Cependant, les résultats restent parfois mitigés voire contradictoires selon les sources. Ainsi, au niveau de l'adaptation scolaire, certains travaux montrent que les activités extrascolaires favorisent la réussite académique (Eccles & Barber, 1999; Eccles, Barber, Stone & Hunt, 2003; Marsh, 1992) et protègent contre le décrochage scolaire (Mahoney & Cairns, 1997; Mahoney, Cairns & Farmer, 2003). A contrario, d'autres proposent que ces activités puissent être néfastes à la scolarité (McHale et al., 2001; Ratelle, Vallerand, Senécal & Provencher, 2005). Le même patron contrasté de résultats apparaît si l'on considère l'incidence de ces activités sur les conduites à risques, consommation d'alcool, de drogues ou comportements antisociaux (Bartko & Eccles, 2003; Mahoney & Stattin, 2000; McHale et al., 2001). Si certains travaux suggèrent que les activités « extracurriculaires » (3) protègent contre les conduites à risques et la propension à la criminalité (Eccles et al., 2003; Mahoney, 2000), d'autres ont pu montrer que la fréquentation de maisons de quartier et les sports collectifs augmenteraient la consommation d'alcool et les conduites antisociales (Eccles & Barber, 1999; Mahoney, Stattin & Lord, 2004; Peretti-Watel & Lorente, 2004; Persson, Kerr & Stattin, 2004). L'apparente contradiction des résultats pose la question des mécanismes en jeu dans les effets de ces activités. L'interrogation porte sur leurs valeurs effectives et sur la fonction médiatrice des activités de loisirs dans les relations étudiées. L'influence en amont d'autres facteurs sur leur pratique serait alors à considérer. Si le libre choix apparaissait comme critère central dans la définition du loisir, il prend un caractère relativement artificiel au regard des nombreux facteurs qui le contraignent. L' âge, le sexe ou les facteurs socioculturels ont souvent été relevés comme incidents dans la littérature. Ils requièrent donc une attention particulière car ils apparaissent comme susceptibles d' « expliquer » pour eux -mêmes les effets des activités de loisirs. Prosaïquement, les activités de loisirs diffèrent selon l' âge et le sexe. L' âge est un facteur qui interfère tant sur la quantité d'activités de loisirs que sur les choix. Durant la petite enfance, des activités ludiques sont pratiquées et apparaissent primordiales pour exercer son activité et acquérir des compétences sociales (Wallon, 1990). Avec l'entrée dans la scolarité obligatoire, plus de la moitié des enfants déclare pratiquer une activité de loisirs de prédilection (Octobre, 2004). Toutefois, à cet âge, les activités pratiquées répondent rarement à un choix délibéré, mais plutôt à la nécessité d'articuler et de concilier les disponibilités parentales – liées en particulier aux exigences professionnelles – et le « temps de l'enfant » (Le Floc'h, 2005). L'approche de l'adolescence, s'accompagnant d'une autonomie grandissante accordée par l'adulte dans le choix d'activités, voit augmenter significativement le nombre d'activités de loisirs (Langouët, 2004). C'est aussi à cette période que les activités de loisirs vont réellement prendre une signification particulière et s'accompagner d'un plaisir croissant à la pratique (Caldwell, Smith & Weissinger, 1992; Kleiber, Larson & Csikszentmihalyi, 1986). Bien qu'il existe de larges différences interindividuelles dans ce sentiment, il explique la stabilité des choix entre l'adolescence et l' âge adulte, plus spécifiquement observée chez les femmes (Scott & Willits, 1998). Concernant les différences de sexe, la littérature internationale relève que les garçons occupent davantage leur temps extrascolaire par des loisirs quand les filles consacrent une part plus importante de ce temps à des activités en lien avec les apprentissages scolaires ou relevant d'activités domestiques (Shaw, Kleiber & Caldwell, 1995). Le choix des activités indique ainsi des différenciations de sexe assez stéréotypiques et relativement précoces : les filles se tournent plutôt vers les activités artistiques et les garçons vers les sports (Garton & Pratt, 1991; McGee, Williams, Howden-Chapman, Martin & Kawachi, 2006). Les activités de loisirs viennent ainsi soutenir le développement de l'identité de genre, par la contribution à une socialisation différenciée (McHale, Kim, Whiteman & Crouter, 2004; Passmore & French, 2001). C'est d'ailleurs dans le domaine des loisirs qu'il existe encore un traitement parental différencié repérable selon le sexe de l'enfant (Lytton & Romney, 1991). L'existence d'un traitement parental différencié dans l'orientation de l'enfant vers un loisir souligne l'importance des pratiques éducatives qui ne se résume pas exclusivement à une simple différenciation fille/garçon. Le milieu familial est aussi caractérisé par son niveau socioéconomique et les valeurs sociétales dont il est imprégné. Ces facteurs plus distaux sont aussi à considérer car ils conditionnent les pratiques familiales et orientent le développement (Bronfenbrenner, 1979). Tout d'abord, les activités de loisirs font partie, de manière inhérente, des pratiques éducatives et constituent un domaine privilégié où se révèlent particulièrement les valeurs éducatives familiales dont le lien avec le milieu social d'appartenance a pu être montré. D'un point de vue sociologique, s'orienter vers certaines activités relèverait des stratégies mises en place pour l'acquisition des habitus (Bourdieu, 1980). D'un point de vue psychologique, la pratique de certaines activités de loisirs peut être envisagée comme un facteur médiateur des effets du milieu socioculturel. Autrement dit, ce serait par la pratique spécifique d'activités extrascolaires que le niveau socioculturel parental offrirait un milieu de développement particulier. Par exemple, l'avantage obtenu par les classes supérieures dans la réussite académique pourrait s'expliquer moins par des facteurs inhérents à l'école que par ce qui se fait en dehors de celle -ci et qui peut influencer la scolarité. Les travaux réalisés à partir de relevés journaliers d'activités permettent de noter ici que les préadolescents des classes modestes regardent plus la télévision, lisent moins, ont plus de jeux de plein air non structurés au détriment d'activités intérieures mobilisant imagination et construction (Clarisse, Janvier & Testu, 2006; Garton & Pratt, 1991; McHale et al., 2001). Ceci rejoint également les travaux d'Almodovar (1985) selon lesquels les classes modestes présentent des attitudes à propos des loisirs qui favorisent les aspects actifs, physiques et récréationnels tandis que les classes aisées privilégient des activités où les aspects intellectuels et culturels dominent. Mc Gee et al. (2006) relevaient que ces attitudes et valeurs ont une incidence sur les potentialités offertes à l'enfant, notamment si l'on considère son développement cognitif. Au-delà des bénéfices éducatifs attendus, la prédilection pour certaines activités de loisirs s'explique également par « le champ du possible ». Trivialement, la distance géographique et le coût de certaines activités de loisirs évincent de fait une partie de la population (Octobre, 2004). Les politiques des pays et des villes conditionnent également une certaine « offre de loisirs », ce qui pose par ailleurs la question de la possibilité des comparaisons interculturelles (Eccles et al., 2003). Ces facteurs sociaux et culturels qui préludent aux choix des loisirs nécessitent d' être considérés dans la mesure où ils peuvent parfois « expliquer » pour eux -mêmes les effets des activités de loisirs, celles -ci possédant alors le statut de facteur médiateur. Selon cette perspective, les activités de loisirs n'auraient aucun rôle propre à jouer dans le développement. En revanche, le leur reconnaître conduit à considérer leur effet modérateur possible sur les effets des facteurs sociaux et culturels. Une fois prises en compte ces « contraintes », notamment sociales, pesant dans l'orientation vers certains loisirs, il apparaît que des facteurs psychologiques interviennent dans la sélection des loisirs, en particulier par le rôle qu'ils jouent dans la construction identitaire. Les activités de loisirs et l'identité semblent entretenir des relations étroites et réciproques, indiquant que l'identité se révèle dans et par les activités de loisirs. Non contraintes, les activités de loisirs offrent en effet l'occasion à tout un chacun d'y réaliser des besoins fondamentaux qui ne parviennent à s'exprimer dans les autres activités (Wallon, 1990). Elles deviennent alors les plus à même de révéler les motivations intrinsèques de la personne. Dès le plus jeune âge, le « jeu » permet d'assouvir les besoins, quasi tempéramentaux, pour la nouveauté, le risque, l'excitation, ou pour ceux d'ordre, de répétition et de contrôle. Ainsi, les motivations pour certaines activités de loisirs répondraient aux motifs plus généraux de la personnalité, comme en témoignait déjà l'étude de Fauquier (1940) sur la prédilection des préadolescents pour certains loisirs selon leur personnalité. Ses résultats montraient que les enfants repérés comme « craintifs soumis », ceux ayant du mal à s'imposer dans les relations aux autres, faisaient des choix pour des activités solitaires. Celles -ci leur permettaient, selon Fauquier, de ne pas être confrontés systématiquement à leurs difficultés. L'hypothèse d'une expression identitaire se retrouve par ailleurs confirmée par le lien existant entre les intérêts et le choix des activités de loisirs (Holmberg, Rosen & Holland, 1991), renouant ici – à l'usage des loisirs – le lien précédemment vérifié entre ces mêmes « intérêts » et l'orientation professionnelle (Vrignaud & Bernaud, 2005). Le soutien identitaire joué par les activités de loisirs se révèlerait d'autant plus fort à l'adolescence que celle -ci est une période d'exploration contribuant à des fins d'achèvement et de complexification de l'identité. Selon Erickson (1968), le statut identitaire des adolescents entretiendrait un lien significatif avec la variété des activités extrascolaires effectuées. Les adolescents ayant un statut identitaire « diffus » (niveaux moyens d'engagement et d'exploration) et ceux ayant un statut « forclos » (engagement sans exploration préalable) reportent objectivement moins d'activités de loisirs diversifiées sur le temps extrascolaire (Coatsworth et al., 2005; Schmitt-Rodermund & Vondracek, 1999). Ainsi, les activités de loisirs contribueraient à la construction identitaire en lui offrant un domaine d'exploration où se révéler. Dans certains cas les plus extrêmes, l'inclinaison pour certaines activités servirait de support à la rationalisation d'une pathologie. Les exigences de l'activité seraient confondues avec l'expression d'autres motifs plus personnels. Par exemple, l'anorexie serait fréquemment associée à des pratiques sportives qui requièrent un contrôle du poids (Davis, Kennedy, Ravelski & Dionne, 1994). Cette « exigence » de l'activité permettrait ainsi de rendre rationnel et socialement acceptable les conduites anorexiques visibles (Powers, Schocken & Boyd, 1998). Ces facteurs psychologiques, mais aussi les facteurs socioculturels précités, participent au choix des activités de loisirs. C'est à partir de ce constat que certains auteurs (Marsh, 1992; McHale et al., 2001) pondèrent l'incidence des activités de loisirs dans le développement et rappellent leur rôle de facteur modérateur. Admettre que les activités de loisirs ont un rôle propre à jouer dans le développement nécessite alors d'en explorer les mécanismes. Si les activités de loisirs sont revendiquées pour leur rôle dans le développement, les mécanismes potentiels de leur contribution sont rarement élucidés et restent souvent présentés de manière isolée (Feldman & Matjasko, 2005). Le recours à une catégorisation dans une triade : contexte social – nature de l'activité – aspects psychologiques, peut contribuer à les clarifier. En somme, si les caractéristiques inhérentes aux loisirs, qui définissent la nature de l'activité, ne constituent pas en elles -mêmes ou à elles seules des mécanismes potentiels, les facteurs associés à la pratique peuvent venir les renforcer. Chaque pôle est à considérer dans l'étude des médiateurs ou des modérateurs des pratiques de loisirs. Le contexte social, le fait que le loisir soit pratiqué avec quelqu'un ou non ainsi que les caractéristiques des personnes avec lesquelles il se pratique, sont les aspects les plus souvent considérés. Chez les plus jeunes, on a ainsi distingué les loisirs pratiqués avec les parents de ceux pratiqués avec les pairs. Selon la littérature, la contribution positive au développement de l'enfant serait plutôt au bénéfice des premiers (McHale et al., 2001; Piko & Vazsonyi, 2004). Chez les adolescents, si la majorité d'entre eux pratique des activités sans leurs parents, en revanche, l'existence de relations positives avec l'animateur ou l'entraîneur a également été relevée par certains auteurs. Ainsi, le bénéfice des activités de loisirs au niveau du bien-être émotionnel s'expliquerait par le soutien fourni par ces adultes non apparentés (Eccles, Barber, Stone & Hunt, 2003). Par ailleurs, dès la prime adolescence, le fait que l'activité de loisirs soit pratiquée avec ou sans pairs est à prendre en compte. Activités collectives versus individuelles : la présence ou non de pairs. Dans le domaine cognitif, l'incidence du caractère collectif ou individuel des activités a pu être relevé (Clarisse, Le Floc'h, Testu & Tricoche 2004; Testu, Alaphilippe, Chasseigne & Chèze, 1995). Par ailleurs, la familiarité avec la pratique d'activités extrascolaires collectives agirait différemment sur les niveaux et les variations de l'attention en situation scolaire selon l' âge des enfants (Le Floc'h, 2005). Ainsi, dans la continuité des travaux de la chronobiologie (Reinberg, 2003), la synchronisation collective par la vie entre pairs apparaît comme un des facteurs susceptibles d'intervenir sur les processus psychologiques, en particulier sur ceux nécessaires à l'ajustement scolaire. Concernant les dimensions plus conatives, des résultats divergents ont pu être indiqués. Il est souvent revendiqué que l'aspect collectif, notamment dans le sport, favorise le développement des compétences sociales, de la solidarité et d'un certain bien-être (Danish, Taylor & Fazio, 2003). De manière empirique, cette hypothèse n'est pas confirmée. Les préadolescents pratiquant des sports collectifs ne se différencient de ceux qui n'en pratiquent pas ni pour l'altruisme, ni pour l'anxiété sociale (Kindelberger, 2006). La notion d'activité collective mérite cependant précision car certaines activités sportives dites « individuelles » (tennis, judo. ..) ne sont incontestablement pas des sports d'équipe, mais nécessitent au moins un pair pour sa pratique (« l'adversaire »). De ce fait, ces sports nécessitent également des régulations sociales. À l'opposé, certains sports sont bien individuels (gymnastique, athlétisme), dans le sens où ils ne nécessitent pas de se confronter à quelqu'un et peuvent être effectués de manière complètement solitaire. Quant à leur pratique de compétition, ils requièrent pour gagner, non pas de battre autrui, mais surtout de se surpasser soi -même pour finir vainqueur (Viira & Raudsepp, 2000). Cette distinction permet de montrer que les adolescents pratiquant des sports impliquant un adversaire ont une meilleure estime de soi sociale que ceux pratiquant un sport « à surpassement » (Kindelberger & Le Floc'h, 2007). En dehors des activités sportives, il apparaît que les activités de loisirs hautement individuelles, ou aucun pair n'est présent, comme la lecture, sont associées à un niveau plus élevé d'anxiété (Simon & Martens, 1979). Elles prédisent également l'augmentation de sentiments dépressifs au fil du développement (McHale et al., 2001). Si la présence de pairs dans les activités extrascolaires semble donc favorable au bien-être émotionnel des adolescents, les caractéristiques de ces pairs fournissent également un champ d'investigation. Les caractéristiques des pairs fréquentés dans les activités extrascolaires. La propension à fréquenter des pairs « à risque » sur le temps extrascolaire a suscité de nombreux questionnements (Eccles et al., 2003). Ainsi, différents travaux effectués aux États-Unis et en Suède relèvent que la fréquentation de maisons de quartier, accueillant un certain nombre d'adolescents antisociaux, tend à promouvoir le développement des conduites délictueuses (Mahoney & Stattin, 2000; Markstrom, Li, Blackshire & Wilfong, 2005). A contrario, Eccles et Barber (1999) montrent que la pratique d'activités de loisirs avec des pairs, non-déviants cette fois, est susceptible de favoriser les conduites déviantes (par exemple la consommation d'alcool et de drogues). Ils s'appuient sur la théorie psychosociologique des opportunités (Cloward & Ohlin, 1960). Pour eux, il n'existe pas de pairs déviants au préalable, c'est la situation en elle -même, l'absence de supervision adulte, qui offre l'occasion de découvrir ces produits. De manière similaire, cet aspect expliquerait aussi pourquoi il existe une concentration d'adolescents « à risque » dans les maisons de quartier (Mahoney & Stattin, 2000). Ces différents travaux remettent en avant non pas l'influence des pairs en soi mais bien celle du niveau de structuration qui définit une caractéristique inhérente à l'activité sur laquelle nous reviendrons par la suite. Outre l'influence plus ou moins néfaste des pairs par le contexte social qu'ils induisent (ou fournissent), ceux -ci peuvent également jouer un rôle activateur pour la motivation et la satisfaction à la pratique des activités de loisirs, même les plus exigeantes (Castillo, Balaguer, Duda & García-Merita, 2004; Patrick et al., 1999). À l'adolescence, période où les pairs offrent un support à l'expression des besoins développementaux, leur présence peut être la raison principale de l'engagement dans les activités. L'insatisfaction liée au manque d'attention de la part des pairs, et ce notamment chez les filles, prédit ainsi l'arrêt de l'activité (Patrick et al., 1999). Les pairs susciteraient donc un certain engagement dans l'activité, de même que l'investissement quantitatif autant que qualitatif de l'adolescent lui -même. Niveau d'investissement dans l'activité. D'une manière générale, le temps libre, entendu cette fois comme la quantité d'heures par semaine que les adolescents consacrent aux activités extrascolaires, n'est pas sans conséquence sur leur ajustement tant académique que social. Cependant, la relation entre le niveau de pratique de l'activité et l'ajustement, loin d' être simple et linéaire (plus on pratique, meilleur est l'ajustement) semble plutôt relever d'un effet curvilinéaire. Concernant les activités « extracurriculaires », Marsh (1992) relève qu'elles n'ont un effet positif sur l'ajustement scolaire que si un temps significatif leur est consacré. En deçà d'un certain niveau d'investissement, elles présenteraient au contraire un effet préjudiciable. Comparés à ceux qui ne pratiquent aucune activité extrascolaire, les élèves qui s'investissent peu dans les activités voient en effet leur niveau académique chuter. Cette relation curvilinéaire se retrouve également entre les activités sportives et la consommation de drogues et d'alcool. Si une pratique faible ou modérée semble dans un premier temps réduire ce type de consommation par rapport à ceux qui n'en ont aucune, la pratique intensive la favoriserait d'autant plus (Peretti-Watel & Lorente, 2004). La nature complexe des relations entre les activités extrascolaires et leurs conséquences potentielles serait à l'origine de la diversité des résultats observés sur la simple comparaison « pratique d'une activité versus non-pratique » (Feldman & Matjasko, 2005). Dépassant la stricte approche quantitative du nombre d'heures passées à pratiquer une activité, il convient également d'interroger la manière dont l'adolescent s'y engage. Nature de l'investissement dans l'activité : but et motivation. La manière dont un adolescent s'engage dans une activité recouvre, en partie, le but de sa pratique, ce qu'il y recherche. Deux buts principaux peuvent être repérés. Ils renvoient respectivement à la détente ou à la compétition. Cette différence dans le but poursuivi viendrait modérer les conséquences d'une même activité. Ces buts sont à rapprocher de buts sociaux plus généraux qui semblent distinguer les filles des garçons. Ces derniers privilégient la compétition et la recherche de dominance, tandis que les filles se centrent plus sur la coopération et l'affiliation. Pour ces dernières, les activités de loisirs seraient plus fréquemment envisagées comme des activités de détente. D'une manière générale, les adolescents peuvent faire les mêmes activités et y consacrer autant d'heures, sans pour autant avoir les mêmes motivations. De ce fait, ils connaîtraient des voies de développement distinctes (Viira & Raudsepp, 2000). La pratique d'un sport de manière récréative serait alors bénéfique pour l'estime de soi, l'image du corps, le « bien-être » psychologique et protègerait de l'anxiété et du stress (Eccles et al., 2003). À l'inverse, lors d'une pratique compétitive, une augmentation des symptômes dépressifs est observée ainsi que des troubles comportementaux consécutifs tels l'alcoolisation, le risque suicidaire et la consommation de drogues (Storch, Storch, Killiany & Roberti, 2005). Ceci s'expliquerait en partie par le changement de rôle lié à ces deux types d'engagement. Une fois passés dans « l'élite », les adolescents ont à gérer différents rôles qui peuvent affecter l'ajustement socio-émotionnel. En effet, des conflits difficiles à réguler peuvent apparaître entre les différents domaines de vie (scolarité et loisirs) et devenir perturbants pour l'adolescent (Ratelle et al., 2005). Associées à une pression environnementale plus forte, la quantité et l'intensité des émotions négatives seraient amplifiées et s'accompagneraient de conséquences néfastes pour l'ajustement socio-émotionnel. La motivation pour la pratique semble aussi intervenir. Toute activité extrascolaire, qu'elle soit sportive ou artistique, nécessite d' être réalisée pour elle -même et de manière flexible. Autrement dit, seule la motivation intrinsèque aux loisirs permet de promouvoir un bon ajustement. La réalisation d'activités de loisirs pour des raisons concomitantes, relevant de motivations plus extrinsèques (faire de la musique parce que c'est une tradition familiale ou pour se prouver à soi -même sa valeur) est associée à davantage de difficultés émotionnelles. Dans ce cas, Vallerand et al. (2003) relèvent durant la réalisation de l'activité une émotion négative particulière, la honte, qui n'est pas présente pour des activités réalisées de manière harmonieuse. Notons que cette différence repérée par les auteurs intervient essentiellement lorsque l'activité de loisirs est très investie : la personne y consacre du temps, de l'énergie et la reconnaît comme importante dans sa vie. Ces propriétés fondent le loisir comme une « passion ». Il participe à la définition de soi et constitue une part de l'identité. D'où l'importance que revêt le type de motivation quant à l'engagement dans le loisir. Le contexte social et la manière dont les adolescents s'engagent dans les activités sont parfois revendiqués comme médiatisant totalement les effets des activités de loisirs (Feldman & Matjasko, 2005). Cependant, la nature même des activités extrascolaires reste à considérer dans cette analyse. Nonobstant « avec qui », « comment » ou « à quel niveau » l'activité est pratiquée, il convient de s'interroger sur la définition des caractéristiques propres à celle -ci. Chaque activité, par elle -même, recouvre certaines exigences psychologiques ou comportementales. Pour spécifier les sollicitations propres à chaque activité, l'analyse peut être abordée sous un angle quantitatif portant sur le niveau de structuration, ou bien encore selon une approche ergonomique. Niveau de structuration. Le niveau de structuration est une dimension relevée par Stattin et ses collaborateurs pour expliquer l'avènement ou le renforcement de conduites à risques (Mahoney & Stattin, 2000; Mahoney et al., 2004). La notion de structuration recouvre six caractéristiques : (a) participation à des horaires réguliers, (b) engagement dans une activité guidée par des règles, (c) emphase mise sur le développement de certaines compétences qui augmente en complexité et en challenge au cours du temps, (d) performances dans l'activité nécessitant une attention soutenue, (e) présence d'un feedback sur le niveau de performance et (f) direction de l'activité guidée par un adulte (Hunter & Csikszentmihalyi, 2003; Mahoney et al., 2003). Il apparaît que les activités structurées et « exigeantes » favorisent l'adaptation académique et sociale (Marsh, 1992). À l'inverse, celles plus faiblement structurées (fréquentation de maisons de quartier, sports de rue. ..) sont relativement néfastes quant aux conduites à risques des adolescents (Eccles & Barber, 1999; Mahoney et al., 2003). L'absence de structuration serait associée à un certain ennui, l'activité ne proposant aucun challenge motivant pour l'adolescent (Caldwell et al, 1992). L'ennui et l'anxiété ressentis durant le temps extrascolaire avaient déjà été associés à un moindre sentiment de compétences et au développement des conduites tabagiques à l'adolescence (Smith & Caldwell, 1989). Ces résultats ont généralement alerté les chercheurs et acteurs sociaux (Eccles et al., 2003; Mahoney & Stattin, 2000). Pourtant, le temps extrascolaire ne peut être complètement occupé par des activités structurées et exigeantes. Les activités de détente, sans sollicitations particulières et sans adulte, sont appréciées et recherchées par les adolescents, ceci leur permettant de se construire hors de la socialisation proposée par les adultes (Zaffran, 2000). Par ailleurs, on peut s'interroger sur le fait que la présence ou l'absence de structuration soit une « condition nécessaire et suffisante » pour avoir les effets susmentionnés. L'absence de structuration recouvre le plus souvent l'absence de supervision des activités de loisirs par un adulte. Les loisirs non-structurés semblent surtout délétères lorsqu'ils sont pratiqués avec des pairs « à risques ». Ceci questionne un autre aspect du contexte social relevé par Mahoney et Stattin (2000). Face à l'imbrication des dimensions « niveau de structuration de l'activité » et « contexte social où elle se pratique » (présence de pairs à risques), les effets respectifs de chacun de ces termes peuvent légitimement être soumis à l'investigation. Le faible niveau de structuration aurait-il une influence en soi ou ne servirait-il que d'appel à certains adolescents déjà déviants ? Ainsi, en tenant compte de ces deux facteurs de manière séparée, Persson et al. (2004) ont montré que la fréquentation d'une maison de quartier, dans laquelle les activités de loisirs sont peu structurées, n'est pas en soi problématique. C'est bien à la fréquentation de pairs antisociaux que l'on peut attribuer le développement des conduites à risques. La contradiction apparente dans les résultats, issue en partie de conceptualisations distinctes, nécessite une définition rigoureuse de ce que recouvre l'idée de structuration, notamment en neutralisant ce qui fait appel au contexte social. Enfin, les effets des activités de loisirs pouvant être contrastés selon le domaine considéré, il conviendrait de caractériser ces activités par les compétences psychologiques qu'elles requièrent. Caractéristiques inhérentes à l'activité. Toute activité ou situation possède une écologie particulière offrant des opportunités de développement selon ses sollicitations au niveau physique, cognitif et social. Ces sollicitations sont à l'interface de la situation et de la personne (Mischel & Shoda, 1995). Autrement dit, toute activité sollicite certaines dimensions de la personnalité ou certaines compétences, lesquelles vont se développer au fur et à mesure de sa pratique. Ce mécanisme a largement été étudié dans le cadre de la psychologie du travail (Loarer, Vrignaud & Cloutier, 2000). On a ainsi pu montrer qu'il existe une congruence entre le type d'intérêt des personnes et le type d'intérêt caractérisant leur environnement professionnel (Vrignaud & Bernaud, 2005). De manière similaire, chaque activité de loisirs peut être caractérisée par ce qu'elle sollicite au niveau cognitif, social et émotionnel. Certaines activités, parce qu'elles font surtout appel à des compétences bien particulières, viendraient alors les renforcer ou les développer. C'est ainsi que Marsh (1992) propose d'expliquer la contribution à une meilleure réussite académique par la tenue d'un journal au lycée. Cette activité extrascolaire exige le développement de nombreuses compétences également attendues dans la scolarité : compétences langagières mais aussi organisation et planification du travail, capacité à travailler en groupe. .. De même, la pratique de sports de combat est repérée comme susceptible de favoriser l'agression et les conduites antisociales parce qu'elle fait appel à des compétences physiques et à une certaine combativité (Endresen & Olweus, 2005). Une fois développées, ces compétences associées à une confiance en soi et des attentes de réussites (Bandura, 1980) sont alors facilement transposables et utilisables dans les situations de conflit. Ces observations invitent également à reconsidérer la construction de l'identité de genre par les activités de loisirs. Si les garçons privilégient le sport et les filles les activités manuelles et artistiques, ceci devrait a contrario favoriser le développement de caractéristiques non typiques de leur sexe. En effet, la nécessité de régulation sociale et d'habiletés interactionnelles inhérentes aux sports ainsi que les dimensions instrumento-spatiales qui existent dans les activités artistiques pourraient venir « contrarier » le développement monolithique d'une identité de genre (McHale et al., 2004). Ce constat crédite l'importance de relever de manière beaucoup plus fine les caractéristiques des situations proposées par les diverses activités de loisirs. Il apparaît que l'utilisation d'une approche plus ergonomique, se focalisant sur les sollicitations de l'activité, permettrait d'éviter les classifications a priori, susceptibles d'amoindrir les résultats par un regroupement trop large d'activités dans une même catégorie. Ainsi, elle pourrait offrir des voies de recherches fructueuses pour étudier le rôle effectif des loisirs dans le développement. Les activités de loisirs se révèlent être une niche écologique où la nature de l'activité, les personnes qui y sont impliquées et l'individu lui -même interagissent pour constituer des mécanismes complexes intervenant dans le développement. Elles touchent à tous les aspects du développement de l'individu : cognitif, émotionnel, social et comportemental. La manière dont le temps libre est utilisé apparaît ainsi comme le reflet des intérêts, des prédilections de chacun mais aussi des opportunités et des contraintes qui vont peser sur son développement et le renforcer. Si différents facteurs externes influencent l'utilisation du temps libre, celle -ci reste un domaine où il existe une certaine liberté de décision qui révèle d'autant mieux l'identité de l'adolescent et lui permet d' être acteur de ce développement. Si les recherches sur les activités de loisirs ont connu un essor certain ces dernières années, en particulier dans la littérature anglo-saxonne, il apparaît nécessaire de disposer de nouveaux travaux afin de mieux comprendre leur rôle spécifique et la manière dont elles interviennent dans le développement. En effet, la question de la contribution unique des activités de loisirs reste largement posée. Étant donné l'importance des facteurs socioculturels dans le choix des activités de loisirs, le rôle de ces dernières se restreindrait-il à un simple rôle de médiateur ou peuvent-elles revendiquer une place plus spécifique ? En outre, on peut noter, à l'instar de Holland et André (1987), que les résultats des recherches sont limités par leurs caractéristiques méthodologiques : la plupart se centre sur une tranche d' âge spécifique, l'adolescence, et sur des populations plutôt favorisées. Par ailleurs, nombreuses sont les recherches qui privilégient des approches transversales qui ne permettent pas d'aller au-delà d'un simple constat de relation. Cette revue de questions se donnait pour objectif de contribuer à la réflexion sur le statut des activités de loisirs comme milieu de développement et cherchait à clarifier les mécanismes potentiels en jeu. Le domaine des loisirs offre ainsi un champ largement inexploré qui peut cependant revendiquer sa légitimité dans l'étude du développement des enfants et des adolescents. Almodovar, J.-P. (1985). Pratiques de loisirs et place de l'enfant dans la société : pour une analyse de la diversité des représentations sociales de l'enfant. Cahiers du Centre de recherche interdisciplinaire de Vaucresson (CRIV), 4, 3-12 . | Les activités de loisirs, peu étudiées en France en psychologie du développement, font l'objet de nombreux travaux dans la littérature en particulier anglo-saxonne. Considérant ce déséquilibre, le but principal de cet article est de montrer en quoi, et comment, les loisirs constituent un environnement participant à l'évolution et à la construction identitaire. Reconnaître ce rôle invite les psychologues du développement et de l'orientation à mieux les considérer dans leur pratique. Après avoir positionné le concept de loisirs comme un véritable milieu, les relations réciproques associant pratique de loisirs et dimensions sociales et cognitives du développement seront présentées, à partir d'une recension de travaux internationaux sur la question. Les facteurs socioculturels et psychologiques qui préludent au choix des loisirs seront tout d'abord décrits, puis la question du rôle propre des loisirs dans le développement sera posée, en revenant plus particulièrement sur les mécanismes inter- et intra-individuels susceptibles de l'expliquer. | psychologie_08-0352473_tei_983.xml |
termith-759-psychologie | Cet article présente les résultats d'analyses comparatives visant à valider plusieurs hypothèses relatives à l'estime de soi pour différents profils d'étudiants de l'enseignement supérieur, dont des étudiants en abandon pris en charge dans un dispositif de réorientation intitulé Rebond. Il est également l'occasion de faire état d'une démarche moins habituelle dans la recherche sur le concept de l'estime de soi : la recherche-action de type stratégique (Verspieren, 1990). Selon Verspieren, ce type de recherche-action mobilise un ensemble d'acteurs sur une situation-problème pour investiguer des pistes d'action et, simultanément, pour produire des connaissances nouvelles, éventuellement généralisables – ces deux aspects s'étayant mutuellement. Prendre appui sur les interrogations préscientifiques d'acteurs du terrain est fondamental dans la démarche de recherche-action et rend quelquefois plus malaisé son compte-rendu dans le canevas « standard » d'une recherche expérimentale. Rebond est un dispositif de formation et de réorientation destiné aux étudiants de première année de l'enseignement supérieur (issus de l'ensemble des établissements situés en province de Namur, en Communauté française de Belgique) qui décident d'arrêter leurs études en cours d'année et qui souhaitent mettre à profit le temps restant avant la rentrée académique suivante pour construire de nouveaux projets d'études et/ou professionnels. Ces étudiants, sur une base volontaire, sont pris en charge de février à juin par une équipe d'intervenants (enseignants et conseillers à la formation) par le biais de cours et d'activités d'accompagnement (environ vingt heures par semaine), tant collectives qu'individuelles, qui se substituent à leur programme académique initial. Depuis 2003, une cinquantaine d'étudiants toutes orientations confondues bénéficient chaque année de ce dispositif. Les objectifs poursuivis par le dispositif Rebond sont, d'une part, d'accompagner ces étudiants dans la construction et la validation de nouveaux projets d'études ou professionnels et, d'autre part, de mieux les préparer aux exigences de l'enseignement supérieur. L'accompagnement dans l'élaboration de projets s'inspire principalement du cadre développé par l'ADVP (Activation du Développement Vocationnel et Personnel; Defrenne, 2003; Pelletier & Bujold, 1984; Trouver/Créer, 1997). Parallèlement au volet de formation et de réorientation des étudiants, Rebond développe depuis ses débuts un volet de recherche-action. Les questions des recherches menées par l'équipe trouvent leur pertinence dans l'analyse critique des pratiques d'accompagnement de Rebond et dans les observations et constats réalisés au sujet du public des étudiants accueillis au sein du dispositif. La démarche de recherche-action permet d'élucider les principes qui sous-tendent l'action, de leur donner une assise à la fois théorique et empirique, dans le but d'améliorer le développement professionnel des intervenants, la qualité du dispositif et, en particulier, son adéquation aux caractéristiques du public cible. En 2005, à la suite de plusieurs sessions du dispositif Rebond, l'estime de soi est apparue comme une voie de recherche-action pertinente pour plusieurs motifs. Les conseillers à la formation sont interpellés par l'usage récurrent du thème de « l'estime de soi » dans le discours des étudiants accueillis et des intervenants ou des responsables institutionnels – dans des acceptions souvent floues ou approximatives. Les conseillers à la formation prennent également conscience que la relation positive intuitivement postulée entre estime de soi et performance académique est devenue un critère important de choix des activités organisées à Rebond. Enfin, les intervenants pressentent, d'une part, que les étudiants accueillis à Rebond arrivent affectés dans leur estime d'eux -mêmes par l'échec ou la déception académique et, d'autre part, qu'au terme de la formation, ces étudiants ont retrouvé une meilleure estime d'eux -mêmes. Ces constats, d'abord intuitifs, appellent une validation empirique systématique et rigoureuse. Les questionnements soulevés par ces constats issus de la pratique professionnelle se sont traduits et formalisés en une démarche de recherche-action menée en deux temps : une phase de clarification conceptuelle de la notion d' « estime de soi » (notamment la question de la variabilité des niveaux d'estime de soi et de ses liens avec la performance et/ou l'échec académiques) puis une mise à l'épreuve empirique systématique des constats réalisés par les intervenants, en particulier des deux propositions suivantes : Les étudiants qui arrivent à Rebond ont une estime d'eux -mêmes plus faible que d'autres étudiants, ceci étant lié à l'échec et/ou à la déception par rapport à leurs études. Entre le début et le terme de Rebond, l'estime de soi des étudiants pris en charge au sein du dispositif s'accroît. Cet article est structuré de manière homologue à la démarche : une partie théorique (clarification des concepts) précède la présentation des démarches empiriques, les résultats des analyses et leur discussion. La conclusion propose des pistes d'exploitation des résultats pour la poursuite de la recherche et pour l'action. Le concept d'estime de soi est un concept abondamment utilisé (et critiqué) dans la littérature scientifique, mais aussi dans le langage courant, ce qui n'en facilite pas l'usage univoque. Défini pour la première fois par William James comme « la cohésion entre les aspirations et les succès d'une personne » (James, 1890, cité par Bolognini & Prêteur, 1998), ce concept a largement été repris et retravaillé par la suite par de multiples auteurs, avec des accents parfois divergents. La plupart des auteurs s'accordent toutefois à définir l'estime de soi comme l'évaluation qu'un individu fait de sa propre valeur (Bandura, 2003; Bolognini & Prêteur, 1998; Coopersmith, 1967; Martinot, 1995) ou encore comme l'aspect évaluatif du concept de soi (Martinot, 1995), le concept de soi étant lui -même défini comme « une structure organisée de connaissances contenant des traits, des valeurs, des souvenirs épisodiques et sémantiques liés au soi et contrôlant le traitement de l'information pertinente pour le soi » (Campbell, Trapnell, Heine, Katz, Lavallee & Lehman, 1996). En bref, il s'agit de la manière dont les individus se définissent (Martinot, 1995), de l'ensemble des représentations dont l'individu dispose à propos de lui -même (Lebrun, 1997). Pour notre propos, nous privilégierons la définition proposée par Carpenito (1995) qui nous paraît la plus utile dans une démarche d'opérationnalisation : L'estime de soi résulte de la comparaison entre ce que l'on est ou croit être (concept de soi) et ce que l'on est ou pourrait être (idéal du moi). [. ..] L'estime de soi s'organise à partir des qualités que la personne se prête et de la façon dont les autres la jugent. (p.270) L'estime de soi est donc le résultat d'une opération d'évaluation de soi (basée sur la conscience et la connaissance de soi) par rapport à une norme, un idéal, posés comme référence. Plus l'écart entre le concept de soi et l'idéal du soi est petit, plus l'estime de soi est élevée, et vice-versa. Cette évaluation comporte également une dimension émotionnelle, une estime de soi élevée étant en effet associée à la confiance, la fierté (Bariaud & Bourcet, 1998). Il existe différentes approches du concept. Alors que certains auteurs, comme Rosenberg (1979), privilégient une approche unidimensionnelle de l'estime de soi (mesure globale de l'estime de soi), d'autres, comme Coopersmith (1967), développent une approche multidimensionnelle (un individu s'évaluera différemment selon le domaine concerné) tout en admettant un concept d'estime de soi global. Dans le cadre des théories dispositionnelles issues de la recherche sur les construits psychologiques, l'estime de soi est considérée comme un trait de personnalité relativement « stable » (Fortes, Delignières & Ninot, 2003). Elle se construit depuis la toute petite enfance jusqu' à l' âge adulte, où elle se stabilise. Selon Bolognini et Plancherel (1998), l'adolescence est une période intéressante pour étudier l'estime de soi (période de nombreux changements, des premiers choix personnels, où l'adolescent porte plus d'attention à lui -même et où l'introspection joue un rôle important). Bariaud et Bourcet (1998) passent en revue plusieurs recherches concernant l'évolution de l'estime de soi de l'adolescence jusqu' à l' âge adulte. On retiendra que la majorité de ces recherches, si elles montrent des variations, indiquent également une certaine stabilité et, en même temps, une évolution vers le haut de l'estime de soi, au fur et à mesure que le jeune grandit. Les adultes peuvent alors se caractériser comme des individus à haute ou à basse estime de soi. Cependant, il semble que la plupart des individus ont plutôt une haute estime de soi. Une haute estime de soi est associée au bien-être psychologique et à une bonne santé physique, une basse estime de soi est considérée comme pathologique puisqu'associée à la dépression, à l'anxiété ou encore à une mauvaise santé (Bolognini & Prêteur, 1998). À côté des théories dispositionnelles sur les construits psychologiques, il existe des théories situationnistes. Selon ces dernières, l'estime de soi serait de nature « variable » : elle pourrait subir des fluctuations face aux événements de vie ou à des circonstances spécifiques telles que les échecs, les réussites, les pertes, etc. (Fortes et al., 2003; Wells & Marwel, 1976; Youngs, Rathge, Mullis & Mullis, 1990). Lorsque surviennent des perturbations situationnelles de l'estime de soi, les individus ressentent des émotions négatives liées à l'accroissement de l'écart entre le concept de soi et l'idéal du moi. Cet inconfort émotionnel déclenche, chez les individus sains, des mécanismes de régulation pour retrouver un niveau élevé d'estime de soi et un état émotionnel positif associé (Bariaud & Bourcet, 1998). Ces mécanismes de régulation peuvent s'appuyer sur les différents éléments qui constituent l'estime de soi : l'individu peut ainsi modifier et/ou « manipuler » les informations dont il dispose à propos de lui -même (« concept de soi ») en réalisant de nouvelles expériences qui relativisent son échec ou, au contraire, en inhibant son activité pour éviter la confirmation d'informations négatives par des échecs répétés; il peut changer de groupe de référence (« idéal du moi ») afin de pouvoir se comparer à des individus plus proches de lui ou plus mal lotis que lui (mécanisme de comparaison sociale); enfin, il peut désinvestir la dimension menacée. Les stratégies qui consistent à créer des obstacles sur le chemin de la performance afin de pouvoir ensuite attribuer l'éventuel échec à ces obstacles plutôt qu' à un manque de capacités, ou encore à diminuer ses efforts, relèvent de ce que Martinot (2005) nomme « l'auto-handicap ». Comme les stratégies de comparaison sociale ou de désinvestissement de la dimension menacée, l'auto-handicap fait partie des conduites autoprotectrices que les étudiants peuvent mettre en œuvre pour protéger leur estime de soi face à l'échec scolaire. Plusieurs précisions doivent être apportées quant à ces mécanismes de régulation mis en place face aux perturbations situationnelles de l'estime de soi : Le niveau initial d'estime de soi des individus conditionnerait l'impact des événements et expériences. Martinot (1995) montre que l'estime de soi est plus fluctuante chez les individus qui ont une estime de soi structurellement plus basse (plus facilement perturbée par les événements extérieurs) alors qu'elle est plus stable chez les individus qui ont une estime de soi structurellement plus haute. Les mécanismes de régulation de l'estime de soi peuvent être différents selon le niveau d'estime de soi initial de l'individu (Scariot, 2000). Les actions des individus qui ont une estime de soi plus basse sont influencées par leurs doutes; ils sont focalisés sur la protection d'eux -mêmes contre les échecs et les rejets; ils tentent de mettre au jour leurs insuffisances et leurs faiblesses afin de les surmonter et d'y remédier; face à l'échec, leur stratégie est principalement l'évitement. Au contraire, les individus à plus haute estime de soi se focalisent sur leurs points forts et essaient de les entretenir; ils sont le plus souvent à la recherche d'opportunités de réussite. Ces stratégies différentes, mises en place par les individus selon leur niveau initial d'estime de soi, ont une influence sur l'évolution des niveaux d'estime de soi : chez les individus à haute estime de soi, les stratégies de confrontation permettent d'augmenter encore leur niveau d'estime de soi, alors que les stratégies d'évitement utilisées par les individus à basse estime de soi ont souvent comme conséquence une baisse d'estime de soi. On peut donc ici parler de cercle cumulatif « vertueux » ou « vicieux », selon le cas (André & Lelord, 2002). Certains mécanismes de protection de l'estime de soi peuvent avoir des effets collatéraux non désirés ou non désirables sur d'autres plans. Ainsi, dans le domaine scolaire, face à un échec, les mécanismes d'évitement (ne pas se présenter à un examen par exemple) peuvent avoir un effet positif sur l'estime de soi tout en ayant des conséquences négatives sur la performance académique. Toujours dans le domaine scolaire, privilégier des comparaisons avec des élèves moins bons que soi (comparaisons plus favorables qui permettent de maintenir une bonne estime de soi) ne permet pas de mettre en place des stratégies pour progresser (Martinot, 2005). Une partie des activités organisées à Rebond est guidée par le postulat de l'importance de l'estime de soi dans le champ de la scolarité. Dans le cadre de la recherche-action, la première démarche des acteurs de terrain a été de confronter ce postulat à la littérature. L'estime de soi a été abondamment étudiée dans le contexte scolaire. En particulier, un lien a été mis en évidence entre « estime de soi » et « performance scolaire » (une haute estime de soi étant associée à la réussite scolaire et une basse étant associée à l'échec scolaire). Par exemple, Pierrehumbert, Plancherel et Jankech-Caretta (1987) rapportent des études (réalisées à l'aide de trois instruments différents : le SPP de Harter, le SEI de Coopersmith et le PH de Piers & Harris) qui mettent en évidence des liens entre l'estime de soi et la réussite scolaire, dans le sens d'une plus faible estime de soi chez les enfants moins favorisés scolairement (par exemple, chez les enfants qui souffrent de troubles de l'apprentissage). Cependant, peu de ces études permettent de déterminer le sens de cette relation. Est -ce l'estime de soi qui influence la performance ou le contraire ? Ou encore, peut-on mettre en évidence un lien de causalité circulaire entre ces deux variables ? Harter (1998) met en évidence un lien de causalité linéaire : la performance aurait une influence sur l'estime de soi, l'échec étant de nature à la diminuer. D'autres auteurs identifient également un lien de causalité inverse : l'estime de soi, par le biais des stratégies face à une tâche et de l'adaptation sociale à l'environnement scolaire, aurait une influence sur la performance. Une haute estime de soi permettrait de mettre en place des stratégies d'engagement face à une tâche et de garantir ainsi des chances de succès à cette tâche. À l'inverse, une basse estime de soi serait liée à des stratégies d'évitement face à une tâche, compromettant ainsi les chances de succès de celle -ci (Scariot, 2000; Martinot, 2001). De la même façon, une bonne estime de soi faciliterait l'adaptation sociale à l'environnement scolaire, permettant ainsi à l'enfant de se trouver en situation de réussite alors qu'une basse estime de soi rendrait difficile ou empêcherait cette adaptation à l'environnement scolaire, mettant ainsi l'enfant en situation de difficulté, ce qui pourrait le mener à l'échec (Lamia, 1998). Certains de ces auteurs et d'autres en sont ainsi arrivés à développer une conception circulaire de la relation entre estime de soi et performances scolaires (Marsh & Parker, 1984). D'autres encore nuancent ce lien entre une haute estime de soi et la réussite scolaire, et entre une basse estime de soi et l'échec scolaire : Pierrehumbert, Tamagni-Bernasconi et Geldof (1998) ont ainsi pu montrer que des élèves en situation de redoublement) n'avaient pas forcément une estime de soi amoindrie. Les auteurs expliquent ce résultat par le fait que les élèves se sentent plus à l'aise puisqu'ils se trouvent dans un contexte auquel ils sont déjà familiarisés. Pierrehumbert et al. (1998) ont également observé ce qu'il se passait lorsqu'un élève, plutôt que de doubler son année, était orienté vers un dispositif pédagogique alternatif ou vers d'autres filières ayant des caractéristiques protectrices (effectif réduit, importance atténuée de l'évaluation, pédagogie compensatoire). Ils ont pu montrer que ces élèves avaient une assez bonne estime d'eux -mêmes. L'explication qu'ils donnent à ce résultat a trait principalement au phénomène de comparaison sociale : Peut-être que la pédagogie pratiquée dans ces classes, orientée vers le renforcement des succès davantage que celui des échecs, contribue à restituer aux élèves une réelle satisfaction d'eux -mêmes. Toutefois, on peut aussi émettre l'hypothèse que ces enfants n'ont simplement plus l'occasion de se comparer à leurs pairs. De là, ils n'auraient donc plus de motifs de dévalorisation et de surcroit l'accompagnement pédagogique positif qui est proposé pourrait favoriser une survalorisation peu réaliste chez ces enfants dont le niveau de compétences scolaires et cognitives demeure objectivement faible. (Pierrehumbert et al., 1998, p.190) Ce résultat illustre les mécanismes de régulation mis en place lors de perturbations situationnelles de l'estime de soi, dont nous avons parlé plus haut. À côté de la « performance scolaire », des relations sont observées entre l'estime de soi et « les aspirations éducatives » et d'accès à l'université, la « persévérance » ou l'abandon des études supérieures ou encore « l'adaptation » scolaire en période de transition entre différents systèmes d'enseignement (Scariot, 2000). Ainsi, Caille et O'Prey (2005), dans une étude portant sur des jeunes en fin d'enseignement secondaire, ont montré que l'estime de soi des étudiants influence la réussite scolaire ultérieure (au baccalauréat) et l'attrait pour les projets d'études les plus ambitieux (Bac + 5) alors que leur passé scolaire semble avoir peu d'influence sur leur estime de soi. Dans le même ordre d'idées, Bariaud et Bourcet (1998) indiquent que l'estime de soi est un bon prédicteur de la manière dont un individu va réagir face à son premier échec scolaire. Ainsi, un individu avec une haute estime de soi adopte, face à l'échec, des modalités d'ajustements (émotionnelles, cognitives et comportementales) plus fonctionnelles que les individus avec une faible estime de soi (cf. La dynamique de l'estime de soi, supra). Enfin, un lien a pu être mis en évidence entre une basse estime de soi et « l'indécision vocationnelle » (Creed, Prideaux & Patton, 2005). Dans une étude portant sur 374 élèves du secondaire, Dony (2007) montre qu'une bonne estime de soi joue un rôle facilitateur sur la décision vocationnelle. Au vu de ces études, l'estime de soi semble liée à la performance scolaire (une bonne estime de soi est préférable du point de vue de la réussite académique à une basse estime de soi), à la persistance, à l'aspiration aux études (une bonne estime de soi est liée à des aspirations plus élevées du point de vue des études) et au choix (une bonne estime de soi facilite la prise de décision). Ces liens, mis en évidence dans la littérature, étayent la pertinence de la préoccupation de l'estime de soi comme un des principes d'action pertinents dans un dispositif de réorientation, dont les objectifs principaux sont la construction d'un nouveau choix d'études et la préparation à la réussite dans l'enseignement supérieur. D'ailleurs, l'estime de soi peut également être affectée par des facteurs environnementaux tels que l'échec, et ce d'autant plus que le niveau initial d'estime de soi est bas (donc fragile). Face aux événements négatifs, les individus sains mettent en place des stratégies de régulation afin de restaurer leur estime de soi, mais ces stratégies peuvent être inadéquates, du point de vue académique par exemple, chez les individus qui présentent un niveau d'estime de soi structurellement plus bas (cf. supra). Ces observations, qui appuient également le bienfondé de l'objectif de restauration de l'estime de soi du dispositif Rebond, attirent l'attention des intervenants sur la nature plus ou moins fonctionnelle des mécanismes de restauration et/ou de protection de l'estime de soi développés par les étudiants. Les questionnements de l'équipe des conseillers à propos de l'estime de soi sont de nature théorique, mais aussi empirique. Rappelons que les deux constats intuitifs que les intervenants souhaitaient mettre à l'épreuve avaient trait, d'une part, à la faible estime de soi qui caractériserait les étudiants à leur entrée dans la formation et, d'autre part, à l'accroissement de cette estime de soi tout au long de la formation. Nous présentons ci-après le dispositif mis en place pour tester ces propositions. Les hypothèses à tester sont de nature comparative (la première synchroniquement, la seconde, diachroniquement). La comparaison suppose deux catégories de participants. Un premier groupe de participants constitué des étudiants de la formation Rebond (que nous appellerons « étudiants Rebond »). Les étudiants inscrits à cette formation sont à l'origine issus des différents établissements partenaires du projet. L'effectif de ce groupe est de 33. Le second groupe de participants constitué d'un groupe contrôle nous permettant de rapporter les données recueillies pour Rebond à une population de référence. Il s'agit d'un échantillon d'étudiants issus de la population des étudiants de première année du supérieur inscrits dans l'un des établissements partenaires du projet (environ 5000 étudiants). Pour réaliser cet échantillonnage, nous avons procédé à une stratification en fonction des catégories d'enseignement (cinq catégories d'enseignement de type court et trois catégories d'enseignement universitaire sont proposées au sein des établissements du namurois, soit huit catégories d'enseignement au total). Au sein de chacune de ces huit catégories nous avons réalisé un tirage par grappe (groupe-classe ou équivalent : groupe de travaux pratiques, par exemple). Nous les appellerons « étudiants du groupe contrôle » (n = 490). Il faut préciser que l'échantillon-contrôle est lui -même subdivisé en trois sous-échantillons : lors de la première passation du questionnaire, nous avons demandé aux participants d'anticiper l'issue de leur année académique, ce qui a permis de les répartir en trois groupes (quatorze étudiants n'ont pas répondu à cette question) : ceux qui se disent subjectivement en réussite (« étudiants contrôle réussite », n = 383), ceux qui se disent subjectivement en échec (« étudiants contrôle échec », n = 73), ceux qui se disent subjectivement en abandon (« étudiants contrôle abandon », n = 20). Cette partition est importante pour les analyses comparatives, car elle nous permet d'isoler un groupe d'étudiants en abandon, mais non pris en charge dans le dispositif Rebond. Pour les comparaisons diachroniques, nous n'avons pu conserver dans les échantillons que les étudiants ayant participé à deux passations (n réduit à 353 pour le « groupe contrôle », n réduit à 22 pour les « étudiants Rebond »). Nous avons pu vérifier que cette réduction des échantillons, liée aux pertes, ne modifie pas significativement la moyenne et la variance des différents scores d'estime de soi dans les deux groupes. Les caractéristiques d'identification de chacun de ces groupes de participants figurent en annexe A.Notons que la structure du groupe des « étudiants Rebond » sur ces variables est similaire à la structure du « groupe contrôle ». La variable dépendante principale à mesurer pour tester les deux hypothèses est le niveau d'estime de soi. L'instrument que nous avons choisi est le Coopersmith, version scolaire (SEI, adaptation française, pour les 12-25 ans). Avec le Rosenberg (outil unidimentionnel), le Coopersmith est l'un des plus répandus dans le cadre de la recherche (Guillon & Crocq, 2004). Certes, cet outil n'est pas exempt de défauts (pour une étude critique de ses qualités métriques voir Pierrehumbert et al., 1987; Wells & Marwell, 1976; Wylie, 1974), et nous en tiendrons compte. Ainsi, l'une des critiques les plus fréquentes que l'on peut faire de cet outil est que le questionnaire permet de dégager, outre une mesure de l'estime de soi générale, un score total d'estime de soi obtenu en additionnant le score d'estime de soi générale avec les scores des trois dimensions (scolaires, sociales, familiales). Ce score total par addition ayant été vivement critiqué, notamment par Harter (1982, cité par Bariaud, 2006 et Pierrehumbert et al., 1987), nous tiendrons compte dans les analyses de résultats du score d'estime de soi générale et des scores des trois sous dimensions (avec un intérêt particulier pour la dimension scolaire) – nous n'utiliserons cependant pas le score total d'estime de soi. Mais l'avantage que présente le Coopersmith est de fournir à la fois des informations sur l'estime de soi globale (perspective unidimensionnelle) et sur des dimensions particulières (perspective multidimensionnelle : dimension scolaire, sociale, familiale), mesurées de façon distincte. La version SEI du Coopersmith est un test d'auto-évaluation composé de 58 items (26 mesurant l'estime de soi générale, 8 pour chacune des dimensions : sociale, familiale et scolaire et 8 pour mesurer le score de mensonge qui consiste en un contrôle de l'effet de désirabilité sociale). Pour chaque item, le répondant doit se prononcer en cochant l'une des deux cases « me ressemble » ou « ne me ressemble pas ». Une grille de dépouillement permet ensuite de calculer le score pour chacune des dimensions (entre 0 et 26 pour l'estime de soi générale, entre 0 et 8 pour les autres dimensions). La première hypothèse repose sur une comparaison synchronique entre les « étudiants Rebond » et les étudiants du « groupe contrôle »; la seconde hypothèse repose sur une comparaison diachronique pour les « étudiants Rebond », entre le début et la fin de la formation, elle -même rapportée aux variations éventuelles des scores d'estime de soi pour les étudiants du « groupe contrôle ». Ces comparaisons diachroniques supposent deux passations de l'instrument auprès des participants. En 2007, le SEI a été proposé aux « étudiants Rebond » et aux étudiants du « groupe contrôle » à deux reprises : une première fois au moment du début de la formation (février 2007), une seconde fois au moment de la fin de la formation (juin 2007). Il s'agissait de passations collectives. Nous avons comparé, pour les données récoltées en début de formation (février 2007), les moyennes des scores d'estime de soi des étudiants de la formation Rebond (n = 33) avec les moyennes des scores d'estime de soi des étudiants du groupe contrôle (n = 490). Pour ce faire, nous avons utilisé un test t de Student (voir tableau 1). Cette comparaison montre que la moyenne des scores d'estime de soi des étudiants de la formation Rebond (M = 16,42, ET = 4,60) est significativement (t (521) = 3,20, p = 0,002) inférieure à la moyenne des scores d'estime de soi des étudiants du groupe contrôle (M = 18,92, ET = 4,32), pour la dimension générale. Pour les autres dimensions, les différences observées ne sont pas significatives. Note. ***p < .001. Nous avons aussi testé si les étudiants de la formation Rebond sont semblables ou non, du point de vue de l'estime de soi, aux « étudiants contrôle abandon » : les étudiants du groupe contrôle qui indiquent en février qu'ils pensent abandonner leur année (mais ne sont pas pris en charge par le dispositif Rebond) (voir tableau 2). Note. ns = non significatif. Aucune des différences observées n'est significative. Du point de vue de l'estime de soi, les étudiants en abandon, qu'ils participent à Rebond ou non, sont tout à fait comparables. Notre première proposition est donc empiriquement validée : le niveau moyen d'estime de soi des étudiants en situation d'abandon est plus bas que celui du groupe contrôle. Notons cependant que cette différence ne se marque pas spécifiquement pour la dimension scolaire, mais uniquement pour la dimension générale de l'estime de soi. Peut-on pour autant interpréter cette différence comme la conséquence d'un échec ou d'une déception académique ? Nous avons noté plus haut que l'estime de soi pouvait être affectée par des évènements contextuels, tels que des réussites ou des échecs scolaires (Fortes et al., 2003; Harter, 1998). Toutefois, il semblerait que les réactions des individus à l'échec ou à la déception soient différentes selon le niveau structurel initial de l'estime de soi (Scariot, 2000). Les individus à haute estime de soi tendent à restaurer un niveau élevé par la persévérance dans la tâche, là où les individus à niveau initial peu élevé tendent à protéger l'estime de soi par différentes stratégies telles que l'évitement de nouvelles situations évaluatives, l'inhibition de l'action ou encore l'auto-handicap. Dans cette optique, un niveau d'estime de soi plus bas du groupe d'étudiants en abandon en février peut être interprété comme conséquence de l'échec ou de l'abandon, mais aussi comme cause de la non persévérance académique (ne pas avoir présenté d'examen et/ou abandonner ses études). Une plus faible estime de soi pourrait augmenter la propension au décrochage. À la lumière de ces éléments issus de la littérature, nous pouvons émettre l'hypothèse interprétative suivante : Rebond accueillerait des étudiants dont le « profil » d'estime de soi serait conjoncturellement (situation d'échec et/ou de déception) mais aussi structurellement plus bas que celui de l'étudiant moyen. Investiguer plus avant cette hypothèse supposerait de connaître le niveau d'estime de soi des étudiants pris en charge à Rebond au début de l'année académique ou, à tout le moins, avant la confrontation à l'échec scolaire ou la prise de décision d'abandon, ce qui se heurte à des limites méthodologiques. En effet, pour recueillir de telles informations, il faudrait qu'un nombre très important d'étudiants, voire l'ensemble de la population des étudiants de première année de l'enseignement supérieur, complètent le questionnaire en début d'année, ce qui constitue évidemment une procédure très lourde. Nous avons tout d'abord comparé les niveaux d'estime de soi des étudiants Rebond entre le début (février) et la fin de la formation (juin) (tableau 3). Ensuite, nous avons comparé ces variations à celles des étudiants du « groupe contrôle » (tableau 4), puis à celles des étudiants en abandon non pris en charge dans le dispositif Rebond appelés « étudiants contrôle abandon » (tableau 5). Note. * p < .05. Parmi les augmentations observées entre le début et la fin de la formation, deux sont significatives. La moyenne des scores d'estime de soi pour la dimension générale augmente significativement (t (21) = − 2,77, p < 0,05) entre le mois de février (M = 15,45, ET = 4,25) et le mois de juin (M = 18,68, ET = 5,33). De même, la moyenne des scores d'estime de soi pour la dimension scolaire augmente significativement (t (21) = − 2,71, p < 0,05) entre le mois de février (M = 4,41, ET = 1,89) et le mois de juin (M = 5,45, ET = 1,90). Notons que les dimensions qui augmentent significativement sont, d'une part, la dimension qui distinguait, en février, les étudiants en abandon des étudiants du groupe contrôle (dimension générale) et, d'autre part, la dimension plus spécifiquement travaillée dans le dispositif de réorientation (dimension scolaire). Notre proposition portant sur la variation à la hausse dans le temps chez les étudiants Rebond se vérifie donc empiriquement. Peut-on également observer des variations chez les étudiants du groupe contrôle et chez les étudiants du groupe contrôle qui se disent en abandon ou bien celles -ci sont-elles spécifiques aux étudiants Rebond ? Note 1. *** p < .001. Note 2. Alors que certains étudiants (la majorité) feront la même anticipation de l'issue de leur année académique en février et en juin, pour d'autres étudiants, l'anticipation qu'ils font en juin diffère de celle qu'ils ont faite en février. Nous nous basons ici sur l'anticipation réalisée en février, quelle que soit l'anticipation faite en juin. Les moyennes des scores d'estime de soi des étudiants du groupe contrôle sont stables dans le temps. Une seule différence est significative (t (352) = − 3,73, p < 0,001) : l'augmentation entre février (M = 6,25, ET = 1,53) et juin (M = 6,50, ET = 1,51) des scores d'estime de soi sociale. Nous avons montré ci-dessus qu'en février 2007, les étudiants de la formation Rebond sont semblables, du point de vue de l'estime de soi, aux étudiants du groupe contrôle qui se déclarent en abandon. Les moyennes des scores d'estime de soi de ces derniers varient-elles aussi dans le temps ? Note. ns = non significatif. Pour les étudiants en abandon du groupe contrôle, des augmentations apparaissent, mais aucune n'est significative. Il est à noter que ces résultats du « groupe contrôle abandon » sont à envisager de façon prudente, car ils portent sur un très petit nombre d'étudiants (8), et avec une validité faible (score de mensonge élevé : 3,75). Pour assurer une plus grande robustesse de l'interprétation, nous avons comparé les variations d'estime de soi des étudiants Rebond aux variations d'estime de soi des étudiants du groupe contrôle qui se déclarent en abandon ou en échec (« étudiants contrôle échec » + « étudiants contrôle abandon ») (tableau 6). On voit que les scores n'augmentent pas en moyenne chez ce groupe d'étudiants alors qu'ils augmentent fortement et significativement chez les étudiants de la formation entre février et juin. En effet, en février, lorsque l'on compare les étudiants Rebond avec les étudiants du groupe contrôle qui sont subjectivement en difficulté (échec ou abandon), on note une différence significative (t (46,42) = − 3,71, p < 0,01) pour la dimension scolaire : ces étudiants qui se disent en difficulté ont une estime de soi scolaire inférieure (M = 3,08, ET = 1,44) à celle des étudiants Rebond en février (M = 4,39, ET = 1,85). Note. ns = non significatif. Conformément à ce que nous supposions, nous avons pu vérifier empiriquement que, chez les étudiants Rebond, des variations d'estime de soi, à la hausse, sont observées entre le début et la fin de la formation. Au contraire, chez les étudiants du groupe contrôle (qu'ils soient en abandon et/ ou en difficulté ou non), aucune variation significative n'est observée (excepté une augmentation de l'estime de soi sociale chez les étudiants du groupe contrôle). Face à ces résultats, au moins deux hypothèses interprétatives sont possibles : D'une part, nous pourrions postuler un effet du dispositif Rebond. En effet, comme nous l'avons indiqué plus haut, rehausser l'estime de soi constitue un objectif qui oriente un certain nombre d'activités qui y sont proposées. Outre ces activités, le dispositif lui -même, par le biais de la comparaison sociale, pourrait y contribuer. Les étudiants qui participent à Rebond constituent un nouveau groupe-classe, où tous ont en commun d'avoir arrêté une année d'études en cours et décidé de mettre à profit le reste de l'année. Leur groupe de comparaison devient alors le groupe Rebond et non plus le groupe des étudiants de première année du supérieur (dont ceux qui réussissent). Or, cette comparaison avec des individus semblables ou même plus mal lotis que soi a comme conséquence une augmentation de l'estime de soi (cf. ci-dessus, Martinot, 2005; Pierrehumbert et al., 1998). Ces effets possibles du dispositif devraient amener les intervenants à être vigilants car, on l'a vu, si certains mécanismes de rehausse de l'estime de soi, comme la comparaison sociale, sont adaptatifs du point de vue de l'estime de soi, ils peuvent, par contre, avoir des effets négatifs sur la performance académique ultérieure de l'étudiant (Martinot, 2005). D'autre part, nous pourrions interpréter les variations observées chez les étudiants Rebond comme la conséquence de caractéristiques de ce public. Parmi les étudiants en abandon, ceux qui sont pris en charge par Rebond se situent déjà dans une démarche volontaire de recherche d'aide et donc sans doute indirectement de revalorisation de l'estime de soi. Nous avons également vu plus haut que l'estime de soi est plus fluctuante chez les individus qui ont une estime de soi structurellement plus basse et qu'elle est plus stable chez les individus qui ont une estime de soi structurellement plus haute (Martinot, 1995). Les étudiants Rebond auraient une estime de soi structurellement plus basse, et donc plus labile, que les étudiants du groupe contrôle qui présentent une estime de soi plus haute, et donc plus stable dans le temps. Dans cette optique également, les intervenants de Rebond devraient être attentifs aux « mécanismes naturels » utilisés par les étudiants pour rehausser leur estime de soi. Mais, plus fondamentalement, les intervenants pourraient s'intéresser au concept de soi des étudiants accueillis à Rebond (son organisation en mémoire, sa clarté, sa stabilité). En effet, Martinot (1995) met en lien les niveaux structurellement bas d'estime de soi de certains individus avec la faible organisation du concept de soi de ces derniers. De plus, Campbell (1999) montre que le concept de soi des individus à basse estime de soi est caractérisé par une plus faible clarté. Par ce travail, nous avons tenté de clarifier le concept d'estime de soi, régulièrement utilisé depuis quelques années par les étudiants et les intervenants de Rebond. Après l'avoir défini, nous avons exploré sa dynamique et ses liens avec plusieurs variables en contexte scolaire : performance académique, adaptation scolaire, aspirations éducatives et décision vocationnelle. Cette revue de la littérature a contribué à étayer le bien-fondé de l'objectif de restauration de l'estime de soi du dispositif Rebond que l'équipe des intervenants a fixé. Dans la seconde partie de ce travail, nous avons pu vérifier de manière empirique deux constats intuitifs réalisés par les intervenants à propos de l'estime de soi. D'une part, l'estime de soi des étudiants en abandon (qu'ils participent ou non à Rebond) est plus basse que l'estime de soi d'autres étudiants (« groupe contrôle »), sans pour autant pouvoir conclure à un lien de causalité entre l'abandon et la faible estime de soi. D'autre part, nous avons pu mettre en évidence des variations du niveau d'estime de soi, à la hausse, chez les étudiants Rebond entre le début de la formation et le terme de celle -ci, alors que les niveaux d'estime de soi sont stables chez les autres étudiants (« groupe contrôle »). Ces résultats ne permettent pas, pour autant, de conclure à un effet du dispositif de formation. Ces résultats soutiennent la pertinence de l'objectif de rehausse de l'estime de soi au sein d'un dispositif de remédiation/ réorientation tel que Rebond. Cependant, ils amènent les intervenants à affiner cet objectif de deux manières, au moins, qui se réfèrent aux deux éléments essentiels de la définition de l'estime de soi de Carpenito (1995). D'une part, il paraît intéressant d'investiguer plus avant la piste du « concept de soi » des étudiants accueillis à Rebond. En effet, une estime de soi structurellement basse pourrait être liée à un concept de soi moins solide. La consolidation du concept de soi de façon à restaurer le niveau d'estime de soi de manière plus stable chez les étudiants Rebond pourrait devenir un objectif opérationnel du dispositif. Des activités permettant à l'étudiant de recueillir des informations sur lui -même existent déjà en nombre (réalisation d'un stage en milieu professionnel, jeux de rôle, etc.), mais des moments plus structurés d'intégration de ces informations devraient être organisés. D'autre part, il s'agit d' être attentif aux « mécanismes de restauration de l'estime de soi » mis en place (le plus souvent de manière inconsciente) par les étudiants. Ces mécanismes peuvent avoir des conséquences négatives sur la performance académique ultérieure des étudiants. À titre d'exemple, le dispositif devrait inciter les étudiants à garder comme groupe de référence l'ensemble des étudiants du supérieur, dont les étudiants en réussite, et non plus seulement, le groupe des étudiants Rebond (en encourageant les étudiants à continuer de suivre l'une ou l'autre activité d'enseignement dans l'enseignement supérieur, présenter l'un ou l'autre examen de ces filières). Outre ces implications pédagogiques, les résultats de la recherche permettent d'ouvrir nos investigations à un autre concept, directement lié à l'estime de soi : le « concept de soi ». Plus précisément, peut-on vérifier l'hypothèse de Campbell (1999) quant au lien entre clarté du concept de soi et haute estime de soi avec le public des étudiants Rebond : ces étudiants présentent-ils un concept de soi moins solide que d'autres étudiants, ce qui pourrait expliquer la plus grande labilité de leur estime de soi ? Dans la mesure où une partie du travail réalisé à Rebond pour aider les jeunes à construire de nouveaux projets consiste en une meilleure connaissance de soi, ces activités auraient-elles un impact positif sur le concept de soi, dans le sens d'une meilleure organisation en mémoire, d'une plus grande clarté et donc, par ce biais, un impact sur l'estime de soi ? Par ailleurs, pouvoir suivre l'évolution de l'estime de soi des étudiants Rebond lorsqu' à la rentrée suivante, ils réintègrent la population globale des étudiants de l'enseignement supérieur permettrait de mieux percevoir les effets possibles du dispositif Rebond, notamment en termes de comparaison sociale. Enfin, recueillir des informations auprès des étudiants sur les stratégies qu'ils mettent en place pour retrouver une meilleure estime d'eux -mêmes pourrait sans aucun doute constituer un autre domaine de recherche à explorer . | Le but de cette recherche-action est de vérifier l'intérêt de la prise en compte de la question de l'estime de soi comme variable de travail au sein d'un dispositif de remédiation-réorientation d'étudiants en décrochage. Partant des constats intuitifs réalisés par l'équipe des formateurs à propos de l'estime de soi, une revue de la littérature ainsi qu'une confrontation à des données empiriques permettent de confirmer cet intérêt, tout en affinant l'objectif poursuivi par le dispositif dans ce domaine. | psychologie_09-0340813_tei_958.xml |
termith-760-scientext | La question que nous abordons dans cet article est celle de la variabilité desrésultats d'un même traitement appliqué à différents genres de textes. La plupart dutemps, les recherches en matière de traitement automatique, lorsqu'elles présententdes analyses sur corpus, indiquent des résultats obtenus sur seulement UN corpus ouun ensemble indistinct de textes. Il est vrai que pour de nombreuses tâches, lespremiers problèmes à résoudre ont d'abord été de déterminer comment réaliser cestâches et comment les réaliser de façon optimale avant de mesurer si ce commentdevait ou pouvait être adapté au type de texte à traiter. Mais maintenant qu'unecertaine maturité a été atteinte et que l'on cerne mieux comment réaliser tel ou teltype d'analyse, il est possible de faire entrer en jeu les nuances requises par ladiversité des textes. On voit d'ailleurs émerger cette problématique dans destravaux récents : C. Frérot (2005) montre dans sa thèse que les performances dedifférentes stratégies de rattachement prépositionnel (pour une tâche d'analysesyntaxique) sont variables selon le genre de corpus considéré; dans le domaine dela recherche d'informations, la difficulté des requêtes peut être calculée etprédite à partir de l'analyse d'un certain nombre de traits linguistiques (Mothe etTanguy, 2005); nous évoquerons en fin d'article différents travaux qui, s'inspirantdes propositions de D. Biber (1988) pour l'anglais, mettent au point des outils detypologie textuelle. Nous apportons ici une pièce supplémentaire en faveur d'une conception diversifiée etadaptative des traitements automatiques. L'étude dont nous présentons les résultatss'inscrit dans le cadre de l'amélioration d'un outil d'aide à l'élaboration determinologies et d'ontologies à partir de textes, CAMÉLÉON. Nous nous focalisons icisur un module spécifique de CAMÉLÉON, la base générique de patronslexico-syntaxiques fournie à l'utilisateur avec l'outil et destinée à lui permettred'amorcer la constitution d'une terminologie et/ou d'une ontologie sur son proprecorpus. Dans l'esprit initial de CAMÉLÉON, cette base était destinée à stocker despatrons éprouvés, c'est-à-dire donnant de bons résultats en termes de performancesur n'importe quel texte. Afin de déterminer quels patrons choisir pour constituercette base, nous avons procédé à une évaluation sur différents corpus. Cetteévaluation a révélé de très grandes différences de performances des patrons selon lecorpus de textes sur lequel ils ont été testés, ce qui remet en cause leurgénéricité. Cela nous conduit à deux sortes de conclusions : 1. pour la mise àdisposition d'un outil qui comporte un ou plusieurs modules de traitementsautomatiques, il est nécessaire de fournir à l'utilisateur des informations sur lafaçon dont ces traitements ont été mis au point, c'est-à-dire des informations quipermettront à l'utilisateur de cerner précisément les limites de la validité de cestraitements (par exemple, une même tâche peut être très bien réussie sur les textesdu journal Le Monde et très médiocrement sur des constats d'accidents); 2. demanière plus globale, la recherche en matière de TAL doit intégrer la question desgenres textuels, même de façon limitée et très basique. Dans la partie qui suit, nous indiquons l'architecture générale du logiciel CAMÉLÉONet la place de la base générique de patrons, ce afin de situer les enjeux plusspécifiques de la constitution de cette base. Dans la partie 3, nous décrivons leprocessus de mise au point des patrons et nous en indiquons les résultats section 4 .Les parties 5 et 6 sont consacrées à une discussion de ces résultats et à laconclusion. CAMÉLÉON est un outil d'aide au repérage de relations conceptuelles à partird'analyse de textes (Séguéla, 2001). C'est donc un logiciel de traitement du langagedéfini pour être intégré dans une démarche supervisée d'ingénierie desconnaissances. Plus précisément, CAMÉLÉON permet d'élaborer, à partir de l'analysede corpus écrits, des réseaux conceptuels à composante terminologique, pouvantservir de base à la définition de terminologies ou d'ontologies. Pour cela, CAMÉLÉONpropose une approche par marqueurs, faisant l'hypothèse que les relations lexicalespeuvent fournir des indices pour définir des relations conceptuelles, et avec elles ,de nouveaux concepts et termes associés. Nous présentons en 2.1 la démarche générale qui englobe l'utilisation de CAMÉLÉON, etprécisons l'aide fournie par le logiciel à chacune des étapes de la démarche. Dansla partie 2.2, nous nous focalisons sur le processus de définition et d'utilisationdes patrons, qui correspond à une première étape. En effet, le travail de mise aupoint et d'évaluation de patrons rapporté dans cet article est exemplaire de cettepremière étape. De plus, le fruit de ce travail, la « base générique de patrons »devrait faciliter le processus de recherche de relations pour un nouveau projet .Nous exposons rapidement en 2.3 la manière dont les patrons sont ensuite utiliséspour enrichir un modèle conceptuel. La démarche préconisée par CAMÉLÉON consiste à enrichir un réseau conceptuel en sefocalisant sur le repérage de relations, et cela à partir de régularités de formerelevées dans des textes à l'aide de marqueurs. Ces marqueurs correspondent à despatrons1 comportant des éléments lexicaux et syntaxiques. En effet, la dernièreversion du logiciel2 suppose que le corpus de textes ait été étiquetégrammaticalement3. L'approche par patrons fait l'hypothèse que l'interprétation deces éléments de forme définit régulièrement le même rapport de sens entre lestermes. La projection des patrons sur le corpus met en avant des fragments de textedont l'interprétation peut ensuite donner lieu, dans le réseau conceptuel, à ladéfinition de nouveaux termes, concepts ou relations entre concepts, les relationscontribuant à définir les concepts (Aussenac-Gilles et Séguéla, 2000). Pour unprojet donné, c'est-à-dire un corpus de textes et un objectif de modélisationparticuliers, la démarche préconisée par CAMÉLÉON se déroule donc en deux grandesétapes : mettre au point un jeu de marqueurs adaptés à ce projet, ce qui suppose deprojeter des patrons qui seront ou non retenus, et d'en évaluer quelquesoccurrences; projeter ces marqueurs sur le corpus, en interpréter toutes les occurrenceset étendre ou corriger le modèle conceptuel en conséquence. Le logiciel offre donc deux ensembles de fonctionnalités adaptées à chacune de cesétapes. Le caractère non automatisable de l'interprétation des phrases à chaqueétape donne à l'utilisateur (cogniticien ou linguiste) un rôle primordial. Pour faciliter son travail, et en conformité avec des travaux linguistiques sur lesrelations sémantiques (Jackiewicz, 1996) (Garcia, 1998) (Condamines etRebeyrolle, 2000), un ensemble de patrons, la « base générique demarqueurs », est proposé à l'utilisateur. Cette base est destinée à fournir desmarqueurs « prêts à l'emploi » pour amorcer le processus. Bien que la base soitqualifiée de générique, ces marqueurs peuvent ne pas fonctionner sur tout type decorpus (Condamines, 2002), ou encore ils peuvent être plus efficaces après leuradaptation aux caractéristiques du corpus de textes analysés (Rebeyrolle etTanguy, 2000) (Hamon et Nazarenko, 2001). CAMÉLÉON prévoit donc que les marqueurs puissent être adaptés pour chaque projet etchaque corpus. La fenêtre d'accueil de CAMELEON (figure 1) permet de définir unprojet, d'y associer un corpus et de constituer une liste de marqueurs pour ceprojet (liste inférieure sur la figure 1). Pour cela, les marqueurs peuvent êtresélectionnés à partir de la base générique de marqueurs (liste supérieure) etadaptés, ou bien définis à l'aide de l'éditeur de marqueurs (auquel on accède via lebouton « créer »). La mise au point d'un jeu de patrons pour un projet donné est un processus cycliquequi, pour chaque patron, alterne sa modification et son évaluation par projectionsur le corpus. Pour définir de nouveaux marqueurs ou modifier des marqueurs sélectionnés dans labase générique, l'utilisateur utilise l'éditeur du concordancier KESKYA qui faitpartie de CAMELEON (figure 2). Il doit caractériser les éléments lexicosyntaxiquesprésents avant, après et entre les termes en relation. Pour cela, il peut fournir unterme (zone Mot sur la partie gauche de la figure 2) et/ou une étiquettemorpho-syntaxique parmi celles utilisées par l'étiqueteur (à choisir dans la listede catégories sur la partie gauche, figure 2). L'utilisateur peut aussi caractériserla forme des éléments mis en relation par le marqueur, appelés X et Y. Ces élémentssont mis en évidence par une coloration dans le patron (affiché à droite de lafigure). Par exemple, sur la figure 2, le marqueur édité (définir )permet de rechercher des formes comme « X est défini comme Y » L'utilisateur n'a pasprécisé la nature de X (BEGIN est donc coloré comme étant X). La liste colorée avantEND contraint la formulation de Y. L'évaluation d'un marqueur passe par la lecture d'une partie de ses occurrences ,c'est-à-dire de phrases qu'il permet de repérer dans chacun des textes du corpus( partie gauche de la figure 3). Chaque phrase peut être visualisée séparément( partie inférieure de la figure 3). Le logiciel colorie dans la phrase les partiesreconnues par le marqueur comme étant les éléments mis en relation (X et Y). Onvérifie que le marqueur présente dans les phrases un sens stable, qui est bien celuide la relation associée. La comptabilisation des phrases examinées et validéescontribue à calculer la précision du marqueur (en haut à droite de la figure 3). Cesdifférents éléments permettent à l'utilisateur de décider s'il conserve ou rejettele marqueur (boutons valide/invalide sur la figure 3), s'il en modifiela forme ou le type de relation associé (bouton editer patron). Une fois stabilisé un ensemble de patrons et de relations, l'enrichissement du modèlese déroule en deux temps. Tout d'abord, via l'interface présentée en figure 4 ,l'utilisateur dépouille systématiquement toutes les occurrences des marqueursprojetés pour retenir des hypothèses de relation. À ce niveau, si une occurrence estpertinente, il sélectionne des termes mis en relation (partie en bas à gauche de lafigure 4) et le type de cette relation. Ensuite, l'utilisateur intègre ces élémentsdans le modèle en cours de construction. Pour cela, il doit associer les termes àdes concepts, et décider des concepts qui vont être mis en relation.. Au cours de ces deux phases, l'utilisateur interprète chaque phrase en tenant comptede son contexte en corpus, mais aussi des objectifs de modélisation. Étant donnél'occurrence d'un marqueur, l'utilisateur se demande si les termes utilisés, lesconcepts qu'ils peuvent évoquer et les relations identifiées entre ces concepts sontou non pertinents pour le modèle en cours de construction. Le choix des concepts etrelations qui vont représenter au mieux, en cohérence avec le modèle, cesconnaissances n'est également pas trivial. Les concepts à mettre en relation ne sontpas nécessairement ceux exprimés dans la phrase considérée. On peut préférer définirla relation entre des concepts parents ou fils de ceux mentionnés. 3. Évaluation de la base de patrons Le processus proposé par CAMÉLÉON repose donc sur une première étape consistant àextraire de corpus de textes des zones supposées comprendre l'expression d'unerelation lexicale. Cet article n'a pas pour objet de discuter du bien-fondé desprincipes de fonctionnement de CAMÉLÉON, argumentés dans (Aussenac et Séguéla, 2000 )et (Séguéla, 2001). Depuis que les travaux en terminologie et dans le domaine desontologies mettent en avant l'idée que l'on peut acquérir des connaissances à partirde textes, l'extraction de zones de textes pour identifier des relationsconceptuelles est une pratique plutôt triviale. Elle repose sur l'hypothèse qu'ilexiste des moyens stables d'exprimer telle ou telle relation. Cependant, cette idéeest si bien établie que l'analyse et la mesure d'une variation, pourtantintuitivement perçue par les analystes, ont été reléguées à l'arrière-plan. Lamyopie des analyses automatiques s'explique par deux facteurs qui méritent que l'ons'y attarde quelque peu : l'historique du développement des travaux dans ce domaineet leur dimension très applicative. Quoique l'on pourrait certainement faire remonter plus loin l'origine de la notion demarqueur de relation4, on peut considérer les propositions de M. Hearst (1992) commeune étude fondatrice qui inspira de nombreux travaux en TAL et en terminologie .L'objectif principal de la démarche est de projeter sur un texte ou un corpus detexte, un marqueur que l'on définira comme une « forme linguistique faisant partie de catégories prédéfinies (grammaticales, lexicales ,syntaxiques ou sémantiques) dont l'interprétation définit régulièrement le même rapport desens entre les termes » (Haddad, 2002 : 37) ou, d'une façon plus élaborée ,un patron lexico-syntaxique : « à la différence des marqueurs, les patronsidentifient la relation recherchée plus précisément en définissant également des contraintessyntaxiques ou typographiques sur le contexte des termes » (Grabar etHamon, 2004 : 72). Quelle que soit la forme de ces expressions projetées sur lecorpus, l'idée sous-jacente est qu'elles expriment une relation donnée avecsuffisamment de stabilité pour produire des résultats acceptables en termes derappel et de précision. C'est à peu près ce que M. Hearst écrit à propos desmarqueurs de la relation d'hyperonymie qui sont à la base de son travail : (i) They occur frequently and in many text genres. (ii) They (almost) always indicate the relation of interest .( iii) They can be recognized with little or no pre-encoded knowledge .Item (i) indicates that the pattern will result in the discovery of manyinstances of the relation, item (ii) that the information extracted will not beerroneous, and item (iii) that making use of the pattern does not require the tools that itis intended to help build. » (Hearst, 1992 : 540). On notera surtout les deux premiers items qui manifestent un certain credo degénéralité et de généricité. Ce credo a, dès le départ, imprégné les recherches enmatière de marqueurs de relations (par le terme de marqueur, nousenglobons aussi les patrons lexico-syntaxiques). Mais, bien sûr, les chercheurs nesont pas naïfs et ignorants des faits de langue, tout le monde est parfaitementconscient que selon le corpus analysé, les résultats pourront être variables. Celan'a cependant pas donné lieu à une étude précise de cette variation. La littératureenvisage généralement les relations lexicales et leurs marqueurs comme serépartissant en deux sous - ensembles : des relations indépendantes du domaine ,l'hyperonymie et la relation partie-tout, dont l'expression a globalement été biendécrite, voir par exemple pour le français (Borillo, 1996) et (Jackiewicz, 1996) ;des relations « spécifiques » ou « transversales », propres à un domaine, qu'il fautdécrire au coup par coup. S'il paraît évident que les marqueurs des secondes sontdifficilement exportables et réutilisables dans un corpus différent de celui danslequel ils ont été décrits, les premières sont supposées offrir une certainestabilité et si leur repérage dans les textes présente des différences en termes derésultats, ces différences sont généralement négligées. Cela tient, noussemble -t-il, à un second facteur, lié à la tâche elle -même. Hormis l'étude de Hearst et les travaux de linguistes cités plus haut, la plupart desrecherches en matière de repérage de relations lexicales sont liées à uneapplication précise : il ne s'agit pas d'inventorier tous les modes d'expression desrelations X ou Y pour la beauté de la science, il s'agit d'élaborer effectivementune terminologie structurée ou une ontologie d'un domaine. La perspectiveest clairement opérationnelle. La question de la variation des résultats devientalors secondaire au profit de la définition d'une méthode reproductible : commentprocéder ? comment éliminer le bruit ? quelles ressources utiliser (thésaurus ,dictionnaires, terminologie préexistante, etc.) ? Ce qui est destiné à enrichir lesavoir collectif est moins le patron lui -même que la façon de l'acquérir. Même s'il peutparaître intéressant d'augmenter une liste de marqueurs, le marqueur ou le patronlexico-syntaxique restent anecdotiques, d'autant que l'objectif est d'ouvrir la voievers les relations dites transversales que nous évoquions au paragraphe précédent .De nombreux travaux se penchent explicitement sur ces relations, par exemple (Girjuet Moldovan, 2002; Maedche et Staab, 2000; Riloff, 1996; Tchalakova etal., à paraître; Yamaguchi, 2001). Cependant, on ne trouve dans ces articlesni inventaire de marqueurs, ni liste de patrons; leur perspective est autre : ilsvisent la définition du comment faire5. La base de marqueurs « génériques » de CAMÉLÉON est destinée à stocker et à fournir àl'utilisateur un certain nombre de patrons « prêts à l'emploi ». À lui ensuited'adapter ces patrons, de les modifier et de les multiplier selon le corpus et ledomaine sur lequel il travaille. Notre objectif initial était de remplir la base àl'aide de patrons éprouvés, suffisamment généraux (au sens indiqué plus haut : quel'on trouve dans beaucoup de textes et qui signalent – presque – toujours larelation visée) pour être d'une véritable utilité sur tout corpus de textes. Les patrons que nous avons entrés dans cette base proviennent de différentes sources: la version précédente de CAMÉLÉON, elle -même fondée sur toute l'analyse de sonauteur (Séguéla, 2001), des travaux de recherche antérieurs6 et, de manière plusgénérale, la littérature sur l'expression des relations lexicales, plus précisémentles études qui se consacrent à la description de formes linguistiques. Au total 70patrons ont été définis et évalués : 18 pour le repérage des définitions, 35 pour larelation d'hyperonymie, 14 pour la méronymie, 1 pour les reformulations et 2 divers. Chaque patron a été saisi à l'aide de l'outil d'élaboration de patrons de CAMÉLÉON .Les patrons de définition fournis par Rebeyrolle et Tanguy n'ont pas subi demodification; les autres ont été mis au point de façon relativement adhoc. Dans un premier temps, le patron a été entré « tel quel », puis projetésur les différents corpus et, dans un second temps, modifié ou affiné en fonctiondes contextes obtenus, de façon à éliminer un maximum de bruit sans réduire lenombre de contextes pertinents. Un exemple de modification tient au fait que les patrons issus de la précédenteversion de CAMÉLÉON ne font pas usage d'étiquettes de catégorie grammaticale. Danscertains cas, nous avons remplacé des « jokers » (un mot, deux mots, etc.) par descontraintes sur la catégorie grammaticale de l'élément autorisé. Les modificationsont été motivées par ce que nous observions des contextes renvoyés par l'outil etnon par un quelconque sentiment linguistique sur la construction en question, c'esten ce sens que nous les jugeons ad hoc 7. Pour donner un exemple concret, le patron « le Y être le X le plus|moins. .. » (où Yreprésente l'hyponyme et X l'hyperonyme) permet de récupérer le contexte visé (nousmettons en gras la partie de l'énoncé correspondant au patron) : La lave des coulées est la roche volcanique la plus résistante. Mais dans certains corpus, cette formulation est employée de façon régulière commeforme d'insistance, par exemple : La méthode KOD en est l'exemple le plus frappant On a ainsi, en position « le X le plus », l'exemple le plus| moins ,le cas le plus|moins, le résultat le plus|moins et ilne semble pas impossible d'accroître la liste. Pour éviter ces contextes qui ne sontpas susceptibles de fournir des éléments de l'ontologie, on a donc stipulé que lesnoms exemple, cas, résultat ne doivent pas figurer à laplace réservée à l'hyperonyme. D'autres corpus pourraient conduire à ajouterd'autres termes ou au contraire à lever totalement ou partiellement cettecontrainte, en fonction du projet qui guide l'analyse. L'évaluation que nous fournissons est une mesure faite au terme de ce processus demise au point. Dans la perspective qui est la nôtre, celle de l'élaboration d'unoutil d'aide à la construction d'ontologies, nous devons non seulement fournir deslistes de marqueurs et de patrons, mais encore avoir une idée aussi correcte quepossible de leur intérêt pour le futur utilisateur. Nous avons donc décidé de testerles patrons de la base générique de CAMÉLÉON sur différents corpus, huit au total : un guide de planification de réseau électrique (GDP, 187 800 mots); des articles scientifiques de la conférence Ingénierie des Connaissances (IC ,198 500 mots); un manuel de géomorphologie (GEO, 260 000 mots); un manuel de spécification de logiciels dans le domaine de l'électricité( MOU, 57 500 mots); des articles extraits de l'Encyclopedia Universalis, du domaine de lagéomorphologie (ENC, 200 500 mots); un manuel de parapente (PAR, 23 800 mots); plusieurs thèses en archéologie (ARCH, 95 000 mots); des textes du domaine de la télécommunication8 (CRAT, 1 000 000 mots). Précisons que le choix de ces corpus ne correspond à aucune hypothèse préalable, ilest plutôt « opportuniste » dans le sens où nous souhaitions mettre au point etévaluer les patrons sur un maximum de textes différents et que nous avons doncutilisé les corpus que nous avions à notre disposition suite à différents projets derecherche. Nous présentons ici les résultats obtenus pour seulement un échantillon (pour desraisons de place). Pour une partie seulement des patrons testés, les patrons de définition, nous avionsune liste de référence, c'est-à-dire la liste de toutes les phrases des corpus quechaque patron devait retrouver. Ceci nous a permis, pour chaque patron, d'avoir unemesure de rappel et une mesure de précision. Nous avons ainsi pu vérifier le rappelsur ce sous-ensemble. Pour tous les autres patrons, nous n'avions pas de liste deréférence, donc pas de moyen de vérifier le rappel. Nous n'avons alors pourl'évaluation que la mesure de précision calculée automatiquement par le logiciel ,seule mesure mentionnée dans les tableaux de résultats fournis par la suite. En conséquence, nous n'avons presque pas étudié les variations en termes de rappel .Nous ne pouvons qu'extrapoler à l'ensemble des patrons et des corpus ce que nousavons constaté sur les 18 patrons de définition : le rappel varie aussi, parfoisconsidérablement selon le patron, comme le montre le tableau 1. Pour chaque colonnede ce tableau, les deux premières lignes indiquent une fourchette de variation dutaux de rappel, la dernière ligne précise le nombre de patrons concernés par cettefourchette. On peut déjà tirer un enseignement, connu des statisticiens et qui ne va faire que seconfirmer au fur et à mesure de l'analyse des résultats : une mesure moyennée, commecelles que l'on trouve souvent, masque une grande disparité de performances. Voyonsmaintenant l'ensemble des résultats. Au niveau de l'évaluation, nous avons distingué deux sous-ensembles de patrons : lespatrons de définition, que nous n'avons testés que sur les cinq corpus pour lesquelsnous avions une liste de référence; les autres patrons (hyperonymie, méronymie ,reformulation et divers), que nous avons testés sur tous les corpus. C'est pourquoinous fournirons les résultats dans deux tableaux différents. Nous rappelons qu'il nes'agit là que d'un échantillon, en raison de la quantité de patrons testés. Les patrons de définition. Ils ont pour objectif de retrouver dans lestextes les énoncés définitoires, c'est-à-dire les énoncés par lesquels l'auteur d'untexte explicite le sens des mots qu'il emploie. Dans le tableau 2, nous ne donnons le nombre de contextes renvoyés par chaque patronqu' à titre indicatif, pour permettre d'apprécier à sa juste valeur la mesure deprécision qui autorise une réelle évaluation du patron. Il nous semble en effet quedeux taux de précision identiques n'ont en fait pas la même valeur selon le nombred'occurrences sur lequel ils sont calculés : une précision de 14 % obtenue sur 7occurrences n'est en fait guère comparable à une précision de 15 % obtenue sur 375occurrences, ne serait -ce que parce que la mise au point du patron peut plusfacilement s'appuyer sur des régularités linguistiques avec 375 occurrences qu'avec7. Mais ce nombre de contextes ne peut guère permettre une comparaison entre lescorpus dans la mesure où ceux -ci ne sont pas de même taille. Le tableau 2 montre de façon assez évidente qu'il n'y a guère que le patrondéfinir à présenter un taux de précision plutôt stable etapparemment peu dépendant du corpus. Ce patron est le suivant (les étiquettesmorphosyntaxiques sont celles du TreeTagger, voir note 3) : " >^(définir|défini)$ " {NAM|PRO.* |DET.* |NUM|PRP. * |ABR|ADV |NOM|SYM|KON|ADJ|PUN. * |INT} * " >^comme$ " KON|NOM|ADJ|PRO :POS |PRO:DEM| SYM|ABR|PRO:REL|NUM|VER.* |INT|NA M|PUN.* |DET.*|PRO:IND Le signe > avant une forme indique qu'il s'agit d'un lemme, les signes ^ et$ de part et d'autre de la forme indiquent qu'il s'agit d'un mot complet (et nond'une partie de mot), la barre verticale | 1 indique que les éléments sont optionnels, les accolades {} délimitent un ensemble d'éléments, l'astérisque * 1. après cetensemble indique que les éléments peuvent se répéter un nombre indéfini defois, 2. à l'intérieur d'une étiquette de catégorie permet de recouvrir n'importe quelcaractère. Le patron ci-dessus peut donc être formulé : le lemme défini ou le lemme défini, suivi d'un nombre indéfini d'occurrences de l'une des catégories grammaticales Nom Propre ou Pronom ou Déterminant ou Nombre ou Préposition ouAbréviation ou Adverbe ou Nom Commun ou Symbole ou Conjonction ou Adjectif ou Ponctuation ou Interjection, suivi du lemme comme suivi d'une unité de catégorie grammaticale Conjonction ou Nom Commun ou Adjectif ou Pronom Possessif ou Pronom Démonstratif ou Symbole ou Abréviation ou Pronom Relatifou Nombre ou Verbe ou Interjection ou Nom Propre ou Ponctuation ou Déterminantou Pronom Indéfini. Ce patron permet de retrouver des contextes tels que : Un Projet Logiciel peut se définir comme un Processus de Développement. La période d'actualisation /0, T/ est définie comme la période de temps sur laquelle s'échelonnent les dépenses dont on veut connaître le totalactualisé. La stabilité de ce patron s'explique par le caractère très explicite de ladéfinition dans ce cas : si l'auteur emploie définir, c'est en général pour. .. définir. Par contre, il ressort que la fiabilité des autres patrons en tant qu'expression d'unedéfinition est très dépendante du corpus. Par exemple, le patron dénom2 décrit une construction moins univoquement consacrée à une définition. Il combine les verbes porter appliquer employer réserver recevoir prendre utiliser donner proposermériter avec des mots-clés tels que nom terme mot expression vocable appellation désignation dénomination, ce qui permet de retrouver des contextes tels que : Dans les systèmes rhexistasiques caractérisés par la semi-aridité ou le rôledu gel, les versants dus à un affleurement rocheux résistant ont eux -mêmes unprofil convexe en haut et concave en bas; mais le rocher affleure, nonrecouvert par le manteau de débris; la convexité sommitale a reçu le nom de waxing slope (pente croissante), l'abrupt rocheux est la free face; Pour comparer ces stratégies on utilisera les termes classiques de la valorisation (pertes, défaillance, gains d'exploitation). On voit clairement que le premier est bien une définition qui indique quewaxing slope est la convexité sommitale [du versant ], alors quele second ne définit pas un mot mais permet à l'auteur de préconiser l'emploi d'unecertaine terminologie dans certains cas (pour comparer ces stratégies) .Il ne semble pas utile de multiplier les exemples pour la conclusion à laquelleconduit la suite de l'évaluation. Les autres patrons. Le tableau 3, qui indique aussi nombre d'occurrences etprécision pour quelques autres patrons, manifeste exactement les mêmes tendances :la variation qui touche les performances des patrons parfois se limite à quelquespoints (par exemple inclure), parfois s'échelonne de 0 à 100. Or, nousne donnons pas ici les résultats de patrons « exotiques » mais bien de ce que lalittérature linguistique et « TAL » a noté comme moyens réguliers d'exprimer larelation concernée : hyperonymie pour les trois premiers, méronymie pour les deuxsuivants, localisation et reformulation pour les deux derniers. Voici des exemples de contextes visés par chacun de ces patrons. - est-un L'albédo d'un corps est un rapport qui exprime la partie de rayonnementdirectement réfléchie et donc non absorbée. - et Adv (Adv = notamment, notablement, spécialement, particulièrement) En ce qui concerne les grandes stations et particulièrement les stationsIntelsat de type A. .. - sorte de les amines, qui sont des sortes de substances chimiques; 1/2006 - inclure Les services de base à fournir dans le Rmtp comprennent les téléservices etles services support. .. - partie de l'ontologie est un composant de la mémoire d'entreprise. .. - situé dans Le Ccm interroge l'Elv à chaque fois qu'il a besoin d'informations relatives à unestation mobile donnée située à ce moment dans la zone du Ccm. - c'est-à-dire la résolution, c'est-à-dire la taille des objets qui se distinguent, est de 100 m. Ce que nous voulons mettre en discussion ici, ce n'est pas la faiblesse de laprécision de certains de ces patrons – il est bien connu que, par exemple ,être-un génère énormément de bruit – c'est l'importante variationde cette précision selon les corpus. Pour rester avec l'exemple deêtre-un qui fournit une grande quantité de contextes et, par là, unemesure valide, on observe trois groupes de valeurs : autour de 10-15 %, autour de20-30 % et un score inhabituel de 40 % dans un des corpus. De tels résultatssuscitent diverses remarques. La différence de performances d'un même patron, illustrée par l'échantillon derésultats fournis dans les tableaux 2 et 3, a, selon nous, quatre conséquencesmajeures qui sont généralement peu prises en compte dans les travaux en TAL. 1. Par rapport à la dépendance au corpus. Lorsque l'on élabore destraitements automatiques en prenant en compte des données linguistiques réelles, end'autres termes en travaillant à partir de corpus, une fiabilité identique dutraitement élaboré n'est absolument pas garantie dès lors qu'on l'applique sur uncorpus de genre différent de celui qui a servi de corpus d'analyse. C'est là un faitbien connu de nombre des chercheurs travaillant sur corpus. (Habert etal., 2000) rapportent diverses expériences dans diverses tâches (étiquetagemorpho-syntaxique, analyse syntaxique, recherche d'information) montrant une faibletransportabilité des traitements. Pour la tâche qui nous préoccupe, l'identificationde marqueurs et patrons lexico-syntaxiques pour repérer les relations conceptuellesdans les textes, cela implique une dépendance cruciale au corpus d'analyse. Eneffet, la validité d'un patron est généralement déterminée par sa performance, i.e .sa capacité à retrouver toutes les occurrences de la relation visée (ou le plusgrand nombre) sans noyer l'analyste dans un flot de contextes non pertinents. Sil'analyste privilégie la précision par rapport au rappel, tel patron pourra êtreécarté précisément parce qu'il « ramène » trop de bruit – ce que fait par exemple( Morin, 1999) avec le patron « est-un ». Le problème que montre notre étude estqu'en fait, la performance peut être divisée ou multipliée par deux ou plus selonles textes utilisés et que la décision de conserver ou d'écarter un patron pourra être purement et simplement inversée selonle corpus sur lequel on teste ce patron. Par exemple, le patron que nous avonsappelé « et Adv », issu de (Borillo, 1996), serait vraisemblablementrejeté comme trop bruité par un analyste qui le testerait uniquement sur le corpusIC (7 % de précision), mais pourrait être considéré plus favorablement par unanalyste qui le testerait sur le corpus CRATER (58 % de précision). Cela pose alorsla question de ce que l'on entend par général ouspécifique. 2. Par rapport à la notion de généricité. Nous avons souligné dans lasection 3.1 l'opposition entre deux types de relations : des relations telles quel'hyperonymie et la relation partie-tout qui sont les éléments structurants desontologies et que l'on s'attend à retrouver dans tous les domaines; des relationsspécifiques, dépendantes d'un domaine de la connaissance, que l'on pourra trouverici mais pas là. Entrent dans cette dernière catégorie des relations comme apour symptôme limitée au domaine de la médecine ou est sous-traitantde que nous avions identifiée lors d'une étude dans le domaine destransports en commun (Jacques et Soubeille, 2000). La présente étude tend à montrer que si les premières peuvent à juste titre êtreconsidérées comme relativement générales et assez peu dépendantes du domaine, ilfaut se garder d'étendre ce caractère de généralité à leur expression. En d'autrestermes, si généralité il y a, elle concerne la relation – effectivement les entitésdu domaine sont conceptualisées comme étant plus spécifiques ou plus génériques ,certaines comme des touts, d'autres des parties, etc. – et non le marqueur decette relation. Parmi tous les moyens que la langue met à disposition pourl'expression de telle ou telle relation, certains textes privilégient telleconstruction plutôt que telle autre et, pour une construction donnée, tel texte vala spécialiser dans l'expression de telle relation ou non. On a eu trop tendance àconfondre généralité de la relation et généralité des marqueurs. Or, ce que l'onrecherche dans les textes, ce sont les marqueurs, et ces derniers sont des objetslinguistiques, à ce titre intégrés dans un contexte (entendu ici dans un sens large ,englobant tout ce qui va du texte au domaine lui -même) qui joue aussi son rôle. Le choix de la formulation d'une relation est loin d' être stable et loin d' êtreneutre sur le plan énonciatif. Que dans nos corpus, le patron est-un manifeste sa meilleure précision – 40 % – dans un manuel de parapente trouvé surInternet n'est sans doute pas un hasard. On peut émettre l'hypothèse que, destiné àun public large et ignorant tout du domaine, il a pour objectif premier d'en fixerles notions (mais ce n'est qu'une hypothèse parmi d'autres possibles, nous n'avonspas poussé suffisamment l'analyse pour étayer une explication satisfaisante). Il serait en conséquence bon de rectifier la conception de la généralité et de segarder de l'appliquer aux marqueurs linguistiques qui sont recherchés dans lestextes. Effectivement, certains permettront de construire des relations génériqueset d'autres permettront de construire des relations spécifiques. Mais, dans le sensoù ils ne sont pas neutres et entrent dans un contexte, dans le sens où ils sontpris dans des schémas, des habitudes langagières, ces marqueurs sont, eux, toujoursspécifiques. Par rapport à la mise au point d'un outil intégrant du TAL. Dupoint de vue de la construction de CAMÉLÉON, qui différencie une baseglobale et les bases particulières que l'utilisateur construit pour chaqueprojet, une conséquence immédiate de notre étude est que l'objectif deremplir la base globale de patrons aussi « tout-terrain » que possible n'aplus guère de sens. Compte tenu du coût de l'élaboration des patronslexico-syntaxiques, il vaut mieux remplir cette base avec l'ensemble despatrons qui ont été élaborés, sans considération de leur performance ,puisque notre étude montre que celle -ci peut varier du tout au tout, mais enles documentant, c'est-à-dire en les assortissant des diverses indicationsqui permettront à l'utilisateur de se faire une idée de la pertinence dupatron pour son propre projet : - le nom du patron, le jeu d'étiquettes avec lequel il a été élaboré (rappelons queCAMELEON peut accepter des textes étiquetés avec divers étiqueteurs, cependant ilfaut fournir le jeu d'étiquettes en paramètre); - la description du patron en langage intelligible; - le patron lui -même; - des exemples de contextes visés; - des informations sur les corpus sur lesquels il a été testé; - les résultats pourchaque corpus testé. Les deux derniers points sont supposés aider l'utilisateur à décider d'employer ounon le patron pour son propre projet, mais l'avant-dernier n'est en fait pas sisimple à documenter. Par rapport aux genres textuels. L'idée sous-jacente est de donnerà l'utilisateur des éléments pertinents de caractérisation des corpusutilisés pour l'élaboration des patrons, de telle sorte qu'il puisseapprécier la distance de son propre corpus avec chacun des corpus de test etqu'il puisse ainsi éventuellement extrapoler les résultats à ses proprestextes. Toute la question tourne autour de la définition des élémentspertinents pour caractériser les textes. Comme elle occuperait facilement unarticle à elle seule, nous ne pouvons ici qu'esquisser quelquesremarques. La problématique du genre déborde largement le domaine du TAL, il s'agit de rangerchaque texte (instance) dans une classe plus globale (type) afin de généraliser autype certaines des observations menées sur l'instance ou d'affecter une instancequelconque à un type identifié. La définition du type/genre mobilise, selon le pointde vue adopté, deux ensembles de critères : « la notion de genre est une notionbiface qui fait correspondre une face interne (les fonctionnements linguistiques )avec une face externe (les pratiques socialement signifiantes) » (Branca-Rosoff ,1999 : 116). Schématiquement, on peut construire les genres en fonction de larelation des textes avec une pratique sociale (tradition rhétorique) ou en fonctionde traits linguistiques internes aux textes (sur une opposition similaire, voiraussi Habert, 2000). C'est sur ce dernier point de vue que se fondent les travaux sur lestypologies inductives (pour le français, voir Illouz et al., 1999 ;Habert et al., 2000; Folch et al., 2000). Dans laperspective du TAL, l'objectif est de garantir une validité identique destraitements pour l'ensemble des textes rattachés aux types. On suppose ainsi que lestypes obtenus manifestent suffisamment de régularités au plan du fonctionnementlinguistique pour faire des textes de chaque type un ensemble homogène et réagissantde façon identique à un traitement donné. Or, quelle que soit la démarche adoptée (recours à l'induction ou référence à unepratique sociale), force est de constater qu'on est très loin d'un consensus – etc'est même un euphémisme – en matière de typologie textuelle. La définition même descritères devant entrer en jeu pour une telle typologie est un chantier en cours –par exemple (Malrieu et Rastier, 2001) vérifient sur corpus les correspondancesentre un classement en genres et des agrégats de traits internes des textes tels queceux pris en compte dans les travaux sur les typologies inductives – et on en est àpeine aux balbutiements d'une mise en relation de types avec des fonctionnementslinguistiques qui permettrait de prédire un tant soit peu le comportement d'un textenon encore analysé par rapport à une tâche donnée. Le terrain commence à êtreexploré, comme nous l'avons signalé en introduction, mais un des principaux écueilstient à ce que les critères à prendre en compte fluctuent selon la tâche considérée: ce ne seront sans doute pas les mêmes indicateurs qui pourront rendre compte dedifférences de performances pour une tâche d'étiquetage morpho - syntaxique, derésolution d'anaphores, de rattachement prépositionnel ou de repérage de relationsconceptuelles. De plus, on est loin d'avoir la certitude qu'un même traitement produira desrésultats identiques sur des textes qui se rangent dans le même genre9. Nos donnéestendraient même à montrer le contraire. Nous avons, par exemple, plusieurs manuelsdans notre corpus mais nous n'observons pas avec eux d'homogénéité des scores deprécision d'un patron donné. À l'heure actuelle, on peut en déduire soit qu'il n'y apas de correspondance entre genre et fonctionnement linguistique, soit que le genre« manuel » est trop grossier et qu'il faudrait être plus précis, c'est-à-diredéterminer des sous-genres, soit que le genre « manuel » n'a pas de sens et qu'ilfaut déterminer si ces textes présentent des caractéristiques linguistiquessimilaires, soit. .. Une question essentielle à résoudre, à partir de ce genre d'observation, touche àl'identification des différents paramètres internes ou externes qui permettentd'expliquer cette disparité. Il pourrait être notamment intéressant de faireintervenir dans la recherche un troisième facteur, c'est-à-dire de croiser la façondont les textes réagissent à un traitement donné avec leurs caractéristiquesexternes et internes. Par exemple, pour la tâche qui nous intéresse, constituer desregroupements des textes en fonction des taux de précision obtenus et voir ce queces textes ont en commun. Il est clair que l'amélioration des traitements automatiques passe par la définitionde traitements plus différenciés et adaptatifs dont la mise au point implique desavancées en matière de typologie textuelle, et notamment la détermination descritères sur lesquels construire des types. Nous avons rapporté ici un ensemble de résultats liés à la mise au point d'une basede marqueurs de relations lexicales pour un outil d'aide à la réalisationd'ontologies à partir de textes, CAMÉLÉON. L'évaluation de ces patrons sur huitcorpus différents montre une grande variation de leurs performances selon le corpustesté. Cette étude a donc permis d'établir des résultats de trois ordres : Du point de vue pratique, nous proposons une base documentée de 70 patronslexico-syntaxiques évalués sur 8 corpus, avec, pour chaque patron, sa précision surchacun des corpus de l'étude. Cette base peut servir dans un contexte TAL plus largeque celui de la construction de modèles de connaissances. De plus, elle estégalement disponible avec le logiciel CAMÉLÉON. Du point de vue technique, l'analyse des résultats nous a conduites à revoir lanotion de « base de marqueurs génériques » dans CAMÉLÉON, au profit d'une base demarqueurs réutilisables. L'idée a été mise en œuvre dans une nouvelle version dulogiciel. Il est désormais possible de capitaliser chacune des expériences réaliséesà l'aide de CAMÉLÉON, de conserver les marqueurs utilisés pour chaque projet avecleurs performances sur les corpus associés. Conformément à la proposition décrite enpartie 5, alinéa 2, un marqueur n'est plus enregistré seul mais documenté par lesdifférentes expériences au cours desquelles il a été utilisé. Enfin, d'un point de vue méthodologique, cette étude contribue à une réflexion àdouble facette, tant pour la linguistique de corpus que pour le TAL. La variabilitésouligne les enjeux et difficultés d'une approche de la linguistique par l'étude descorpus. Elle rappelle l'exigence de précision et prudence requise avant tout énoncéde résultats, et la nécessité de diversifier les études et les types de corpus. Pourle TAL, elle confirme qu'une meilleure qualité des traitements passe par leurdifférenciation et adaptation aux besoins et aux contextes. Dans les deux cas, unbesoin récurrent se fait ressentir : celui d'une meilleure caractérisation destextes, ou des genres textuels. Cependant, tout indique qu'une approche naïve quiirait vers une classification unique et rigide des textes, est vouée à l'échec. Eneffet, la diversité des écrits vient se combiner à celle des types d'analyses et detraitements effectués sur les textes . | RÉSUMÉ. Nous rapportons dans cet article un ensemble de résultats liés à la mise aupoint d'une base de marqueurs de relations lexicales pour un outil d'aide à laréalisation d'ontologies à partir de textes, CAMÉLÉON. L'évaluation de ces patronssur huit corpus différents montre une grande variation de leurs performances selonle corpus testé. Cela nous conduit à deux sortes de conclusions : 1. dans le cadrede traitements automatiques, il est nécessaire de fournir à l'utilisateur desinformations sur les corpus avec lesquels ces traitements ont été mis au point; 2 .la recherche en matière de TAL doit contribuer à définir une meilleurecaractérisation des textes et des genres textuels en relation avec les traitementspossibles, au-delà d'une classification unique et rigide des textes . | scientext_ling_art_500_tal_jacques_aussenac_entete.xml |
termith-761-scientext | Le TAL a connu au cours des deux dernières décennies un développement qui s'est traduit par un nombre croissant de réalisations destinées au grand public ou aux professionnels, faisant passer de domaine de recherche du stade d'une linguistique computationnelle à celui de l'ingénierie des langues (Cunningham, 1999). Parmi les champs d'application envisageables de l'ingénierie des langues, l'aide au handicap reste relativement négligée, alors qu'elle répond pourtant à une attente sociétale forte. Cette situation est variable d'un pays à l'autre. En France, le soutien institutionnel sur ces questions a été très tardif, en comparaison par exemple de ce que l'on peut observer dans les pays scandinaves. Cet abandon a fortement limité le développement de recherches et de pôles industriels forts dans le domaine. Quoi qu'il en soit, la thématique du handicap reste peu visible dans les recherches internationales en TAL, peut-être à cause de son caractère résolument pluridisciplinaire. Pourtant, l'enjeu économique de l'aide au handicap est loin d' être négligeable. Les personnes souffrant d'un handicap reconnu représentent ainsi près d'un français sur douze. En 2007, 12 % de la population active française déclare avoir un handicap, même si seulement 4 % des actifs sont officiellement reconnus comme handicapés. Ces handicaps peuvent remonter à la naissance ou à l'enfance ou survenir à l' âge adulte (33 % des déficiences sont d'origine accidentelle). C'est ainsi qu'en France, 300 000 personnes en âge de travailler deviennent handicapées chaque année. On sait par ailleurs que le vieillissement de la population observé dans les pays développés est synonyme d'une forte augmentation du nombre de personnes âgées en situation de perte d'autonomie. La thématique « vieillissement de la population et handicaps » constitue ainsi une des actions récurrentes des programmes de recherche coordonnés soutenus par l'Union européenne. Un dernier chiffre permettra de quantifier le besoin réel de l'aide au handicap : en France, trois millions de personnes handicapées bénéficient d'une aide humaine ou technique. Compte tenu du rôle privilégié accordé à la communication langagière dans nos sociétés, l'ingénierie des langues constitue, avec la robotique, le domaine technologique le plus directement concerné par le problème du handicap. Le développement d'Internet, véritable portail vers le monde extérieur pour les personnes isolées et dépendantes que sont souvent les personnes handicapées, ne fait qu'accroître cette demande sociale. Afin d'illustrer l'importance et la diversité de cette problématique, citons quelques exemples d'applications – aide à la saisie de texte sur ordinateur : accélération de la saisie de texte sur ordinateur pour des personnes ayant un contrôle limité ou inexistant de leurs membres antérieurs; aide à la composition de messages pour des personnes aphasiques ou dyslexiques… – compensation d'une modalité défaillante : synthèse vocale à partir du texte pour des personnes ayant perdu l'usage de la parole. Cette compensation s'accompagne le plus souvent d'une aide à la saisie de texte; vocalisation de messages pour les personnes aveugles; – assistance à base de langages spécialisés, souvent dans un cadre professionnel. On trouve ici les langages de commande pour la robotique d'assistance (Richard et al., 2000), aide à la programmation informatique, à la rédaction d'articles mathématiques … Dans cet article, nous focaliserons notre propos sur la problématique de l'aide à la saisie de texte, qui trouve des applications en dehors du monde du handicap. Celle -ci s'inscrit dans le cadre plus général de la communication augmentée écrite ou orale. Étant donné que les systèmes d'aide à la communication utilisent des synthèses vocales à partir du texte totalement génériques, cette dimension ne sera pas abordée ici. Les communicateurs, ou systèmes de communication assistée (AAC en anglais, pour Alternative and Augmentative Communication) ont pour objectif de restaurer les capacités de communication de personnes qui souffrent d'un handicap moteur sévère se traduisant par une paralysie des membres (tétraplégie, quadraplégie), une athétose ou une dyskinésie. Ces déficiences limitent de manière très pénalisante le contrôle physique de l'environnement. Dans le cas des pathologies les plus prononcées, les possibilités de communication à l'écrit (écriture manuscrite ou saisie de texte sur clavier d'ordinateur) sont excessivement réduites. Par ailleurs, l'insuffisance du contrôle moteur peut concerner jusqu' à l'appareil phonatoire. Dans ce cas, la communication est également privée de son support oral habituel. Ces types de handicap correspondent à des pathologies variées : – l'infirmité motrice cérébrale (IMC ou cerebral palsy en anglais) est due à un accident cérébral anténatal (encéphalite durant la grossesse ou anomalie chromosomique) ou périnatal (accident durant l'accouchement, traumatisme cranier ou méningite durant la première année de vie). Les atteintes neurologiques qui en résultent se traduisent par des tableaux cliniques variés : diplégie, tétraplégie ou encore athétose ou dysarthrie avec difficultés d'élocutions. Souvent, elle s'accompagne de troubles cognitifs qui peuvent, en particulier, se traduire par des dysorthographies, voire des aphasies sévères. L'incidence de cette pathologie est actuellement de 0,6 nouveaux cas pour 1 000 naissances. Heureusement, les degrés d'infirmité varient fortement entre les différents patients qui font l'objet d'une rééducation durant leur jeunesse; – le syndrome d'enfermement (Locked-In Syndrom ou LIS en anglais) résulte d'un accident vasculaire cérébral (AVC) majeur détruisant le tronc cérébral responsable de la transmission des ordres moteurs. Il se traduit par une paralysie complète, à l'exception des clignements de paupières qui peuvent être contrôlés par le patient. Les facultés cognitives et perceptives de ce dernier restent intactes. Comme pour tout AVC, cette maladie touche majoritairement les hommes. Cette atteinte neurologique reste très rare. Cette pathologie se range ainsi dans le cadre des maladies orphelines; – la sclérose latérale amyotrophique (SLA, ALS en anglais pour Amyotrophic lateral sclerosis), également appelée maladie de Charcot ou maladie du motoneurone, est une maladie neurodégénérative. On est ici en présence d'une destruction progressive et inéluctable des neurones moteurs du patient. Elle se déclenche généralement entre 40 et 60 ans et se traduit par une paralysie de plus en plus importante ‑ le clignement des paupières étant généralement le dernier mouvement autorisé aux stades ultimes de la maladie ‑ pour laquelle on ne dispose d'aucun traitement. L'utilisation d'une assistance respiratoire permet désormais de retarder de plusieurs années l'issue fatale de la maladie. On estime à environ 5 000 le nombre de personnes souffrant d'une SLA en France. L'incidence de la maladie est d'environ un à deux nouveaux cas survenant chaque année pour 100 000 habitants. Ainsi, en France, 800 nouveaux cas sont détectés chaque année; – la myopathie, et en particulier la myopathie de Duchenne (maladie génétique), se traduit par une dégénérescence progressive des fibres musculaires. Elle est diagnostiquée dès l'enfance, les patients ayant une espérance de vie comprise entre 20 et 30 ans. L'évolution de la maladie va de pair avec une perte de plus en plus marquée du tonus musculaire. À un stade avancé de la maladie, l'interaction avec l'environnement physique ne peut plus se faire qu' à l'aide de dispositifs tels qu'un joystick microgravité, qui sert à piloter le fauteuil du patient mais aussi son ordinateur. L'incidence de la myopathie de Duchenne est de 1 nouveau cas sur 3 500 naissances de garçon; – enfin, les victimes d'une lésion médullaire (moelle épinière), qui se traduit entre autres par une paralysie complète ou partielle des membres, représentent la majeure partie des utilisateurs potentiels des systèmes d'aide à la communication. Cette lésion peut être due à un traumatique (accident de la route, du travail ou du sport), mais également à une myélopathie due à une infection, une inflammation ou à une tumeur. Le degré de paralysie dépendra de la hauteur de la lésion. En France, 30 000 personnes sont atteintes d'une lésion médullaire, 1 000 à 1 500 cas venant s'ajouter chaque année, le plus souvent à la suite d'un accident automobile. Dans certains cas, le patient a dû subir une trachéotomie. Le système de suppléance concernera alors aussi bien la communication orale qu'écrite. Quelle que soit la pathologie concernée, les systèmes de communication augmentée ou alternative doivent proposer à l'utilisateur une aide à la saisie de message (et éventuellement leur vocalisation automatique) adaptée à leurs capacités très réduites d'action sur le monde physique. Cette saisie va s'effectuer sur un tableau virtuel de symboles (mots, lettres, phonèmes voire icônes pour les patients aphasiques ou les enfants en début d'apprentissage de la langue) qui est affiché sur l'écran d'un ordinateur. Le message est construit en sélectionnant successivement sur le clavier virtuel les symboles qui le composent. Plus précisément, l'utilisation des ces systèmes de suppléance repose sur trois composants principaux (). Système d'aide à la communication pour personnes handicapées Tout d'abord, un dispositif physique joue le rôle de périphérique d'entrée de l'ordinateur. Cette interface matérielle dépend du geste libre laissé par le handicap. Il peut s'agir d'un joystick microgravité (figure 1), d'une commande oculaire ou de détection de clignements de paupière, d'une commande par souffle (, à gauche), d'un détecteur de mouvement de la tête (, à droite) ou d'un simple bouton-poussoir, etc. Deux exemples de dispositifs d'entrée : à gauche, une commande par détection de souffle; à droite, un détecteur de mouvements de tête. Une caractéristique importante est le nombre de degrés de liberté autorisé par ce dispositif. Le plus souvent, le patient ne peut plus réaliser que l'équivalent d'un simple clic (commande de type contacteur « tout ou rien »). Dans ce cas, un dispositif de défilement permet, suivant différentes stratégies qui seront présentées plus loin, de parcourir tous les éléments du clavier. C'est donc par défilements, puis clics successifs, que l'utilisateur va sélectionner les éléments du message sur le clavier virtuel, élément central de l'interaction. Le clavier virtuel peut être associé à un éditeur intégré, ou au contraire permettre le pilotage de toute application externe (éditeur de texte, navigateur Web, client de messagerie…). Enfin, une synthèse de parole à partir du texte peut-être utilisée pour vocaliser le message saisi. Ainsi constitué, un système d'aide à la communication permet à une personne lourdement handicapée d'interagir librement avec son entourage, que ce soit par écrit ou par oral. Dès lors, le problème qui se pose est celui de la lenteur et de la pénibilité de la composition des messages. Ce problème majeur est particulièrement manifeste dans le cas d'un clavier virtuel piloté par un simple clic : après chaque saisie, l'utilisateur doit attendre que le dispositif de défilement à l'écran atteigne l'item qu'il souhaite désormais sélectionner. Il en résulte des temps de latence très longs, qui s'accompagnent d'un nécessaire effort d'attention rapidement fatigant. L'utilisation d'un système de suppléance se traduit ainsi par une vitesse de communication de un à cinq mots par minute qui est sans commune mesure avec la communication orale entre personnes valides. Ces observations se retrouvent aussi bien sur le français (Le Pévédic, 1997) que l'anglais (Alm et al., 1992). Il est donc nécessaire de proposer des techniques d'optimisation de la saisie et c'est à ce niveau qu'interviennent les recherches en traitement automatique des langues (TAL), mais également en interaction homme-machine (IHM). Deux approches complémentaires sont en fait envisageables pour accélérer la saisie : – la première consiste à optimiser le temps d'accès à la touche recherchée, donc à réduire le temps de défilement pour y accéder. Cette optimisation dépend de l'organisation générale du clavier (IHM), mais également de la prise en compte du contexte de saisie; – la seconde approche vise à minimiser le nombre de saisies, en complétant automatiquement certaines parties du message en fonction du contexte. Peuvent intervenir ici des techniques de désabréviation et de prédiction de texte. Nous allons maintenant dresser un panorama des techniques relevant du TAL qui ont été envisagées jusqu'ici pour réaliser ces deux types d'optimisation, en commençant par la problématique de la sélection rapide de touches sur le clavier virtuel. Tout étudiant en Interaction Homme-Machine sait que les claviers QWERTY ou AZERTY de nos ordinateurs, hérités de la disposition des marteaux des machines à écrire, ne sont pas optimaux. Le sentiment d'aisance des utilisateurs experts et le refus d'apprentissage (pourtant rapide) d'un nouveau clavier, ont pourtant empêché l'émergence de dispositions plus adaptées telles que celle proposé par August Dvorak, il y a plus de 70 ans (Dvorak et al., 1936). À l'opposé, le besoin d'un clavier adapté est ressenti très fortement par les personnes handicapées utilisatrices d'un système d'aide à la communication. Dans ce cas, la recherche d'un clavier optimal va dépendre de plusieurs facteurs : – la nature du handicap, et plus précisément les capacités de contrôle moteur dont dispose l'utilisateur. La question principale, de ce point de vue, est de savoir si l'utilisateur est encore à même de déplacer un pointeur sur l'écran, ou s'il est limité à une commande de type « tout ou rien »; – la nature statique ou dynamique du clavier, c'est-à-dire la capacité d'adapter la disposition des touches en fonction du contexte courant de saisie. Il faut noter que le choix d'un clavier dynamique dépend également du tableau clinique de l'utilisateur. Si l'adaptation dynamique peut permettre des gains substantiels en terme de vitesse de communication, elle est également susceptible d'accroître la charge cognitive. Par ailleurs, certains troubles cognitifs ou perceptifs ne sont pas compatibles avec une réorganisation dynamique du clavier. Lorsque le handicap moteur reste limité, l'utilisateur peut encore avoir la possibilité d'utiliser un clavier physique adapté. Un patient athétosique léger utilisera ainsi un guide-doigts pour effectuer une saisie sans erreur. Lorsqu'un contrôle physique du clavier n'est plus envisageable, il faut s'en remettre à un clavier virtuel. Ce paragraphe s'intéresse à la saisie rapide sur ce type de clavier. Dans le cas d'utilisateurs ayant gardé la capacité de déplacer un pointeur sur un écran, l'optimisation va consister à limiter la distance de déplacement du curseur. Cette question concerne les personnes myopathes équipées d'un joystick microgravité (contrôle physique direct), mais également les patients qui pilotent le curseur souris avec un dispositif de détection du regard (Eye Gaze Tracking). Ces systèmes peuvent faire appel à des techniques d'imagerie (Sibert et al., 2000) ou bien observer l'activité des muscles oculaires pour déterminer la direction du regard (Baretto et al., 2000; Felzer Nordman, 2006). Les sélections (clics « souris ») étant également réalisées par commande oculaire, la principale difficulté rencontrée réside dans les sélections non voulues (problème du « toucher de Midas »). Notons enfin que certains dispositifs expérimentaux pilotent la souris à partir de l'analyse de l'activité cérébrale, technique réservée aux pathologies les plus lourdes. On parle d'interface cerveau-machine (brain-computer interface), le patient apprenant à activer certaines zones cérébrales pour diriger le pointeur (Wolpaw et al., 2000). Quel que soit le dispositif d'entrée utilisé dans ces cas, la limitation des déplacements du curseur est bien entendu une priorité. Certains systèmes laissent à l'utilisateur (ou à son thérapeute) la liberté de définir la position de chaque touche sur le clavier virtuel. Plutôt que de s'en remettre à l'introspection de l'utilisateur ou à l'intuition, comme dans le clavier OPTI (MacKenzie et Zhang, 1999), une disposition plus efficace des touches peut être obtenue par un apprentissage automatique prenant en compte la fréquence de cooccurrences des lettres dans la langue. Ainsi, l'organisation du clavier GAG, développé à l'IRIT, se base sur les bigrams de mots observés sur un grand corpus d'apprentissage en français. Les bigrams nourrissent un algorithme génétique qui place les caractères sur le clavier afin de minimiser la distance de déplacement moyenne d'une lettre à la suivante (Raynal et Vigouroux, 2005). De même, le clavier KNITS est un clavier optimisé pour l'anglais qui a été estimé sur les bigrams de lettres observées dans un corpus de trois millions de mots (Lesher, 2000). Un algorithme d'optimisation procédant par essai-erreur sous forme de permutation de touches, conduit à une réduction de 35 % des déplacements par rapport à un clavier QWERTY. Adaptation dynamique du clavier KeyGlass, avec touches contextuelles. A) après la saisie du caractère « s » B) après la saisie d'un « e » Une disposition encore plus optimale peut être atteinte en considérant le contexte courant de saisie. Cette idée se retrouve sur le clavier KeyGlass (), qui est présenté dans ce numéro dans l'article de Mathieu Raynal. Destiné à des patients myopathes, il s'agit d'un clavier GAG statique auquel s'ajoutent en transparence des touches contextuelles (Raynal et Vigouroux, 2005b) : dès qu'un caractère est sélectionné, KeyGlass affiche autour de la touche correspondante les quatre lettres qui lui semblent les plus susceptibles de poursuivre la saisie. La prédiction s'appuie sur l'interpolation de deux modèles complémentaires : un bigram de lettres et un arbre lexicographique probabiliste (cf. infra § 3.4). Le caractère translucide des touches contextuelles ne masque pas le clavier statique. Cette solution constitue un bon compromis entre la nécessité d'une certaine stabilité de l'affichage et l'intérêt de son adaptation dynamique pour faciliter la saisie. Comme nous le verrons tout au long de cet article, l'adaptation dynamique des claviers virtuels constitue en fait la question centrale que l'aide à la communication pour personnes handicapées pose au TAL. Lorsque l'utilisateur n'a pas la possibilité de guider un pointeur sur l'écran, le système doit mettre en œuvre un processus de défilement automatique sur toutes les touches du clavier. L'utilisateur n'a plus qu' à faire une sélection lorsque la touche recherchée est atteinte. Il est dès lors important de minimiser le nombre moyen de défilements. La personne handicapée peut parfois réaliser plusieurs clics différents, par exemple lorsqu'elle a la capacité de contrôler la longueur de ses appuis ou lorsqu'elle garde le contrôle de plusieurs gestes. Il est alors possible d'associer une sémantique différente à chaque type de clic. Certains systèmes utilisent cette capacité pour laisser à l'utilisateur le pilotage du défilement. Dans le cadre de cet article de synthèse, nous nous intéresserons uniquement au pilotage d'un clavier par clic unique. Notons que la possibilité de gérer des clics différents ne change pas l'organisation des claviers virtuels. Des études ont simplement montré qu'une organisation particulière d'un clavier est plus ou moins adaptée suivant le nombre de clics maîtrisés (Harbush et Kühn, 2003). Différents paradigmes de sélection ont été envisagés pour les claviers virtuels. Deux approches sont le plus souvent mises en œuvre : le balayage linéaire du clavier, ou le balayage ligne/colonne. Dans ce dernier cas, une sélection nécessite deux appuis pour sélectionner successivement la ligne et la colonne de la touche considérée (). Balayage ligne/colonne : sélection de la ligne (haut) puis de la colonne Quel que soit le balayage, il est possible de définir une configuration optimale suivant le nombre de touches du clavier (Cantegrit et Toulotte, 2001). Pour un balayage ligne/colonne, on montre aisément que la matrice optimale des touches forme un triangle rectangle dont les côtés opposés à l'hypoténuse se rejoignent en haut à gauche de l'écran (). La disposition des lettres sur la matrice du clavier dépend de leur fréquence d'apparition dans la langue. Le clavier SwitchXS utilise un balayage ligne/colonne en trois clics (). Dans un premier temps, l'utilisateur sélectionne une ligne, puis une de ses quatre sous-parties et enfin le caractère présent dans la sous-ligne considérée. Clavier optimisé (pour l'anglais) pour un défilement ligne/colonne. Globalement, chaque type de balayage a ses intérêts et ses inconvénients. Le balayage ligne/colonne permet une sélection plus rapide du caractère recherché que le balayage linéaire. À l'opposé, il nécessite un, voire deux (SwitchXS), appuis supplémentaires, ce qui n'est pas sans conséquence sur la pénibilité de la tâche pour l'utilisateur handicapé. Par ailleurs, le balayage linéaire ne demande qu'une attention sur le curseur défilant sur l'interface, alors que le balayage [[ [UNTRANSLATED text:change-start :] ]] ligne-colonne [[ [UNTRANSLATED text:change-end :] ]] [[ [UNTRANSLATED text:change-start :] ]] ligne/colonne [[ [UNTRANSLATED text:change-end :] ]] nécessite une observation globale du clavier, pour programmer la sélection de la ligne, puis de la colonne. D'où une charge cognitive plus importante et la nécessité d'une vision non affectée par le handicap. Le choix d'un balayage particulier dépendra donc avant tout du tableau clinique de l'utilisateur. Vue partielle du clavier SwitchXS, avec ses quatre zones de sélection verticales pour un balayage ligne/colonne optimisé Dans tous les cas, le gain apporté par un clavier standard optimisé reste encore limité. (Schadle et al., 2002) ont ainsi étudié des claviers français rectangulaires comportant 64 caractères alphabétiques disposés suivant leur ordre fréquentiel d'apparition dans la langue. Ils ont observé sur un extrait du corpus Le Monde qu'un balayage linéaire demandait en moyenne 7,1 défilements pour saisir un caractère, tandis qu'un balayage ligne/colonne permettait de limiter l'attente à 4,3. Minimiser plus encore le temps de balayage revient à prendre en considération le contexte courant de saisie. C'est l'objectif des claviers ambigus et des claviers dynamiques. Le principe des claviers ambigus est bien connu du grand public, puisqu'il est implémenté pour la saisie de texte sur les téléphones mobiles. L'idée est d'associer à chaque touche plusieurs caractères, le système ou l'utilisateur étant en charge de désambiguïser ensuite la saisie. L'objectif des claviers ambigus est bien entendu de réduire le nombre de touches de saisie. Cette caractéristique présente de nombreux intérêts pour les claviers virtuels : – elle est adaptée à des interfaces de taille réduite, ce qui permet la conception de systèmes de suppléance portables (Kushler, 1998). La demande pour des dispositifs discrets, pouvant être installés sur un fauteuil, est forte dans le monde du handicap; – pour des personnes dysarthriques ou athétosiques, elle facilite une saisie sans erreur par l'augmentation de la taille des touches. Un clavier à quatre touches autorise ainsi une saisie tactile sur un assistant personnel (PDA) où les quatre coins de l'écran jouent le rôle de barrière physique remplaçant le guide-doigts (Froehlich et al., 2007). Une taille de touche accrue est également bienvenue pour les utilisateurs souffrant de troubles visuels associés; – dans le cas de la saisie de texte par balayage, le nombre de défilements moyen sera réduit en proportion du nombre de touches, d'où une sélection plus rapide. Les systèmes de balayage à clavier ambigu utilisent fréquemment un codage de type T8/T9 utilisé également sur les téléphones mobiles. Certains systèmes, tel le clavier UKO (Kühn, 2001), utilisent encore moins de touches (). Quelques exemples de claviers ambigus (Harbush, Kühn, 2003) La performance d'un système à clavier ambigu va dépendre de sa capacité à désambiguïser la séquence des touches saisies. Lorsque aucune désambiguïsation n'est intégrée (ce qui est le cas de la plupart des systèmes commerciaux), un ou plusieurs appuis supplémentaires vont être nécessaires à l'utilisateur pour préciser son choix. En pratique, ce type de clavier n'est alors profitable qu'aux utilisateurs pouvant réaliser deux, trois ou quatre types de clics différents (Harbush, Kühn, 2003b; Tanaka-Ishii et al., 2002). D'autres systèmes réalisent une désambiguïsation automatique partielle en se basant sur un lexique qui restreint la combinatoire des séquences autorisées de caractères. Le système T9™, proposé par la société Tegic Communications, se retrouve sur tous les téléphones mobiles, mais a connu également une application dans le domaine de l'aide à la communication (Kuhsler, 1998). Il va plus loin en utilisant un lexique fréquentiel : à tout moment, le système lève l'ambiguïté en privilégiant la poursuite du mot qui est compatible avec la saisie en cours et qui présente la fréquence moyenne d'occurrence la plus élevée dans la langue considérée. Bien entendu, ce choix probabiliste peut être erroné. Dans ce cas, l'utilisateur doit réaliser un appui supplémentaire pour sélectionner le caractère correspondant au mot suivant le plus probable. Cette stratégie de rattrapage est cependant assez rarement utilisée, puisque les performances annoncées sont de 1,0051 appui par caractère. Le système UniGlyph (Belatar, Poirier, 2007) utilise de même un dictionnaire fréquentiel. Ce clavier original dispose de trois touches principales correspondant à des primitives graphiques rattachées à un ensemble de caractères (). Pour saisir un mot, l'utilisateur sélectionne la suite des primitives correspondantes : après chaque appui, les mots de même longueur les plus probables (selon le dictionnaire fréquentiel) sont affichés suivant un dispositif de zoom de type « FishEye ». Lorsque le mot attendu est affiché, on peut le sélectionner par un ou plusieurs appuis additionnels; la liste des primitives est ainsi désambiguïsée. Au final, le système ne nécessite en moyenne que 1,04 appui par caractères. Les trois touches correspondant aux primitives du clavier ambigu UniGlyph et le codage des caractères correspondants (Belatar, Poirier, 2007) Quelle que soit la technique retenue, la désambiguïsation ne sera jamais totale. L'utilisateur d'un clavier ambigu est donc fréquemment amené à réaliser plusieurs appuis par caractère, ce qui est rapidement fatiguant. C'est pourquoi ces interfaces sont généralement limitées à des cadres applicatifs bien définis : – saisie avec des dispositifs d'entrée à clics multiples, où la multiplicité des clics est moins pénalisante. On retrouve ici ce qui existe depuis de nombreuses années en matière de saisie dactylographique ou de langues orientales à idéogrammes; – saisie sur des interfaces limitées (PDA, téléphone mobile). Dans les autres cas de figure, une saisie par balayage linéaire ou ligne/colonne est recommandée. L'utilisation d'un clavier dynamique constitue une optimisation très efficace du balayage linéaire Les claviers dynamiques généralisent un principe déjà rencontré avec le système Keyglass (cf. § 3.1) : la disposition des touches est modifiée après chaque saisie afin que les caractères les plus probables soient accessibles en un nombre minimal de défilements (). L'application de cette idée n'est pas envisageable avec un défilement ligne-colonne. Après chaque remise à jour de l'affichage, l'utilisateur serait en effet obligé de parcourir visuellement la totalité de l'écran pour découvrir la nouvelle position de la lettre recherchée. Au contraire, lorsque le clavier virtuel est utilisé avec un balayage linéaire, le caractère dynamique de l'affichage n'est plus gênant puisque l'utilisateur n'a qu' à considérer la position courante du curseur et, éventuellement, celle qui va lui succéder. Deux approches ont principalement été étudiées jusqu'ici pour mettre en œuvre la prédiction de texte nécessaire à la réorganisation contextuelle des claviers dynamiques. Clavier dynamique : exemple de réorganisation du clavier lors de la saisie du début du mot « compter » La première méthode qui généralise l'idée du système T9™, consiste à parcourir un lexique fréquentiel organisé sous la forme d'un graphe probabiliste de lettres. (Ménier et Poirier, 2001) proposent ainsi de compiler un lexique fréquentiel sous la forme d'un arbre. Chaque nœud de l'arbre correspond à un caractère. La probabilité d'occurrence d'un caractère est donnée par la somme des probabilités de ses nœuds fils. Les nœuds feuilles, qui correspondent aux mots complétés, ont pour probabilité finale leur fréquence relative d'occurrence dans la langue. L'autre approche s'appuie sur une modélisation markovienne. La première version du système HandiAS (Le Pévédic, 1998) utilisait ainsi un bigram de lettres comme modèle de prédiction. Le système Sibylle, qui est présenté dans ce numéro, utilise un pentagram de lettres (contexte de quatre lettres pour prédire la suivante) qui donne de bons résultats : la lettre recherchée est en moyenne en troisième position sur un clavier dynamique de 64 touches. Le gain obtenu en augmentant le contexte de prédiction est négligeable (Schadle et al., 2002). Limiter ainsi le nombre de défilements moyen à 3 par caractère est déjà très satisfaisant. À titre de comparaison, un clavier statique à défilement linéaire nécessitera au mieux 9 défilements, tandis qu'un clavier à balayage ligne/colonne optimisé demandera 4,3 défilements, mais également 2 appuis, pour atteindre le même but. Mais l'intérêt principal de ces approches markoviennes réside dans leur robustesse. Puisqu'elle ne met pas en jeu de dictionnaire, la prédiction n'est gênée ni par la présence de mots hors vocabulaire, ni par les erreurs de saisies qui sont très nombreuses dans le cadre de la communication palliative. Dasher est également un clavier dynamique basé sur une prédiction de lettres (Ward et al., 2000). Son originalité réside dans son interface de saisie. Plutôt que déplacer le curseur sur le clavier virtuel, l'utilisateur va guider le défilement des lettres à saisir successivement à l'écran (). Le clavier dynamique Dasher La saisie sous Dasher se déroule comme suit. Imaginons que vous désirez écrire le mot compter. Initialement, les lettres les plus probables sont d, p, l, a et e. Elles sont affichées sur la droite de l'interface, leur espacement dépendant des probabilités d'occurrence estimées par le modèle de prédiction. Par exemple, une lettre ayant une chance sur deux de survenir occupera à elle seule la moitié de l'interface. Plutôt que de déplacer le curseur vers ces lettres, celles -ci vont se déplacer pour simuler l'avancement de la saisie. L'utilisateur n'a alors qu' à déplacer l'affichage vers le haut ou le bas de l'interface, pour se rapprocher de la lettre désirée. Dans notre cas, le c recherché n'est pas dans les lettres les plus probables. Il n'est pas donc pas visible initialement. En se rapprochant des lettres affichées les moins fréquentes (a, e …), les suivantes, par ordre de probabilité, vont apparaître par effet de zoom. On peut donc diriger le pointeur vers la lettre c qui s'avance automatiquement vers nous. Ce déplacement automatique s'accompagne graduellement de l'affichage des lettres qui suivent. La lettre o, qui est la plus probable après la saisie du c, s'affiche de manière bien distincte. Le texte est ainsi composé progressivement sans que l'utilisateur n'ait à réaliser un seul appui : il se contente de diriger l'affichage des lettres vers le haut ou le bas, les lettres étant sélectionnées lorsque l'on passe sur la zone les concernant. Dasher constitue donc une tentative originale, et plus poussée que le système KeyGlass, pour utiliser un clavier dynamique avec un dispositif de pointage encore actif. Dasher peut s'utiliser avec un dispositif de pointage par détection du regard (Ward et Mc Kay, 2002). Certains systèmes de suppléance ne sont pas concernés par la question de la saisie sur clavier virtuel. Ils utilisent en effet une autre modalité d'entrée. Lorsqu'un patient a conservé ses facultés d'élocution, mais a perdu l'usage ou le contrôle de ses membres, le système n'a pour seul objectif que de permettre une saisie de texte sur ordinateur. Dans ce cas, l'emploi d'un système de reconnaissance de la parole peut être conseillé. Les systèmes de dictée vocale présentent désormais des performances très acceptables et peuvent être adaptés pour prendre en compte certaines difficultés d'élocution. (Raghavendra et al., 2001) adaptent ainsi le modèle acoustique d'un système de reconnaissance vocale à l'élocution de patients dysarthriques. En dépit d'un taux d'erreur de mots (WER pour Word Error Rate) encore élevé, ils montrent que les transcriptions résultantes sont plus intelligibles que l'écoute directe de la personne. Dans ce cas, le système peut même servir d'aide à la communication orale. En dépit de ces résultats, de nombreux patients tétraplégiques ne souffrant d'aucun problème d'élocution préfèrent utiliser un clavier à défilement qu'une reconnaissance de la parole. Plusieurs facteurs concourent à cet état de fait. Tout d'abord, la saisie par dictée vocale est moins discrète que la saisie sur clavier, ce qui peut gêner l'utilisateur. D'autre part, les meilleurs systèmes de reconnaissance à grand vocabulaire présentent un taux d'erreur de mots qui peut varier de quelques pour cent (parole lue ou préparée) à 30 % (parole spontanée). Quelle que soit l'approche choisie par le système, la correction de ces erreurs par l'utilisateur est le plus souvent très fastidieuse. Le patient préfère alors souvent s'en remettre à une saisie directe sur clavier virtuel. De fait, la parole est généralement utilisée comme modalité d'entrée, ou pour des applications à petit vocabulaire, comme le pilotage de fauteuil électrique. Dans certains cas, le pilotage du fauteuil peut même conduire à un mini-dialogue oral entre l'utilisateur et la machine (Hockey et Miller, 2007). Comme nous venons de le voir, de multiples approches ont été envisagées pour réduire le temps d'accès aux touches du clavier virtuel. Ces techniques apportent généralement des réponses efficaces au problème de la sélection rapide, la tâche des ergothérapeutes étant alors de choisir l'interface la plus adaptée au handicap de l'utilisateur. En dépit de ces avancées, la saisie de texte reste fastidieuse pour les utilisateurs. D'où le désir d'accélérer plus encore la composition des messages en évitant à l'utilisateur la sélection d'un maximum de lettres. L'idée ici est de compléter automatiquement le texte à la place de l'utilisateur. Deux catégories d'approches, qui sont par ailleurs le plus souvent complémentaires, sont envisageables; il s'agit d'une part des méthodes qui font usage d'abréviations et, d'autre part, de celles basées sur de la prédiction de mots. Le principe de l'écriture abrégée est connu de toute personne ayant à écrire du texte de manière rapide. Son utilisation est donc naturelle pour une personne handicapée ayant une maîtrise correcte de la langue. L'emploi de l'écriture abrégée est ancien dans le monde du handicap. Elle est courante depuis plusieurs décennies chez les personnes aveugles qui désirent lire et écrire rapidement des textes sur claviers adaptés. Il existe ainsi un abrégé Braille II qui consiste en la définition d'un certain nombre d'abréviations. Leur mémorisation demande bien entendu un effort d'apprentissage et le décodage de l'écriture abrégée a une influence importante sur la charge cognitive de la personne. Il existe toutefois des méthodes d'apprentissage progressif de l'abrégé qui facilitent ces opérations (Ricco et Dutoit, 2001). Lorsqu'il existe une correspondance biunivoque entre les abréviations utilisées et les mots du lexique, la complétion automatique du texte abrégé est directe. La prise en compte la plus simple de l'écriture abrégée dans le cadre de l'aide à la communication consiste donc à utiliser un dictionnaire d'abréviations. (Tounsi et al., 2000) proposent ainsi de retenir les abréviations de mots ou de groupes de lettres les plus couramment utilisées par l'abrégé Braille II. Le système Sibylle, décrit dans ce numéro, intègre quant à lui un module qui se base sur les abréviations définies par l'utilisateur. Point intéressant, ces abréviations sont intégrées en parallèle dans le modèle de prédiction de mots du système. Ces approches basiques à base de dictionnaires d'abréviations se retrouvent dans de nombreux systèmes commerciaux. Si cette approche est très utile pour accélérer la composition les mots les plus fréquents de la langue, l'utilisation d'un dictionnaire d'abréviations a pour limite les capacités de mémorisation de ses utilisateurs. En pratique, lorsqu'une personne utilise l'écriture abrégée, elle utilise des règles morphologiques qui ont l'avantage de présenter une large couverture lexicale. Par exemple, un utilisateur pourra décider d'utiliser l'abréviation mt pour représenter le morphème ment qui termine la plupart des adverbes français. L'aide à la communication à l'aide d'abréviations requiert donc des modules capables de gérer des règles propres à l'utilisateur et susceptibles de ne concerner qu'une partie des mots du lexique. C'est par exemple l'objectif du projet Hook (Ricco et Dutoit, 2001) qui utilise des transducteurs pour compléter un texte saisi en écriture abrégée. Plus précisément, le transducteur est compilé à partir de règles de réécriture multiniveaux permettant d'encapsuler plusieurs types d'abréviations. Dans l'article cité, le transducteur MLRR n'était utilisé que pour l'utilisation d'abréviations lexicales. Les auteurs annonçaient cependant son utilisation future pour le décodage de morphèmes abrégés dans le cadre du projet européen Fasty. Dans le même esprit, le système Compansion (McCoy et al., 1995) détecte des abréviations à la volée (c'est-à-dire sans que l'utilisateur n'ait eu à les définir) à partir des règles morphophonétiques les plus souvent utilisées en pratique. Par exemple, l'élision de certaines lettres d'un mot (bjr pour bonjour). Le système va même plus loin dans la gestion des abréviations. Il autorise en particulier des abréviations de nature morphosyntaxique. L'utilisateur peut ainsi rédiger son texte sous forme télégraphique, sans fléchir les mots. Compansion termine alors la rédaction par un traitement en trois étapes : – analyse syntaxique de surface du texte abrégé : étiquetage en parties du discours puis parenthésage en segments minimaux non récursifs, encore appelés chunks (Abney 1991); – détermination du rôle sémantique de chaque segment sous forme de cas sémantiques (Fillmore 1968); – génération/traduction de la forme complétée du texte à partir de ces deux informations. Cette approche est a priori très puissante. Elle pose cependant la question de l'ambiguïté de la saisie de formes non fléchies, qui peut se traduire par des erreurs d'expansion. Par ailleurs, elle nécessite une rédaction non naturelle, qui peut gêner l'utilisateur ayant une bonne maîtrise de la langue, ou au contraire perturber l'apprentissage de la langue par un jeune enfant. En conclusion, il semble que l'écriture abrégée doit être limitée à la réduction non ambiguë de morphèmes, avec éventuellement l'utilisation d'abréviations lexicales pour un nombre limité de mots très fréquents ou définis pas l'utilisateur. L'écriture abrégée est par ailleurs une solution complémentaire à la prédiction de mots. Par opposition à l'écriture abrégée, l'utilisation de la prédiction de mots ne demande aucun effort de mémorisation. Toutefois, elle peut également accroître la charge cognitive de l'utilisateur. Son principe est le suivant. Après chaque saisie de caractère, le système tente de prédire le mot (ou groupe de mots) qui est en cours de saisie. Lorsque l'utilisateur choisit de retenir une de ces prédictions lexicales, le mot sélectionné est inséré dans le texte en cours de composition, sans que l'utilisateur n'ait à composer l'ensemble des lettres qui le composent. L'affichage des prédictions peut se faire de deux manières principales : – complétion intégrée : ici, le système ne prédit qu'un seul mot à chaque saisie. Cette proposition est directement intégrée au texte en cours de saisie, l'utilisateur n'ayant qu' à valider par un appui la sélection éventuelle de la proposition. Cette stratégie de complétion se retrouve par exemple dans le système VITIPI (Boissière et Dours, 2001). Certains systèmes peuvent proposer une complétion intégrée partielle, en particulier pour gérer le problème des flexions. Prenons l'exemple de la saisie d'un verbe conjugué : après la saisie des premières lettres du mot, il est fréquent qu'on puisse deviner le radical du verbe sans pouvoir prédire son temps et donc ses suffixes flexionnels. Dans ce cas, le système ne complètera que la partie non ambiguë du mot (radical), l'utilisateur gérant la saisie des caractères qui terminent le mot (morphèmes flexionnels); – liste de mots : lorsque plusieurs propositions sont retenues à chaque fois par le système, la liste de mots correspondants est affichée dans une zone spécifique du clavier. Dans ce cas, un appui supplémentaire est nécessaire pour accéder à la liste de prédiction. La prédiction de mots peut a priori accélérer d'une manière significative la composition des messages. L'évaluation sur corpus de certains systèmes de prédiction montre qu'ils ont le potentiel d'éviter la saisie d'un caractère sur deux en moyenne. En pratique, ce gain est toutefois plus limité. On observe en effet que les patients ignorent souvent les propositions de la prédiction (Biard et al., 2006). Cet état de fait résulte de l'accroissement de la charge cognitive des utilisateurs, qui doivent à la fois écrire leur texte et lire les propositions du système. Ce conflit entre fonctions cognitives antagonistes est a priori moins important dans le cas de la complétion intégrée. Comme le montrent par exemple (Wandmacher et Antoine, 2007b) dans ce numéro, l'aide apportée par la prédiction de mots est en revanche moins importante lorsque celle -ci est limitée à une seule proposition. Comme souvent en communication assistée, l'apport de la prédiction dépendra donc d'un compromis entre efficacité de la prédiction et adéquation de l'interface homme-machine du système de suppléance avec le handicap de l'utilisateur. Il n'en reste pas moins que l'assistance apportée par la prédiction de mots est essentielle. Nous allons maintenant présenter les différentes techniques qui ont été développées pour la réaliser. La première idée qui vient à l'esprit en matière de prédiction de mots est l'utilisation d'un lexique (fréquentiel ou non). Chaque séquence de caractères est comparée aux mots du dictionnaire et la complétion automatique est possible dès que le nombre d'items filtrés est suffisamment réduit. À titre d'exemple, le système VITIPI se limitait dans sa première version à l'exploration d'un lexique fréquentiel auquel s'ajoutait un module d'apprentissage du lexique personnel de l'utilisateur (Boissière et Dours, 1996). L'originalité du système est qu'il était capable de détecter et corriger à la volée des erreurs de saisies simples. VITIPI parvient ainsi à corriger 72 % des fautes de frappe et 75 % des erreurs dues à une méconnaissance de l'orthographe du mot. Des techniques d'optimisation classiques permettent une exploration rapide du dictionnaire même sur des dispositifs ayant une faible puissance de calcul. C'est pourquoi ce type de complétion se retrouve sur la plupart des systèmes commerciaux d'aide à la communication, mais également sur les téléphones portables ou tout dispositif de saisie à interface limitée. L'interface utilisateur du système KOMBE L'utilisation d'un dictionnaire revêt néanmoins les mêmes faiblesses que celles entrevues avec la prédiction de lettres : ne pas considérer l'historique du discours (mots précédents) limite la focalisation de la prédiction. Les premiers systèmes qui ont considéré un contexte de prédiction plus étendu l'ont fait dans une approche descendante (au sens des travaux de l'époque en intelligence artificielle) : l'idée était de partir d'un scénario de communication et de guider l'utilisateur dans la composition des phrases. C'est par exemple le cas du système Kombe (Guenthner et al., 1992; Richardet, 1998) d'aide à la communication en français et en allemand pour des patients atteints en particulier de SLA (Sclérose Latérale Amyotrophique). L'utilisateur compose pas à pas le message en sélectionnant des continuations possibles (mots ou expressions) produites par le système en fonction du thème de discussion choisi (santé, nourriture, loisir…), de la syntaxe et du sens de la phrase en cours de construction. Par exemple (figure 11), si ce qui a été composé jusque -là est « J'ai beaucoup de difficultés à… », la suite syntaxique possible est, par exemple, une négation (ne pas), un pronom (te, le, lui, …) ou un ensemble de verbes. Si l'utilisateur sélectionne plier, Kombe se livrera à un calcul conceptuel pour afficher les mots et les expressions désignant les parties du corps qui peuvent être pliées. Kombe est une des premières applications du logiciel générique Illico (Pasero et Sabatier 1994, 1995) qui, sur la base d'un ensemble de connaissances (lexiques, règles syntaxiques, règles de composition sémantique, modèle conceptuel, etc.) permet à la fois d'analyser et de produire des phrases, et si nécessaire de guider et de corriger l'utilisateur dans la composition de ses énoncés. Dans le même esprit, le système CHAT repose sur l'utilisation de schémas prédéfinis (Alm et al., 1987; Brophy et al., 1991). (Copestake, 1997) propose de son côté une cogénération basée sur l'utilisation de schémas prédéfinis que l'utilisateur va compléter tout en étant aidé par le système. À cette fin, ce dernier utilise des données statistiques sur les collocations de mots, des grammaires locales et l'utilisation d'ontologies sémantiques analogues à Wordnet. Plus original enfin, le système Talksback cherche à retrouver dans une base de phrases préenregistrées, celle qui pourrait aller avec le contexte courant. L'utilisateur doit sélectionner le sujet de conversation, le type de phrase et si possible la situation (Broumley et al., 1990). La composition assistée permet une saisie très rapide, mais elle se limite à une communication finalisée, orientée vers un but précis et où le libre arbitre de l'utilisateur est le plus souvent restreint. En ce sens, elle ne peut tenir lieu de solution universelle pour l'aide à la communication. Cette approche permet toutefois de mettre en avant un besoin récurrent en matière de communication alternative : celui de la rédaction de messages d'urgence, tels que « je suis mal installé sur mon fauteuil », « je veux aller aux toilettes », etc. Tout système d'aide à la communication se doit de proposer une méthode de saisie rapide d'un certain nombre de messages importants pour l'utilisateur. Ainsi, le système Sibylle permet à l'utilisateur de définir seize messages préenregistrés. La composition assistée peut être vue comme une amélioration de ces possibilités de communication d'urgence. Si l'on vise au contraire une aide à la communication plus générale, il paraît naturel de se baser sur la prise en considération des structures syntaxiques de la langue. De ce point de vue, la prédiction de mots pour la communication palliative a suivi dans une certaine mesure l'évolution historique du TAL. Jusqu'au début des années 1990, les approches à base de connaissances sont ainsi restées prédominantes (Vandykke et al., 1992; Swiffin et al., 1987). Elles consistent le plus souvent à faire l'analyse syntaxique de la phrase en cours de saisie pour prédire le mot suivant, ou sa partie du discours. Par exemple, le système HandiAS considère des grammaires locales qui décrivent les séquences de mots ou parties du discours autorisées dans la langue. Ces grammaires sont en fait décrites sous la forme de transducteurs qui peuvent facilement être utilisés en prédiction (Maurel et al., 2000). Deux problèmes principaux se posent face aux systèmes à base de connaissances. Tout d'abord, la prédiction n'est utilisable que si l'on sait classer les différentes hypothèses. Soit parce qu'il ne faut conserver qu'une seule proposition (complétion intégrée), soit parce qu'il faut choisir les n termes à afficher dans la liste de prédiction. Pour répondre à cet impératif, on a recours à des systèmes hybrides combinant analyse syntaxique symbolique et calcul de fréquences. C'est, entre autres, le cas de HandiAS (Le Pévédic, 1998) et du système SyntaxPAL (Wright, 1994). Tous les deux combinent grammaires locales et probabilités. Le second problème est plus profond : il concerne les difficultés que rencontrent ces systèmes en cas d'énoncés agrammaticaux. Il n'existe pas d'incompatibilité fondamentale entre robustesse d'analyse et systèmes à base de connaissances. Le TAL robuste (Ejerhed, 1993), qui se fonde sur les principes du shallow parsing et de l'analyse incrémentale (Aït-Moktar et al., 2003) est là pour le rappeler, en particulier par ses applications sur la parole spontanée (Antoine et al., 2003). Le problème qui se pose ici n'est donc pas celui de la robustesse, mais de sa gestion du point de vue de l'utilisateur. Lorsqu'un début d'énoncé est agrammatical, le système ne peut plus effectuer aucune prédiction, alors qu'on aurait besoin d'une détérioration graduelle des performances. Cette question est très sensible dans le cas de l'aide au handicap où les erreurs de saisie sont fréquentes et où la maîtrise de la langue est parfois imparfaite (enfants en cours d'apprentissage, troubles langagiers associés. ..). Ces approches ne sont donc pas utilisables en pratique pour l'aide à la communication et aucun système commercial ne les emploie. Elles retrouvent en revanche une utilité dans la perspective d'une aide à l'apprentissage ou à la rééducation. Dans ce cas, il est très important que le système n'accepte que des énoncés syntaxiquement corrects. C'est dans cet objectif qu'une version d'HandiAS a été couplée au système Sibylle d'aide à la communication. Comme la quasi-totalité des systèmes de prédiction actuels, le système Sibylle repose sur un modèle stochastique de type N-grammaire. À la base, Sibylle utilise un modèle quadrigram. C'est-à-dire qu'il estime (à partir d'un apprentissage sur grand corpus) la probabilité d'occurrence de chaque mot, connaissant les trois derniers mots saisis. D'autres modèles combinent une N-grammaire avec un modèle de classe, c'est-à-dire un modèle markovien portant sur les parties du discours de mots. Par exemple, les systèmes Profet (Carlberger et al., 1997) et Fasty (Trost et al., 2005) reposent sur l'interpolation d'un bigram avec un tri-classe. On sait que les modèles de classe sont sous-optimaux d'un point de vue statistique. Leurs performances sont toutefois supérieures à celles des modèles de mots lorsque la taille du corpus d'apprentissage est insuffisante au regard de la dimension du modèle utilisé. Quel que soit le modèle utilisé, le système de suppléance ne considère que les hypothèses qui sont cohérentes avec les lettres déjà saisies du mot courant. Les limitations des N-grammaires en termes de gestion des dépendances à longue distance sont bien connues. Dans le cas de la prédiction de mots, cette insuffisance est relativement peu pénalisante. Elle ne saurait obérer l'intérêt que représente la détérioration très graduelle des performances des modèles statistiques en présence d'énoncés non normés. Certains auteurs ont cependant cherché à utiliser des modèles stochastiques plus avancés. La première version du système Sibylle (Schadle et al., 2004) utilisait, par exemple, un modèle structural (Chelba, Jelinek, 2000) basé sur la segmentation de l'énoncé en segments minimaux non récursifs (chunks). Cette approche permet d'étendre le contexte de prédiction sans augmenter le nombre de paramètres du modèle. Le module orthographique de la plateforme PCA, qui est présenté dans ce numéro (Blache et Rauzy, 2007), utilise, quant à lui, le modèle des patrons (Ron et al., 2006). Cette sous-classe des modèles de Markov cachés considère des états pouvant correspondre à des séquences de longueurs variables et non plus des items uniques comme dans le cas des N-grammaires. La phase d'apprentissage sur corpus permet de sélectionner les séquences optimales pour la tâche de prédiction. Comme les modèles multigrams (Deligne et Bimbot, 1995), cette approche permet également d'atteindre des contextes de prédiction plus longs. Comme l'ont montré de nombreuses expériences, les systèmes de prédiction de mots ont la capacité d'éviter à l'utilisateur entre 40 % et 60 % de saisies. Ces évaluations ont cependant été réalisées sur des corpus artificiels (généralement des corpus journalistiques) et l'on constate en pratique que les performances baissent de manière très sensible sur des corpus plus écologiques (Wandmacher et Antoine, 2006; Trnka et McCoy, 2007). C'est pourquoi un système d'aide à la communication ne sera utilisable que s'il dispose de capacités réelles d'adaptation à l'utilisateur. Étant donné que les patients répondent à des tableaux cliniques très variés, mais également qu'ils vont utiliser le système pour des usages variés relevant de registres différents (communication écrite ou orale, rédaction de documents écrits, voire d' œuvres littéraires), l'aide à la communication doit faire face à des demandes très fortes d'adaptation multifactorielle. Au niveau de l'interface utilisateur, elle se traduit par une demande d'un paramétrage le plus étendu possible du système : par exemple, configuration des différentes fonctions sur le clavier, durée des appuis de sélection, vitesse de défilement du balayage, etc. Lorsque l'on considère la prédiction, l'important est que le moteur linguistique prenne en compte la manière de s'exprimer de l'utilisateur. C'est-à-dire que le système doit considérer dans ses prédictions : – le vocabulaire de l'utilisateur, qu'il s'agisse des entités nommées, des noms communs, voire des abréviations. Cette question pose bien entendu le problème classique en TAL des mots hors vocabulaire, mais peut concerner, tout simplement, la fréquence d'usages des mots spécifiques aux productions de l'utilisateur; – le style de langage propre à l'utilisateur qui, là encore, ne se traduira pas tant par l'utilisation de structures syntaxiques spécifiques, mais plutôt par des fréquences d'usages différentes de celles du corpus d'apprentissage. En pratique, les modules de prédiction les moins évolués se contentent de créer un dictionnaire propre à l'utilisateur. Il est préférable que ce lexique spécifique soit nourri à la volée lors des saisies de l'utilisateur. Lorsque la prédiction classe les propositions de mots suivant leurs probabilités d'occurrence, il est nécessaire de combiner fréquences globales et fréquences utilisateur. Dans le cas d'un système de prédiction hybride, cette combinaison est le plus souvent confiée à une heuristique ad hoc. Plus original, le système PCA orthographique, présenté dans ce numéro, mémorise toutes les phrases produites par l'utilisateur sous forme d'arbre (Blache et Rauzy, 2007), pondéré par les fréquences d'utilisation des énoncés. Cette adaptation va donc au-delà de la simple création d'un dictionnaire utilisateur. Le calcul final des probabilités du système est, là encore, obtenu à l'aide d'une heuristique ad hoc avec seuil maximal d'influence du modèle utilisateur. À l'opposé, l'adaptation des modèles de langages stochastiques est une problématique bien définie d'un point de vue mathématique : on interpole un modèle de langue général, entraîné sur un grand corpus, avec un modèle spécifique appris sur les saisies de l'utilisateur (Trost et al., 2005). Le coefficient d'interpolation entre les deux modèles est donné par un algorithme qui assure de l'optimalité de la solution pour un critère statistique choisi. L'algorithme d'interpolation le plus fréquemment retenu est certainement l'algorithme EM, qui cherche à maximiser l'entropie globale du modèle interpolé (Jelinek, 1990). Il est intéressant de noter que le coefficient d'interpolation évolue au cours de l'adaptation afin de refléter au mieux l'apport des saisies de l'utilisateur (Wandmacher et Antoine, 2007 : 10). En utilisant une procédure incrémentale d'évaluation (Boissière et al., 2007), on peut montrer que les effets de l'adaptation utilisateur sont assez rapides. Ainsi, on peut déjà détecter une amélioration des performances après la saisie de quelques milliers de mots (Wandmacher et al., 2007), (figure 5). Les expériences qui ont été conduites montrent que l'adaptation se traduit initialement par une nette réduction du taux de mots hors vocabulaire (Boissière et al., 2007). Les améliorations ultérieures, plus limitées en importance, semblent être plutôt dues à une adaptation aux structures de phrases utilisées de manière privilégiées par l'utilisateur. Les différentes méthodes d'adaptation que nous venons de présenter permettent une amélioration significative des performances qui est nécessaire à l'utilisation en pratique de la prédiction de mots. Elles ne permettent néanmoins qu'une adaptation à long terme du système, alors qu'une focalisation à court terme de la prédiction sur le thème courant du discours serait également très utile. Cette focalisation est bien entendu fondatrice pour les systèmes de cogénération finalisée que nous avons évoqués plus haut (Copestake, 1997; Richardet, 1998). Elle a également été étudiée par quelques systèmes de suppléance à portée générale. Ainsi, le système PAL (Wright, 1994) estime la probabilité d'occurrence de chaque mot en pondérant sa fréquence d'usage générale dans la langue par sa fréquence d'utilisation récente (fenêtre de contexte) par l'utilisateur. L'idée est qu'un mot qui est apparu récemment est susceptible d' être réutilisé à nouveau dans un avenir très proche, puisque appartenant au thème courant du discours. Cette idée est la base du modèle cache qui consiste à garder les n derniers mots qui ont été composés et à augmenter leur probabilité d'un facteur p constant (Kuhn et De Mori, 1990) ou décroissant dans le temps (Clarkson et Robinson, 1997). Le modèle cache est très utilisé pour l'adaptation à court terme des modèles de langage stochastique. L'amélioration des performances qui en résulte est constante, mais assez limitée dans l'absolu. Une autre approche, le modèle trigger ne considère pas les mots isolément, mais utilise des collocations. Dans ce modèle un mot déclencheur augmente (dès qu'il est utilisé) la probabilité d'autres mots associés (Rosenfeld, 1996; Matiasek et Baroni, 2003). Là encore, les gains observés sont réels mais limités. La faiblesse (relative) de ces approches est aisément compréhensible. S'ils sont robustes, les modèles cache et trigger ne donnent en effet qu'une vision très limitée du thème courant du discours. L'idéal serait de caractériser explicitement quelques grands thèmes de discours, de détecter le thème courant et de focaliser la prédiction sur le modèle correspondant. Le manque de robustesse actuel de méthodes de détection automatique de thème du discours (Bigi et al., 2001) obère cependant leur application directe dans le domaine de la communication assistée. (Trnka et al., 2005) résolvent ce hiatus d'une manière séduisante : plutôt que de caractériser un thème courant unique, ils estiment la probabilité qu'a le discours de se trouver dans chacun des grands thèmes connus du système. La prédiction est alors réalisée par l'interpolation de plusieurs modèles de langage spécifiques à chaque thème, les coefficients d'interpolation correspondant aux probabilités de se trouver dans le thème considéré. Une dernière approche consiste à ne pas caractériser explicitement le thème du discours, mais à tenter de circonscrire son champ sémantique. Le système Sibylle utilise ainsi l'analyse sémantique latente, ou LSA (Deerwester et al., 1990), pour représenter la sémantique de chaque mot ou texte dans un espace vectoriel. Un calcul de proximité dans cet espace vectoriel permet d'estimer la probabilité d'occurrence d'un mot compte tenu du champ sémantique du thème du discours, défini par les N derniers mots composés par l'utilisateur. Cette prédiction sémantique est alors interpolée avec un modèle de langage traditionnel. Cette approche conduit à des gains modérés dans l'absolu, mais déjà dix fois plus importants que ceux obtenus avec un modèle cache (Antoine et Wandmacher, 2006). Les systèmes de suppléance que nous avons étudiés jusqu' à présent s'adressent à des utilisateurs ayant une maîtrise correcte de la langue. Bien souvent, le patient souffre pourtant de troubles langagiers associés, ou n'a encore atteint qu'un stade intermédiaire dans l'apprentissage de la langue. Dans ces situations, il est nécessaire de développer une interface de saisie adaptée aux capacités langagières de l'utilisateur. Les troubles langagiers associés à des pathologies telles que l'infirmité motrice cérébrale se traduisent généralement par une dysorthographie plus ou moins prononcée. Peu de travaux se sont penchés sur ces problèmes jusqu' à une date récente. VITIPI, qui a été pionnier en la matière (Boissiere et Dours, 1996), ne gère ainsi que des problèmes de paragraphie littérale (Boissière et al., 2007) assez limités (inversion de lettres, par exemple). Ces travaux, comme ceux de (Spooner, 1998) ou de (Pedler, 2001), peuvent être considérés comme l'adaptation de correcteurs orthographiques aux erreurs spécifiques aux troubles considérés. Ces approches ne sont efficaces que si les dysorthographies restent internes au mot. Malheureusement, ces erreurs perturbent le plus souvent la segmentation de l'énoncé en mots, ce qui limite drastiquement l'utilité de ces correcteurs orthographiques (James et Draffan, 2004). Les travaux de (Sitbon, Bellot et Blache, 2007, 2007b), publiés dans ce numéro spécial, constituent au contraire une réponse assez globale et élégante à la prise en compte de la dyslexie et des dysorthographies. Partant de l'analyse des troubles langagiers considérés (Ramus et al., 2003), elle consiste à compenser les déficits du module phonologique cognitif en réutilisant des techniques développées initialement par les industries de la parole. Le système propose en effet de réécrire les énoncés dysorthographiés en deux étapes : après avoir été repris par un correcteur orthographique, l'énoncé est tout d'abord phonétisé (reprise d'un module utilisé en synthèse de la parole), puis transcrit par un module adapté de reconnaissance de la parole. Si le recours à une transcription phonétique est utile dans le cas de la dyslexie, c'est également un passage souvent obligé lors de l'apprentissage de la langue. Ainsi, les enfants infirmes moteurs cérébraux, qui atteignent un premier stade d'apprentissage symbolique de la langue, utilisent fréquemment un alphabet phonétique en compagnie de leur orthophoniste. Des systèmes comme SYNTHE4 ou CLAPOTI (Vella et al., 2003) sont alors là pour assister la communication. Mais lorsque le patient est aphasique où n'a encore aucune maîtrise de la langue, le support de la communication est nécessairement iconique. On se retrouve alors face à un problème de génération de texte : traduire sous forme de message textuel compréhensible une suite de pictogrammes représentant en règle générale chacun un concept. La communication assistée à support non verbal est souvent identifiée à l'utilisation de BLISS (Bliss, 1965). Très utilisé, BLISS n'est pas un simple code iconique mais un véritable langage conceptuel avec des règles de composition permettant de créer de nouveaux concepts à partir de 3 000 symboles de base (figure 12). Cette caractéristique permet à BLISS d'atteindre une grande richesse d'expression. Elle nécessite en contrepartie des capacités cognitives que n'ont pas tous les patients et n'offre pas de solutions triviales pour la transcription directe et automatique d'une séquence BLISS en langage écrit. Minspeak (Baker, 1982), qui offre des possibilités analogues, présente les mêmes limitations. Quelques exemples d'icônes BLISS D'autres approches ont donc été envisagées, dont l'objectif est de viser une correspondance simple, non compositionnelle, entre lexique et langage. Dans ce cadre, chaque pictogramme représente un mot de la langue, et la tâche du système est de reformuler une séquence télégraphique de mots, d'une manière un peu analogue au projet Compansion (McCoy et al., 1997; McCoy, 1997) d'écriture télégraphique. Par exemple : je / non / avoir mal / tête reformulé en je n'ai pas mal à la tête La question de l'affordance de la base de pictogrammes retenue est essentielle. L'utilisation d'icônes animés dans le système Axelia (Abraham, 2000) est très intéressante de ce point de vue. La principale question posée par l'aide à la communication non verbale réside toutefois dans le statut linguistique des pictogrammes utilisés et dans la reformulation orthographique de la séquence d'icônes sélectionnés. Pour répondre à cette question, le projet PVI (Vaillant, 1997) adopte une démarche très ambitieuse puisqu'il autorise la définition d'icônes ambigus pouvant correspondre à plusieurs termes. Par exemple, l'image d'un verre peut représenter dans PVI aussi bien cet objet que toute boisson ou l'action de boire. À chaque icône est associé un ensemble de sèmes, au sens de la sémantique structurale (Rastier, 1987). La reformulation sous forme orthographique suppose une désambiguïsation par propagation isotopique des sèmes. Cette approche souffre d'une trop grande surgénérativité qui empêche son utilisation pratique. Pour réduire l'ambiguïté, il est préférable d'associer au minimum une catégorie grammaticale aux pictogrammes, ce qui facilite également l'attribution d'une fonction syntaxique à chaque icône de l'énoncé lors du processus de reformulation. C'est cette démarche qui est suivie par la version non verbale de la PCA (Blache et Rauzy, 2006) et par le système Axelia (Abraham, 2000, 2006). Axelia et PCA utilisent des catégories syntaxiques élémentaires (figure 13) afin, d'une part, de faciliter leur appréhension par l'utilisateur, mais également de permettre à ce dernier d'ajouter aisément de nouveaux pictogrammes et de les associer à une catégorie. L'interface de la Plateforme de Communication Assistée (PCA) en mode iconique de saisie (Blache et Rauzy, 2006). On remarque qu'outre la reformulation des énoncés, le système met en œuvre une prédiction de mots/concepts (droite de l'interface) Dans la PCA, la reformulation est basée sur une grammaire d'arbres adjoints (TAG), dont les arbres sont surspécifiés. Par exemple, l'arbre lexical associé à un pictogramme représentant un nom commun porte une seconde feuille lexicale qui spécifie son déterminant : celui -ci est en effet le plus souvent omis en écriture pictographique. Dans Axelia, la reformulation se fonde sur l'application d'une grammaire applicative et cognitive. Axelia insiste sur la traduction explicite par les icônes des marques de flexions et autres traces grammaticales. C'est également la raison pour laquelle les prépositions, les articles et autres mots grammaticaux doivent être explicitement écrits. Si l'on reprend l'exemple « je n'ai pas mal à la tête », on écrira ainsi sous Axelia : je neg avoir mal à tête Les couleurs représentent les catégories grammaticales des mots (figure 14) et neg est le pictogramme du discordantiel représentant la négation. L'interface du système Axelia montrant l'organisation du lexique. On remarque la forme hexagonale des touches virtuelle et les codes couleurs associés à chaque catégorie grammaticale de mots L'évaluation des systèmes de communication assistée revêt une importance cruciale du fait de leur visée applicative directe. Comme pour tout logiciel interactif, elle peut concerner le système dans sa globalité ou chacun de ses composants (black box ou glass box methodology) et peut mettre en œuvre des paradigmes de tests objectifs ou subjectifs. Sa mise en œuvre et son exploitation sont cependant compliquées par différents facteurs : – manque de généricité : du fait de l'extrême diversité des handicaps et des tableaux cliniques des patients, il est impossible de conduire des expérimentations sur un panel d'utilisateurs représentatifs; – manque de données de test s : compte tenu de la lenteur de composition des messages, le recueil d'un corpus de tests écologiques se heurte à une limitation de la taille des données; – manque de naturalité des données : on ne peut recueillir de corpus de tests réels qu' à partir de sessions d'utilisation sur un système de communication assistée. Or, on sait que tout système de suppléance influe sur les productions des utilisateurs. Par exemple, il a été montré que les utilisateurs du système Sibylle faisaient moins d'erreurs qu'avec le système qu'ils utilisaient auparavant au centre de Kerpape. Il y a donc un biais dû au système utilisé pour le recueil des données; – absence de comparaison directe : l'adaptation à un nouveau système de suppléance représente un effort très lourd pour une personne fortement handicapée. Il n'est donc pas envisageable de demander à une personne d'utiliser plusieurs systèmes concurremment afin de comparer directement ces différents outils. Cet ensemble de contraintes limite donc fortement la représentativité des évaluations conduites. On peut trouver dans la littérature des tests en conditions réelles où l'on observe le gain en termes de vitesse de saisie (voire son évolution au cours de l'adaptation au système) autorisée par un système donné. Il faut toutefois s'interroger pour savoir si ces résultats sont généralisables à d'autres utilisateurs. C'est pourquoi la plupart des évaluations se résument au test d'un composant particulier du système sur des données souvent bien artificielles. En particulier, si quelques auteurs ont cherché à évaluer leur système sur différents registres de langue (Trnka et Mc Coy, 2007; Wandmacher et Antoine 2006), voire sur des productions de personnes handicapées, la majorité des résultats actuels ont été obtenus sur des corpus journalistiques bien éloignés des besoins réels des utilisateurs finaux. Lorsque l'on s'intéresse à la composante TAL de la communication assistée, différentes métriques objectives peuvent être employées en fonction de la finalité du composant testé, en rappelant que les attentes de l'utilisateur sont triples a priori : communiquer plus rapidement, mais également avec moins d'effort (physique et/ou cognitif) et éventuellement en produisant moins d'erreurs. Si l'objectif est d'accélérer la sélection des touches (cf. § 3), la métrique la plus utilisée est le nombre moyen de défilements nécessaire pour atteindre une lettre. On peut estimer la pénibilité du processus par le nombre moyen d'appuis par sélection (KSPC : Keystroke Per Character). La vitesse de balayage choisie par l'utilisateur permet par ailleurs une estimation des vitesses moyennes de composition de message. Dans le cas où le patient peut encore utiliser un dispositif de pointage, la mesure la plus importante est la distance moyenne des déplacements entre chaque sélection. Dans ce cas, des modèles psychomoteurs sur les temps de pointage (Fitts, 1954; MacKenzie, 1992; Soukoreff et MacKenzie, 1995) ou de recherche visuelle (Hick, 1952; Hyman, 1953) donnent une estimation de la vitesse de composition de messages. Lorsque l'on utilise un clavier ambigu, l'objectif central est de limiter le nombre d'appuis nécessaire pour désambiguïser la sélection. Les claviers ambigus les plus efficaces sont à même d'atteindre des KPC théoriques très proches de un. Le KPC constituera donc une bonne estimation des performances du système. (Soukoreff et MacKenzie, 2003) le considèrent également comme un bon indicateur du taux d'erreurs faites par l'utilisateur. Bien entendu, on n'intercepte ainsi que les erreurs qui donnent lieu à correction par l'utilisateur. L'objectif de la prédiction de mots est d'éviter à l'utilisateur le maximum de saisies. Les métriques qui sont utilisées pour son évaluation peuvent concerner directement cet objectif ou s'en remettre à l'estimation de la qualité intrinsèque des prédictions. Les deux approches sont, bien entendu, corrélées. On distingue en particulier (Fasly et Hirst, 2003) : – le taux d'économie de saisie (KSR pour Keystroke Saving Rate) exprime le pourcentage moyen d'appuis qui sont évités grâce à la prédiction. Il est calculé pour une taille de liste de prédictions donnée. Les performances des systèmes actuels tournent autour des 50 %, ce qui signifie qu'un appui sur deux est évité en moyenne. Certains travaux ont cherché à estimer la valeur maximum du KSR qu'il est possible d'atteindre en théorie (Copestake, 1997). Ce seuil est généralement situé autour de 60 %, mais certains systèmes tel Sibylle sont à même de l'atteindre sur certains corpus de test, ce qui relativise la portée de ces réflexions. Il est toutefois évident que les gains que l'on peut encore espérer à ce niveau de performance sont marginaux. Notons enfin que le KSR concerne les appuis et non pas les lettres non saisies. En effet, la stratégie de complétion peut nécessiter des appuis supplémentaires, par exemple pour atteindre la liste de prédictions. Cette métrique n'évalue donc pas la prédiction intrinsèque, mais l'association prédiction/interface/utilisateur. – le taux de prédictions correctes (HR pour Hit Rate) évalue le pourcentage de fois où le mot recherché est proposé dans la liste de prédictions. Ce taux dépend, là encore, de la taille de la liste de prédictions, et ne dépend pas de la stratégie de complétion mise en œuvre par l'interface utilisateur. Une mesure complémentaire, quoique moins répandue, est le nombre moyen d'appuis avant la complétion. (KuC pour Keystrokes until Completion). Elle donne indirectement une idée du nombre moyen de lettres qui doivent être saisies dans le mot avant que la prédiction ne vienne aider l'utilisateur. Notons que les métriques classiques en modélisation du langage sont rarement utilisées dans le domaine de la communication assistée. Même si on a pu observer une corrélation entre la perplexité ou l'entropie du modèle et la KSR qu'il permet d'atteindre (Wandmacher et Antoine, 2007b), ces métriques issues de la théorie de l'information ne constituent pas des indicateurs explicites de l'aide fournie par la prédiction (Copestake, 1997). S'ils donnent des indications sur l'efficacité de l'aide à la communication, ces paradigmes d'évaluation sont condamnés à rester à l'écart des usages réels. Une seule expérience suffira à montrer les limites de l'évaluation dans ce domaine de recherche (Biard et al., 2006). En analysant l'utilisation du système commercial DIALO par dix patients qui présentaient des pathologies variées (IMC, SLA, anoxie cérébrale, LIS), les auteurs ont constaté que la prédiction de mots était peu utilisée et que l'accélération de la composition qu'elle autorisait n'était pas statistiquement significative. Si le système DIALO présente des imperfections, d'autres études en arrivent à une conclusion analogue (Anson, 1993; Horstmann et al., 1994; Neijmeijer, 2005). Ce décalage avec l'estimation des performances de la prédiction ne doit pas remettre pas en cause l'utilité des métriques utilisées. Ce qu'il faut comprendre, c'est que ce genre d'évaluation n'indique que la capacité maximale qu' à un moteur de prédiction à aider l'utilisateur. Partant de là, toute une réflexion doit être menée sur l'intégration de la prédiction et de la complétion dans l'interface utilisateur du système de suppléance. Au vu des performances intrinsèques des systèmes de prédiction actuels, nous pensons que ces considérations ergonomiques doivent devenir une des priorités de recherche à venir en communication augmentée. Tout au long de cette synthèse, nous avons cherché à dresser un tableau aussi complet que possible des techniques TAL utilisées dans le domaine de la communication augmentée. Un des constats que l'on peut dresser de cet état de l'art est que l'aide à la communication se nourrit, mais également irrigue une large palette de problématiques relevant de l'ingénierie des langues. Cette conclusion en amène une autre qui est bien ancrée parmi les acteurs du domaine : on peut observer que la plupart des résultats obtenus dans le domaine de l'aide technique pour personnes handicapées, ont finalement conduit au développement d'outils utiles à l'ensemble de la population. Les exemples de valorisation de ce type sont très nombreux et valident le concept de design for all qui est cher aux personnes handicapées. C'est pourquoi ce numéro spécial est également une invitation à tous les chercheurs en ingénierie linguistique à s'intéresser à la problématique exigeante, mais enrichissante, de l'aide à la communication . | RÉSUMÉ. Cet article présente un état de l'art des techniques d'ingénierie linguistique développées au cours des vingt dernières années dans le domaine de l'aide à la communication pour les personnes handicapées. Après avoir constaté, au fil du temps, que les méthodes utilisées se sont orientées des approches centrées connaissances vers des approches centrées données, nous faisons un bilan de l'aide apportée aux personnes handicapées en nous intéressant à l'évaluation de ces systèmes. Nous concluons en montrant que cette problématique est en réalité plus vaste puisqu'elle intéresse toutes les applications de type entrée de texte sur clavier limité . | scientext_ling_art_237_Tal_Antoine_et_Maurel_en_tete.xml |
termith-762-scientext | La Terminologie possède très peu de ressources pour l'analyse d'unités prédicatives raison pour laquelle les verbes, les adjectifs et les adverbes à sens spécialisé sont à peine mentionnés dans les ouvrages qui tentent de fonder une théorie de la Terminologie. De nos jours, on voit que plusieurs principes de l'approche wüsterienne sont questionnés et qu'un éventail d'approches (Cabré 2000; Temmerman 2000; Meyer & Mackintosh 2000; Kageura 2002) tentent de mettre en évidence surtout la facette linguistique du terme. De ce fait, on commence à parler de plus en plus du sens du terme au lieu du concept du terme. C'est dans cette voie que notre étude s'est lancée : l'analyse du signifié de certains verbes et de certains adjectifs du discours spécialisé, et ce avec les outils de la lexicologie. Pour la réaliser, nous avions besoin d'un cadre théorique dont l'analyse sémantique s'oriente par le processus de synthèse, c'est-à-dire de la primauté du locuteur. La Théorie Sens-Texte - TST (Mel'čuk & Zolkowskij 1970) se présente comme étant la plus adéquate. Nous devons préciser que pour les besoins de cette étude, c'est la Lexicologie explicative et combinatoire (TST) dérivant de la TST qui a fournit les principes, les règles et les critères nécessaires à sa réalisation. Les discours spécialisés comportent un éventail de lexies 1 prédicatives. Certaines lexies sont identifiées sur-le-champ lors d'un dépouillement terminologique comme les verbes printar ‘ imprimer ' ou deletar ‘ supprimer ', des emprunts assimilés de l'anglais, qui ont un sens spécifique au discours de la micro-informatique. Les verbes abortar ‘ avorter ' ou salvar litt. ‘ sauver ' ont également un sens particulier dans ce discours; il s'agit en fait d'emprunts sémantiques de l'anglais : abort et save. D'autres unités lexicales (UL) peuvent donner lieu à un certain doute quant à leur sens spécialisé lors d'un dépouillement terminologique, soulevant la question : ont-elles un sens spécialisé ou il s'agit de sens de la langue commune (LC) ? C'est le cas des verbes remover ‘ supprimer ', abrir ‘ ouvrir ', ativar ‘ activer'ou encore de l'adjectif dedicado ‘ dédié '. Selon Mareschal (1989) ces unités manquent de visibilité teminologique. Nous sommes intéressés particulièrement au contenu sémantique de ces prédicats qui ne sont pas immédiatement perçus comme des signifiés spécialisés ou qui soulevent un doute quant à leur spécialisation. Une décomposition sémantique est la seule à expliciter les différentes composantes sémantiques d'une lexie L. Les composantes sémantiques sont des sens faisant partie d'un ensemble de sens constituant le signifié d'une lexie. Ainsi, la décomposition sémantique de L fait paraître nécessairement toutes ses composantes sémantiques et, le cas échéant, la ou les composantes sémantiques spécialisées. Le résultat de la décomposition d'une lexie spécialisée (LE) doit garantir soit l'existence d'une ou plusieurs composantes sémantiques spécialisées soit une reformulation sémantique complète, c'est-à-dire une reformulation métaphorique qui lie nécessairement L au discours spécialisé. L'analyse d'une lexie du discours de la micro-informatique est faite par rapport à sa lexie d'origine en langue générale. La lexie d'origine (LO) est une lexie qui partage le même signifiant avec la lexie spécialisée et dont le signifié partage le plus de composantes sémantiques importantes (« non triviales ») avec la lexie spécialisée. 2 Notons que la lexie d'origine n'est pas nécessairement la lexie de base 3 du vocable, mais peut être une autre lexie du vocable. En accord avec le modèle formel de décomposition que nous utilisons, il doit nécessairement y avoir un pont sémantique entre la lexie d'origine (L 1) et la lexie spécialisée (L 2). Un pont sémantique, selon la TST, s'établit entre les lexies L 1 et L 2 à travers « (. ..) une composante commune caractéristique des signifiés de ces deux lexies » (Mel'čuk, Clas & Polguère, 1995). La comparaison d'une LE avec sa LO en langue générale permet d'observer et « d'apprivoiser » la remodulation 4 d'un sens par les changements de composantes sémantiques. Notons que nous pouvons observer les changements parce que les composantes du sens d'une lexie sont des entités discrètes, pouvant ainsi être isolées. Les changements nous permettent de constater l'influence du discours spécialisé sur la production d'un sens. Observons, ci-dessous, deux situations discursives différentes où le verbe instalar ‘ installer ' est employé. Le premier contexte est issu du discours général; le deuxième, du discours de la micro-informatique : Ao instalar a antena, certifique-se que os cabos de saída correspondem às entradas UHF e VHF da sua televisão. 5 (X) instala 2 (Y) (em Z) = (X) dispõe (Y) para funcionar (em Z) 6 Este programa poderá instalar novos drivers ou deixar os drivers anteriores, dependendo da versão já instalada e da versão que vai ser instalada. 7 I.1. X instala Y em Z = programa X causa que um programa Y faça parte de um sistema informático Z por meio de conexões lógicas de modo que Y funcione em Z. 8 La comparaison de ces deux définitions nous permet d'identifier la composante ‘ conexões lógicas ' qui s'ajoute aux composantes de instalar 2, la LO de la langue générale, provoquant ainsi l'émergence d'une nouvelle lexie, une lexie spécialisée. D'après nos observations, trois types de remodulations sémantiques donnent lieu à une lexie spécialisée : 1. une ou plusieurs composantes sémantiques périphériques se greffent à la composante sémantique centrale de la lexie. 1. Y trava = programa Y pára de rodar 1. 9 La décomposition de la lexie travar 1. du vocable travar présentée ci-dessous, montre que la composante périphérique ‘ rodar 1. ' ‘ tourner. ' (en pointillé) s'attache à la composante centrale ‘ pára ' ‘ arrête ' (en souligné), provoquant l'émergence d'une nouvelle lexie : 2. une ou plusieurs composantes périphériques (en double souligné) se greffent aux composantes périphériques (en pointillé) de la lexie d'origine : I.3. W remove Y de Z por X = usuário W causa voluntariamente que um programa Y seja excluído. de um sistema informático Z por X de modo que Y não seja mais executado. por X. 10 La décomposition de la lexie ‘ remover I.3. ' du vocable remover révèle que la composante ‘ executado 1. ' s'attache à la composante périphérique ‘ excluído 1. '. 3. la composante sémantique centrale et les composantes périphériques sont entièrement reformulées : Les composantes de la lexie abrir I.1. ‘ ouvrir ' du vocable abrir sont complètement remodulées : I.1. X abre Y em T = programa X 1 ou comando de um programa X 2 causa que o conteúdo de um componente lógico de armazenagem Y 1 ou um menu Y 2 ou uma janela Y 3 apareça na tela T de um sistema informático [como se X abrisse. Y]. 11 La décomposition de la lexie ‘ abrir I.1. ' du vocable abrir montre qu'il a eu une reformulation complète des composantes, vu qu'aucune lexie du vocable abrir ne partage une composante avec ‘ abrir I.1. '. En accord avec le cadre théorique que nous utilisons, une composante formelle [comme si. ..] composante présupositionnelle au transfert métaphorique doit représenter le lien métaphorique qui s'établit entre LE et LO. Ces observations nous ont amené à définir le concept de composante spécialisée et, par conséquent, celui de lexie spécialisée (Valente 2002) : Une composante sémantique spécialisée est un sens faisant partie d'un ensemble de sens constituant le signifié d'une lexie L et qui lie sans équivoque L à un discours spécialisé. Une lexie spécialisée est une lexie qui diffère par une ou des composantes sémantiques spécialisées de toute autre lexie d'un vocable ou qui diffère par une reformulation sémantique complète [= reformulation métaphorique] de toute autre lexie d'un vocable 12. La sélection des 40 lexies, trente quatre lexies verbales et six lexies adjectivales, soumises à la décomposition sémantique a été faite à travers une méthodologie conçue selon les besoins du sujet de recherche. Tout d'abord, un filtre (corpus d'exclusion) contenant les lexies verbales et adjectivales qui n'allaient pas faire partie de la collecte a été élaboré : verbes auxiliaires, modaux, adjectifs discursifs, de jugement, etc. Ensuite, nous avons formalisé un ensemble de critères pour la sélection des lexies. Notons que la plupart des critères sont connus de la lexicologie (Cruse, 1986). Nous les présentons dans ce qui suit sous forme de liste. Étant donné que des commentaires concernant ces critères ont déjà fait objet de publication antérieure, nous renvoyons le lecteur à Valente 2003 : Critère 1 : Lien sémantique avec une unité lexicale étrangère 13 Si un verbe ou un adjectif est issu d'un emprunt sémantique perceptible, alors il doit être sélectionné. Critère 2 : Lien syntaxique avec un terme Si un verbe ou un adjectif est syntaxiquement lié à un terme, alors il doit être sélectionné. Critère 3a : Lien dérivationnel syntaxique avec un terme Si un verbe ou un adjectif a un lien dérivationnel syntaxique avec un terme, alors il doit être sélectionné. Critère 3b : Lien dérivationnel sémantique avec un terme Si un verbe a un lien dérivationnel sémantique avec un terme ou si un adjectif a un lien dérivationnel sémantique avec un verbe, alors il doit être sélectionné. Critère 4 : Lien morphosémantique avec une unité lexicale spécialisée Si un adjectif est lié morphosémantiquement à un verbe spécialisé, alors il doit être sélectionné. Critère 5 : Lien synonymique ou antonymique avec une unité lexicale spécialisée Si un verbe ou un adjectif est un synonyme ou un antonyme d'un verbe ou d'un adjectif spécialisé, alors il doit être sélectionné. Critère 6 : Cooccurrence lexicale restreinte Si un adjectif est en relation lexicale restreinte avec un nom formant ainsi un semi-phrasème ou un quasi-phrasème, alors il ne doit pas être sélectionné. Une fois les lexies sélectionnées, on commence une pré-analyse sémantique, une analyse ayant pour but déceler les diverses lexies d'un vocable. En plus des critères de la LEC critère de différence sémantique locale/globale; critère de dérivation différentielle, critère de cooccurrence différentielle, etc., nous avons formalisé trois autres connus de la lexicologie : Critère 1 : Relation synonymique ou antonymique d'une unité lexicale Si une unité lexicale UL 1 d'un vocable V a un synonyme S ou un antonyme A dans plusieurs contextes, mais qu'il y a un contexte où S ou A ne sont pas substituables avec UL 1, alors il ne s'agit pas de UL 1 mais d'une autre UL n de V. Critère 2 : Le nombre des ASéms d'un prédicat sémantique Si une unité lexicale UL 1 a un certain nombre d'ASém dans un contexte donné et que dans un autre contexte s'observe un nombre d'ASém différent, et que cette différence ne relève pas d'une non-réalisation syntaxique d'un ASém, alors il s'agit d'une autre UL n du même vocable. Critère 3 : La nature des ASéms d'un prédicat sémantique Si une unité lexicale UL 1 n'a accepte que certains types d'ASéms et que s'observe un certain type d'ASém qui n'est pas usuel, alors il s'agit d'une autre UL n du même vocable. Ces derniers critères nous ont aidé à déceler trois lexies du vocable abrir ‘ ouvrir ', quatre lexies du vocable ativar ‘ activer ', trois lexies du vocable criar ‘ créer ', trois lexies du vocable excluir ‘ exclure ', etc. dans le discours de la micro-informatique. Ensuite, chaque lexie a été soumise à une décomposition selon les principes de la LEC. La LEC utilise le principe de définition logique aristotelecienne par genre prochain et différence spécifique. Le genre prochain correspond à la composante centrale ou générale 14, et la différence spécifique correspond aux composantes périphériques diverses : composante faible, composante présuppositionnelle et composante sous-jacente au transfert métaphorique. Étant donné la contrainte de page du présente article, nous ne pouvons pas faire la démonstration d'une décomposition sémantique. Nous voulons cependant mettre en relief que les décompositions ont montré qu'un vocable peut présenter autant de lexies spécialisées que des lexies de la langue commune dans le discours spécialisé. Cette étude a mis en évidence entre autres que : i) les lexies prédicatives qui manquent de visibilité terminologique peuvent présenter un signifié spécialisé; ii) une lexie spécialisée résulte soit d'un ajout d'une (ou de plusieurs) composante sémantique aux composantes sémantiques (centrale ou périphérique) de sa LO, soit d'une reformulation métaphorique de sa LO; iii) un discours spécialisé peut avoir plusieurs lexies d'un même vocable, c'est-à-dire de lexies spécialisées et de lexies de la langue commune; iii) une analyse du signifié des lexies peut avoir lieu en terminologie . | Résumé Dans cette étude, nous discutons du sens spécialisé de certains verbes et de certains adjectifs du discours spécialisé. Il est connu que les discours spécialisés présentent une variété de verbes et d'adjectifs : i) certains sont issus d'emprunts bruts ou assimilés; ii) d'autres sont issus d'emprunts sémantiques; iii) d'autres présentent un lien morphologique avec un terme; iv) d'autres présentent un lien dérivationnel syntaxique avec un terme; v) d'autres présentent un lien dérivationnel sémantique avec un terme; vi) d'autres sont des unités lexicales de la langue générale qui ont subi une reformulation sémantique. Cette étude s'est mise ainsi à reconstituer le chemin de spécialisation du signifié du verbe et de l'adjectif du discours spécialisé. Ainsi, une analyse sémantique sur des verbes et adjectifs du discours de la micro-informatique en portugais brésilien a été entamée, dont les résultats ont révélé trois possibilités de formation d'un sens spécialisé que nous discutons dans le présent article. Pour la décomposition sémantique, nous avons utilisé les principes, les critères et les règles d'analyse lexicale de la Lexicologie explicative et combinatoire (LEC) (Mel'čuk, Clas & Polguère, 1995) qui dérive de la Théorie Sens-Texte (Mel'čuk & Zolkowskij, 1970) . | scientext_ling_comm_282_ling_euralex_Valente_entete.xml |
termith-763-scientext | Le corpus sur lequel s'appuie cette étude est constitué par les enregistrementsaudio d'entretiens de huit malades (trois hommes et cinq femmes) hospitalisés ouen consultation pour des douleurs rebelles. Prolongeant un premier travail quiavait tenté de faire apparaître la spécificité du récit dans la mise en mots dela douleur (Maury-Rouan, Vion, 1994), notre recherche porte sur les moyens, pourdes patients chez qui diverses pathologies provoquent des douleurs intenses, demettre en mots ce qu'ils éprouvent. Notre hypothèse de départ est double : 1) lamise en mots de la douleur permet d'apprivoiser et d'affronter ce qui est audépart un ressenti purement négatif et d'autant plus angoissant qu'il estinhabituel et qu'il échappe à notre contrôle. Dire sa douleur équivaut à prendreà l'égard de cette douleur un certain recul. Dire sa douleur et la partager avecquelqu'un c'est la faire entrer dans le domaine du sens (par le langage commesymbolisation). Les mots ont une importance décisive. Or, ils ne sont pasfaciles à trouver pour référencer ce qui est conventionnellement masqué (ladouleur ne se dit pas selon la loi de discrétion en vigueur dans nos sociétés )et le ressenti douloureux, subjectif, intérieur, ne possède pas vraiment devocabulaire spécifique. Notre première approche consistera à faire apparaîtreles ressources déployées par les huit patients pour parvenir à cette mise enmots malgré cette double difficulté. 2) La capacité de prise de distance àl'égard du ressenti douloureux ne semble pas présente d'égale manière chez tousles patients et paraît correspondre chez eux à différentes façons – observablesau travers de leur discours – de gérer la situation interlocutive. Nous nousefforcerons de faire apparaître les traces caractéristiques de cette diversité .Généralement, les patients tentent de donner à l'expression de leur douleur uneobjectivité qui la rende transmissible et compréhensible par l'autre. Certainstentent de circonscrire le champ douloureux tantôt en localisant la douleur( « j'ai des douleurs au genou », Jean), tantôt enprécisant les circonstances de son apparition (« quand je suisdebout rien me fait mal mais si j'envoie une jambe j'ai une douleur terriblelà », Barbara). D'autres font appel à des connaissances partagées ousupposées acquises par l'interlocutrice (« c'est unesciatique », Simon, « ça c'est le cancer » ,Jean). D'autres enfin tentent de mesurer leur douleur sur l'échelle de ce qu'ilsne peuvent pas ou plus faire (« je peux pas me doucher » ,Félicie, « et puis insensiblement la douleur est devenue plusforte et j'ai plus pu marcher », Barbara) Certains patients ne semblent pas parvenir à surmonter une certaine pauvretélexicale du champ de la douleur. Cela va du refus de la formulation précise( « j'ai mal partout voilà qu'est -ce que vous voulez que jevous dise », Félicie) à la simple modalisation (unpeu, toujours, moins, un peu moins) de l'expression « avoir mal »employée massivement. De même, l'intensité et la forme pulsatile de la douleur ,à défaut d'un adverbe ou d'un adjectif approprié sera souvent marquée par unprocédé iconique analogique : la répétition-accumulation : (« que ça lance que ça lance que ça lance […] oui c'est tous les jours c'esttous le jours tous les jours », Annette). D'autres au contraire déploient une palette variée pour verbaliser leur douleuren diversifiant leurs choix lexicaux (« ce que l'on appelleune douleur n'est pas en fait une douleur + la douleur est tout à faitépisodique c'est un élancement qui dure quelques fractions de seconde voireune minute + mais la gêne […] la gêne permanente est un genre d'ankylose etde crampe […] c'est pas une douleur à hurler […] à quoi je pourrais comparercette douleur + bon il y a deux phases + ce lancement vraiment lancinant làoù là ça fait mal + ça fait mal + mais ça dure quelques fractions de seconde+ enfin je n'évalue pas le temps + et il y a cette sensation detorsion », Jean). La richesse lexicale peut reposer sur le recours à desmétaphores (« comme si on me rentrait un clou », Rose) .Il est important de noter que cette richesse relative n'est pas fonction de lameilleure maîtrise des ressources de la langue, caractéristique des milieuxsociaux aisés instruits. Aussi bien Mylène (ingénieur, chercher à l'INSERM), queJean (ancien adjudant puis employé d'un parc d'attractions) parviennent ,indépendamment de leur niveau culturel respectif à diversifier leurs choixlexicaux. Nous rejoignons sur ce point Michèle Lacoste (1993 : 47) qui estimeque la part du handicap socio-culturel doit être relativisée dans la difficultéde la communication thérapeutique. Dans le discours des patients lorsqu'on leur demande de décrire ce qu'ilséprouvent, on peut remarquer chez certains une moins grande capacité à prendrede la distance par rapport au ressenti douloureux : Félicie : j'ai les jambes ++ j'ai un peu tout j'ai tout Enquêtrice : vous pouvez me préciser un peu Félicie : j'ai mal partout alors (elle marmonne) qu'est -ce quevous voulez que je vous dise ou qui semblent presque refuser l'idée d'une amélioration. Ainsi, Annette, àl'issue d'une séance de stimulation électrique : Enquêtrice : comment ça a été Annette : ben ça a été + ils ont mis <inaudible>un peu plus fort les vitesses enfin j'ai toujours mal + hein Enquêtrice : oui Annette : ça va <ça peut ?> pas s'en aller commeça hein A l'opposé, d'autres patients semblent s'efforcer de parler de leur douleur defaçon détachée en la minimisant (« c'est ennuyeux parce que jeme sens bien autrement + je me porte heu bien je + je n'ai pas à me plaindre( petit rire) j'ai ce j'ai ce handicap + voilà », Colin, « ce n'est pas une douleur à : : à hurler mai enfin c'est : : :+ c'est une douleur heu : : + douleur quand même », Jean) et de laprésenter comme extérieure à eux (« des douleurs sont revenues[ …] cette opération étant effectuée heu : : il semblait que mon orteilpuisque je + ma douleur allait jusqu' à l'orteil + =ma jambe était endormiejusqu' à l'orteil plutôt + s'est un peu réveillé + l'orteil seulement + mesles douleurs ont repris plus haut + c'est-à-dire heu + c'est tout le : :sciatique extérieur eh et : : », Colin). Les raisons d'une telle attitude pourraient être recherchées dans les images destoïcisme valorisées par notre culture d'autant plus qu'elle semble plusparticulièrement présente chez nos sujets masculins. Mais un examen plusattentif des discours produits nous amène à envisager une explication plusglobale, rattachant la capacité à extérioriser la souffrance et à prendre uncertain recul par rapport à elle, à un ensemble plus large de comportements .Différents dans la mesure où ils reflètent des modes distincts d'appréhension etde contrôle de la maladie et de la douleur, ces discours révèlent aussi par leurorganisation même, une propension très variable, chez les patients, à gérer lesmultiples facettes de l'interaction verbale. Certains discours manifestent une capacité très grande du locuteur à créerd'emblée et à consolider un lien très chaleureux avec la partenaireoccasionnelle qu'est l'enquêtrice (Rose : « non vous me faitessouffrir de vous voir comme ça ts (respire) eh + vous allez voir + ce matinje me trouve 4 comprimés 4 heu parce que je prends un soir deux soirs un ant+ heu non je le dis mal+ eh euh non mieux que vous + voilà ») ou encore s'assurer de sa complicité : Rose ,après avoir avoué qu'elle jettera en cachette les médicaments qu'elle est censéeprendre demande « alors là vous avez enregistré tout ce quej'ai dit ». L'humour sert à un double niveau : il permet à la fois de dédramatiser, d'allégerun discours qui pourrait être trop pesant et de créer une connivence avecl'interlocutrice. Plusieurs patients y ont recours. Ainsi, l'humour permet àJean, atteint d'un cancer, d'exorciser le côté tragique de sa situation en plusde ses douleurs invalidantes : Jean : je vis dans ma famille à Carnoux Enquêtrice : dans votre famille d'accord vous n' êtes pas seul<inaudible> Jean : et pourquoi je serais seul parce que j'ai une mauvaise tête<inaudible> non je suis marié j'ai deux enfants Rose, quant à elle, met en doute la validité du traitement qu'elle reçoit : « c'est de l'arthrite hein il n'y a rien à faire ++ c'estdifficile à faire partir ++ alors on vous donne des remèdes pour vous endonner encore plus + d'arthrite hé hé ». Cette patiente va même jusqu' àexploiter au plan comique l'ironie d'une situation qui auraient pu donnerprétexte à un ressassement plaintif : « oui alors on est seulà vrai dire on a de la famille mais tout le monde travaille + alors on estseuls + eh alors lui il est tout seul + moi je suis toute seule ici hé hé( rit) ». En apostrophant directement l'enquêtrice et en la prenant à témoin, on peutfaciliter l'adhésion de cette dernière au point de vue défendu (« chuis seule pour ainsi dire vous m / comprenez alors heu c'estencore plus pénible », Barbara; « c'est parti ++ dumuscle té voyez », Rose). Cette attitude est un premier exemple d'unedémarche qui généralement reflète la prise en compte du partenaire dans laconstruction conjointe du sens et que l'on rencontre particulièrement sous laforme de la modulation 1 (Vion, 1992). Présents danstout le corpus, les exemples de modulation précèdent ou accompagnent des momentsde tension où le discours pourrait être senti comme trop assertif (Colin, 11-12 ,Rose, 110, Jean12-14). La modulation est une activité qui se trouve ainsi à l'intersection de la gestionde l'intersubjectivité et de la construction de la référence. C'est sur ce plan ,plus purement cognitif où s'élabore l'organisation discursive, que la prise encompte du partenaire peut aussi apparaître dans une autre dimension qui estcelle du guidage discursif. Reconstituant le cheminement qu'il propose à sonpartenaire, le locuteur en saisit les caractéristiques, les étapes et lesdifficultés. Il va baliser son discours de repères et d'instructions facilitantce parcours (particules discursives, connecteurs, reformulations ,explicitations…). Toutes ces formes discursive attestent de la même capacité dedécentration et d'une prise de distance cette fois -ci par rapport à sa propreproduction discursive qui est évaluée à l'aune de l'idée que l'on se fait del'activité de réception du destinataire. Ainsi, Colin estime nécessaire unrappel de son passé médical pour mieux faire comprendre sa douleur actuelle :« il s'est trouvé quand même que : : / + après l'opérationde / de il faut que je reprenne après l'opération de 89 ma jambe droiteétaient restée endormie + était restée endormie on m'avait bon ben il faudrale temps pour que : : ça se / ». De la même manière, il précise ce qu'ilentend par « plus haut » : « + l'orteilseulement + mais les douleurs ont repris plus haut c'est-à-dire heu / c'est tout le : : SCIAtique extérieur éhet : : maintenant j'ai mal donc heu : : depuis heu : : : depuis les vertèbresjusque heu : heu jusqu'au bas / au bas / au pied au dessus du pied » .Rose, quant à elle, ponctue son discours de multiples particules visant àdistinguer ce qui est de l'ordre du récit de parenthèses justificatives : « alors hier au + ce matin j'ai fait ma toilette parce quehier au soir j'étais fatiguée + bon + j'ai fait ma toilette eh bien ici jesuis toute rouge toute enflammée hein bon + et partout je suis rouge ». Le relevé de ces différentes formes de prise en compte de l'autre (amadouage ,humour, modulation, guidage discursif, interpellation) dans l'ensemble du corpusfait apparaître que ces activités discursives ne sont pas distribuées au hasardmais sont présentes de façon caractéristique dans les entretiens des patientschez lesquels prédomine la capacité que nous avons évoquée à mettre à distanceet à dédramatiser le vécu de la douleur (Mylène, Colin, Jean et Rose). Chez deuxautres patients au contraire qui semblent prendre très peu de recul et vivreleur souffrance de façon passive et peu élaborée (Barbara, Annette et Félicie) ,de telles activités discursives sont comparativement rares, le discours estassertif, peu modulé, le recours à l'humour inexistant et le guidage discursifest minimal. Un seul des sujets, Simon, paraît difficile à caractériser comptetenu du caractère bref et superficiel de son entretien. La prise de recul par rapport à l'éprouvé douloureux révélée par la minimisationet la dédramatisation qui accompagne l'évocation de la douleur dans le discoursdes patients pourrait ainsi être une des formes d'une attitude plus générale deprise de recul qui se manifeste au niveau de la gestion interactive et dynamiquedu discours : prise en compte de l'autre (modulation, amadouage, hypocorrection ,humour, modalisation, guidage discursif). Les patients dont nous avons étudiéles productions discursives semblent se répartir sur un axe qui va d'une grandecapacité de recul à une possibilité très restreinte de prendre de la distance ,aussi bien par rapport à ce qu'ils ressentent qu' à l'égard de la situationinterlocutive . | Résumé — L'examen d'un corpus d'entretiens de huitpatients souffrant de douleurs très invalidantes fait apparaître la difficultéspécifique de la verbalisation du ressenti douloureux et la variété de ses modesde réalisation chez les différents patients. La capacité de prendre du recul parrapport à cet éprouvé douloureux paraît inégalement présente chez les huitpatients et semble s'accompagner, quand elle existe, d'une capacitécorrespondante de prise de distance qui caractérise, au niveau de la gestioninteractive et dynamique du discours, le recours à certaines formes discursives( amadouage, humour, modulation, guidage discursif) . | scientext_ling_comm_128_ling_EID_Priego_Valverde__Maury_Rouan_entete.xml |
termith-764-scientext | Selon Searle, la douleur ne possède aucun statut Intentionnel. Il avance, à ceque je comprends, deux arguments en faveur de cette hypothèse. En premier lieu ,l'on ne pourrait pas faire l'expérience « de » la douleur au sens intentionneldu « de ». La douleur se confondrait avec l'expérience elle -même, et neconstituerait donc pas un terme Intentionnel (1985, pp. 58-59). Le secondargument de Searle s'appuie sur le fait que certains actes illocutoires – dutype expressif – restent dépourvus de contenu Intentionnel : d'après cettevision des choses, si je dis « Aïe ! », l'acte illocutoire accompli n'a pas determe Intentionnel. De manière comparable, la douleur exprimée n'aurait aucunterme Intentionnel, et ne pourrait donc se voir attribuer un contenuIntentionnel. Dans l'approche searlienne, l'expérience que l'on fait, par exemple, en touchantun plat brûlant de la main s'identifie à la douleur elle -même. Mais cettedouleur n'en constituerait pas moins un état mental. Or, si Searle vise, dans sadescription, la douleur elle -même, on serait tenté de dire, intuitivement, qu'ils'agit plutôt d'un « état physique ». À ce titre, Damasio (1999) sépare, au planneuro-physiologique, la sensation physique de douleur et l'affect provoqué parcette sensation, qu'il nomme la souffrance. Damasio décrit cette émotion commeun mélange de crainte, de tristesse, de dégoût et d'angoisse, qui s'exprime àson tour par certains comportements visibles tels que des crispations du corps ,des rictus faciaux, etc. (1999, p. 79 s.). En outre, ces expressions corporellesde l'émotion peuvent s'accompagner de cris, de gémissements ainsi que d'actesillocutoires expressifs. À cette occasion, Damasio décrit le cas d'un patient( 1999, pp. 81-82) atteint d'un type de névralgie qui provoque des douleursinsupportables au moindre effleurement du visage. Ce malade fut finalement opérédans un secteur bien précis du lobe frontal dans le but de soulager la douleur .Or, il semble, d'après le témoignage du patient après l'opération, que celle -cin'ait provoqué aucun changement dans la sensation de douleur, mais qu'elle aitsupprimé l'affect de souffrance consécutif à cette douleur. Le patient témoignadu fait que « les douleurs étaient les mêmes, mais qu'il se sentait très bien àprésent » (1999, p. 82). Cette description, qui distingue la douleur comme sensation vécue par l'organismeet la souffrance comme affect consécutif à cette sensation de douleur, nousempêche d'envisager les choses dans les mêmes termes que Searle : la douleur ,considérée en elle -même comme un état mental (ce que Damasio nomme lasouffrance), ne saurait se réduire à l'expérience (la sensation). Dans l'optiquede Damasio, il faut considérer les choses en deux temps : d'abord, l'organismetraite l'objet (réaction des fibres nerveuses, etc.); et ensuite seulement ,l'esprit « évoque » l'événement grâce à sa mémoire. À l'inverse, chez le patientopéré que décrit Damasio, cet état mental de souffrance a disparu, d'oùl'absence des crispations et des rictus. Si ce malade peut affirmer que lesdouleurs sont « les mêmes », cela doit tenir au fait qu'il a une parfaiteconscience de sa douleur, et que cette conscience elle -même s'accompagne, entoute logique, d'un état mental représentatif : une croyance. À la lumière de ce qui vient d' être décrit, on constate que Searle tend àconfondre deux niveaux de description. D'abord, la sensation de douleurelle -même, qui pourrait se ranger dans l'Arrière-Plan (Searle, 1985) dont lecontenu n'est pas proprement Intentionnel mais pré-Intentionnel. Un tel contenud'Arrière-Plan naîtrait du rapport causal entre le fait brut et son traitementphysiologique par le corps. Ensuite, l'état mental de douleur (que Damasio nommel'affect de souffrance), provoqué par le contenu d'Arrière-Plan et pourvu d'unvéritable contenu Intentionnel que Searle qualifierait de « présentatif » (enopposition aux contenus « représentatifs » tels que la croyance). Ce contenuprésentatif cause, à son tour, les crispations, les rictus, voire les actes( illocutoires) expressifs. En outre, le cas décrit par Damasio nous montre que l'événement qui se trouve àla source de la douleur peut encore susciter un contenu Intentionnel, cette fois« représentatif »; perdant l'état mental de douleur bien qu'il garde lasensation physique correspondante, le patient conserve son état mental decroyance à propos de cette sensation physique. De façon analogue, le comportement expressif a disparu, mais la capacité demeurede produire l'énoncé apparemment paradoxal « Les douleurs sont toujours là maisje me sens très bien à présent ». Et ce paradoxe se dénoue dès lors que l'ons'attache à séparer les deux strates d'élaboration cognitive. Ceci nous mène directement à notre second volet. On sait que, selon Searle etVanderveken (Searle 1985, Searle et Vanderveken 1985, Vanderveken 1988), un acteillocutoire expressif a pour but d'exprimer un état mental relativement à unétat de choses qui est censé avoir lieu. Dans cette conception, le contenupropositionnel de l'acte illocutoire expressif fait référence à un termeIntentionnel présupposé. L'exemple canonique qui sert à illustrer cette positionest celui de l'énoncé exclamatif, par exemple, « Quelle belle journée ! », danslequel la proposition « C'est une belle journée » ne se trouve pas assertée ,mais présupposée. Or, nous l'avons vu, dans la conception searlienne de ladouleur, celle -ci n'aurait pour contenu qu'un état psychologique primitif etinanalysable, seul contenu possible que l'acte expressif correspondant pourrait« présupposer » : on ne voit pas bien comment une telle acrobatie linguistiquepourrait se réaliser. À mon sens, la question des expressifs se comprend d'autant mieux que l'oncherche à placer un tel phénomène linguistique dans une perspective plus large .Partons d'une hypothèse évolutionniste selon laquelle la capacité d'expressivitépure, incarnée par le cri, précède les capacités linguistiques qui exigent laformation d'un lexique et l'élaboration de normes (Popper, 1997; Donald, 1993 ;DeWaal, 1997; Tomasello, 1999). Le cri n'est pas un phénomène linguistique : ils'agit d'un son arraché par un stimulus lié à une situation particulière, maisqui n'est pourvu d'aucun contenu Intentionnel. Je pense que seul le cri peutexprimer un état psychologique inanalysable, tel celui que Searle imagine dansle cas de la douleur. Toute forme d'expression linguistique doit avoir un termeIntentionnel, même si celui -ci ne fait pas l'objet d'une représentation stable .Le cri, purement déictique, se réduit à l'occurrence singulière d'une réaction àun stimulus, lui aussi singulier. Comme il ne véhicule aucun contenuIntentionnel, il n'est transposable à aucune autre situation. On peut dès lorspostuler que le cri constitue le modèle de base en référence auquel vont pouvoirse réaliser plusieurs types d'actes expressifs, de la plus simple interjection àdes formes d'expression institutionnelles extrêmement complexes tels que deséloges funèbres, par exemple. L'interjection apparaît, dans cette perspective hiérarchisée, comme le premieracte expressif formé sur le modèle du cri. Acte linguistique, et plusprécisément illocutoire, qui « imite » le cri (« Ah », « Oh », etc.) ,l'interjection présente par rapport à lui plusieurs spécificités. D'abord, ellevéhicule un contenu Intentionnel, même si celui -ci ne prend pas la forme d'uncontenu propositionnel. Elle peut, par exemple, exprimer un état mentalIntentionnel tel que l'étonnement, la crainte, ou le soulagement, face à unesituation qui reste (re)présentée de façon analogique : nous nous situons alorsau stade de l'Intentionnalité « présentative » (Searle, 1985), du « récitprivé » (Damasio, 1999), de la « mimesis » (Donald, 1993). Contrairement au cri ,l'interjection est applicable à une classe de situations similaires : si l'onémet un « Oh » d'étonnement face à une situation donnée, le contenu Intentionnelvéhiculé par l'interjection présentera des traits de ressemblance avec d'autrescontenus mentaux formés dans des situations similaires. La mimesis serait uneforme d'expression pré-linguistique utilisant le mime, la cadence ou le rythme ,créant ainsi un lien iconique ou analogique entre l'événement et lareprésentation. Merlin Donald fait remonter l'acquisition de la capacité demimesis à l'époque de l'Homo erectus (1,5 millionsd'années). Du côté du développement de l'enfant, on peut situer l'apparition decette capacité vers 18 mois à 2 ans (Baudonnière 1997; Donald, 1993). En outre ,il faut remarquer – et il s'agit, je crois, d'un détail d'importance –, quecette étape du développement cognitif correspond à celle qui inaugure (enontogenèse comme en phylogenèse) l'accès à l'empathie cognitive, c'est-à-direl'accès à la capacité à se représenter soi -même, et à se donner unereprésentation de l'autre en tant que différent de soi -même. Ces différentescapacités constituent certaines des pré-conditions à l'émergence du langage. Detelles hypothèses impliquent que l'acte de langage expressif est un actepotentiellement social, produit par un individu qui a conscience de lui -même etqui peut désormais adresser son acte à un autre, en se montrant éventuellementinsincère. Au deuxième type d'actes illocutoires expressifs appartiendraiant les énoncésexclamatifs, qui sont pourvus d'un véritable contenu propositionnel; parexemple, « Quelle admirable manière de s'exprimer ! ». L'énoncé exclamatifpossède toutes les caractéristiques linguistiques que possédait déjàl'interjection : véhiculant un contenu Intentionnel, il est applicable à uneclasse de situations similaires, il suppose une auto-représentation de celui quile produit, et le locuteur peut s'adresser à un auditoire. Mais il possède, enplus, un contenu propositionnel qui est présupposé, et non pas asserté. C'est làla grande différence entre un énoncé exclamatif, de nature expressive, etl'énoncé assertif correspondant. L'expressif, en présupposant le contenupropositionnel, le présente comme évident : il se donne « comme si » il était unsimple cri, réponse immédiate et nécessaire à une situation. Ce mécanisme en« comme-si » ne se comprend, dans ce cas, que si l'on postule une proximitécognitive entre l'acte expressif et la capacité primitive qui est « mimée » : lecri. On pourrait donc expliquer métaphoriquement le « comme-si » en disant quel'espèce possède une mémoire cognitive des étapes de sa propre évolution, sansoublier pour autant que l'élaboration d'un contenu propositionnel supposeévidemment la présence de normes édifiées, par exemple, à partir de croyancescollectives. On peut enfin distinguer un troisième type d'actes illocutoires expressifs« Merci ! », « Bienvenue ! », « Bon voyage et bonne chance ! », etc. que jepropose de qualifier d'expressifs conventionnels (sur l'aspect conventionnel decertains actes illocutoires expressifs, voir Franken et Dominicy, 2001). Cettequalification se justifie par le fait que les actes de ce type interviennentsurtout pour ritualiser les relations sociales par le langage. L'expressifconventionnel présente donc, en sus des caractéristiques des exclamations, unepropriété remarquable : il s'adresse nécessairement à un auditoire et il estprévu, voire même attendu et codifié, par les règles de la vie sociale. Sil'expressif conventionnel a pour but illocutoire, comme tout expressif ,d'exprimer un état mental présentatif ou donné comme tel par le « comme-si », ilsuppose en outre une croyance à propos d'une norme et ,plus précisément, d'une règle sociale. Le contenu propositionnel de cettecroyance pourrait s'énoncer au moyen d'un lieu commun de la forme « On remercieles gens lorsqu'ils ont rendu un service », qui décrit une norme régulativereconnue par l'ensemble de la communauté. En synthèse, nous pouvons repérer ici trois strates de socialisation del'expressivité. La première apparaît avec la possibilité d'adresserl'interjection à un auditoire; la deuxième, avec la propositionnalisation ducontenu Intentionnel véhiculé par l'exclamation; la troisième, avec lanécessité d'un auditoire inscrit dans le système de normes régulatives quifondent l'usage de l'expressif conventionnel. Nous pouvons postuler que chacuned'entre elles a un rapport, proche ou lointain, avec son ancêtre présumé : lecri . | Résumé — Les problèmes théoriques posés par les actes illocutoires expressifspeuvent trouver un début de résolution grâce à un éclairage cognitif qui permetde séparer plusieurs niveaux de catégorisations dans les contenus Intentionnels .Dans un second temps, on cherchera à comprendre la dimension sociale de l'acteillocutoire expressif, en le replaçant dans une perspective généalogique. Àpartir de ce point de vue, on peut considérer le cri comme un modèle à partirduquel une variété d'actes illocutoires expressifs pourront être produits . | scientext_ling_comm_120_ling_EID_Danblon_entete.xml |
termith-765-scientext | Un des problèmes majeurs rencontrés dans l'analyse des langues de spécialité a traitaux rapports entretenus par le terme avec son environnement lexical en corpus ,c'est‑à‑dire la phraséologie (par ex., Béjoint, 1992; L'Homme, 1992; Pavel, 1993 ;Meyer, 1994). Différents chercheurs en terminologie et en lexicographie ont ainsiexaminé la possiblité de rendre compte des contraintes lexicales (collocation) enlangue de spécialité, notamment au moyen des fonctions lexicales (L'Homme, 2002) .Par ailleurs, les travaux issus de la sémantique cognitive ont permis de mettre enévidence l'importance fondamentale de la conceptualisation métaphorique en langue générale (Lakoff, 1980/2003),mais aussi dans les langues de spécialité (LSP) (Meyer, 1997), notamment labiomédecine (van Rijn-van Tongeren, 1997; Temmerman, 2001). La conceptualisation métaphorique correspond, selon Lakoff( 1993; 1980/2000) à la projection d'un domaine de conceptualisation sur un autre. Onentend par métaphore, ou métaphoreconceptuelle, la projection ainsi établie (par exemple, La recherchebiomédicale est une enquête.), qui est décrite par un certain nombre decorrespondances (Le médecin/le chercheur est le détective. L'agent pathogène est lecriminel. La maladie est le crime.) et se traduit par le recours à certains unitéslexicales spécifiques du domaine projeté. L'expressionmétaphorique correspond à la réalisation de surface de la conceptualisationmétaphorique (« Les chercheurs traquent le virus du SRAS, qui a fait des dizaines de victimes de par le monde. »). Selon notre hypothèse de travail, la conceptualisation métaphorique est le facteuressentiel sous-jacent à la phraséologie et à certaines dénominations terminologiquesen LSP. Les résultats que nous avons déjà obtenus dans le cadre d'un projet derecherche portant sur la communication cellulaire (biologie cellulaire) appuientcette hypothèse (Vandaele, 2000; Vandaele, 2002a; Vandaele, 2002b). Par ailleurs, sepose la question de la représentation des données recueillies au sein des corpus ,tant à des fins d'analyse fine que pour la constitution de bases de connaissanceutilisables, in fine, par des usagers, traducteurs ourédacteurs. La complexité des relations à établir entre termes, phraséologie etmétaphore conceptuelle impose d'avoir recours à un outil autorisant l'établissementde multiples liens entre les données. La flexibilité est une condition impérative ,étant donné la nécessité de faire évoluer le modèle en fonction des donnéesobservées. Dans ce contexte, le recours aux bases de données relationnelless'impose, solution puissante déjà retenue par d'autres chercheurs (par ex., L'Homme ,1997). Nous entendons ici par base de connaissance (BC) une base dedonnées relationnelle réalisée au moyen de FileMakerPro, v.5.0/6.0. La BC comportedifférents fichiers regroupés en modules. Les fichiers sont mis en relation les uns avec les autres au sein dela base au moyen de liens. Chaque fichier est constitué defiches, comportant des rubriques (ou champs). Les rubriques peuvent s'afficher dans différents modèles, comme si les fiches pouvaient avoir plusieurs pages. Ellesautorisent la saisie des données ou leur affichage par le biais de tables externes. Celles -ci affichent les données provenant soit d'un autrefichier (lien externe), soit du même fichier (lien interne). L'objectif de la modélisation est double, car il vise à la fois l'analyse et lareprésentation des données, dans au moins deux langues (anglais/français). Leprincipe général gouvernant la structure de la BC repose sur l'atomisation maximalede l'information : une fiche ne peut mettre en rapport qu'une seule variable (ouqu'un seul bloc de variables uniques) pour un paramètre donné. La BC intègre troistypes de données (terminologiques, lexicales, conceptuelles), correspondant à troismodules. La conception du module terminologique (Figure 1) est fondée surle rapport qu'entretient le terme avec la notion. Par convention, nous adoptons notion pour dénoter le signifié du terme, afin de réserver levocabulaire dérivé de concept à ce qui relève de l'approchecognitive, c'est‑à‑dire du mode de conceptualisation du domaine. Le terme constituele paramètre central des fichiers permettant de colliger indépendamment différentesvariables : définitions, contextes, renseignements linguistiques (catégorielexicale, genre, niveau de langue). La notion, quant à elle, est le paramètre central des fichiers indiquant les domainesd'appartenance, les relations hyperonymiques, les relations méronymiques, ainsi quela terminologie latine (nomenclatures internationales d'anatomie, par exemple) .Présente dans tous les fichiers du module, la rubrique ' Notion ' a pour fonctiond'établir les liens : son contenu est en fait purement conventionnel, mais onutilise généralement le terme recommandé, auquel on adjoint un numéro dans les casde polysémie. Un module terminologique de structure identique est réalisé pourl'anglais. Enfin, un fichier synthétique (FichesTermino, Figure2) regroupe, grâce à des tables externes, l'ensemble des des données colligées danschacun des fichiers du module. Le module lexical (Figure 3) vise à colliger les collocationsrelevées dans les corpus, à l'aide des fonctions lexicales décrites dans la ThéorieSens-Texte (Mel'Cuk, 1996). Le point de départ de la description des collocationsest le repérage d'unités lexicales prédicatives ayant un statut de terme clair (parex., récepteur, domaine) ou ambigü( message), ou encore faisant partie de la phraséologierepérable en corpus (par ex., résider [dans la membrane]). Lastructure actantielle des prédicats et les collocations significatives repérées encorpus (Tableau 1 : exemple de message 1) sont colligées dans des fichiers indépendants et encodées àl'aide des fonctions lexicales. À cette fin, deux corpus ont été constitués à partirde documents scientifiques sur la communication cellulaire en anglais et enfrançais, respectivement de plus de 300 000 et 500 000 mots. Les données sontacquises après examen de contextes extraits des corpus et recueillis dans le fichiercontexte déjà utilisé dans le module terminologique. Le module conceptuel a pour objet l'analyse des métaphoresconceptuelles parcourant le domaine (Figure 4). Le paramètre principal est leprédicat indice de métaphore (indice métaphorique) : le modèle principal du fichier( Figure 5) affiche dans une table externe les contextes contenant l'unité lexicaleen question, les actants ainsi que les fonctions lexicales (provenant du modulelexical) dans la zone CIBLE, tandis que s'affichent en parallèle (zone SOURCE) desdonnées lexicographiques provenant soit de la base DICO (Polguère, 2000), soit d'uneanalyse menée selon les règles de la TST en langue générale et compatible avec unformat DICO (Polguère, 2003). Cette mise en parallèle permet d'évaluer laconvergence d'actants et de fonctions lexicales entre la lexie cible et la lexiesource. Par exemple, les contextes contenant des expressions du type « […]cette protéine résidant dans les microdomaines occupe une position centrale dansl'activation… » suggèrent la présence d'une conceptualisation métaphoriquesous-jacente du type Une molécule est un individu habitant un lieu, parce que lastructure actancielle de l'unité lexicale résider est telleque X réside dans Y, avec X = individu, Y = lieu d'habitation (maison, quartier ,région, pays…). Le nom de la métaphore conceptuelle est saisi dans la rubrique ad hoc. Celle -ci établit un lien avec un fichier indépendantpermettant de hiérarchiser les métaphores conceptuelles, qui est mis à jour au furet à mesure de la progression de l'analyse. La hiérarchisation permet d'afficher lesmétaphores conceptuelles plus générales dans le fichier synthèse du moduleconceptuel, d'en vérifier la cohérence et d'observer le jeu des projectionsmultiples de plusieurs domaines sources sur le domaine cible considéré. Ainsi, dansl'exemple cité, Une molécule est un individu habitant un lieu est un cas particulierde Une molécule est un individu (ou un personnage, [Vandaele, 2000]), intégrée avecLes parties de la cellule sont des espaces géographiques, ce qui rappelle l'idée dedualité (Lakoff, 1993) ou d'intégration conceptuelle (Fauconnier, 1998). À notre connaissance, il s'agit de la première tentative visant à intégrer desdonnées terminologiques, conceptuelles et lexicales. Au moment de la rédaction duprésent article (novembre 2003), 1506 contextes et 938 définitions en français, 1419contextes et 766 définitions servent de base à l'analyse. Le module terminologiquecomporte 276 notions, 485 termes français et 407 termes anglais. Les modulesphraséologiques et conceptuels sont en cours de développement, une trentaine demétaphores conceptuelles ayant été identifiées à travers l'analyse d'unecinquantaine de lexies prédicatives. L'atomisation des données et la flexibilité dela BC permet de faire évoluer la modélisation au fur et à mesure des difficultésrencontrées, sans pour autant perdre les données déjà colligées : il suffitd'exporter ou d'importer des données dans de nouveaux fichiers, de créer desrubriques supplémentaires et de remanier les liens. Ce travail de modélisationpermet d'analyser finement les relations entretenues par les termes et les autresunités lexicales du discours de spécialité, d'une part, et de mettre à l'épreuvedifférentes hypothèses quant à la réalisation linguistique des métaphoresconceptuelles parcourant le domaine. La structure des modules phraséologiques etconceptuels, actuellement développés pour le français, est aisément transposablepour l'anglais et d'autres langues. La BC représente donc un outil unique permettantla mise en correspondance non seulement des termes mais aussi de la phraséologie ,par le truchement des fonctions lexicales, d'une part, et des métaphoresconceptuelles, d'autre part. Enfin, le passage d'outil d'analyse à outil deconsultation est relativement aisé à réaliser, FileMakerPro autorisant notamment lapublication des données sur Internet . | Résumé La mise en relation des données terminologiques, lexicographiques et conceptuellesconstituent un des défis actuels de la représentation des connaissances dans leslangues de spécialité. Nous présentons une base de connaissance permettant demodéliser la conceptualisation métaphorique en biologie cellulaire, plusspécifiquement la communication cellulaire, en relation avec les termes du domaineet la phraséologie décrite à l'aide des fonctions lexicales. La base est en conçuedans une perspective d'analyse des réalisations linguistiques des métaphoresconceptuelles en français et en anglais, mais est également utilisable en mode deconsultation, peut intégrer d'autres langues et est exportable pour la consultationen réseau ou sur Internet . | scientext_ling_comm_255_ling_euralex_Vandaele_entete.xml |
termith-766-scientext | RST (Rhetorical Structure Theory) (Mann et Thompson, 1988) et SDRT (SegmentedDiscourse Representation Theory) (Asher et Lascarides, 2003) sont deux théoriesdu discours bien différentes, cependant elles partagent un point commun : ellespostulent une asymétrie entre les parties d'un discours, certaines jouant un «rôle plus important » que d'autres. Cette asymétrie est formulée en RST commeune distinction entre les arguments des relations de discours : les arguments detype nucleus sont plus importants que les arguments detype satellite.. Elle est formulée en SDRT comme unedistinction entre les types de relations de discours : une relation coordonnante relie des arguments de même importance ,tandis qu'une relation subordonnante relie un argumentimportant à un argument moins important. Ces deux distinctions partant de lamême idée, nous employons la terminologie suivante pour l'une ou l'autre de cesthéories : une relation multinucléaire ou coordonnanterelie deux nuclei, une relation nucleus-satellite ousubordonnante relie un nucleus et un satellite. Nous verrons dans les sections2.2 et 3.3 comment l'asymétrie entre les parties du discours se traduitrespectivement en RST et SDRT. À l'inverse, les DAG de dépendances pour le discours, mis en avant dans (Danlos ,2004) et qui constituent une extension pour le discours du niveau sémantique deMTT (MeaningText Theory ou Théorie SensTexte) (Mel'cuk, 1988), ne font pasappel à la distinction coordonnante/subordonnante ou nucleus/satellite. Ceformalisme repose uniquement sur des contraintes venant du comportementsémantique des connecteurs de discours, qui sont extrapolées pour les relationsde discours non lexicalisées par un connecteur. Ces contraintes sont aussirespectées en RST et SDRT (section 4). Le but de cet article est de comparer la RST, la SDRT et les DAG de dépendancespour le discours sur les deux questions suivantes : estce que ces formalismespermettent de représenter toutes les structures de discours qui correspondent àdes discours bien construits et excluent toutes celles qui ne qui correspondentpas à des discours bien construits ? En empruntant le terme de « capacitégénérative forte » aux grammaires formelles, nous reformulons ces questions en :quelle est la capacité générative forte de chacun de ces trois formalismes ? Nous montrerons qu'aucun de ces formalismes n'a la capacité forte adéquate. RST ,qui impose entre autres que les structures de discours soient arborescentes, esttrop restrictif. Les DAG de dépendances, qui n'imposent que des contraintesminimales venant de la sémantique des connecteurs, est trop puissant. Et enfin ,SDRT s'approche d'une capacité générative forte adéquate sans toutefois yarriver. Si cette étude débouche sur un résultat plutôt négatif, nous espérons toutefoisqu'elle permettra d'avancer les réflexions sur ce que doivent être les structuresde discours, et en particulier de répondre aux questions suivantes : à quelobjet mathématique correspondentelles ? Dans quelle mesure doiton garder ladistinction nucleus/satellite ou coordonnante/subordonnante ? Soulignons que nous nous concentrons uniquement sur les structures de discours :nous ne parlons absolument pas des moyens mis en œuvre ou à mettre en œuvre pourles obtenir à partir de discours réels. Cet article est organisé de la façon suivante : les sections 2, 3 et 4 présententles caractéristiques principales des structures de discours proposéesrespectivement en RST, SDRT et DAG de dépendances. La section 5 concerne lacapacité générative forte de ces trois formalismes. La section 6 présente laconclusion et l'extension à de futures recherches. Dans les sections 2 à 4, les représentations du même discours dans les troisformalismes étudiés seront présentées. Ce discours, emprunté à (Asher etLascarides, 2003) et traduit en français, est donné en (1). (1) a. Fred a passé une merveilleuse soirée hier soir. b. Il a eu un repas fantastique. c. Il a pris du saumon. d. Ensuite, il a mangé de délicieux fromages. e. Puis, il a gagné une compétition de danse. Ce discours narratif décrit la soirée de Fred, qui est élaborée en deuxsous-événements, le repas et la compétition de danse. Le repas est lui -mêmeélaboré en suivant les plats que Fred a pris, saumon puis fromages. Lesrelations de discours impliquées et leurs arguments ne sont pas questionnables :elles sont décrites ci-dessous. – Élaboration relie la première phrase (1a) et le reste dudiscours (1be); – Narration (appelée Séquence en RST) reliel'annonce du repas fantastique et la compétition de danse, i.e. (1b) et( 1e); – Élaboration relie l'annonce du repas fantastique( 1b) et les deux phrases suivantes, i.e. (1c) et (1d); – Narration relie les plats pris par Fred, i.e. (1c) et( 1d). Élaboration est une relation nucleus-satellite en RST etune relation subordonnante en SDRT, tandis que Narration est une relation multi-nucléaire en RST et coordonnante en SDRT.. Ces relationsde discours vont donc dans le sens d'une harmonisation des distinctionsnucleus/satellite ou coordonnante/subordonnante posées en RST ou SDRT. RST est une théorie qui remonte à une trentaine d'années et qui a été énormémentutilisée aussi bien en linguistique descriptive qu'en linguistiquecomputationnelle et Traitement Automatique des Langues (tant pour l'analyse quela génération). De ce fait, les différents auteurs travaillant dans ce cadre nepartagent pas tous les mêmes points de vue. Il n'est pas dans le propos de cetarticle de présenter les différents points de vue sur RST, ceux -ci sont résumés dans (Taboada et Mann, 2006a) et( Taboada et Mann, 2006b). Nous nous limitons donc dans la section suivante à unevision de RST, celle de Marcu qui a eu un fort impact en analyse (Marcu, 2000a )et annotation de discours (Carlson et al., 2003). Nousdiscuterons cependant dans la section 2.2 d'un des points qui fait débat dans lacommunauté RST, la distinction nucleus/satellite. 2.1. Représentations graphiques et relations prédicat-arguments La représentation graphique originale proposée dans (Mann et Thompson, 1987 )pour les structures de discours est illustrée dans la figure 1 qui montre lastructure de discours pour (1). Dans ce diagramme, la représentation de lanième phrase est notée πi. Cette notation vient de la SDRT et non de laRST, qui utilise par exemple la notation Ci (Egg et Redeker, 2007). Cettedifférence de notation n'a pas la moindre importance car la représentationdes phrases n'est pas du tout discutée dans cet article, qui se concentresur la structure induite par les relations de discours. (Marcu, 1996) a proposé une représentation graphique qui est équivalente àl'originale mais qui se présente comme un arbre, l'arborescence desstructures de discours étant un postulat de base en RST. Pour un discourscomposé de deux phrases liées par la relation de discours R, la représentation est un arbre binaire étiqueté ,dont la racine est R, les arcs sont étiquetés Npour nucleus et S pour satellite, les feuillessont les représentations des deux phrases. Si R est une relationnucleus-satellite, l'argument nucleus (resp. satellite) de R est la feuille sur l'arc étiqueté N (resp. S ); le nucleus peut précéder ou suivre le satellite. Marcu a aussi proposé un principe, appelé « Principe de Nucléarité » (ou «Principe de Compositionnalité »), qui donne les relationsprédicat-arguments quand une relation nucleus-satellite( subordonnante) est enchâssée dans une autre relation de discours .Ce principe est étendu ci-dessous pour donner les relationsprédicat-arguments quand une relation multi-nucléaire( coordonnante) est enchâssée dans une autre. Le résultat est le «Principe Mixte » : Principe Mixte : Soit n i un nœud interne ou racine dans un arbre RST dont lefils gauche (resp. droit) est n j. L'argument gauche (resp. droit) de ni est : – si n j est une feuille, n j, – si n j est une relation de discours coordonnante ,le sousarbre de racine n j, – si n j est une relation de discours subordonnante, lenucleus de n j (qui est calculé récursivement par le PrincipeMixte). Ce principe est basé sur les cas : les deux premiers cas correspondent àl'interprétation standard des arbres utilisée en informatique, le troisièmecorrespond au Principe de Nucléarité. L'arbre RST pour (1), qui doit êtreinterprété avec le Principe Mixte, est donné dans la figure 2. Dans cet arbre, le satellite de la racine – le nœud Élaboration le plus haut – est le sousarbre dont la racine est larelation coordonnante Narration la plus haute. Dans ce sousarbre ,l'argument gauche de la racine est π2 (par le Principe de Nucléarité). π2est aussi l'argument gauche de la relation Élaboration enchâssée. En résumé, π2 est argument de deux relations de discours, bien qu'il n'ait qu'un seul parentdans l'arbre de la figure 2, et ce, grâce au Principe de Nucléarité. Marcu utilise comme critère pour la distinction nucleus/satellite le fait queles satellites peuvent être omis d'un texte sans nuire à sa cohérence. Il amis en pratique ce critère pour la production de résumés : un résumé detexte ne contient que les nuclei du texte original (Marcu, 2000b). Ensuivant la théorie telle que proposée au départ dans Mann et Thomson, Marcuconsidère que quelques relations sont multinucléaires (principalement Séquence, Parallèle, Contraste, Joint et Liste), toutes les autres étant des relationsnucleussatellite – en particulier toutes celles qui peuvent êtrelexicalisées par une conjonction de subordination (la principale formant lenucleus, la subordonnée le satellite) (Matthiessen et Thompson, 1988). Cette position ne fait pas l'unanimité dans la communauté RST. Lacorrespondance directe avancée par (Matthiessen et Thompson, 1988) entre lastructure linguistique et la nature d'une relation de discours a étélargement critiquée, récemment dans (Delort, 2006). D'autre part, plusieursauteurs critiquent la position de Marcu qui ne prend pas en compte desfacteurs aussi importants que la « saillance » d'un constituant, par exemple( Stede, 2007) montre que le contexte est pertinent pour déterminer l'élémentle plus saillant d'une relation de discours, et par là même le qualifier denucleus. Nous verrons dans la section 3.3 que la distinction relationcoordonnante/subordonnante en SDRT, harmonisable avec la distinctionnucleus/satellite en RST, pose aussi problème. Au départ, (Asher, 1993) a conçu SDRT comme une extension de DRT – DiscoursRepresentation Theory (Kamp et Reyle, 1993) – afin de prendre en compte lespropriétés spécifiques du discours. De ce fait, une structure de discours enSDRT, appelée SDRS (Segmented Discourse Representation Structure), reçoitune représentation en boîte (à la DRT), dans laquelle la distinction entrerelations de discours coordonnantes et subordonnantes n'est pas prise encompte. Cependant, la théorie repose de façon cruciale sur cettedistinction, qui sert à donner aux SDRS une structure hiérarchiquereprésentée sous forme de graphe. Pour un discours composé de deux phrasesliées par une relation de discours R, les nœuds dugraphe sont les étiquettes π1 et π2 des DRS donnant les représentationssémantiques des deux phrases. Ils sont reliés par une flèche étiquetée par larelation de discours R. La flèche est horizontale avecle constituant représentant la seconde phrase sur la droite si R est coordonnante, tandis qu'elle est verticale( oblique) avec le constituant représentant la seconde phrase en dessous siR est subordonnante (Asher et Vieu, 2005). Enutilisant la distinction nucleus/satellite sur le type des arguments, cecisignifie qu'une flèche horizontale relie deux nuclei, tandis qu'une flècheverticale part du nucleus et descend jusqu'au satellite. Il est supposé quele nucleus d'une relation subordonnante précède toujours le satellite. Nousreviendrons sur cette simplification dans la section 3.4. En plus des nœuds représentant les phrases (notés πi et appelés « nœuds dephrase »), les graphes SDRT comportent des « nœuds de portée » (notés π� ,π�� ,. ..). Dans la représentation en boîte, un nœud de portée étiquetteune sous-SDRS. Dans un graphe, un nœud de portée est lié par des lignes (et non des flèches) aux nœuds de phrase. La figure 3 illustre ces deux modes de présentation pour la SDRS représentantle discours (1) (ces diagrammes sont empruntés à (Asher et Lascarides, 2003 )pp. 140 et 147). La notation Kπi symbolise la DRS représentant la nièmephrase. On peut noter que Narration (π2,π5) et Élaboration (π2,π��) sont sur un pied d'égalité dansla sousSDRS étiquetée π� dans la représentation en boîte, où la distinctionentre relations coordonnante et subordonnante n'est pas prise en compte. Parcontre, ceci n'est pas le cas dans le graphe : le nœud de portée π� domineimmédiatement les deux arguments nuclei π2 et π5 de la relation coordonnanteNarration, tandis qu'il ne domine immédiatementque l'argument nucleus π2 de la relation subordonnante Élaboration (il domine l'argument satellite π�� mais il ne ledomine pas immédiatement). Cette asymétrie entre relations coordonnante et subordonnante dansles graphes SDRT peut être considérée comme équivalente à l'asymétrieprésente dans le Principe Mixte dans le cadre de la RST (section 2.1). En plus des nœuds de phrase et des nœuds de portée, un graphe SDRT peut aussiinclure des « nœuds topiques » (notés π∗, π∗∗ ,. ..), qui sont des nœudsconstruits servant à représenter le thème commun à plusieurs constituantsquand ce thème n'est pas explicitement indiqué dans le discours. Ces nœudstopiques sont principalement introduits pour des constituants reliés par unerelation coordonnante. Pour illustrer cette notion, considérons le discoursobtenu en omettant la première phrase de (1). Son graphe SDRT est exactementle même que celui de (1) excepté que π1 est remplacé par un nœud topique π∗: le contenu de π∗ est soirée de Fred. L'introductiondes nœuds topiques est motivée principalement par la contrainte de lafrontière droite. La notion de « frontière droite », proposée initialement par (Polanyi, 1988) ,est définie précisément en SDRT. Nous nous contenterons ici d'une définitioninformelle : dans un graphe SDRT pour un discours de n phrases, la frontièredroite contient le nœud πn représentant la dernière phrase plus les nœuds dephrase et nœuds topiques qui sont sur la branche droite du graphe et quidominent πn.. Dans le graphe de la figure 3, la frontière droite contient lesnœuds π5 et π1. Lors de la construction dynamique d'une SDRS, par un procédéincrémental de mise à jour, les constituants de discours qui sont sur lafrontière droite sont les seuls nœuds qui permettent d'attacher uneinformation nouvelle. Cette contrainte est appelée la « contrainte de lafrontière droite ».. De plus, cette contrainte postule que l'antécédentd'une expression anaphorique doit être (DRSaccessible) sur la frontière droite. La notion de frontière droite est donc cruciale en SDRT. Comme elle reposesur la distinction entre relations de discours coordonnantes/subordonnantes ,cette distinction a été abondamment discutée (Asher et Vieu, 2005), (Prevotet Vieu, 2005). Il n'est pas dans la portée de cet article de présentertoutes ces discussions. Néanmoins, signalons qu'il est envisagé qu'unerelation de discours donnée n'ait qu'un statut pardéfaut qui peu être révisé en contexte. Ainsi, il est proposé dans( Asher et Vieu, 2005) que la relation Résultat soitcoordonnante par défaut, mais qu'elle devienne subordonnante dans certainscontextes. Les conjonctions de subordination ont été pratiquement totalement ignorées enSDRT, où l'accent a été mis sur l'inférence des relations de discours nonlexicalisées par un connecteur. De ce fait, une phrase subordonnée quiapparaît avant la principale est un phénomène négligé. D'où la simplificationsuivante : il est supposé que le nucleus d'une relation subordonnanteprécède toujours le satellite (cf. section 3.1). Cette simplification n'estpas faite en RST : le nucleus d'une relation subordonnante précède ou suitle satellite. Ne pouvant préjuger du traitement des phrases subordonnéesantéposées en SDRT, nous limiterons le reste de cetteétude (dont, rappelonsle, un des buts est de comparer la capacitégénérative forte de RST à celle de SDRT) aux cas où le nucleus d'unerelation subordonnante précède le satellite, seuls cas étudiés dans les deuxthéories. Il est cependant clair que l'étude présentée ici doit êtrecomplétée par les cas où le satellite d'une relation subordonnante précèdele nucleus. Les courtes présentations que nous venons de faire des structures de discoursutilisées en RST et SDRT doivent avoir mis en évidence que ces deuxthéories n'étudient pas exactement le même ensemble de phénomènes. Pourmener à bien notre travail de comparaison, nous devons nous limiter aux casqui ont été étudiés dans les deux théories. De ce fait, nous excluons toutdiscours comportant une subordonnée antéposée, car nous venons de voir quede telles subordonnées sont ignorées en SDRT.. Le reste de cet article seconcentre donc sur les discours dans « l'ordre canonique », i.e. les discours de forme P 1 (Conn 1) P 2. .. P i (Conn i) P i +1. .. P n, qui comptent n phrasessimples (clauses), notées P i, et qui ne comportent pas de subordonnéeantéposée. Ces phrases sont liées par des connecteurs de discoursoptionnels, notés Conn i, qui apparaissent en position initiale dans leurphrase hôte. Il est supposé qu'aucune phrase P i n'inclut de connecteur de discours, ce qui signifieque les cas avec plusieurs connecteurs dans la même phrase ne sont pas prisen compte (ces cas sont étudiés dans (Webber et al., 2001)). Il est aussi supposé qu'un discours dans l'ordre canonique ne metpas en jeu une relation de discours comme Attribution; cette relation, qui soulève des problèmes concernant l'ordre linéaire deses arguments (l'un pouvant être enchâssé dans l'autre), est étudiée dans( Redeker et Egg, 2006) (RST) et (Hunter et al., 2006 )( SDRT). La représentation de P i, quelle qu'elle soit, est notée π i. Un connecteur Conn i lexicalise une relation de discours, notée R i. Si Conn i n'est pas présent, on suppose de même qu'il y a unerelation de discours R i. En fait, il peut y avoir plusieurs relations dediscours entre deux constituants si elles sont du même type, i.e. soittoutes coordonnantes soit toutes subordonnantes. Ceci est autorisé en SDRTmais pas en RST. Pourtant, ceci peut être facilement autorisé en RST sanschangement radical : un nœud noté R i /R � dans un arbre RST peut indiquer que les deux relations R i et R � sont inférables. Comme R i et R i � sont du même type, il n'y a pas de problème avec les types desarguments (N/S). Dans les graphes SDRT, une flèche horizontale (reps .verticale) peut être étiquetée R i /R � si R i et R i � sont toutes deux coordonnantes (resp .subordonnantes). Si les structures de discours proposées en RST et SDRT présentent desdifférences, dont certaines viennent d' être soulignées, ces deux théoriespartagent le fait qu'elles reposent sur la distinction nucleus/satellite ourelation coordonnante/subordonnante. Estce que ces deux théories reposentsur le même ensemble de relations de discours et estce qu'elles leuraccordent le même statut ? La réponse à ces deux questions est grosso modo :oui. En effet, (Asher, 1993) est parti des relations de discours proposéesdans (Mann et Thompson, 1988), et même s'il y a des divergences surl'ensemble des relations utilisées en RST et SDRT, ces divergences ne sontpas pertinentes pour l'étude présentée ici. Quant au statut accordé à unerelation de discours donnée, il est dans la plupart des cas le même en RSTet SDRT. L'exception notoire est la relation Résultat qui est considérée comme subordonnante en RST etcoordonnante en SDRT (par défaut). De ce fait, dans le reste de cet article ,nous ne présenterons aucun exemple mettant en jeu la relation Résultat.. Il faut aussi souligner que ces deuxthéories envisagent de ne pas attribuer de statut fixe à une relationdonnée, mais un statut par défaut qui peut être changé en fonction ducontexte (voir sections 2.2 et 3.3). Nous verrons des illustrations de cepoint de vue dans la section 5. Nous allons maintenant présenter un autre mode de représentation desstructures de discours, qui est inspiré des grammaires de dépendances et quine repose pas sur la distinction entre relations coordonnantes etsubordonnantes. Parmi les grammaires de dépendances, la plus connue est probablement MTT( MeaningText Theory ou Théorie SensTexte) (Mel'cuk, 1988), conçue dans laperspective de génération de phrases, mais adaptée à la perspective d'analysepar (Kahane, 2001). Elle comporte trois niveaux de représentation : sémantique ,syntaxique et morphologique. Nous proposons cidessous une extension du niveausémantique afin de traiter le discours et nous comparons les structures dediscours proposées à celles de RST et SDRT. Le noyau du niveau sémantique en MTT est un graphe orienté étiqueté dans lequelles nœuds sont des « sémantèmes », soit lexicaux soit grammaticaux. Un sémantèmelexical représente un emploi d'un mot (e.g. ‘ adopter1 ' (un enfant) et ‘ adopter2 '( une loi) sont deux sémantèmes lexicaux pour le verbe adopter). Un sémantème est considéré comme un prédicat qui est lié à sesarguments (s'il en a) par des flèches pointant sur leurs représentationssémantiques. Les flèches sont étiquetées par des nombres qui distinguent lesarguments entre eux. Pour le discours, on peut considérer les relations de discours comme dessémantèmes quand elles sont lexicalisées par un connecteur de discours. Danscette vision, une relation de discours correspond au sens d'un connecteur dediscours ou à un de ses sens. Par extrapolation, les relations de discours nonlexicalisées sont aussi considérées comme des sémantèmes. Deux phrases reliéespar une relation de discours R reçoivent donc la même représentation qu'en RST ,à savoir un arbre de racine R dont les feuilles sont les représentations desphrases. Toutefois, il y a une différence cruciale entre les graphes dedépendances sémantiques et les arbres RST, à savoir la nature arborescente dugraphe : un graphe de dépendances sémantiques n'est pas toujours arborescent ,contrairement à un arbre RST (cf. section 2.1). Cette différence vient du calculdes relations prédicatarguments. Dans les graphes de dépendances sémantiques ,que ceuxci représentent une phrase comme en MTT ou un discours dans l'extensionproposée ici de MTT, les relations prédicatarguments se calculent de façonsimple et standard : les arguments d'un prédicat (e.g. une relation de discours )sont toujours ses fils. Il n'y a donc pas l'équivalent du Principe de Nucléaritéutilisé en RST (voir section 2.1). Par exemple, le graphe de dépendancessémantiques pour (1) – en fait un DAG, voir cidessous – est représenté dans lafigure 4. Dans ce graphe, π2 a deux parents, ce qui traduit directement le faitque π2 est argument de deux relations de discours. Par contre, rappelons que cefait n'est pas graphiquement visible dans l'arbre RST représentant (1) (voirfigure 2), il demande un calcul effectué par le Principe de Nucléarité. Convention : Dans cet article, tout arbre RST doit êtreinterprété avec le Principe Mixte, tout graphe de dépendances sémantiques avecl'interprétation standard. Pour ne pas confondre ces deux interprétations, lesarcs sont représentés graphiquement comme des lignes dansles arbres RST et comme des flèches dans les graphes dedépendances sémantiques. Quelles sont les contraintes qui pèsent sur les graphes de dépendancessémantiques représentant des structures de discours ? En premier lieu, on peut poser qu'il n'y a pas de cycle. De ce fait, ces graphesde dépendances sémantiques sont des DAG (Directed Acyclic Graphs ou graphesorientés acycliques). Dans ces DAG, les feuilles, projetées sur une lignehorizontale, sont ordonnées ,comme c'est le cas pour les feuilles des arbres RST.. On suppose aussi que toutnœud non feuille a exactement deux fils, ce qui provient du fait qu'un nœud nonfeuille est une relation de discours avec deux arguments (voir note 1). Deuxièmement, d'après notre connaissance sur la sémantique des connecteurs dediscours, deux contraintes (minimales), notées C 1 et C 2, peuvent être postulées pour les discours dans l'ordrecanonique (entre autres, sans proposition subordonnée antéposée, voir section3.5) de forme P 1 (Conn 1) P 2. .. P i (Conn i) P i +1. .. P n. La contrainte C 1 postule que le premier argument d'un connecteur dediscours Conn i est à la gauche de Conn i.. La contrainte C 2 postule qu'une phrase P i +1 introduite par un connecteur de discours Conn i est sous la portée de ce connecteur. Par extrapolation ,nous postulons que ces deux contraintes sont aussi valides quand une relation dediscours R i n'est pas lexicalisée par un connecteur de discours .Ces contraintes se formulent de la façon suivante dans les DAG de dépendancessémantiques. Contrainte C 1 : le premier argument de R i est la représentation d'une portion (continue) de textequi apparaît sur la gauche de (Conn i) P i +1. Contrainte C 2 : le second argument de R i est la représentation d'une portion (continue) de textequi commence à π i + 1 (cette portion de texte peut être réduite à π i +1). En termes de dominance, C 2 signifie que Ri domine π i +1. Nous allons montrer que les contraintes C 1 et C 2 sont aussi respectées en RST et SDRT, ce qui n'est passurprenant puisqu'elles sont minimales. En RST, le « Principe d'Adjacence » estposé. Il indique que les arguments d'une relation de discours lexicalisée par unconnecteur de discours sont des portions de texte (continues) qui sont adjacentes au connecteur de discours (Mann et Thompson ,1987). Le Principe d'Adjacence est aussi posé quand une relation de discours Rin'est pas lexicalisée. Ce principe ne fait aucune différence entre le premier etsecond argument d'une relation de discours. Plus précisément, il est équivalentaux contraintes C � et C 2, dans lequel C 1 est l'image miroir de C 2 (C 1 est donc une contrainte plus forte que C 1). Contrainte C � : le premier argument de R i est la représentation d'une portion de texte qui finit àπ i (cette portion de texte peut être réduite à π i). En termes de dominance, C 1 � signifie que R i domine π i. Les contraintes C 1 � et C 2 sont utilisées par (Egg et Redeker, 2007) pour proposerdes représentations de discours sous-spécifiées dans le cadre de RST. Pour undiscours dans l'ordre canonique comportant n phrases, lareprésentation sous-spécifiée proposée est montrée dans la figure 5 (une ligne enpointillé représente la dominance). Cette représentation sous-spécifiée respecteexactement les contraintes C 1 � et C 2. En SDRT, les contraintes C �� (voir cidessous) et C 2 peuvent être inférées de la procédure incrémentale deconstruction d'une structure de discours. D'une façon simplifiée, lors que l'ontraite la phrase courante Pi+1, la condition sousspécifiée ? R (α, π i +1) est posée, ? R étant unevariable de relation de discours qui sera spécifiée en Ri dans notre notation, αétant un site d'attachement qui doit être sur la frontière droite du graphe SDRTreprésentant le contexte gauche de (Conn i) P i +1 (section 3.3). Une contrainte plus forte que C 1 pèse donc sur le premier argument de R i, à savoir C �� Contrainte C �� : le premier argument de R i est une portion de texte située sur la frontière droitedu graphe SDRT représentant le contexte gauche de (Conn i) P i +1. Pour le second argument de Ri, la condition sousspécifiée ?R(α, πi+1) indique queπi+1 est le second argument de Ri.. Cependant, dans la procédure incrémentale( non monotone) de construction d'une structure de discours, cette condition peutêtre revue de sorte que Ri domine (mais pas immédiatement) πi+1. Ceci signifieque C2 est aussi respectée en SDRT. En résumé, les graphes de dépendances sémantiques pour les discours sont des DAGdont les feuilles sont ordonnées, et dont les nœuds non feuille sont desrelations de discours avec deux fils. Les relations prédicatarguments respectentune contrainte forte C2 sur le second argument d'une relation de discours et unecontrainte C1 plus faible sur le premier argument. En RST et SDRT, la contrainteC2 pour le second argument est aussi respectée, tandis que des contraintes plusfortes que C1 pèsent sur le premier argument, respectivement C1�et C1��. À partir de ces données, on peut s'attendre à ce que le formalisme des DAG dedépendances ait une capacité générative forte plus grande que celle de RST ouSDRT.. La section 5 confirmera ce fait. Les contraintes C 1 � et C �� posées respectivement en RST et SDRT ne peuvent pasêtre comparées directement : il faut prendre en compte les autres contraintespostulées dans ces formalismes (e.g. le fait que les structures en RST doiventêtre arborescentes). Néanmoins, la section 5 montrera que la capacité générativeforte de RST est moins grande que celle de SDRT. Soulignons le point suivant : les seules contraintes qui pèsent sur les DAG dedépendances pour les structures de discours sont les contraintes C 1 et C 2. Cellesci ne mettent pas en jeu la distinction nucleus/satellite ou relation coordonnante/subordonnante, qui estlargement utilisée tant en RST qu'en SDRT. Les sections suivantes examinerontles conséquences de cette différence fondamentale. Pour illustrer les contraintes que pèsent sur les DAG de dépendances pour lesdiscours, examinons les DAG autorisés pour des discours dans l'ordre canoniquecomprenant trois phrases, cas qui sera étudié en détail dans la section 5. LesDAG autorisés ont trois feuilles ordonnées, π 1 <π 2 <π 3, et deux nœuds internes R 1 et R 2. La contrainte C 2 indique que le second argument de R1 doit commencer àπ2 et que π3 est obligatoirement le second argument de R 2. La contrainte C 1 indique que π 1 est obligatoirement le premier argument de R 1. Au total, seuls quatre DAG non étiquetés sont autorisés; ils sontreprésentés dans la figure 6. Deux de ces DAG ne sont pas arborescents (l'un danslequel π 1 a deux parents, l'autre dans lequel π2 a deux parents) ,les deux autres sont arborescents. Un point important est que la contrainte C2 exclut le DAG non arborescent danslequel π3 a deux parents, à savoir le DAG de la figure 7. Ce DAG est exclu car lesecond argument de R1 ne commence pas à π2 (autrement dit, R1 ne domine pas π2) ,contrairement à ce qui est postulé par C2. Il semble en effet qu'il n'existeaucun discours bien construit dont la structure soit le DAG de la figure 7. Commeexpliqué dans (Danlos, 2004), ce point se justifie par une considérationpsycholinguistique : on a du mal à concevoir un discours dans lequel la secondephrase ne serait pas reliée du tout à la première. Résumé sur les représentations des structures de discours :En prenant comme référence le discours (1), nous avons examiné troisreprésentations pour les structures de discours : les arbres RST, les graphesSDRT et les DAG de dépendances. Nous allons maintenant comparer la capacitégénérative forte de ces trois formalismes. Pour comparer la capacité générative forte des trois formalismes étudiés, nousallons examiner un cas simple de discours dans l'ordre canonique, à savoir lesdiscours comportant trois phrases qui sont notés ici P 1 (Conn a) P 2 (Conn b) P 3. Leurs structures de discours comportent troisreprésentations de phrases notées πi et deux relations de discours notées R a et R b. Notre méthodologie est la suivante : nous commençonspar les arbres RST, car RST est le formalisme le plus contraint. Puis nouspassons aux DAG de dépendances, car ce formalisme est le moins contraint. Nousserons de ce fait en mesure de situer les graphes SDRT entre ces deuxformalismes. Pour les discours dans l'ordre canonique de la forme P 1 (Conn a) P 2 (Conn b) P 3, les arbres RST doivent avoir trois feuillesordonnées (π 1 < π 2 < π 3) et deux nœuds internes (Ra et Rb). Pour respecterla structure arborescente, un des deux nœuds internes doit être le fils del'autre. Au total, il n'existe que deux arbres binaires non étiquetés, àsavoir soit R b (R a (π 1, π 2), π 3)) soit R a (π 1, R b (π 2, π 3)). Ces deux arbres débouchent sur huit arbres RSTavec les arcs étiquetés. Nous allons d'abord examiner les quatre cas où larelation enchâssée est subordonnante, puis les quatreautre cas où cette relation est coordonnante. Cas où la relation enchâssée est subordonnante : Dansle tableau 1, la première ligne montre les quatre arbres RST avec unerelation nucleus-satellite enchâssée, à savoir (Ia)(IVa). La seconde ligne montre les DAG de dépendances équivalents, à savoir( Ib)(IVb). Aucun de ces DAG n'est arborescent. Ceci vient du fait que lePrincipe de Nucléarité est utilisé pour calculer les relationsprédicatarguments dans les arbres RST (Ia)(IVa) puisque la relationenchâssée est subordonnante. Par exemple, pour (Ia), le nucleus de R b est π 1, qui est aussi le nucleus de R a; d'où le DAG de dépendances (Ib), dans lequel π 1 a deux parents. La troisième ligne du tableau 1 montre les graphes SDRT équivalents .Décrivons le graphe SDRT (Ic) en s'aidant des relations prédicatargumentsvisibles en (Ib). En partant de π 1, une flèche verticale pointe vers π 2, elle est étiquetée par la relation subordonnanteRa.. Ensuite, toujours en partant de π1, une flèche horizontale pointe versπ 3, elle est étiquetée par la relation coordonnanteRb. L'étiquette de portée π � domine immédiatement π 1 et π 3, et domine (non immédiatement) π 2. Les quatre structures de discours (I)(IV) données dans le tableau 1 peuventtoutes être réalisées dans des discours bien construits, par exemple ceuxprésentés en (2). (2) a. Fred était bien malade la semaine dernière. Il avait un mauvais rhume. Mais ilest en pleine forme cette semaine. Structure (I) avec Ra = Élaboration et Rb = Contraste b. Fred est bien malade. Il a probablement un mauvais rhume. Il s'est promené sous lapluie hier. Structure (II) avec Ra = Élaboration et Rb = Explication c. Fred est en pleine forme. Par contre, Marie est bien malade. Elle a un mauvaisrhume Structure (III) avec Ra = Contraste et Rb = Élaboration d. Fred est de mauvaise humeur. Il n'a pas bien dormi cette nuit. Sa couverturechauffante n'a pas marché. Structure (IV) avec Ra = Explication et Rb = Explication Cas où la relation enchâssée est coordonnante : Dans letableau 2, la première ligne montre les quatre arbres RST avec une relationmultinucléaire enchâssée, à savoir (Va)(VIIIa). La seconde ligne montre les DAG de dépendances équivalents, à savoir( Ib)(IVb), qui sont tous arborescents. Ces arbres RST et DAG de dépendancessont très similaires : graphiquement, ils ne différent que par les arcs quisont des lignes dans les arbres RST et des flèches dans les DAG dedépendances, de par la convention adoptée dans la section 4. Cettesimilarité vient du fait que les relations prédicatarguments dans lesarbres RST (Va)(VIIIa) sont calculées de façon standard (i.e. sansimpliquer le Principe de Nucléarité). Par exemple, pour (Va), le nucleus deR b est le sousarbre dont la racine est R a, d'où le DAG de dépendances (Vb). La troisième ligne du tableau 2 montre les graphes SDRT équivalents. Dans cesgraphes, les nœuds topiques sont omis par souci de simplification : les nœudsde portée sont supposés jouer leur rôle sur la frontière droite pourl'attachement d'informations nouvelles. Les quatre structures de discours (V)(VIII) données dans le tableau 2peuvent toutes être réalisées dans des discours bien construits, par exempleles discours présentés en (3). (3) a. Fred a eu un très bon repas. Il a aussi beaucoup dansé. Par contre, Marie acomplètement raté sa soirée. Structure (V) avec R a = Parallèle/Narration et R b = Contraste b. Fred a mangé un bon saumon. Il a aussi pris de délicieux fromages. C'était unrepas fantastique. Structure (VI) avec R a = Parallèle/Narration et R b = Commentaire c. Fred n'a rien mangé. Par contre, Marie a dévoré un bon saumon. Elle a aussi prisde délicieux fromages. Structure (VII) avec Ra = Contraste et Rb = Parallèle/Narration d. Fred a eu un très bon repas. Il a dévoré un bon saumon. Il a aussi pris dedélicieux fromages. Structure (VIII) avec Ra = Élaboration et Rb = Parallèle/Narration En conclusion, pour les discours dans l'ordre canonique de la forme P1( Conna) P2 (Connb) P3, RST permet exactement huit structures de discours .Ces huit arbres RST correspondent à des DAG de dépendances et graphes SDRTqui sont autorisés dans chacun de ces deux formalismes. Ils peuvent tousêtre réalisés dans des discours bien construits. Nous avons montré dans la section 4 qu'il existe quatre DAG non étiquetés ,respectant les contraintes C 1 et C 2, pour les discours dans l'ordre canonique de laforme P 1 (Conn a) P 2 (Conn b) P 3.. Quand les arcs sont étiquetés, on obtient seizeDAG (quatre pour chaque DAG nonétiqueté). Huit de ces DAG ont déjà étéexaminés dans la section précédente, à savoir les DAG (Ib)(VIIIb) destableaux 1 et 2 avec un arbre RST équivalent. Il nous reste les huit autresDAG sans arbre RST équivalent, qui correspondent donc à des structures dediscours exclues par RST. Nous allons examiner si ces structures de discourssont exclues par SDRT et étudier leur réalisation linguistique. Nouscommençons par les DAG non arborescents. DAG non arborescents dans lesquels π1 a deux parents : Les DAG (IXb) et (Xb) du tableau 3diffèrent des DAG (Ib) et (IIb) du tableau 1 du fait que Ra estcoordonnante (et non subordonnante). D'où l'impossibilité d'obtenir desarbres RST (interprétés avec le Principe Mixte) avec les mêmes relationsprédicatarguments. Ces DAG correspondent aux graphes SDRT (IXc) et (Xc), qui sont exclus parla contrainte de la frontière droite (section 3.3) : π3 ne peut pas êtreattaché à π1 qui n'est pas sur la frontière droite. Comme ces graphessont exclus, ils apparaissent sur fond grisé dans le tableau 3. DAG non arborescents dans lesquels π 2 a deux parents : Les DAG (XIb) et (XIIb) du tableau3 diffèrent des DAG (IIIb) et (IVb) du tableau 1 du fait que R b est coordonnante (et nonsubordonnante). D'où l'impossibilité d'obtenir des arbres RST avec lesmêmes relations prédicatarguments. Dans la structure de discours (XII) ,il est supposé que R a = � R b. Autrement dit, cette structure de discoursn'implique pas une unique relation de discours reliant troisconstituants. Le graphe SDRT (XIc) est exclu par la contrainte de « Poursuite du SchémaDiscursif » (Continuing Discourse Pattern) quipostule que les constituants coordonnés d'une sousstructure doivent secomporter d'une façon homogène par rapport au constituant dominant( Asher et Vieu, 2005).. Lorsde la procédure nonmonotone de construction d'un graphe SDRT, le graphe( XIc) devient obligatoirement le graphe (VIIIc) du tableau 2, danslequel les deux constituants coordonnés sont dépendants de π1. En revanche, le graphe SDRT (XIIc) n'est exclu par aucune contrainte. Remarque sur l'arborescence des graphes SDRT et sur leur projectivité : Les graphes SDRT ne sontpas des arbres puisqu'ils contiennent des flèches horizontales (pour lesrelations coordonnantes). Néanmoins, on peut faire abstraction de cesflèches horizontales et examiner l'arborescence des graphes SDRT, en seconcentrant sur les relations entre un père et un fils provenant d'unerelation subordonnante (graphiquement une flèche verticale ou oblique) oud'une relation de portée (graphiquement une ligne oblique). Dans cetteperspective, les graphes SDRT (Ic)(IXc) sont des arbres avec une racineunique et un seul parent pour chaque nœud. Mais ceci n'est pas le caspour les graphes (Xc)(XIIc) : dans chacun de ces graphes, un nœud adeux parents – π 1 dans (Xc), π 2 dans (XIc) et (XIIc). Le fait que (XIIc) nesoit exclu par aucune contrainte signifie qu'un graphe SDRT n'est pasforcément arborescent (abstraction faite des flèches horizontales). Le graphe SDRT (IXc) est arborescent (abstraction faite des flècheshorizontales) mais il ne respecte pas la contrainte de la frontièredroite. Montrons que cet arbre n'est pas « projectif ». La notion de projectivité aété introduite en grammaires de dépendances pour la syntaxe. D'abord unedéfinition : dans un arbre, la projection (maximale) d'un nœud x, notée Proj (x), est l'ensemble des nœuds dominés par x, x compris. Un arbre dedépendances syntaxiques pour une phrase est projectif si et seulement sitoutes les projections des nœuds forment des segments continus de laphrase (Lecerf, 1961). Lecerf a montré qu'un arbre de dépendances estprojectif si et seulement si les dépendances ne se croisent jamais et necouvrent jamais la racine. À titre d'illustration, si w 1 ,w 2 ,w 3, et w4 sont quatre mots apparaissant dans unarbre de dépendances projectif dans l'ordre linéaire w 1 < w 2 < w 3 < w 4, alors il n'est pas possible que w 1 soit lié à w 3 et w 2 à w 4 (un tel cas est connu sous le nom de «dépendances croisées »). La notion de projectivité peut être appliquéeaux arbres SDRT (i.e. aux graphes SDRT qui sont arborescents abstractionfaite des flèches horizontales). On peut ainsi vérifier, par exemple, quele graphe SDRT pour (1) présenté dans la figure 3 est un arbre projectif. Les graphes SDRT( Ic)(VIIIc) sont aussi des arbres projectifs. Par contre, ceci n'estpas la cas pour (IXc) qui n'est pas projectif : Proj( π 1 )= {π 1 ,π 3} ne forme pas un segment continu puisque π2 estsitué entre π 1 et π 3. En résumé, (Ic)(VIIIc) sont des arbresprojectifs et ils respectent la contrainte de la frontière droite ,tandis que (IXc) n'est pas projectif et ne respecte pas la contrainte dela frontière droite. D'une manière plus générale, il est possible demontrer qu'un arbre SDRT est projectif si et seulement si il respecte lacontrainte de la frontière droite (Sylvain Kahane, pc). Nous allons maintenant examiner comment les structures de discours( IX)(XII) données dans le tableau 3 sont réalisées linguistiquement .Nous commençons par la structure (IX), qui soulève des questions sur lestatut des relations anaphoriques dans les structures de discours. Réalisation linguistique de (IX) : Le discours (4) ,qui inclut un lien anaphorique entre un GN indéfini dans la premièrephrase (un saumon) et un GN défini dans latroisième phrase (le saumon), peut recevoir lastructure (IX), représentée comme le DAG de dépendances (IXb), avec R a = Parallèle/Narration et R b = Élaboration/Commentaire.. Le discours (4) estbien formé, et on trouve en corpus de nombreux exemples construits surle même patron, avec un lien anaphorique entre deux éléments, l'un dansla première phrase, l'autre dans la troisième. (4) Fred a mangé un gros saumon. Il a aussi dévoré de délicieux fromages. Le saumonvenait de Norvège. Comme la structure (IX) ne correspond à aucun arbre RST (à cause duPrincipe Mixte) et qu'elle est exclue en SDRT (à cause de la contraintede la frontière droite), d'autres analyses pour (4) sont proposées dansces théories, que nous allons examiner. Dans le cadre de la RST, (Egg etRedeker, 2007) donneraient à (4) la structure arborescente (VIa) dutableau 2. Dans cette structure arborescente, le nucleus de R b = Élaboration/Commentaire est le sousarbre deracine R a (autrement dit, la troisième phrase commente leconstituant complexe formé par les deux premières phrases). Ceci signifieque le lien anaphorique entre un saumon et le saumon est ignoré dans la structure dediscours. D'une manière plus générale, Egg et Redeker affirment que « lesanaphores peuvent créer des relations entre phrases qui ne sont pasreprésentées dans la structure de discours ». Cette position n'est pasadoptée par (Wolf et Gibson, 2005) qui donneraient à (4) la structure( IX) et qui utilisent de tels discours comme une évidence contrel'arborescence des structures de discours (bien qu'ils travaillent dansle cadre de la RST). Dans le cadre de la SDRT, l'expression anaphorique définie, le saumon, dans (4) viole la contrainte postulantque l'antécédent d'une expression anaphorique doit être sur la frontièredroite (section 3.3). Face à cette violation, (Asher, 2007) avancel'hypothèse qu'un tel GN défini, qui a un contenu présuppositionnel, estaccommodé avec la conséquence suivante : le référent de un saumon est introduit dans le topique π ∗ de π 1 et π 2 (voir la section 3.2 pour la notion detopique). π ∗ est sur la frontière droite et π3 est attaché àπ∗ par la relation Élaboration/Commentaire. Legraphe SDRT pour (4) est présenté dans la figure 8, avec R a = Parallèle/Narration et R b = Élaboration/Commentaire.. Il respecte lacontrainte de la frontière droite tant pour l'attachement de π3 que pourl'antécédent du GN défini le saumon. Nous avonsexpliqué dans la section 3.5 que les nœuds topiques étaient omis de nostableaux par souci de simplification. Si ce n'était pas le cas, lediagramme (VIc) dans le tableau 2 serait remplacé par celui de la figure8. Autrement dit, la structure de (4) présentée dans (Asher, 2007 )correspond à la structure proposée dans (Egg et Redeker, 2007) dans lecadre de la RST. Pour résumer, le discours (4) reçoit la structure (VI) ou (IX) selon lespositions avancées sur le rôle des relations anaphoriques dans lesstructures de discours. Nous avons vu que l'arbre SDRT (IXc) n'est pas projectif. En syntaxe, ilest un fait bien établi que la plupart des structures sont projectivespour les phrases françaises ou anglaises, mais pas toutes. Si lediscours (4) est analysé selon la structure (IX), alors on peut dire quela plupart des structures de discours françaises ou anglaises sontprojectives, mais pas toutes. Que peuton dire sur les dépendances croisées en discours ? Considéronsles discours composés de quatre phrases dans lesquels la troisièmephrase élabore une entité introduite dans la première phrase, laquatrième élaborant une entité introduite dans la seconde. De telsdiscours, qui ont été étudiés dans (Stede, 1999), (Wolf et Gibson, 2005 )et (Egg et Redeker, 2007), sont illustrés en (5), avec les liensanaphoriques un gros saumon/le saumon et de délicieuxfromages/les fromages. (5) Fred a mangé un gros saumon. Il a aussi dévoré de délicieux fromages. Le saumonvenait de Norvège. Les fromages venaient de France. Si les liens anaphoriques sont pris en compte dans les structure dediscours – position adoptée par Wolf et Gibson – alors les DAG dedépendances pour (5) comportent des dépendances croisées, à savoir Élaboration (π 1 ,π 3) et Élaboration (π 2 ,π 4). En revanche, Egg & Redeker (cp.) et Asher( cp.) donneraient à (5) une structure qui ne rend pas compte des liensanaphoriques et qui ne comporte pas de dépendances croisées. En conclusion, un GN défini anaphorique peut avoir son antécédent situé apriori n'importe où dans son contexte gauche (si tant est que lescontraintes de liage soient respectées). Si les liens anaphoriques sontpris en compte dans les structures de discours, ils posent un problèmepour l'arborescence des structures RST et pour la contrainte de lafrontière droite en SDRT, ils conduisent à des structures nonprojectives et à des dépendances croisées. Une autre solution ,préconisée par Egg en RST et Asher en SDRT, consiste à ne pas reflétersystématiquement les liens anaphoriques dans les structures de discours .Nous n'avons pas d'argument décisif permettant de trancher entre cesdeux positions. Réalisation linguistique de (X) : La structure (X )du tableau 3, dans laquelle deux relations coordonnantes sont attachéesau même constituant, violent la contrainte de la frontière droite( postulée en SDRT) pour l'attachement de π 3. Il s'avère difficile de concevoir un exempleayant cette structure. Pourtant, considérons le discours (6a). Il est apriori de structure (X) avec aussi lexicalisantR a = Parallèle et puis lexicalisant R b = Narration. On peut toutefois arguer que laseconde phrase (Marie aussi) est perçue dans cediscours comme une information secondaire, ce qui revient à rétrograderla relation Parallèle en lui conférant le statut de relationsubordonnante, etdonc à donner à (6a) non pas la structure (X) mais la structure (I) dutableau 1. Cette rétrogradation est impossible si (6a) est plongé dansun discours plus long, par exemple (6b), dans lequel Fred et Marie sontsur un total pied d'égalité. Mais nous allons voir que (6a) immergé dans( 6b) ne reçoit pas la structure (X). (6) a. Fred a pris du saumon. Marie aussi. Puis il a pris une tarte à la rhubarbe. Structure (X) avec Ra = Parallèle et Rb = Narration b. Fred et Marie sont allés au restaurant hier soir. Fred a pris du saumon. Marieaussi. Puis il a pris une tarte à la rhubarbe. Par contre, Marie a pris desprofiteroles au chocolat. En (6b), le récit du dîner de Fred et Marie se déroule en suivant lesplats qu'ils ont pris : d'abord le plat principal, ensuite le dessert .Cette structure narrative peut être reflétée dans un graphe SDRT où letopique π ∗ des seconde et troisième phrases est plat principal de Fred et Marie auquel estattaché (par la relation Narration) le topique π ∗ ∗ des quatrième et cinquième phrases, définicomme dessert de Fred et Marie. Cette structurede discours est représentée dans la figure 9. Dans cette structure, lesous-discours (6a) n'est pas analysé selon la structure (X). En résumé, comme le discours (6a) est le seul type d'exemple de structure( X) que nous ayons pu concevoir, il semblerait que cette structure nesoit pas linguistiquement réalisable si tant est que l'on accepte que lestatut coordonnant/subordonnant d'une relation de discours change enfonction du contexte (par exemple, si l'on accepte de considérer que larelation Parallèle dans (6a) (hors contexte) estsubordonnante). Réalisation linguistique de (XI) et (XII) : Lesdiscours (7a) et (7b) illustrent respectivement les structures (XI) et( XII). (7) a. Marie se fait du souci car son fils aîné a de mauvaises notes. Son fils cadet aaussi de mauvaises notes (mais elle s'en moque). Structure (XI) avec Ra = Explication et Rb = Parallèle b. Fred a rangé sa chambre aujourd'hui. Marie aussi. Puis, elle est allée rendrevisite à sa grandmère. Structure (XII) avec Ra = Parallèle et Rb = Narration En SDRT, le discours (7a) ne peut pas recevoir la structure (XI) : legraphe (XIc) est transformé en (VIIIc) (tableau 2) par la contrainte dePoursuite du Schéma Discursif. Cette contrainte revient à imposer pournotre exemple que Marie se fasse aussi du souci pour les mauvaises notesde son cadet, alors que ceci n'est peutêtre pas le cas (comme suggérépar l'élément que nous avons mis entre parenthèses mais elle s'en moque). Ces données nous amènent à poser que lacontrainte de Poursuite du Schéma Discursif doit probablement êtremaintenue quand la relation subordonnante – R a en (XIc) – est Élaboration, mais qu'elle ne doit pas être maintenue quand R a est Explication. C'estainsi que l'on peut analyser (7a) avec la structure (XIc). Nous avons vu que les structures (XIc) et (XIIc) ne sont pasarborescentes (abstraction faire des flèches horizontales) car le nœud π2a deux parents. Les discours bien construits (7) montrent que lesgraphes SDRT non arborescents doivent être autorisés. Dans les quatre DAG arborescents du tableau 2, à savoir (Vb)(VIIIb), larelation enchâssée est coordonnante. Que peutondire sur les structures de discours correspondant aux quatre autres DAGarborescents avec une relation enchâssée subordonnante? Considérons le DAG (XIIIb) de la figure 10 (laquelle figure inclut aussi legraphe SDRT équivalent, commenté cidessous). Le nucleus de R b dans ce DAG est le sousarbre de racine R a.. Cette relation prédicat-argument n'est paspossible en RST à cause du Principe de Nucléarité qui postule que lenucleus de R b est π 1. La structure (XIIIb) peut être réalisée dans des discours bienconstruits, par exemple, dans le discours (8), dans lequel il estcompris que le pronom ceci réfère àl'interprétation de son contexte gauche, à savoir la relation causaleliant les faits décrits dans les deux premières phrases. (8) Fred est bouleversé car sa femme est en voyage pour une semaine. Ceci prouvequ'il l'aime comme au premier jour. Structure (XIIIb) avec Ra = Explication et Rb = Commentaire La structure de discours pour (8) ne fait pas débat : dans le cadre de laRST, Egg (cp.) analyse aussi (8) comme (XIIIb) et reconnaît que cediscours constitue un contreexemple évident à l'applicationsystématique du Principe de Nucléarité.. En SDRT, Asher (cp.) analyse( 8) comme en (XIIIc), c'estàdire dans un graphe comportant descrochets autour de π 1, π 2 et de la flèche étiquetée R a.. Ces crochets signifient que (XIIIc) doit êtreinterprétée comme contenant un constituant complexe formé de la relationsubordonnante Ra et de ses deux arguments π 1 et π 2. Ceci n'est pas encore formalisé dans lathéorie, dans laquelle seuls existent des constituants complexes liéspar une relation coordonnante; la question de savoir quand une relationsubordonnante avec ses deux arguments forme un constituant complexe quipeut être argument d'une autre relation n'a pas été débattue. En résumé, ni RST ni SDRT ne peuvent bien rendre compte de la structurede (8) dans l'état actuel des connaissances. Ceci s'explique par le faitque (8) ne respecte pas les principes de base de ces théories quireposent sur la distinction entre relations coordonnantes( multinucléaires) et subordonnantes (nucleussatellite) et quiconsidèrent la relation Explication commesubordonnante et donc l'explication d'un fait comme un satellite demoindre importance que le fait expliqué. Or, en (8), l'explicationdonnée pour le bouleversement de Fred est primordiale pour pouvoirinterpréter la troisième phrase. En d'autres termes, pour que RST etSDRT puissent rendre compte de (8), ces théories doivent pouvoirdynamiquement attribuer à une explication un rôle aussi important quecelui du fait expliqué. Le seul formalisme pour lequel la structure de (8) ne pose pas deproblème est celui des DAG de dépendances, ce qui va de pair avec lefait que la distinction coordonnante/subordonnante n'impose pas decontraintes particulières dans ce formalisme. Les trois autres DAG arborescents avec une relation enchâssée subordonnante soulèvent les mêmes questions que( XIIIb). Nous ne les commenterons donc pas en détail et considéreronsque ces trois structures peuvent être réalisées dans des discours bienconstruits. Résumons la capacité générative forte de RST, SDRT et du formalisme des DAG dedépendances pour les discours de trois phrases dans l'ordre canonique. Il existe seize DAG de dépendances qui respectent les contraintes minimales C1 etC2 présentées dans la section 4. Sur ces seize DAG, RST – dans la version présentée dans la section 2 – n'enautorise que huit, correspondant aux structures (I)(VIII) des tableaux 1 et 2 ,qui peuvent toutes être réalisées dans des discours bien construits. Cettethéorie est cependant trop restrictive : elle exclut des structures qui peuventêtre réalisées dans des discours bien construits, comme détaillé cidessous. SDRT autorise sans problème les huit structures de discours permises en RST plusles deux structures (XI) et (XII). Ces structures peuventêtre réalisées dans des discours bien construits, voir (7). SDRT interdit les structures (IX) et (X) à cause de la contrainte de la frontièredroite. La question de savoir si la structure (IX) correspond à des discoursbien formés dépend (au moins) du statut que l'on donne aux liens anaphoriques( voir la discussion sur les exemples (4) et (5)) : doiventils être reflétés dansles structures de discours ou non ? Quant à la structure (X), elle sembledifficilement réalisable dans un discours bien construit (voir la discussion sur( 6)). S'il s'avère qu'effectivement la structure (X) n'est pas réalisable dansun discours bien construit, ceci constitue un argument fort pour la contraintede la frontière droite concernant l'attachement d'une information nouvelle, etpar là même, un argument fort contre le formalisme des DAG de dépendances qui nepeut pas exclure, dans l'état actuel, la structure (X). Il reste la structure (XIII) et les trois autres structures dans lesquelles unerelation subordonnante forme un constituant complexe. Ces structures peuventêtre réalisées dans des discours bien construits, voir (8). Seul le formalismedes DAG de dépendances les autorise. Une conclusion s'impose de ce résumé : aucun des trois formalismes étudiés – RST ,SDRT, et DAG de dépendances – ne semble avoir la capacité forte adéquate. Cesformalismes sont selon les cas trop restrictif ou trop puissant. Cetteconclusion peut paraître bien négative. Nous espérons cependant que notre étudeva permettre d'éclairer le débat sur les contraintes qui doivent peser sur lesstructures de discours. Au centre de ce débat, se trouve la distinction entrerelations de discours subordonnantes/coordonnantes : doit -on retenir cettedistinction ? Doit-on lui conférer un statut statique apriori – facile à mettre en œuvre – ou un statut dynamique (contextuel) –difficile à mettre en œuvre et qui risque de déboucher sur des cercles vicieux ? Que peut -on attendre de la capacité générative forte des trois formalismesétudiés pour des discours dans l'ordre canonique comportant plus de troisphrases ? Le même résultat que celui auquel nous avons abouti pour des discoursdans l'ordre canonique comportant trois phrases. En effet, les contraintes sonttrop restrictives en RST, pas assez pour les DAG de dépendances et nontotalement adéquates en SDRT, et ce, quel que soit le nombre de phrases. Parcontre, il existe une grosse inconnue : le nombre de structures de discours quipeuvent être réalisées dans des discours bien construits. Considérons lesdiscours dans l'ordre canonique avec quatre phrases. Il existe cinq arbres RSTnon-étiquetés et vingt-cinq DAG non-étiquetés qui respectent les contraintesC1 et C2 pour les discours de quatre phrases. Ceci donne lieu à quarante arbresRST étiquetés et deux cents DAG de dépendances étiquetés. Où se situe le nombrede discours bien construits entre quarante et deux cents ? Cette étude doit être prolongée par une étude des discours qui ne sont pas dansl'ordre canonique, entre autres des discours qui comportent des subordonnéesantéposées et/ou plusieurs connecteurs dans la même phrase . | RÉSUMÉ. Cet article se propose de comparer les structures de discours proposéesen RST, SDRT et dans les DAG de dépendances prolongeant le niveau sémantique deMTT pour le discours. Le point central est le suivant : estce que cesformalismes permettent de représenter toutes les structures de discours quicorrespondent à des discours bien construits et excluent toutes celles qui necorrespondent pas à des discours bien construits ? D'où le terme de « capacitégénérative forte », emprunté aux grammaires formelles . | scientext_ling_art_244_TAL_danlos_en_tete.xml |
termith-767-scientext | Depuis 2000, l'évaluation des systèmes de traduction automatique (TA) a pris uneimportance considérable au sein de la communauté des chercheurs en TA. Celaconcerne surtout la TA statistique de l'écrit et de l'oral, parce que lesméthodes d'évaluation utilisées sont dérivées de celles qui ont fait leurspreuves en reconnaissance de la parole. De nombreuses campagnes d'évaluationcompétitives ont été organisées, soit directement par les bailleurs de fonds( DARPA, UE, Académie des Sciences Chinoise), soit à leur incitation et avec leursupport (NIST, ELDA/ELRA pour la campagne CESTA), soit par des consortiums dansle cadre de projets coopératifs (CSTAR en 1999, projet NESPOLE ! en 2002 et 2003 ,CSTAR de nouveau avec IWSLT depuis 2004, TC-STAR1 en 2006). Il s'agit essentiellement de méthodes fondées sur des « références » ,c'est-à-dire sur des traductions produites par des experts humains : ellesconsistent à faire des calculs de distance ou de similarité entre lestraductions de référence et les traductions « candidates » produites par TA. Onfait certes un peu d'évaluation « subjective » de la « fluidité » et de «l'adéquation » (critères les plus courants), mais hors de tout contexteapplicatif réaliste. En particulier, on ne juge que des énoncés isolés, et pasl'ensemble d'un dialogue ou d'un texte. À part l'étude d'ATR, en 1999 sur la TAde dialogues oraux de réservation touristique (Sugaya etal., 2001), les évaluations sont faites uniquement sur les résultats de laTA et pas par rapport à la tâche, les deux principaux types de tâche étant ladiffusion de qualité d'une information, et la compréhension suffisante pouratteindre un but précis. Cette pratique permet de mesurer les progrès de systèmes construits parapprentissage à partir de corpus (TA statistique ou analogique, par exemple) ,mais seulement sur ces corpus, et seulement par rapport aux mesures utilisées .Or, on sait depuis au moins 2004 que les mesures objectives dominantes (BLEU ,NIST. ..) sont de plus en plus mal corrélées avec les mesures « subjectives »lorsque la qualité « subjective » augmente. Et on sait aussi depuis 1972, que laqualité « subjective » n'est pratiquement pas corrélée avec l'utilité perçue parles utilisateurs (les chercheurs atomistes d'Euratom à Ispra donnaient 18/20d'utilité à Systran russe - anglais, et les traducteurs experts lui donnaient2/20 de qualité linguistique). Ce phénomène est aussi décrit dans (Church et al., 1993). (Callison-Burch etal., 2006) donnent des arguments théoriques forts qui montrent que cesmesures ne peuvent pas être satisfaisantes. Enfin, dans le cas de la parole, ilest notoire que les transcriptions de monologues ou de dialogues interprétéssont jugées comme des traductions de très mauvaise qualité. Or l'interprétariatest très difficile, et bien payé, car son résultat est très utile : utilité etqualité linguistique ne sont pas bien corrélées. Cela a plusieurs conséquences dommageables. D'abord, il faut changer de mesurequand un système devient opérationnel. Ensuite, cela exclut des compétitions dessystèmes construits de façon « experte », peut-être excellents, mais non adaptésaux corpus de test (comme MÉTÉO ou MedSLT), ou supposant une certaineinteraction homme-machine. Enfin, les chercheurs visent à optimiser leurssystèmes pour les mesures (BLEU, NIST, etc.) utilisées par ces campagnes. Quandon passe à des énoncés du même domaine mais plus longs, ou plus « spontanés » àl'oral, les performances diminuent de façon catastrophique, comme on l'aconstaté lors de la campagne IWSLT-06 (résultats très inférieurs à ceux deIWSLT-05). Comment en est-on arrivé là, et que peut-on proposer pour améliorer la situation? Dans la première section, nous examinerons les pratiques et étudesantérieures. Des projets assez importants ont en effet été financés pourtravailler spécifiquement sur l'évaluation des systèmes de traitement deslangues naturelles et de TA. On mentionnera deux études de la JEIDA au Japon( 1992-93), et plus récemment les projets EAGLES et FEMTI en Europe, qui ontproduit des recommandations très intéressantes pour des évaluationsconstructives et raisonnées. Dans la seconde section, nous examineronsprécisément les méthodes d'évaluation « dominantes » actuelles, de façon àdégager les raisons théoriques et pratiques qui expliquent l'inadéquation desmesures actuelles. Nous utiliserons l'expérience acquise durant trois campagnesd'évaluation en TA de l'oral (projet NESPOLE !, IWSLT-04, IWSLT-06) pour montrerqu'il y a aussi de nombreux biais introduits par les conditions expérimentales .Dans la dernière section, nous proposerons l'abandon pur et simple des mesuresfondées sur les références, au moins en évaluationexterne, et l'adoption de mesures liées à la tâche, inspirées de cellesutilisées dans des systèmes opérationnels, adaptées aux contextes actuelsd'utilisation de la TA de l'écrit comme de l'oral, et intégrables à coûtmarginal nul dans les applications. Après un bref historique, nous analysons plus en détail les méthodes d'évaluation externe des systèmes de traductioneffectivement pratiquées, puis l'évolution vers la « méta-évaluation » et la «formalisation », qui s'est accompagnée d'un élargissement au TALN en général. L'histoire de l'évaluation en TA remonte à ses débuts. On dit parfois, enplaisantant à peine, qu'elle a donné lieu à plus de publications que la TAelle -même. On a toujours distingué entre évaluationsexternes, jugeant la qualité des résultats sur des critèreslinguistiques (grammaticalité, fidélité, etc.) ou sur des critères d'usage( productivité, coût), et évaluations internes ,jugeant la conception des systèmes (architecture linguistique etarchitecture calculatoire) et leurs perspectives d'amélioration etd'extension à de nouvelles langues, à de nouveaux types de documents, et àde nouvelles tâches (e.g. de l'assimilation à la dissémination). Fin 1966, le rapport ALPAC (ALPAC, 1966), fondé sur une évaluationcontestable et contestée des systèmes de TA d'alors - sauf curieusement laversion la plus récente du système le plus proche (le Georgetown AutomaticTranslation ou GAT) - eut une conséquence importante, l'arrêt presque totaldu financement de la recherche en TA aux USA pour près de 20 ans (jusqu' à1985), et par ricochet en Angleterre et au Japon, ce dernier pays y revenantvers 1980, à cause des besoins très importants en automatisation de latraduction liés à l'isolement du japonais, à sa difficulté, et à sonimportance commerciale grandissante. La TA opérationnelle continua cependant, et les systèmes russe-anglais GATpuis Systran furent régulièrement évalués (à la Wright-Patterson Air ForceBase et à Ispra, EURATOM) selon deux critères, la qualitélinguistique et l'utilité pratique, avec desrésultats totalement opposés : lors du séminaire organisé en 1972 à Austin ,Texas, on parlait de 2/20 (E) en qualité linguistique et de 18/20 (A) enutilité. En tout cas, le rapport ALPAC jeta les bases des protocolesd'évaluation subjective (reposant sur des jugements humains et non sur desmesures de performance en temps, ni sur des comparaisons automatiques avecdes références). Le Canada, l'URSS, la France et l'Allemagne continuèrent leurs recherchesmalgré le rapport ALPAC, quelques sociétés de TA émergèrent aux USA, lesplus connues étant Systran et Logos, et quelques recherches y persistèrent( à Berkeley sur le chinois-anglais, et à Austin grâce à des financements del'USAF puis de Siemens). En Europe, les besoins en traduction de la CEE justifièrent l'achat puis ledéveloppement de systèmes Systran à partir de 1976. Ce fut le début del'essor de l'évaluation de la TA en tant que domaine économique, puisscientifique. Plusieurs consultants et cabinets d'audit (bureau Van Slype, Omnium. .. )proposèrent de nombreuses mesures non liées à la tâche, mais à la qualité linguistique (fidélité, grammaticalité, parfoiscouverture) des résultats bruts et à la structure interne des systèmes, pourmesurer leur potentiel d'amélioration et le coût de cette amélioration( suites de tests, etc.). Ces mesures font essentiellement appel à desjugements subjectifs par des experts humains. Les chercheurs commencèrent aussi à s'y intéresser, surtout au Canada, àcause du projet TAUM-météo (1974-75) puis du projet TAUM-aviation (1976-81) .En effet, la mise en service opérationnel du système TAUM-météo, le 24 mai1977, fut accompagnée d'une mesure de la qualité liée à latâche, détaillée plus loin. Cependant, cette mesure ne fut pas «théorisée » à l'époque. Après la fin du programme Eurotra (1982-92), bien des chercheurs, n'ayantplus de financement pour continuer en TA, se convertirent à l'évaluation dela TA. L'histoire se scinde alors en deux volets divergents. D'une part ,depuis que la TA est utilisable et utilisée (sur PC et/ou par réseau) pardes traducteurs professionnels indépendants, la mesure du « temps gagné » ,essentiellement liée à la tâche, est très utilisée. D'assez nombreusespublications en témoignent2, mais elle n'est pas à la mode chez leschercheurs, car d'une part elle est trop simple (!), et d'autre part elle nes'applique par définition pas à des maquettes, prototypes, ou systèmesencore non opérationnels. De plus, les chercheurs ont raffiné à l'extrême les critères de qualitélinguistique, tout en cherchant des méthodes automatiques pour les évaluer ,de façon à arriver à des évaluations vues comme « scientifiques » et moinscoûteuses, car ne faisant pas appel à des juges humains. Avec l'avènement dela TA statistique (vers 1990), on a cherché des méthodes reposant sur lacomparaison automatique des traductions automatiques avec des traductionshumaines de référence, par analogie avec ce qu'on faisait (à juste titre etavec succès) pour la reconnaissance de parole. En 2002, IBM proposa laméthode BLEU, bientôt suivie de beaucoup d'autres (NIST en 2002, etc.) ,dites objectives. Malheureusement, l'espoir initial que ces mesures étaient bien corrélées à laqualité des traductions a été déçu : elles sont assez bien corrélées auxjugements humains de fluidité ou d'adéquation quand les traductions sontmauvaises ou très mauvaises (par rapport à ces critères), mais ne le sontplus du tout quand la qualité augmente, au point où d'excellentestraductions humaines sont jugées très mauvaises, et inférieures à destraductions automatiques quasiment incompréhensibles ! Il y a diversesraisons à cela, bien présentées en 2006 par (Callison-Burch et al., 2006), spécialistes en TA statistique. Seule WNM( Babych et al., 2004a) fait exception, mais elleest très peu utilisée. C'est pourquoi ces deux courants se rejoignent actuellement, avec la mise enœuvre dans le projet GALE d'une mesure liée à la tâche, HWER. Nousexpliquerons plus loin pourquoi, à notre avis, elle est biaisée (pour qu'onpuisse essayer de la « prédire » à partir de mesures comme BLEU), et parsuite inutilement compliquée, coûteuse, et de plus moins adéquate que letraditionnel « temps gagné » pour mesurer la qualité perçue par lesutilisateurs relativement aux tâches principales3, la compréhension, lacommunication et la production de traductions de haute qualité par deslocuteurs de la langue cible connaissant la langue source. Le premier effort d'évaluation ayant connu une large publicité (ALPAC ,1966) est resté célèbre. (Pankowicz, 1966), en charge du financement dela TA à l'USAF, rédigea un contre-rapport extrêmement percutant .( Hutchins, 2003) en a aussi fait une assez bonne synthèse. Le rapportALPAC est bref, 34 pages, il est complété par 20 annexes qui totalisent90 pages. En particulier, l'annexe 10 (ALPAC, 1966, pp. 67-75) rendcompte de l'évaluation conduite. Deux critères, largement repris par la suite, furent proposés pourévaluer une traduction, son intelligibilité, etsa fidélité. Ils sont indépendants, car unetraduction peut être intelligible et manquer de fidélité ou d'exactitude( précision), et inversement, elle peut être fidèle et manquerd'intelligibilité, bien que cela ne se produise que si le texte sourceest peu intelligible, comme dans le cas des brevets. L'intelligibilité de la traduction était évaluée sans référence à laphrase source. La fidélité était mesurée de façon indirecte : le jugedevait d'abord assimiler tous les éléments de sens présents dans latraduction, puis évaluer la phrase originale du point de vue de soninformativité par rapport à ce qu'il avait compris de la traduction .Ainsi, la phrase source est très informative par rapport à la traductionlorsque cette dernière n'est pas très fidèle, puisque la phrase sourcecontient plus d'information que la traduction. Durant les quatre ou cinq premières années d'exploitation de ce système ,spécialisé aux bulletins météorologiques (à l'exclusion des situationset des avertissements météo), J. Chandioux améliora les grammairessémantiques du sous - langage des bulletins météo anglais, la traductionse faisant vers le français. Lors de la postédition, les traducteurs nevoyaient que les phrases refusées par le système. La qualité étaitmesurée par (100-#opérations)/100 pour 100 mots traduits. Au départ, onen était à 45 % de corrections (le remplacement d'un mot coûtant deuxopérations, une suppression et une insertion), soit 55 % de qualité. En1985, on était arrivé à 85 % de qualité, et les traducteurs avaientdemandé et obtenu de réviser les traductions complètes. J. Chandioux réécrivit alors le système dans le langage GramR (versiondéterminisée des systèmes-q de Colmerauer). Enfin, il écrivit un systèmefrançais - anglais. La qualité des deux systèmes monta assez vite à 97 % ,toujours pour la même mesure. Depuis 1990 environ, MÉTÉO (Chandioux ,1988) a traduit environ vingt millions de mots par an d'anglais enfrançais, et dix millions de mots par an dans l'autre direction, aveccette qualité. L'impact du rapport ALPAC fut indéniable. En particulier, il conduisit àstopper la recherche en TA non seulement aux USA, mais aussi au Japon .Cependant, le besoin en TA, nié par le rapport ALPAC, était très réel auJapon. Après avoir réussi l'informatisation de leur langue, enparticulier grâce aux méthodes de saisie « kanakanji » ou «romaji-kanji » nécessitant de bons segmenteurs, de gros dictionnaires etmême des analyseurs locaux, les firmes informatiques japonaises seremirent à la TA dès 1978. Une trentaine de systèmes commerciaux virentle jour, en sus de systèmes internes orientés vers la recherche, mais detrès grande taille et opérationnels (MU du projet national japonais àl'université de Kyoto, ALT/JE de NTT, un autre à NKH, la télévisionjaponaise). Cependant, les systèmes commerciaux n'arrivèrent pas à unniveau de rentabilité commerciale satisfaisant. D'où l'intérêt de laJEIDA (Japanese Electronic Industry Development Association) pourl'évaluation. Les premiers travaux de la JEIDA devaient permettre de répondre à troisquestions. Quels sont les changements technologiques et sociaux dumarché de la TA depuis le rapport ALPAC ? À la lumière de ceschangements, les conclusions du rapport ALPAC sont-elles encore validesaujourd'hui ? Sinon, comment doit-on évaluer l'état actuel et le futurde la traduction automatique ? Sous la direction de H. Nomura, un grouped'experts commença par étudier les systèmes alors en usage dansdifférents pays et conduisit des enquêtes sur la demande en traductionau Japon, l'état de l'activité en traduction et l'utilisation dessystèmes de TA. Mais le rapport (JEIDA, 1989) n'apporta aucune réponseclaire aux questions initiales. La JEIDA commandita une seconde étude plus précise en 1991-92. Celafaisait dix ans que le premier système commercial de TA avait été missur le marché japonais, et environ trente systèmes étaientcommercialisés. Le rapport (JEIDA, 1992) présente une méthodologied'évaluation en trois volets : évaluation économique par lesutilisateurs, évaluation technique par les utilisateurs, et évaluationtechnique par les développeurs. Les mesures associées sont trèsdétaillées (quatorze axes, concernant la qualité linguistique ,l'ergonomie, le coût de portage à un nouveau domaine, l'utilité pour lestraducteurs, etc.). Pour chaque système commercial disponible au Japon ,le rapport donne un diagramme « radar » montrant les quatorze valeursobtenues. Une évaluation « à la JEIDA » est évidemment plus coûteuse que la mesurede productivité de TAUM-MÉTÉO, mais elle apporte bien plus derenseignements aux décideurs et aux développeurs. L'ARPA (AdvancedResearch Projects Agency, actuelle DARPA, agence militaire definancement de la recherche aux USA) envoya une mission d'experts auJapon en 1993 pour savoir où le Japon en était en TA, et était doncparfaitement au courant de la méthodologie de la JEIDA. Pourtant, ellene l'utilisa pas dans les campagnes qu'elle finança par la suite. Dans ces campagnes d'évaluation (White et al. ,1994), l'objectif fut en effet l'évaluation comparative de systèmescommerciaux et de systèmes de recherche utilisant différentesarchitectures linguistiques, et traduisant tous de diverses languessource vers l'anglais. Or, on ne peut pas mesurer un système de TA nonopérationnel selon la majorité des quatorze axes de la JEIDA. D'autrepart, il ne s'agissait pas que de TA, mais aussi d'aide à la traduction( THAM5). Enfin, dans le cadre du projet « MT proficiency Scale », lesseules tâches finalement considérées (Taylor etal., 1998, White et al., 2000) furent lacompréhension et ses variantes, en vue du renseignement (civil etmilitaire)6. Dans ce contexte, on utilisa deux critères proches de ceuxd'ALPAC, la compréhensibilité et la qualité de la traduction. Pour la première évaluation, un ensemble d'articles de presse traitant defusions et d'acquisitions financières fut collecté, puis traduit par destraducteurs professionnels vers les différentes langues source visées .On fit « retraduire » ces articles en anglais par les systèmes de TA, eton évalua ces traductions inverses. Ce processus est intrinsèquement inadéquat, car on ne peut pas considérerles textes en langue étrangère comme de vrais textes source, pourplusieurs raisons. La plus simple est que toute traduction augmente lalongueur d'un document (de 10 à 20 % selon le couple de langues). Uneautre est qu'elle appauvrit la variété du style et du vocabulaire parrapport à ceux du document source. La qualité de la traduction était basée sur unemesure utilisée par le gouvernement américain pour évaluer la compétencede traducteurs humains. Cette mesure s'avéra inopérante à cause de ladifférence en nature et en quantité des erreurs présentes dans lestraductions automatiques et dans les traductions humaines. Elle ne futpas retenue pour les évaluations suivantes. On la remplaça alors pardeux critères : adéquation et fluidité. La mesure d'adéquation est en quelque sorte inverse de celle d'ALPAC : ils'agit pour un juge anglophone de déterminer le degré auquel les «unités d'information » présentes dans une traduction professionnelle (etnon pas dans le texte source, puisqu'il a justement été produit à partirde l'anglais) peuvent être retrouvées dans la sortie d'un système de TA .Une « unité d'information » est un constituant syntaxique qui contientassez d'informations pour permettre une comparaison. Fluidité n'est pas synonyme de compréhensibilité : on demande seulementaux (mêmes) juges de déterminer si la traduction est rédigée dans unanglais convenable, même si son sens est incorrect ou obscur7, et sansvoir l'original ou une traduction de référence, pour que l'adéquation nerentre pas en ligne de compte. En pratique, on juge donc d'abord lafluidité, puis l'adéquation. La mesure de l'adéquation étant fondée sur la comparaison d'unetraduction professionnelle avec une traduction produite par un système ,( White et al., 1994) font les deux remarquessuivantes, toujours actuelles. La première est que la compétence dutraducteur humain responsable de la traduction interfère sans doute avecla validité de la mesure, la seconde dit que la mesure de fluiditérepose entièrement sur un jugement subjectif peu fiable, car le jugementhumain sur le caractère bien formé d'un énoncé peut varier, ce qu'ilsavaient constaté en faisant appel à plusieurs juges. On s'est alors mis à « évaluer les méthodes d'évaluation », ce qui a conduità des efforts de formalisation8, et d'extension à d'autres applications duTALN. Inversement, des méthodes d'évaluation développées pour la recherched'information et pour la reconnaissance de parole ont fait leur apparition. Nous situons l'époque de la maturité du domaine vers les années 1995, enparticulier avec le projet EAGLES dont les efforts pour formaliser etorganiser l'évaluation des systèmes de Traitement Automatique des LanguesNaturelles (TALN) furent poursuivis dans le cadre du projet ISLE. Le projet européen EAGLES (Expert Advisory Group on Language EngineeringStandards) chercha à créer des standards dans le domaine des industriesde la langue. Les domaines concernés dans sa première phase (1993-95 )furent les corpus, les lexiques, les formalismes grammaticaux et lesméthodes d'évaluation. La première idée de base fut qu'une stratégie unique d'évaluation nepouvait pas être développée, même pour un domaine d'applicationspécifique. Les auteurs du rapport (EAGLES-EWG, 1996) affirmèrent ainsiqu'il serait plus profitable de mesurer si une traduction est assez bonne pour unbesoin spécifique, plutôt que d'essayer de définir une notion ,nécessairement trop abstraite, de qualité d'une traduction en général. C'est dire que la qualitéd'un système dépend fortement de son usage et de ses utilisateurspotentiels. La seconde idée de base fut qu'il était nécessaire et possible deproposer un cadre général qui permettrait de définir rapidement et defaçon cohérente des évaluations particulières adaptées à chaqueapplication dans son ou ses contextes bien identifiés. Influencé par lestravaux précédents, et en particulier par le standard ISO/IEC 9126( King, 2003), le groupe de travail sur l'évaluation proposa un « modèlede qualité » pour les systèmes de TALN en général. Ce modèle estorganisé en une hiérarchie de propriétés et d'attributs dont lesfeuilles sont des attributs mesurables auxquels sont associées desméthodes de mesure. Il a été validé sur différentes familles desystèmes, dont les correcteurs grammaticaux (EAGLESEWG, 1996, Annexe D ,p. 116) et les aides aux traducteurs humains (id. Annexe E, p. 136). La seconde phase du projet (1995-1996) (EAGLES-EWG, 1999) fut consacrée àla consolidation des résultats concernant les correcteurs grammaticaux[ id. section 5. 1, p. 60 ], les correcteurs orthographiques [id. section5.2, p. 76] et les mémoires de traduction [id. section 5.4, p. 106]), età la dissémination de la proposition. Les activités du groupe de travail sur l'évaluation du projet EAGLES sepoursuivirent dans le cadre du projet ISLE9 (International Standards forLanguage Engineering, 1999-2002) financé par l'Europe et par les USA( NSF). Les efforts portèrent sur l'évaluation des systèmes de traductionautomatique et donnèrent lieu à une série d'ateliers10 et à laproposition FEMTI (Framework for the Evaluation of MT in ISLE) (Hovy et al., 2002). FEMTI propose : – une classification des caractéristiques principales définissant uncontexte d'usage : type d'utilisateur(s), type de tâche(s), type desdonnées d'entrée; – une classification des caractéristiques de qualité des systèmes, dansune hiérarchie organisée en sous-catégories dotées, au niveau desfeuilles, d'attributs internes et/ou externes (avec leurs métriques), etdont les niveaux supérieurs coïncident avec les caractéristiquesdéfinies dans le standard ISO/IEC 9126 (ISO/IEC, 2001); – une correspondance entre ces deux classifications, permettant detrouver les caractéristiques et sous-caractéristiques de qualitéadaptées à chaque contexte d'usage, ainsi que les attributs et métriquesassociés. La méthodologie FEMTI est destinée à aider plusieurs catégories depersonnes : – les utilisateurs potentiels de TA peuvent définir les caractéristiquesles plus importantes pour eux, et choisir le système le mieux adapté à leursbesoins; – les utilisateurs potentiels et les développeurs désirantcomparer plusieurs systèmes de TA peuvent choisir les caractéristiques les plus proches deleur situation, et déterminer les mesures d'évaluation et les tests pertinents; – les développeurs de systèmes de TA peuvent identifier les besoins des utilisateurs et trouver des niches pour leurs applications. Dans les campagnes actuelles, on distingue deux classes de méthodes d'évaluation .Pour la première classe, l'évaluation est réalisée par des juges humains quidoivent donner des notes (scores) en répondant à des questions. Le résultat del'évaluation donne alors une évaluation concrète directement interprétable, parexemple « bon » ou « mauvais ». On parle d'évaluationsubjective car ce sont des jugements de qualité pour lesquels ontobserve des accords imparfaits entre juges et de mauvais accords pour un mêmejuge au cours du temps. Dans les méthodes de la seconde classe, les notes sont calculées par un programmeinformatique qui produit un résultat numérique à partir des traductions deréférence et des traductions candidates fournies en entrée. On parle alors d'évaluation objective, car les mêmes entrées reçoiventtoujours les mêmes notes. En 2003, le NIST a proposé un protocole d'évaluation subjective (évaluationconduite par des juges humains) fondé sur les critères ARPA. Des juges monolingues notent des traductions candidates selondeux critères : leur fluidité et leur adéquation par rapport à une traduction de référence. Les consignes d'évaluation du NIST11 indiquent que la fluidité est ledegré de bonne formation linguistique de l'énoncé du point de vue desrègles de l'anglais écrit standard. Un segment est bien formé si : – il respecte la grammaire usuelle; – il contient des mots correctement orthographiés (morphologie); – il respecte l'usage commun du vocabulaire, des titres et des noms; –il est intuitivement acceptable; – il peut être raisonnablement interprété par un locuteur natif del'anglais. La fluidité d'un énoncé s'évalue sur une échelle de cinq valeurs (Table1). L'adéquation d'un énoncé est définie comme suit : « Après avoir faitl'évaluation de fluidité, le juge peut voir l'une des traductions deréférence. En comparant la traduction candidate en langue cible avec laréférence, il détermine si la traduction est adéquate. L'adéquationconcerne le degré auquel les informations présentes dans l'original 12sont bien transmises par la traduction. Ainsi, pour l'adéquation, latraduction de référence tient le rôle de la source. » Les juges répondent, sur une échelle de cinq valeurs, à la question :quelle proportion du sens exprimé dans la référence est aussi présentedans la traduction ? Note Fluidité Adéquation (réponse) (définition) 5 Anglais sans Tout défaut 4 Bon anglais Presque tout 3 Anglais non Beaucoup natif 2 Anglais non Peu standard 1 Incompréhensible Aucun Table 1. Notes NIST pour la fluidité et l'adéquation Le projet NESPOLE ! (Lavie et al., 2006) met ensituation de dialogue un agent touristique italophone, et un clientaméricanophone, francophone ou germanophone. La traduction se faitvia un pivot sémantique appelé IFconstruit pour la tâche13. Les scénarios ont été définis grâce à descollectes de données à partir de situations réelles avec de vraisagents touristiques. Nous avons réalisé deux démonstrateurs : lepremier en « tourisme réduit » (2001), le second en « tourismeétendu » (2002). Nous avons conduit une évaluation subjective des deux démonstrateurspour mesurer à la fois leurs performances brutes, ainsi que lesprogrès accomplis entre le premier (Rossato etal., 2002) et le second (Blanchon, 2004; Blanchon et al., 2004a). Pour le seconddémonstrateur, nous avons évalué la préservation du sens14, pour lespaires de langues français-italien (tours de parole d'un client) etitalien - français (tours de parole d'un agent de voyage), enutilisant une échelle de notation à quatre valeurs qui permet dedéfinir trois catégories15, et des juges bilingues recrutés endernière année d'école de traduction, que nous avons formés pour latâche16. Dans le cadre de la tâche d'évaluation proprement dite, les jugesdisposaient de deux copies d'un même fichier de données témoins. Ilsdevaient évaluer ce fichier avant et après l'évaluation des fichiersde données proprement dits. Cela nous a permis de mesurer, (1 )l'accord entre les juges avant et après l'évaluation effective, et( 2) la stabilité du jugement de chacun au cours du temps. Table 2. Accord entre juges (en %) Table 3. Stabilité des juges (en %) Pour mesurer l'accord des juges (Table 2), nous distinguons troiscatégories : les juges ont le même jugement (unanimité, U), les juges s'accordent sur deux jugementsqui sont dans la même catégorie (vote majoritaire, VM), les juges ne s'accordent pas sur la même catégorie( pas de vote majoritaire, " VM). Pour mesurer lastabilité de chacun des juges dans le temps (Table 3), nous avonsaussi trois catégories : le juge fait le même jugement (stabilité ,S), le juge fait deux jugements différentsqui restent dans la même catégorie (semi-stabilité, - S), le juge fait deux jugements différents qui ne sontpas dans la même catégorie (non stabilité, " S) .Nous avons observé que les juges sont bien plus sévères dans leurseconde évaluation des données témoins, à part le juge 5 (J5) quiest stable. Nous avons calculé les coefficients Gamma et Kappa pour les deuxgroupes de juges avant et après la tâche. Les coefficients Gammasont très proches de 1, ce qui indique que les juges sont cohérentssur l'ordre entre les notes. En ce qui concerne les scores Kappa ,les deux groupes sont différents. Dans le groupe italien, les jugesJ4 et J6 ont un excellent accord avant et après l'évaluation. Ilssont devenus plus sévères de la même manière J5 reste consistant .Dans le groupe français, la situation est moins tranchée : le scoreKappa diminue aussi pour le groupe, mais les accords entre jugesfluctuent. comprendre), GOOD (toutes les informations importantes sontprésentes), BAD (une ou plusieurs informations importantes ont étéomises), VERY BAD (les informations importantes sont presque toutesabsentes). Les deux premières valeurs sont aussi additionnées pourformer la catégorie ACCEPTABLE, au côté de BAD et VERY BAD. 16 Nous disposions de trois juges français pour la paireitalien-français, et de trois juges italiens pour la pairefrançais-italien. Nous leur fournîmes une fiche d'instructionexpliquant les objectifs de l'évaluation et la notation, ainsi qu'unfichier d'entraînement préalablement évalué par les experts duprojet. Chaque juge l'évalua, puis nous révélâmes les notesattendues, et discutâmes avec les juges des divergences observéesafin que, durant l'expérience, ils évaluent de façon conforme auxattentes. En 2004, les partenaires du consortium C-STAR III montèrent lapremière campagne d'évaluation compétitive IWSLT, sur la base ducorpus BTEC (Akiba et al., 2004). Les couples de langues étaientjaponais-anglais (deux conditions expérimentales) et chinois-anglais( trois conditions). Pour l'évaluation, deux ensembles disjoints dephrases chinoises et japonaises furent proposés aux compétiteurs .L'évaluation subjective suivit le protocole du NIST (fluidité ,adéquation). Pour l'évaluation objective, on utilisa les mesures 17BLEU, NIST, GMT, mWER et mPER, pour lesquelles seize paraphrases enanglais étaient disponibles. En tant que partenaire du consortium non impliqué dans ledéveloppement d'un système de traduction japonais-anglais oujaponais-chinois, nous avons participé à cette évaluation pourgarantir une évaluation plus juste des systèmes commerciaux( Blanchon et al., 2004c). Nous avonschoisi Systran, car les deux paires de langues étaient disponibleset avaient récemment été améliorées, bien que les efforts de Systranaient plus porté sur les couples anglais-chinois et anglaisjaponais. Systran avait mis à notre disposition la dernière versionPremium Professional (v5). Pour l'évaluation subjective, chaque jeu de traductions candidatesd'un système a été évalué par trois juges 18 de langue maternelleanglaise. Chacun avait uniquement à sa disposition les instructionsstandard du protocole NIST. Nous avons recalculé les coefficientsGamma et Kappa pour les deux groupes de juges. Les coefficientsGamma sont supérieurs à 0,6 : les juges sont donc d'accord surl'ordre relatif des notes. Avant de calculer les coefficients Kappa, nous avons vérifiél'hypothèse des effectifs marginaux équilibrés pour chaque paire delangues. Pour chacune des deux évaluations en fluidité, il apparaîtqu'un des juges utilise la note 2 dans 46 % des cas, et pas les deuxautres juges. Pour ces deux évaluations, on ne peut donc pasinterpréter la valeur du coefficient Kappa global. Pour les deux évaluations d'adéquation, nous n'avons pas observé dedifférence significative pour les effectifs marginaux. Lescoefficients Kappa deux à deux sont compris entre 0,19 et 0,38 .L'accord entre les juges est donc modéré. Les valeurs du coefficientKappa de chacun des deux groupes d'évaluateurs sont 0,309 pour lapaire chinois-anglais, et 0,318 pour la paire japonais-anglais .L'accord entre les trois juges de chaque groupe est donc modéré. Ces deux expériences montrent que l'on peut probablement avoir uneconfiance plus grande dans les résultats d'une évaluation subjectivedans laquelle les juges ont été formés. Il nous semble aussi trèsintéressant de fournir aux juges un même jeu de données témoins afinde pouvoir mesurer, d'une part, comment ils se comportent les unsvis-à-vis des autres et, d'autre part, comment chacun se comporte aucours du temps. Nous avons vu avec l'expérience NESPOLE ! que lesjuges deviennent de plus en plus sévères quand le temps passe. Ilfaudrait donc que l'évaluation objective se déroule dans desconditions qui permettent qu'ils jugent avec une sévérité constante. Lors de l'évaluation IWSLT-04, l'évaluation respectait complètementle protocole NIST : pour une traduction candidate, on évaluait enséquence sa fluidité, puis son adéquation. Lors des évaluationsISWLT-05 et 06, les juges évaluaient d'abord la fluidité de chaquetraduction candidate, puis, pour un énoncé source, ils devaientévaluer en même temps toutes les traductions candidates fournies parles différents système de TA, par rapport à la même traduction deréférence. Dans la pratique, nous avons observé en 2005 que lesjuges cherchaient à ordonner les différentes traductions candidates ,tâche très difficile, fatigante et consommatrice de temps. Pourl'évaluation de 2006, les évaluateurs fournis par notre groupe ontrespecté le protocole NIST standard et ont mis quatre à cinq foismoins de temps ! La première méthode d'évaluation objective proposée fondée sur des référencesfut la distance d'édition sur les mots. Cette méthode, empruntée au domainede la reconnaissance de la parole, est connue sous le nom de « taux d'erreuren mots » (Word Error Rate, WER). Le WER initial est la classique distanced'édition au niveau des mots (Levenshtein, 1966), normalisée par rapport àla longueur. On la calcule par l'algorithme de (Wagner etal., 1974). De nombreuses variations ont été proposées etimplémentées depuis (Leusch et al., 2003, Nießen et al., 2000, Och et al., 2002, Tomás et al. ,2003). Il est intéressant de présenter plus en détail les méthodes d'évaluationobjective, fondées sur des références et reposant sur la co-occurrence den-grammes, récemment proposées et très utilisées. La méthode BLEU (BiLingual Evaluation Understudy) a été introduite par( Papineni et al., 2002). Elle mesure lasimilarité entre une traduction candidate et une ou plusieurstraductions de référence. Cette comparaison s'appuie sur une mesure deprécision modifiée pondérée par une éventuelle pénalité. Pour chaque n -gramme (1<n<4) d'une traduction candidate, on compte son nombremaximum d'occurrences dans chaque traduction de référence (max_ref_count) en le minorant par son nombred'occurrences dans la traduction candidate (count). On divise ensuite le nombre obtenu (Count clip = min (count, max_ref_count)) par le nombre de n-grammes de latraduction candidate (Équation 1). Le score p n (pour un n-gramme) évalue la co-occurrence detous les n-grammes au niveau de tout le corpus plutôt qu'énoncé parénoncé, pour éviter de prendre en compte la longueur de chaque phrase .Les intuitions proposées sont (1) que p 1 (cooccurrence de mots) est reliée àl'adéquation, et (2) que p n, pour n>1 (co-occurrence de suites de nmots), est reliée à la fluidité. Ainsi, plus on retrouve de motsprésents dans la/les traduction(s) de référence(s), mieux le sensdevrait être transmis; et plus on retrouve de suites de mots, plus letexte devrait être grammatical. La troisième intuition est que la traduction candidate ne doit être nitrop longue, ni trop courte. Les traductions candidates plus longues queles traductions de référence sont déjà pénalisées par la mesure deprécision. Il faut alors pénaliser les traductions trop courtes qui fontaugmenter la précision. Une pénalité pour brièveté est alors calculéesur tout le corpus, d'où l' Équation 2, où 1 c 1 est la longueur totaledu corpus de traductions candidates et 1 r 1 est la somme des longueursdes traductions de référence qui sont les plus proches de celle de leurtraduction candidate. (Doddington, 2002) soulève deux problèmes liés au calcul de BLEU : – BLEU fait une moyenne géométrique de la participation desco-occurrences de n-grammes (même poids 1/N pour chaque n). Ainsi, laparticipation des longs n-grammes (moins nombreux) est surévaluée parrapport à celle des n-grammes courts (plus nombreux). (id.) propose d'yremédier en utilisant une moyenne arithmétique (utilisant le nombred'appariements sur chaque classe de n-grammes). – BLEU donne le même poids à tous les n-grammes, alors qu'il seraitpréférable d'alourdir les n-grammes les plus informatifs. Finalement, (id.) introduit une mesure de précision pondérée (w n) sur les n - grammes pour une traductioncandidate par rapport à un ensemble de traductions de référence, et unenouvelle pénalité de brièveté (BP NIST) destinée à réduire l'impact des petitesvariations dans la longueur de la traduction candidate par rapport auxtraductions de référence. Dans le même esprit, (Babych et al., 2004a) fontremarquer que les mots d'un texte ont des poids informationnelsdifférents et que par conséquent leur importance pour la traductionvarie. Ainsi, pour évaluer l'adéquation d'une traduction candidate, lechoix des équivalents traductionnels de ces mots importants devraitavoir plus de poids que le choix des mots utilisés à finalitéstructurale et sans équivalent traductionnel précis dans le textesource. Ils proposent alors la mesure WNM (Weighted N-Gram Model), quitient compte de la saillance (« salience ») de chaque mot dans le calculde la précision. WNM est calculé en utilisant la mesure classiqueTF.IDF, et le S-score, défini dans (Babych etal., 2004b). Beaucoup d'autres mesures d'évaluation objective fondée sur desréférences ont été proposées. Faute de place, nous renvoyons le lecteurintéressé aux sources suivantes : (Banerjee etal., 2005) pour METEOR, (Lin et al., 2004a )pour ROUGE, (Lin et al., 2004b) pour ORANGE, et à( Soricut et al., 2004) pour une synthèse. Enfin, (Hamon et al., 2006b, Rajman et al., 2001) proposent des mesures objectives( X-Score et D-Score), non fondées sur des références, qui visent àprévoir le classement de différents systèmes qu'on obtiendrait par lesmesures subjectives de fluidité, d'adéquation et d'informativité (cellesde la DARPA dans les années 90). Ces mesures ont été essayées dans lacampagne CESTA (Hamon et al., 2006a). D'après lesauteurs, il faudrait des études plus détaillées pour les valider. Dans le cadre de la campagne d'évaluation IWSLT-04, 4 systèmes( anonymisés JE_1, JE_3, JE_4) ont participé à la condition «japonais-anglais, illimitée ». Systran se classe 4e en évaluationsubjective et objective (ligne J_3, Table 4 )face à trois systèmes statistiques. Nous avons révisé manuellement les traductions produites par lesystème afin de produire des traductions acceptables en minimisantle nombre de modifications. Sur les cinq cents traductionscandidates, seules cinquante n'ont pas été modifiées (10 %). Cenouveau jeu de traductions, jugées parfaites, a été évalué avec les mesures objectives, et il se classe 3e derrière deux systèmes detraduction statistique (ligne J_4, Table 4 )donnant assez souvent de très mauvaises traductions ! Table 4. Évaluation objective des systèmesjaponais-anglais pour IWSLT-2004 Cette expérience montre d'une part que des traductions humaines «parfaites » obtiennent des scores qui ne sont pas excellents. Celanous a permis de rappeler à la communauté (dès 2004) que lesméthodes d'évaluation objective n'évaluent pas la qualité des traductions19 soumises à évaluation, mais laressemblance des traductions candidatesavec les traductions de référence. Lorsque la ressemblance estparfaite, la traduction candidate est parfaite (sous réserve que latraduction de référence le soit !). Lorsque la ressemblance n'estpas parfaite, il nous semble que l'on ne peut rien dire du tout, sil'on ne voit pas les traductions produites. Cette expérience montreaussi qu'il est injuste de comparer des systèmes qui ne peuvent êtreajustés au corpus d'entraînement à des systèmes construits pour eux. Les données japonaises peuvent être considérées comme destranscriptions « propres » de tours de parole, extraits de leurcontexte dans le domaine du tourisme. Le niveau de langue est plutôtpoli. Certains tours de parole sont incompréhensibles sans contexte (- W h~~1o⇓ « it cuts » ?). Lorsque le sujet de la première personne estomis en japonais, il est toujours traduit par « it » (~~C~h~~o⇓ « It gets off here. » 20) .Dans les traductions, le pronom ou l'adverbe interrogatif est toujours placéen fin de traduction. L'ordre standard des mots en anglais n'estdonc pas respecté (~ ~7~6 ~~C~~o ⇓ « Is the opera house where ? » 21). Aucune des expressions orales de la vie quotidienne n'est dans lesdictionnaires Systran (~ 5 ~ fc L ~ L-C. ⇓ « How doing. » 22). Lesrequêtes et les invitations ne sont pas toujours bien traduites (~~~~-Lx - ~ L x 5. ⇓ « It will gotogether. » 23). Quand la valence du verbe pour deux expressions en japonais et enanglais est différente, la traduction est presque toujours mauvaise (~Xt ~~. ⇓ «Chill does. » 24). Enfin, l'aspect des prédicats japonais n'est pas renducorrectement en anglais (~~~~~~~~-C L~~~Lfc.⇓ « The air ticket was forgotten in the house. » 25). Le premier problème est que les nombres produits par les techniquesd'évaluation objective ne sont pas directement liés à la qualité dela traduction. Beaucoup de travaux ont été conduits en vue decorréler des résultats d'évaluations objectives avec des résultatsd'évaluations subjectives, mais les résultats sont souventinconsistants. BLEU est supposé bien corrélé avec des évaluationshumaines de qualité de traduction, NIST a été proposé pour donnerdes résultats meilleurs pour des raisons théoriques, mais BLEU etNIST donnent des résultats contradictoires. Ainsi, si la corrélationavec des jugements humains est une mesure de qualité de cestechniques, alors NIST ne peut être meilleur que BLEU. .. or lacorrélation est trop faible pour vouloir dire quelque chose. (Culy et al., 2003) développaient déjà le mêmetype d'argument. Plus récemment, (Callison-Burch et al., 2006) ont montré que (1) BLEU n'est pas suffisantpour mettre en évidence une vraie amélioration dans la qualité de latraduction, et (2) qu'il n'est pas nécessaire d'améliorer le scoreBLEU pour obtenir un meilleur jugement de la qualité de latraduction par des évaluateurs humains. Ces phénomènes sont liés aufait que BLEU ne contraint pas l'ordre dans lequel les n - grammess'apparient, ni l'appariement des n-grammes sur des référencesmultiples. Ces remarques s'appliquent aussi aux travaux etpropositions de Lin, Soricut et Banerjee. À la lumière de cesconclusions, il faut donc peut-être réexaminer des travaux danslesquels des propositions d'amélioration de la qualité destraductions n'ont pas permis d'améliorer le score BLEU. Dans le cadre du projet GALE 26 (Global Autonomous Language Exploitation) ,visant la transcription de messages oraux et leur traduction, le NIST, sous l'impulsion de Joseph Olive, met en œuvre la mesure HTER (Human-targetedTranslation Error Rate) (Przybocki et al., 2006) .Comme la classique distance d'édition TER (Translation Error Rate )( Snover et al., 2006), c'est le coût minimumd'une suite d'opérations d'édition permettant de transformer une traductioncandidate en une traduction de qualité suffisante pour une certaine tâche .L'originalité est que les opérations d'édition usuelles, à savoirl'insertion, la suppression, et la permutation, s'appliquent non seulement àdes mots, mais à des séquences de mots. GALE met en œuvre cette mesure dans le protocole suivant. Pour évaluer unsystème, on part d'un ensemble d'énoncés en langue source, detraductions candidates à évaluer, et d'une ou plusieurs traductions deréférence en langue cible, produites par des traducteurs. Des réviseurs monolingues éditent les traductionscandidates pour les rendre fluides et pour que leur contenu soitconforme à une traduction de référence. Au lieu de simplement faire postéditer une traduction candidate une foispar un traducteur humain, et de mesurer le TER ,comme pour MÉTÉO, le NIST a imaginé un protocole beaucoup plus coûteux ,sans doute moins adéquat pour mesurer l'utilité, mais minimisant lerecours à des traducteurs et/ou évaluateurs bilingues. Le processusd'évaluation se déroule en trois étapes. Lors de la première étape, trois réviseursmonolingues postéditent, pour chacun des énoncés, la mêmetraduction candidate (trads), en s'appuyant sur une traduction deréférence (refs), pour la rendre fluide et adéquate. Ils produisenttrois traductions candidates postéditées (post-éds), à partir desquelles on calcule unscore TER. Lors de la deuxième étape, deux nouveaux réviseursmonolingues postéditent deux ensembles de traductions candidates postéditées, toujours en s'aidant d'unetraduction de référence. Le premier ensemble est constitué destraductions postéditées ayant le meilleur score TER (min étape 1). Ledeuxième est constitué des traductions postéditées ayant le score TERintermédiaire (med étape 1). On obtient ainsi deux jeux de traductions candidates post - postéditées (post2-éds). Un second score TER est alors calculé en utilisant lestraductions candidates et les traductions candidatespost - postéditées. La troisième étape permet d'obtenir des traductionspostéditées finales en conservant, pour chaque énoncé, la traduction candidate post - postéditée ayant eu lemeilleur score TER lors de la seconde étape (min étape 2). On peut alorscalculer le score HTER final du système. Traduction automatique 53 Figure 1. Mise en œuvre du protocole HTER 28 La postédition des traductions candidates n'est pas une idée nouvelle ,nous la reproposions déjà en 2004 (Blanchon etal., 2004b). Cependant, dans la mise en œuvre du NIST, un ouplusieurs traducteurs bilingues doivent d'abord produire des traductionsde référence. Au lieu de faire cela, ils pourraient directementpostéditer les traductions candidates, évitant ainsi de faire appel àdes réviseurs. Notre proposition serait donc de faire une mesure bien moins onéreuse, etplus proche d'une vraie mesure d'usage, en demandant à des postéditeursde produire, au moindre effort, des traductions correctes à partir destraductions candidates. Le travail fourni, estimé en temps ou enopérations d'édition observées, donnerait une meilleure appréciation dela qualité d'usage (utilisabilité ici) du système de TA évalué. Aveccette approche, des traductions humaines de qualité ne nécessiteraientaucun travail de postédition et seraient donc jugées parfaites. Il faut aussi noter que les différentes étapes du protocole HTER de GALErisquent de poser des problèmes pour l'évaluation de la traduction d'untexte homogène cohérent. En effet, les postéditeurs du premier groupepeuvent faire des choix différents lors de l'édition, par exemple pourle traitement de la référence. Les postéditeurs du second grouperisquent d'avoir à traiter un document incohérent. Pourquoi un protocole aussi compliqué ? Il semble que ce soit pouressayer d'utiliser BLEU afin de prévoir le plus tôt possible les scoresHTER, plus longs à obtenir. En effet, les financements sont de type « GoNo Go », et les participants veulent savoir s'ils ont des chances devoir leurs financements se poursuivre. Nous nous intéressons ici essentiellement à l'évaluationexterne des systèmes de TA. Nous avons dit que, dans ce typed'évaluation, on n'analyse pas l'architecture linguistique et calculatoire dusystème. Cependant, on peut et on doit s'intéresser à la couverture lexicale dessystèmes construits de façon « experte ». La taille des dictionnaires est eneffet une information toujours donnée par les vendeurs de systèmes de TA. Pourles systèmes construits de façon « empirique », il faut sans doute inclure lataille du corpus parallèle utilisé. L'évaluation interne est bien sûr très intéressante, pourles développeurs ainsi que pour des décideurs intéressés par le potentiel dessystèmes, et les méthodes proposées (JEIDA, FEMTI, etc.) sont très bonnes. Maiselles ne fournissent pas de comparaisons très précises et objectives entre lessystèmes, et sont en général très coûteuses, donc ne sont pas utilisées dans lescampagnes actuelles. Nous avons analysé ci-dessus les défauts inhérents aux méthodes d'évaluation externe, et un certain nombre de biais introduits dansles conditions expérimentales dans le but de diminuer les coûts. Que peut-ondonc proposer pour améliorer la pertinence des évaluationsexternes de systèmes de TA et diminuer leur coût ? Nous proposons d'abord un classement (une « typologie ») simple des mesuresexternes, avec comme critère principal la présence ou l'absence de liaison avecune tâche réaliste. Dans ce cadre, nous proposons ensuite les mesures liées à latâche qui nous semblent les plus pertinentes, en indiquant comment diminuer leurcoût, ou annuler leur coût en les intégrant à l'utilisation normale dessystèmes. La diffusion et la compréhension sont les deux tâches principales en TA de l'écrit ,alors que pour l'oral la diffusion est remplacée par la communication. Le même système sera en général évalué différemment selon qu'on se place ducôté du producteur de l'information, qui projette son « image » et doitle faire avec un haut niveau de qualité, ou du côté du consommateur, quicherche à comprendre une information ou à communiquer en langueétrangère. En diffusion de l'écrit, les tâches typiquessont le thème et la version de haute qualité. Par exemple, on veuttraduire une documentation technique, ou un appel d'offres européen ,en trente ou quarante langues. Ou encore, on veut traduire dans salangue des brevets ou des contrats rédigés en langue étrangère. Lafidélité de la traduction est alors cruciale, le choix des termesest très important, la correction grammaticale est de rigueur, et lestyle doit être adéquat. Il s'agit donc de produire des traductionsde qualité professionnelle. Un système de TA est alors utilisé par des traducteurs, quipostéditent ses résultats, et éventuellement par des rédacteurs (casd'un système de TA avec désambiguïsation interactive comme JETS( Maruyama et al., 1990), Taifun ouTsunami). Les mesures associées à cette tâche sont donc ladiminution du coût (en travail humain) et des délais. En communication orale, la tâche typique estd'aider deux personnes à conduire un dialogue bilingue pouraccomplir une tâche. Les tâches de compréhension de l'écrit et del'oral sont différentes, mais on peut dire qu'il est toujoursplus difficile de construire un système très utile pour lacompréhension que pour la diffusion ou la communication. C'est lecontraire de ce qu'on pensait au début de la TA, mais c'est vrai. Eneffet, pour la diffusion (écrit), les défauts du système sontlargement compensés, en usage, par la compétence bilingue despostéditeurs, ou par la connaissance du domaine. De même, pour lacommunication (cas de dialogues bilingues), ces défauts sontcompensés par la volonté des interlocuteurs de se comprendre. En compréhension de l'écrit, les tâchestypiques sont la traduction de pages Web, de journaux, de servicesde e-commerce, pour que les utilisateurs finals puissent comprendrede l'information en langue étrangère et agir en conséquence. Lesmesures adaptées sont soit objectives29 (nombre d'actes d'achat parpage visitée en e-commerce, temps passé par page en lecture dejournaux. ..), soit subjectives (retours des utilisateurs, réponses àdes enquêtes de satisfaction. ..). En compréhension orale, la tâche typique estde suivre un monologue (discours au Parlement, etc.) ou un dialogueen langue étrangère (télévision, renseignements), ou, par exemple ,de suivre des nouvelles en arabe à la télévision (démonstrationrécente d'IBM). On ne peut pas « corriger un premier jet », il fauttraduire à la volée, avec un décalage très faible, même eninterprétariat de liaison. Par conséquent, toute mesure liée à la tâche doit comparer laperformance d'un système à celle d'un interprète humain. Il estpeut-être possible de faire une telle évaluation sur latranscription écrite du discours source et de sa traduction, mais ilest probable que cela introduirait des biais. Il faut donc juger le taux de compréhension. Pour cela, il existe desmesures objectives (temps passé pour accomplir la tâche, QCM30 surle contenu. ..), comme celle d'ATR (Sugaya etal., 2001), et des mesures subjectives (sentiment decompréhension, jugement de fluidité). Les mesures externes liées à des références nesont, par nature, liées à aucune tâche réaliste, tout au moins si onutilise les références plusieurs fois, ce qui est leur principalintérêt d'après leurs partisans. En effet, traduire et retraduire uncorpus de test muni de références ne correspond à aucun besoin et àaucun marché : une seule bonne traduction suffit. Si un segment déjàtraduit doit ultérieurement être traduit, il vaut évidemment mieuxle traduire par sa traduction (éventuellement postéditée) stockéedans une mémoire de traduction que le retraduire par TA. Les mesures objectives liées à des références sont les plus utilisées actuellement (NIST, BLEU, METEOR, WER. ..) .La plupart font des calculs sur les n-grammes de mots (n<4) .Certaines, comme WNM, travaillent à des niveaux linguistiques plusriches. Les mesures subjectives liées à des références sont l'adéquation « à la NIST », utilisée dans les campagnesactuelles, ou l'informativité « à la ALPAC », ou la fidélité « à laJEIDA ». En revanche, la fluidité n'est pas à ranger ici, car on n'apas besoin de références pour la mesurer. Les mesures externes objectives non liées à desréférences sont d'abord des mesures de coût. Le coût en temps et en espace n'est pas du toutle même selon les systèmes, mais, même pour les systèmesstatistiques, on arrive maintenant à des temps raisonnables sur desserveurs puissants. On cherche plutôt à voir si les systèmes testéspeuvent être utilisés sur PDA, et bientôt sur des mobiles. Il s'agit ensuite de l'évaluation du coût depréparation d'un système. Dans le cas des systèmesstatistiques, le coût dominant est celui du corpus parallèle utilisépour l'apprentissage. Selon K. Knight (session spéciale àCICLING-05), il doit contenir au moins cinquante millions de motsdans chaque langue, soit 200 000 pages standard, ou deux millions etdemi de phrases de vingt mots. Il a donc coûté entre 200 000 et 250000 heures de travail humain. En 2006, Ph. Koehn parlait de deuxcent millions de mots, soit quatre fois plus. Le tout est de savoirsi ce coût doit être imputé ou non, ou en partie seulement, à laconstruction du système de TA. Dans le cas des systèmes à dictionnaires et grammaires, le coûtdominant est celui des dictionnaires. On peut donc aussi utiliserune mesure de taille pour les corpus, dans uncas, pour les dictionnaires, dans l'autre. On peut ranger ici la mesure HTER non finalisée du projet GALE. Bienqu'elle soit présentée comme liée à la tâche, elle ne l'est pas carla tâche envisagée est tout à fait irréaliste : qui voudraittraduire une documentation en la faisant traduire par troistraducteurs, puis en la faisant postéditer par deux réviseurstravaillant sur deux mélanges différents des traductions obtenues ,puis par un dernier réviseur ? Les mesures externes subjectives non liées à desréférences sont nombreuses. L'évaluation de fluidité enfait toujours partie. L'adéquation peut être mesurée par des testsde compréhension (QCM comme dans le TOEFL), qui ne supposent pas detraduction préalable. Nous présentons maintenant quelques propositions, en séparant la TA del'écrit et la TA de l'oral, puisqu'on a vu plus haut que leurs évaluations externes étaient par nature assezdifférentes. Nous proposons d'abandonner totalement les mesures liées à destraductions de référence, pour les raisons présentées plus haut, etd'utiliser des mesures différentes s'il s'agit de diffusion ou decompréhension. On devrait utiliser uniquement des mesures objectivesd'utilisabilité, et aucune mesuresubjective. Mesurer l'utilité serait en un sens idéal, mais on ne peut la mesurerque sur un système opérationnel, dans un contexte réel, alors quel'on veut aussi ou surtout évaluer des systèmes en développement. On peut mesurer l'utilisabilité de systèmes ,en développement ou opérationnels, en les intégrant dans un serviceWeb, le même pour tous les systèmes, muni d'un éditeur bilingue .Notre équipe a construit à cet effet la plate-forme TRANSBey (Bey et al., 2006), accessible par le Web, quipermet l'affichage, la traduction (en utilisant plusieurs outils detraduction), et l'édition (par postédition ou traduction). Diversesmesures sont prévues, en particulier des distances d'édition (entrela « prétraduction » postéditée et la traduction finale, et unemesure du temps passé à chaque sous-tâche (postédition proprementdite, recherche terminologique, ajout au dictionnaire commun ,correction de la segmentation ou même de certaines phrases del'original). Le premier composant de l'utilisabilité est alors la variation deproductivité, que nous définissons ici comme l'efficacité relativedes deux contextes de travail, avec et sans système de traduction( ST). Le temps humain est bien connu par tous les donneurs d'ordresen traduction. Pour des textes difficiles, il est de l'ordre de 80mn/page (60 mn de traduction, 20 mn de révision). Pour des textesformés de phrases très courtes comme celles du BTEC, ou pour de latraduction courante (cas des journaux traduits par Comprendium enEspagne) c'est plutôt 60 mn/page. Équation 5. Efficacité relative d'un système de traductionautomatique On dira par exemple qu'un système est utilisable dès que sonefficacité relative dépasse 2, car cela correspond au gain maximalque l'on peut espérer d'une mémoire de traduction. Pour un certainnombre de paires de langues des systèmes commerciaux actuels, onobtient mieux 31, de 2,5 à 3, et on peut obtenir bien plus, parexemple 12 dans le cas de Comprendium et de la traduction dejournaux d'espagnol et catalan et en galicien (5 mn/page de tempshumain avec la TA contre 60 mn sans rien et 30 mn avec un outil demémoire de traduction). En ce qui concerne les mesures subjectives, comme celles de fluiditéet d'adéquation, elles sont ici totalement inutiles, et mêmecontre-productives. Il est en effet parfaitement possible que toutesles phrases d'un certain type soient grammaticalement fausses, ouque certains choix lexicaux soient mauvais, et que la postéditionsoit très rapide. En particulier, si l'éditeur de traductions estassez puissant, on peut faire des changements globaux, et l'éditeurpeut aussi détecter des chaînes déjà transformées et proposer lesmêmes transformations. On peut ici utiliser des mesures objectives et subjectives. S'il s'agit de lire une page Web en langue étrangère, on peut mesurer( via des cookies) le temps moyen passépar les internautes sur une page traduite dans leur langue, et lecomparer à celui passé sur la page originale par des locuteurs de lalangue initiale. Notre hypothèse est que, (1) si ce temps estbeaucoup plus court, c'est que la traduction est peu compréhensibleet que les lecteurs ont abandonné; (2) s'il est bien plus long ,c'est qu'on arrive à comprendre, avec des efforts supplémentaires ,mais qu'on ne comprend pas tout; et (3) que, s'il est du même ordrede grandeur, la TA est tout à fait satisfaisante pour cet usage .Cette hypothèse est vraisemblable, mais reste à prouver, parexpérimentation. S'il s'agit d'un service de e-commerce « multilingualisé », on peutcompter les « actes commerciaux » (achats, commandes) et le tempspassé (par exemple, pour obtenir une réponse satisfaisante d'unservice après-vente), et faire le même genre de comparaison. S'il s'agit de mesurer plus précisément le degré de compréhension ,c'est-à-dire, dans ce contexte, l'adéquation, et cela sansréférences, de façon liée à la tâche, et sans jugements subjectifshumains, la seule solution semble être de s'inspirer des tests decompréhension intégrés aux examens de langues comme le TOEFL, et dedemander à des utilisateurs potentiels de répondre à des QCM de compréhension. Le calcul de la mesureest automatique, le temps passé à répondre est faible, l'accordentre les utilisateurs est meilleur, dont on peut en faireparticiper moins, et, d'après R. Mitkov (Mitkov etal., 2006), on arrive maintenant à produire cinq ou six QCMpour une page de façon semi-automatique en 30 mn environ. Les mesures subjectives (il s'agit toujours demesures liées à la tâche) nous semblent devoir rester assez peuprécises, et assez coûteuses. On peut bien sûr demander auxutilisateurs un « retour » par des jugements de qualité, comme on letrouve sur certains sites collectant des évaluations de livres ou delogiciels. Mais que pourrait-on en faire pour améliorer les systèmes? Mesurer la fluidité ne serait pas pertinent, et de toutes façons letemps passé, mesurable objectivement, est sans doute très corrélé aumanque de fluidité. De façon générale, il vaut mieux éviter lesmesures subjectives en compréhension de l'écrit, car les jugementshumains varient trop. Ainsi, pendant ACL-0332, certains exposésprésentèrent des exemples de traductions avec leurs scores, et unepart importante de l'assistance ne fut pas d'accord avec lesjugements de qualité : certains étaient faux, et, dans d'autres cas ,le sentiment fut que les traductions, bien que fausses, auraient étéparfaitement suffisantes pour que les utilisateurs puissent encomprendre le sens et éventuellement agir en conséquence. Nous avons dit que toute mesure liée à la tâche devrait comparer laperformance d'un système à celle d'un interprète humain. Malheureusement, on ne voit pas comment intégrer de mesure objectived'usage dans un système de TA de l'oral visant la diffusion. Parexemple, s'il s'agit de permettre de suivre un discours ou undialogue en langue étrangère, il n'y a pas d'action de l'utilisateur( pas d'acte d'achat, par exemple), et il est difficile de savoir laproportion d'utilisateurs abandonnant cette activité pour caused'incompréhension. La seule évaluation objective possible est à notre avis une mesurepar QCM de compréhension, qu'on ne peut pas faire au fur et à mesurede l'usage du système, à cause de la contrainte « temps réel » de laparole. Mais on pourrait la faire de façon différée. Enfin, évaluer la qualité de diffusion à partir de la transcriptionécrite du discours source et de sa traduction est techniquementpossible, mais coûteux et en fait assez biaisé, donc il faut éviterde le faire. Cela consisterait à mesurer l'effort de « postédition »de la traduction pour arriver à une traduction orale de même qualitéque celle produite par un interprète professionnel. Éditer directement le signal en langue cible ne paraît pastechniquement possible. On devrait donc demander à un interprèteprofessionnel, seul qualifié pour dire ce qu'est une interprétationde qualité, de postéditer la transcription fournie par le système deTA, tout en s'assurant que le résultat oral (produit par synthèse dela parole) est effectivement de la qualité attendue, et « tient »dans le temps disponible. Le biais mentionné vient du fait qu'ons'éloigne ainsi de l'idée de base, qui est de mesurer par rapport àune tâche réaliste. Enfin, effectuer une mesure subjective de la qualité d'une traductionorale à partir de transcriptions écrites est à exclure. En effet ,les transcriptions des traductions d'interprètes professionnels dehaut niveau sont souvent jugées comme de mauvaises ou très mauvaisestraductions, alors qu'elles sont payées beaucoup plus cher ,justement parce que leur qualité « relativement à la tâche » decompréhension en temps réel est très élevée. On peut ici utiliser des mesures objectives et subjectives. En 1999, ATR a montré la voie en effectuant une comparaison( objective) entre le temps mis à réaliser une tâche de réservationhôtelière avec un interprète humain et avec son système de TA deparole. La conclusion fut que le système testé (ATRMatrix) avait lamême efficacité qu'un Japonais ayant un niveau moyen au TOEFL( Sugaya et al., 2001). On pourrait généraliser ce type d'évaluation comme suggéré plus hautpour l'écrit, c'est-à-dire en intégrant des systèmes de TA de laparole à tester à un ou plusieurs services Web. C'est d'ailleurs cequi était prévu au début du projet C - STAR III, avant qu'il nechange de cap pour travailler sur la construction de corpusmultilingues et l'évaluation compétitive à la NIST. La mesure objective par QCM de compréhension est bien sûr possibledans ce cas, mais semble bien plus coûteuse que la précédente, etégalement moins bien adaptée au cas de systèmes de TA de dialoguesoraux finalisés. Les chercheurs en TA statistique disent que les méthodes d'évaluationliées aux références ont de grandes qualités, en particulier leurcaractère objectif, mathématique, et sont très utiles, car ellespermettent de mesurer les progrès des systèmes à coût humain nul. Celaest vrai, mais elles présentent des défauts bien plus importants en cequi concerne l'évaluation externe. D'abord, nous l'avons vu, elles ne mesurent pas bien du tout la « qualité». Si elles sont assez bien corrélées avec la fluidité, ce n'est pasvrai pour l'adéquation, et encore moins pour l'utilisabilité. Ensuite, si leur usage est peu coûteux, leur préparation est trèscoûteuse, puisqu'on doit produire des traductions de référence( plusieurs pour NIST, parfois jusqu' à seize comme dans IWSLT-06). Enfin, les méthodes utilisant des références ne sont pas utilisables pourévaluer des systèmes en exploitation. Par exemple, Google a mis enservice dans ses outils linguistiques quelques systèmes de TAstatistique, à côté de systèmes Systran. Pour mesurer la qualité, Googlepropose aux lecteurs, grâce à une interface simple, de corriger lestraductions et de leur renvoyer les traductions de référence. Il esttrès peu probable d'obtenir ainsi plusieurs traductions de référencepour toutes les phrases d'un très gros corpus. Par contre, cela peutêtre très utile pour le développement. Nous proposons donc d'abandonner les mesures liées aux traductions deréférence en tant que mesures externes, et, par conséquent, de ne plusles utiliser dans les campagnes d'évaluation compétitives danslesquelles les seules mesures possibles sont des mesures externes. En revanche, ces mesures pourraient garder toute leur place pour l'évaluation interne et le développement des systèmes de TAstatistique, construits pour les optimiser. L'idée de base est en faitl'analogue en TA statistique de la technique des « suites de test »utilisées depuis les débuts de la TA par les développeurs de TA «experte ». Les méthodes externes d'évaluation de systèmes de TA définissent des mesures dequalité à partir de leur fonctionnement observable, et éventuellement de leurcouverture potentielle, mesurée par la taille des dictionnaires en TA « experte» et par celle des corpus parallèles en TA « empirique ». Alors que les systèmesopérationnels sont depuis longtemps le plus souvent évalués par des méthodesexternes fondées sur la tâche (diffusion ou compréhension à l'écrit ,communication ou compréhension à l'oral), les campagnes d'évaluation desdernières années utilisent (parcimonieusement) des méthodes subjectives assezchères fondées sur des jugements humains peu fiables et (pour la plus grandepart) des méthodes basées sur des traductions de référence. Ces méthodessubjectives sont impossibles à utiliser lors de l'utilisation réelle d'unsystème, d'autant moins corrélées aux jugements humains que la qualité augmente ,et totalement irréalistes en ce qu'elles forcent à mesurer les progrès sur descorpus fixes, sans cesse retraduits, et non sur de nouveaux textes à traduirepour des besoins réels. Il y a aussi de nombreux biais introduits par le désirde diminuer les coûts, en particulier l'utilisation de corpus parallèles dans lesens inverse de leur production et l'utilisation de personnes monolingues aulieu de bilingues. Nous avons prouvé cela par une analyse de l'histoire del'évaluation en TA, des méthodes d'évaluation du « courant dominant », et decertaines campagnes d'évaluation récentes. Cela nous a conduits à proposer une taxonomie révisée des méthodes d'évaluation ,en la centrant sur les principaux types de tâches, qui sont différents à l'écritet à l'oral. Cette clarification nous a menés a proposer d'abandonner totalementles méthodes d'évaluation externes fondées sur destraductions de référence, et de les remplacer par des méthodes strictementfondées sur la tâche, en particulier l'efficacité relative pour la diffusion del'écrit, la communication orale, et la compréhension de l'écrit et de l'oral .Les mesures fondées sur des références, qu'elles soient objectives comme BLEU ,NIST, etc., ou subjectives comme les mesures de fluidité ou d'adéquationactuelles, devraient être réservées à l'évaluation interne et au développement des systèmes de TA «empirique » de l'écrit et de l'oral . | RÉSUMÉ. Les méthodes externes d'évaluation de systèmes de TA définissent desmesures de qualité à partir des résultats de TA et de leur usage. Alors que lessystèmes opérationnels sont depuis longtemps le plus souvent évalués par desméthodes fondées sur la tâche, les campagnes d'évaluation des dernières annéesutilisent (parcimonieusement) des méthodes subjectives assez chères fondées surdes jugements humains peu fiables, et (pour la plus grande part) des méthodesbasées sur des traductions de référence, impossibles à utiliser lors del'utilisation réelle d'un système, d'autant moins corrélées aux jugementshumains que la qualité augmente, et totalement irréalistes en ce qu'ellesforcent à mesurer les progrès sur des corpus fixes, sans cesse retraduits, etnon sur de nouveaux textes à traduire pour des besoins réels. Il y a aussi denombreux biais introduits par le désir de diminuer les coûts, en particulierl'utilisation de corpus parallèles dans le sens inverse de leur production etl'utilisation de juges monolingues au lieu de bilingues. Nous prouvons cela parune analyse de l'histoire de l'évaluation en TA, des méthodes d'évaluation du «courant dominant », et de certaines récentes campagnes d'évaluation. Nousproposons d'abandonner les méthodes fondées sur des traductions de référence enévaluation externe, et de les remplacer par des méthodes strictement fondées surla tâche, en les réservant à l'évaluation interne . | scientext_ling_art_501_tal_blanchon_boitet_entete.xml |
termith-768-scientext | Comme le rappelle Rousseau (2000), l'idée que les changements qui affectent le monde (évolution des connaissances, découvertes scientifiques, développement des techniques, …) se répercutent dans les discours sous la forme de changements de sens est déjà présente chez le psychologue allemand Wund dans un livre paru en 1900. Selon le point de vue théorique que l'on adopte, on expliquera ces changements sémantiques de diverses manières : d'un point de vue onomasiologique, on s'appuie sur le principe unificateur de l'analogie pour expliquer les changements qui affectent l'organisation sémantique du lexique (Ullmann, 1969, Blank, 1999), d'un point de vue sémasiologique, on explique le changement de sens par un changement de désignation réalisable par différents processus lexicaux, tels que les formations de mots, les phraséologismes, etc. (Koch, 2000). L'objet de cette contribution est d'aborder la question du changement sémantique sous un angle à la fois proche et différent de celui qui caractérise les travaux qui se situent dans le champ de la linguistique diachronique. Le point de vue que l'on adopte ici est en effet circonscrit par un problème appliqué posé par le Centre National d'Etudes Spatiales (CNES, Toulouse, France) (Condamines et al. 2003). Ce problème concerne les projets spatiaux de longue durée, c'est-à-dire des projets dont la durée dépasse dix ans. Il s'agit le plus souvent d'envoyer des sondes vers un objectif lointain, ne pouvant être atteint qu'au terme d'un voyage de plusieurs années. Or, dans ce type de mission, les spécialistes qui ont participé à l'élaboration des instruments (satellites, sondes, etc.) ne seront pas ceux qui, dix ou vingt ans plus tard, effectueront les opérations prévues. Dans ces projets spatiaux, qui restent en sommeil pendant des années (seul un contrôle mensuel étant effectué), il existe donc un risque de perte des connaissances qui ont été mobilisées lors des phases de conception. De plus, tout en sachant que les connaissances évoluent, on sait que cette évolution se fait souvent à l'insu des acteurs d'un projet, soit parce que ces acteurs eux -mêmes changent (départ à la retraite, déplacement des ingénieurs sur d'autres projets, …), soit parce que, pris dans la dynamique du projet, ils n'ont pas conscience de changements et/ou, en perdent la trace 2. Devant ce risque majeur de perte de connaissances, le CNES est à la recherche de méthodes qui lui permettent de repérer les évolutions ou les ruptures de connaissances afin de proposer aux ingénieurs des moyens d'accéder à des fonctionnements pouvant être interprétés comme des indices d'un changement potentiel. Etant donné ce contexte opératoire, notre problématique se laisse définir ainsi : nous travaillons dans une diachronie restreinte, autrement dit sur quelques années seulement contrairement aux études diachroniques « en langue ». Mais nous espérons de cette situation très particulière qu'elle nous permette de comprendre des phénomènes qui, se déroulant sur plusieurs dizaines voire plusieurs centaines d'années dans le cadre d'une langue, sont souvent difficiles à identifier et à décrire. Afin d'observer les changements de sens qui s'opèrent dans le cadre que nous venons de situer, une analyse de corpus s'impose pour une raison essentielle : étant donné que les concepteurs des instruments embarqués sur des projets spatiaux de longue durée auront disparu au moment où un certain nombre d'actions devront être accomplies, si aucune solution traditionnelle (comme la formation interne) n'est mise en place, la documentation produite sera la seule trace accessible de la connaissance. En conséquence, une méthode linguistique d'observation des évolutions de connaissances s'appuiera sur la documentation écrite qui les accompagne. Une question qui se pose alors immédiatement est celle de savoir quelles sont les propriétés que doit satisfaire un ensemble de textes (i.e, un corpus) pour mettre au jour ces évolutions. Pour y répondre, nous avons pris en compte trois types d'exigences : 1) une exigence d'homogénéité : les textes qui composent le corpus doivent être significatifs du point de vue du CNES, plus précisément ils doivent concerner un seul et même projet et contenir des textes relevant d'un même genre textuel 3; 2) une exigence de diachronicité : les textes qui composent le corpus devront nécessairement s'échelonner dans le temps afin de rendre possible l'observation de continuités, de ruptures et/ou d'évolutions des connaissances; 3) une exigence de contrastivité : l'une des façons d'observer l'évolution étant de se fonder sur des comparaisons, il est crucial de partitionner les textes du corpus en plusieurs groupes (au moins deux) en s'appuyant sur des critères externes (Habert et al., 1999) pertinents pour le projet visé. Afin de mettre en relation des fonctionnements linguistiques avec une évolution diachronique, les textes sélectionnés doivent être échelonnés dans le temps et sur une période la plus étendue possible. Le corpus constitué pour mettre au point la méthode d'analyse a vu ces trois critères satisfaits dans le cadre du projet Doris (Doppler Orbitography and Radiolocation Integrated Satellite) 4. Il s'agit d'un projet qui a commencé à être développé depuis une dizaine d'années et qui comporte trois types d'éléments : 50 balises au sol, un système de récepteurs à bord de satellites, un centre de traitement des données. Nous avons travaillé sur les balises, qui se sont développées sur trois générations en fonction d'évolutions techniques (parmi lesquelles, la miniaturisation de l'électronique qui a permis de réduire le poids et le volume des balises) : la première a été développée en 1984, la deuxième, de 1996 à 1999 et la troisième, à partir de 2000. A cela s'ajoute un élément capital. On dispose pour ce projet d'un ensemble de locuteurs compétents, autrement dit de spécialistes de l'instrument, aisément accessibles et disponibles. Le corpus constitué est organisé en deux sous-corpus (soit deux groupes de textes d'environ 16 000 mots chacun) : l'un correspond aux première et deuxième générations de balise DORIS (appelé G1_2) et l'autre à la troisième génération de balises (appelé G3). Les procédés de formation de nouveaux items lexicaux sont bien connus et décrits dans divers cadres théoriques de la sémantique diachronique (Rousseau, 2000; Koch, 2000; Blank, 1999) ou sur la grammaticalisation (Traugott & Dasher, 2002). Dans un autre champ, certains comme Teubert (2001) ou Belica (1996), considèrent que l'un des objectifs de la sémantique de corpus est d'étudier les notions de stabilité / changement (diachronique et/ou synchronique). En terminologie, en revanche, cette question de l'évolution de la forme et du sens n'est que rarement posée (voir toutefois Bonnet, 2003). En effet, la terminologie se concentre souvent sur un objectif de normalisation qui fige les fonctionnements à un instant t sans que les évolutions possibles soient prévues ou même envisagées. Notre objectif est donc le suivant : identifier et décrire les formes privilégiées du changement sémantique à partir de l'analyse linguistique d'un corpus spécialisé construit de façon à rendre possible l'observation d'évolutions de connaissances. L'approche que nous proposons allie méthode automatique et analyse linguistique. Plus précisément, il s'agit, d'une part, de formuler des requêtes automatiques indépendantes d'un corpus particulier en visant la réutilisabilité sur de nouveaux corpus constitués avec les mêmes critères et, d'autre part, de définir des modes d'interprétation linguistique des résultats obtenus. Notre méthode est donc une méthode outillée faisant intervenir trois types d'outils : un extracteur de termes, Nomino (David & Plante, 1996), un étiqueteur grammatical (Cordial Université 5), un concordancier, Yakwa (Rebeyrolle & Tanguy, 2000). Les résultats de ces outils sont utilisés par des programmes PERL, conçus pour aider à identifier les variations que nous décrivons dans la section suivante. Nous reprenons à notre compte l'hypothèse de travail de Nyckees (2000) : " Détecter un changement de sens, c'est détecter un changement de règles d'usage au travers des énoncés produits ". Partant de l'hypothèse que des changements affectant la forme des dénominations sont le reflet de changements touchant à leur contenu, nous accordons une large place aux variations morphologiques, qu'il faut entendre à la fois comme variations repérables d'un point de vue informatique et signifiantes d'un point de vue linguistique, par interprétation des résultats fournis par les outils. Quatre modes d'évolutions morphologiques sont potentiellement intéressants : L'apparition ou disparition de formes : le terme afficheur disparaît dans les documents concernant la troisième génération consécutivement à la disparition de ces ' objets ' qui sont remplacés par de simples écrans d'ordinateur. La composition qui est un procédé très productif en terminologie qui se manifeste pour de nombreuses formes par une perte de leur autonomie lorsqu'elle s'associent avec d'autres formes elles aussi jusque là autonomes, par exemple dans le corpus Doris : synchronisation et mode ‑> mode de synchronisation. La formation d'ellipses (que Koch (2000), reprenant Ullmann, explique par les besoins communicatifs) consécutive ou non au figement d'un composé est également très répandue : horloge de la balise > horloge balise, mode de survie > mode survie. L'expansion qui se manifeste le plus souvent par l'ajout d'un modifieur à un nom : mode de fonctionnement > mode de fonctionnement secouru. Tous ces modes de changements peuvent être significatifs d'une évolution. Les apparitions/disparitions peuvent correspondre à des apparitions/disparitions de concepts mais elles peuvent aussi être l'indice d'une évolution dans la dénomination des concepts. La disparition d'expansion peut correspondre à une stabilisation du concept que, pour des raisons d'économie, on ne dénomme plus que par une forme écourtée, avec le risque d'ambiguïté que cela peut entraîner. L'expansion quant à elle pourrait correspondre soit au développement d'un concept existant qui s'affine, se spécialise ce qui oblige à le détailler et à le préciser, soit à la nomination d'une nouvelle technique. Avant de s'imposer, la nouvelle forme se trouve généralement en concurrence avec celle qui a été supplantée : dans le corpus Doris, des deux formes fonctionner en mode et être en mode une seule demeure être en mode, de même fonctionner et être en fonctionnement coexistent pour ensuite ne laisser place qu' à être en fonctionnement. Les changements du comportement distributionnel des termes sont généralement le reflet de changement de sens (Harris et al., 1989, Rousseau, 2000). Plus précisément, on peut interpréter les variations de constructions syntaxiques comme des indices de conceptualisations différentes : le terme opérateur passe ainsi de la position sujet de verbe d'action du type appuyer, taper, valider à la position complément dans des structures du type : ' écran/interface [sujet] + permettre à + opérateur [complément] '. Deux types de distributions peuvent apparaître, les unes sont identifiées par l'étude, elles sont propres au corpus et ne sont donc pas décrites a priori; les autres font intervenir une connaissance a priori qui permet d'attribuer à certains contextes un rôle particulier de marqueurs de relations conceptuelles. L'analyse distributionnelle relève dans ce cas -là principalement d'une interprétation linguistique. En effet, il s'agit de constituer des classes dont on fait l'hypothèse qu'elles correspondent au même type de fonctionnement sémantique. Cette catégorisation est souvent difficile à faire. Nous nous sommes donné comme guide la nécessité, pour pouvoir considérer que l'on a à faire à une classe, de pouvoir élaborer un schéma sémantico-syntaxique qui rende compte de cette classe, comme dans le cas des deux modes de fonctionnement d'opérateur décrits ci-dessus. Dans une étude antérieure (Condamines & Rebeyrolle, 1997), nous avions interprété ce type de variation comme étant le reflet de points de vue (différents mais synchroniques), de groupes de locuteurs, sur les concepts auxquels renvoient ces termes. Dans le cas qui nous préoccupe ici, ces points de vue seraient dus à des évolutions dans le temps 6; il s'agirait donc de points de vue diachroniques. Les contextes dont il est question permettent de construire des réseaux terminologiques. Il s'agit de marqueurs de relation du type : [dét déf + N1 + Vêtre + dét indéf N2 + relative] (ou « dét déf » désigne un déterminant de la classe des définis et « dét indéf », un déterminant de la classe des indéfinis) qui permettent d'identifier une relation hyperonymique entre N2 et N1 (Condamines & Rebeyrolle, 2002). On peut faire l'hypothèse qu'un changement dans un réseau de relations est un indice d'une évolution sémantique. Pour tester cette hypothèse, il s'agit de construire des réseaux de termes pour chacun des sous-corpus et de comparer ces réseaux afin de repérer des changements. Mais, pour permettre la comparaison totale de réseaux, une grande quantité de données serait nécessaire. Les corpus dont nous disposons étant peu volumineux, ce mode d'exploration ne donne pas des résultats très nombreux. Dans cette étude, nous nous sommes plutôt focalisées sur les contextes non interprétés a priori. Les résultats présentés ici portent sur les éléments suivants : Résultats quantitatifs permettant de repérer les noms et groupes nominaux qui apparaissent vs disparaissent d'un sous-corpus à l'autre (cas qualifié précédemment d'apparition/disparition de formes). Résultats quantitatifs et « qualitatifs » pour les noms et groupes nominaux communs aux deux corpus. Considérant que seuls les termes qui apparaissent de manière significativement plus importante (ou moins importante) dans l'un ou l'autre corpus devaient faire l'objet d'une étude détaillée, nous avons construit un test statistique qui permet de mesurer cet écart. Précisément, ce test permet de mesurer la pertinence des écarts d'emplois des termes communs aux deux sous-corpus. Seuls, ces termes communs significatifs ont fait l'objet d'une analyse linguistique fine de leur fonctionnement en contexte portant sur l'expansion et la distribution. Le dénombrement des noms et des groupes nominaux a été fait avec le logiciel Nomino. Les résultats proposés par ce logiciel ont ensuite fait l'objet d'un nettoyage avec un programme PERL (il s'agissait de supprimer des formes numériques considérées comme des noms, de « récupérer » des noms en majuscule considérés comme des noms propres, de normaliser des formes accentuées vs non-accentuées considérées comme deux formes distinctes…). Les tableaux ci-dessous rendent comptent des résultats comparés dans les deux sous-corpus. NB : le nombre total de formes (N et GN) n'est pas égal à la somme des formes présentées dans le tableau précédent étant donné qu'apparaissent ici les formes communes aux deux sous-corpus que l'on ne recompte pas deux fois. Ces résultats appellent les commentaires suivants : La proportion de groupes nominaux est plus élevée que celle des noms (respectivement, 52 % pour G1_2 et 63 % pour G3). Cette situation est habituelle dans les corpus spécialisés. On peut noter toutefois que la proportion de groupes nominaux augmente dans le corpus le plus récent. On peut interpréter cette augmentation comme étant le signe d'un accroissement de la précision des termes (plus la couverture sémantique des noms se précise, plus le nombre de modifieurs augmente). Le nombre de noms communs aux deux sous-corpus (327, près de 30 % de l'ensemble des noms des deux corpus) et surtout de groupes nominaux (96, soit 4 % seulement de la somme totale des groupes nominaux (1984)) est peu élevé. Autrement dit, 70 % des noms ont disparu ou sont apparus d'un sous-corpus à l'autre et 96 % des groupes nominaux. On peut en conclure que beaucoup de groupes nominaux comportent des noms communs aux deux corpus mais avec des expansions différentes. Le test statistique nous permet d'isoler, parmi l'ensemble des noms communs aux deux sous-corpus, les 116 noms et 16 groupes nominaux dont le fonctionnement est particulièrement significatif. Dans cet ensemble, nous avons retenu uniquement ceux qui présentent au moins trois occurrences dans chacun des corpus, en considérant que pour pouvoir caractériser le fonctionnement en contexte de ces unités, on ne peut se contenter d'un hapax ni de deux occurrences. Avant de présenter les résultats, il convient de préciser un certain nombre d'éléments. Pour les groupes nominaux, nous avons travaillé sur la tête et sa distribution (par exemple, pour spécification technique, nous avons travaillé sur le terme spécification). En effet, il nous a semblé préférable de déconstruire les groupes (identifiés automatiquement, rappelons -le) pour mieux travailler le processus de variation en contexte. Nous nous sommes particulièrement intéressées aux fonctionnements suivants : expansion, distribution. Expansion : nous avons considéré comme expansion un groupe nominal qui peut être considéré comme un nom suivi ou précédé d'un modifieur et ce, même si ce nom n'apparaît pas seul dans un des deux corpus (par exemple, autotest séquenceur est une expansion de autotest, carte de commande est une expansion de carte, autorisation d'émission sur un satellite est une expansion d'autorisation). Une comparaison entre les deux sous-corpus permet de repérer si l'expansion est stable ou différente d'un corpus à l'autre. Distribution : la distribution concerne tous les contextes, droits ou gauches qui n'ont pas déjà été considérés dans le cadre de l'expansion. D'une certaine façon, l'expansion concerne les relations à l'intérieur d'un syntagme et la distribution les relations entre syntagmes. Par ailleurs, ainsi que nous l'avons déjà souligné, nous recherchons une modélisation de ces contextes. Il s'agit en effet de comparer les distributions et cela n'est réellement possible qu'entre des abstractions de ces distributions (en particulier, mais pas seulement, en raison de la petite quantité de données à évaluer). Par exemple, dans le premier sous-corpus, autotest apparaît dans deux structures : [autotest déceler dét N ], avec N = anomalie, panne, défaillance …et [prep temporelle autotest] : Si l'autotest n'a décelé aucune anomalie lors du test de télémesure… Le signal SI est généré uniquement pendant l'autotest manuel de la balise Cette modélisation nous permet de dire que dans le premier cas, autotest est considéré comme un acteur et dans le second comme un processus. Dans le second corpus, autotest apparaît dans la structure [prep temporelle N] mais pas dans la structure [autotest déceler dét N ]. En revanche, il apparaît dans la structure suivante : [sanction de l'autotest] : Paramètres : - [… ], - sanction de l'autotest Considérant que seul un acteur (assimilé à un humain) pouvait sanctionner, nous avons fait le choix de considérer que la présence de ce nouveau contexte n'était pas le signe d'une évolution puisque la catégorisation abstraite (en tant qu'acteur) avait déjà été repérée. Nous avons donc considéré que la distribution d'autotest était à peu près équivalente dans les deux sous-corpus. En fonction de ces deux critères, expansion et distribution, les formes peuvent être versées dans quatre configurations : soit l'expansion est différente dans les deux corpus et la distribution est identique, soit l'expansion est identique et la distribution est différente, soit l'expansion et la distribution sont différentes, soit l'expansion et la distribution sont similaires. Nous donnons et commentons ci-dessous les 72 noms que nous avons finalement examinés, du point de vue de leur expansion et de leur distribution dans les deux sous-corpus. Configuration 1 : expansion différente et distribution identique (14 noms) autotest, connecteur, délai, Doris, durée, énergie, gradient, instant, liaison, nombre, secteur, spécification, test, transfert Dans ce cas, où seule l'expansion est différente, on peut faire l'hypothèse que les concepts ont évolué vers un affinement, vers une précision. La distribution restant stable, on peut penser, en revanche, que cela s'explique par une stabilité de la fonction des concepts. Par exemple, dans le passage d'un sous-corpus à l'autre un terme comme liaison voit son extension se modifier puisqu'on passe de liaison à liaison directe, liaison distante, liaison filaire, liaison descendante, liaison de télégestion. Cependant, la distribution ne varie pas, puisqu'il s'agit toujours de réaliser la liaison, ou d'établir la liaison. Configuration 2 : expansion identique et distribution différente (10 noms) action, amplificateur, bord, courant, face, intermédiaire, recalage, résolution, satellite, tension Dans ce cas, où seule la distribution a évolué, l'évolution s'est sans doute faite vers une couverture sémantique plus grande du concept initial (avec potentiellement création de polysémie). Action par exemple a peu évolué du point de vue de l'expansion; ainsi, il est utilisé très souvent seul dans les deux sous-corpus. En revanche, il apparaît dans des contextes assez différents. Dans le premier sous-corpus, un des contextes, particulièrement fréquent, peut être modélisé comme [déverbal V dét par dét action sut dét N] (tout contrôle doit se terminer par une action sur la touche VAL) alors qu'un des contextes caractéristique du second corpus peut être schématisé par la structure [action Vparticipe passé par dét N] (lecture par l'opérateur des actions réalisées par le terminal). Cette évolution semble le signe que les actions sont plutôt réalisées par des humains dans le premier sous-corpus et par des outils dans le second. Configuration 3 : expansion et distribution différentes (31 noms) anomalie, autorisation, BM, carte, circuit, commande, date, données, émission, environnement, essai, fonction, format, FOUS, gestion, identification, interface, jour, ligne, longueur, marche, Max, mesure, module, mot, opération, panne, période, point, synchronisation, température Dans ce cas, l'expansion et la distribution ont évolué de concert. On peut s'attendre ici à trouver des changements majeurs pour le domaine. C'est d'ailleurs le cas le plus fréquent puisque près de la moitié des formes que nous avons analysé présentent ce type d'évolution. Pour illustrer cette configuration, on citera le cas du nom essai. D'un sens exclusif de processus dans le premier sous-corpus, on passe à un sens de document dans le second. Le sens de processus est toujours présent (durée de l'essai )mais il se trouve clairement supplanté par le sens de « document qui consigne les résultats obtenus lors des essais ». On passe en effet de constructions comme avant essai ou après essai à plan d'essai, documentation d'essai, revue d'essai. On notera enfin que dans le premier sous-corpus, le terme essai se présente sans modifieur alors que les expansions sont très nombreuses dans la seconde partie, comme le montrent : essai de qualification, essai de recette, essai de performances, essai de gradient thermique, etc. Configuration 4 : expansion et distribution identiques (17 noms) coffret, embase, figure, fin, gamme, humidité, indicateur, intérieur, lieu, passage, place, position, pression, protection, puissance, synchro, valeur Dans les cas où les deux fonctionnements sont similaires, on peut considérer qu'il y a une grande stabilité d'usage dans les deux corpus et, qu'en principe, le concept n'a pas évolué. Il s'agit dans ce cas de concepts stables pour le domaine ou en tous cas soumis à une évolution moins rapide. C'est le cas par exemple de indicateur qui conserve son sens comme le montrent à la fois ses expansions, indicateur de verrouillage, notamment et aussi sa distribution en complément de verbes comme fournir dans fournir un indicateur, par exemple. Au stade où nous en sommes, deux types d'interprétation peuvent être proposés, l'une concerne le point de vue de la lexicologie, l'autre le point de vue du CNES. A notre connaissance, aucune étude poussée sur corpus n'a été menée pour étudier en profondeur le mode d'évolution des termes dans le temps. Les résultats que nous proposons ne sont évidemment pas définitifs mais ils donnent une première base et permettent de dessiner des tendances. Ainsi, il apparaît que lorsque, statistiquement, des mots apparaissent comme nettement différents d'un corpus à l'autre, dans la plupart des cas (43 %), ces mots évoluent à la fois du point de vue de l'expansion et de la distribution. Peu sont stables du point de vue de la distribution et de l'expansion (24 %). Quant à ceux qui évoluent soit du point de vue de l'expansion, soit du point de vue de la distribution, ils sont aussi peu nombreux, respectivement, 19 % et 14 %. Ces résultats mériteraient d' être encore travaillés. Il faudrait poursuivre l'exploration du point de vue du fonctionnement des termes (par exemple, il serait intéressant de comparer les fonctionnements de essai et test, a priori synonymes mais qui n'appartiennent pas à la même catégorie d'évolution). Il faudrait ensuite tenir compte de l'évaluation de l'expert (cf. ci-dessous) afin de voir si les évolutions qu'il qualifie d'intéressantes peuvent être corrélées avec des fonctionnements en contexte (rappelons que seront intéressantes pour l'expert des évolutions dont il n'aurait pas été conscient par opposition aux évolutions qui relèvent d'un choix (de nouvelles dénominations, par exemple) ou qui relèvent de la disparition d'un objet technique. Enfin, il serait nécessaire de refaire l'étude sur un autre corpus. Rien ne garantit en effet que la répartition des mots dans les quatre configurations soit stable pour un autre corpus. Seule une étude réalisée sur un nouveau corpus, voire sur de nouveaux corpus permettrait de le dire. En tous cas, cette étude correspond à une première étape d'un projet de plus grande envergure sur le mode d'évolution des termes dans un corpus spécialisé. Les résultats que nous avons obtenus ont permis de dresser une première liste des termes qui, à la fois du point de vue de leur expansion et du point de vue de leur distribution, manifestent une évolution importante. Cette sélection très fine nous permet de solliciter les experts avec une liste de départ contenant peu de termes. Cette situation est très différente de celle, classique, qui consiste à demander à un expert de valider des listes de termes, souvent très longues : c'est souvent un travail très fastidieux pour l'expert. Par ailleurs, dans ce cas précis, il ne s'agit pas de valider des termes mais de donner un avis sur les éléments qui peuvent expliquer un changement de comportement d'un corpus à l'autre. Avec un tel point de vue, la liste de départ sert plutôt à solliciter la réflexion de l'expert qui va essayer de mettre en place une explication globale (et pas pour chacun des termes les uns après les autres) des évolutions. Il est donc important que cette première liste ait été très travaillée en amont afin qu'elle corresponde à des termes qu'un faisceau d'indices (pertinence statistique, expansion, distribution) désignent comme manifestant une évolution majeure. Cette analyse est assistée, autant que faire se peut, par des outils mais la catégorisation des contextes ne peut être réellement faite que par des humains, en l'occurrence des linguistes, qui ont l'avantage d' être extérieurs au CNES et donc d'avoir un regard « neutre ». Il reste à travailler réellement avec l'expert pour étudier comment il réagit par rapport aux résultats qu'on lui propose et à voir comment, en fonction de ces résultats, la méthode pourrait être validée . | Résumé L'article présente une étude qui porte sur la variation temporelle de la terminologie. Partant du problème spécifique de l'évolution des connaissances dans les projets spatiaux du CNES, cette étude vise à montrer que cette évolution peut être repérée en s'appuyant sur les variations qui affectent la terminologie d'un domaine. Le repérage de l'évolution des connaissances repose d'abord sur la constitution d'un corpus pertinent pour étudier le phénomène de la variation dans le temps. Nous montrons en particulier pourquoi il est nécessaire de contrôler les situations extra-linguistiques pour organiser les textes sous la forme d'au moins deux sous-corpus qui ne varient que du seul point de vue de l'époque de leur rédaction. Partant de l'idée que dans les langues spécialisées, comme dans la langue, c'est le lexique qui évolue le plus rapidement, nous proposons trois angles d'observation de la variation terminologique : la forme des termes, leur distribution et leur fonctionnement sémantique. Ces trois types d'indices serviront de base à la comparaison des deux sous-corpus. Un changement de fonctionnement d'un corpus à l'autre est interprétée comme susceptible d' être un indice d'évolution des connaissances . | scientext_ling_comm_253_ling_euralex_Condamines_Rebeyrolle_Soubeille_Entete.xml |
termith-769-scientext | La perception de l'évaluation dans le domaine du traitement automatique des langues (TAL) varie considérablement selon les chercheurs, les utilisateurs des technologies ou les bailleurs de fonds. Alors que certains prennent position contre l'évaluation et ses effets sur le monde de la recherche, d'autres déplorent les limites des évaluations actuelles et souhaitent leur généralisation et leur perfectionnement. Il paraît donc légitime de s'interroger sur la nature et l'utilité de l'évaluation en TAL en se fondant sur une conception de l'évaluation suffisamment large pour être communément acceptée, mais aussi suffisamment précise pour énoncer des conclusions à portée applicative. C'est à la définition d'un tel modèle de l'évaluation, à son analyse épistémologique et à ses conséquences sur le choix des métriques d'évaluation que cette étude est consacrée. Partant de l'observation que les dimensions scientifique et technique du TAL font toutes deux intervenir des systèmes informatiques dotés de fonctionnalités linguistiques (section), l'étude adopte le cadre des normes de l'ISO pour l'évaluation des logiciels, dont elle résume les développements les plus récents (section). Une analyse de la spécificité des tâches relevant du TAL permet ensuite de mieux cerner les difficultés de l'évaluation dans ce domaine (section). Tout en reconnaissant la possibilité que les données traitées par les systèmes de TAL varient considérablement (section), une analyse de la place de la langue parmi les données d'entrée ou de sortie conduit à un classement des systèmes en quatre catégories (section). Cette conception unifiée de l'évaluation satisfait ainsi aux exigences du TAL en tant que science et technologie à la fois, et suggère que la différence entre ces deux dimensions relève davantage des données que des métriques utilisées pour l'évaluation. La contribution des métriques d'évaluation à différentes étapes du processus de recherche en TAL est analysée dans la section, qui fait référence aux approches empiriques ou guidées par les données, tout en préservant la généralité du modèle proposé. Une analyse des métriques d'évaluation en termes de distances est proposée dans la section pour les différents types de systèmes de TAL à entrée/sortie. Cette analyse débouche sur une série de recommandations pour la bonne définition des métriques, éclairées par des observations tirées de campagnes d'évaluation récentes (section). La conclusion de l'étude (section) aborde brièvement la place de l'utilisateur, en considérant son influence sur le choix des métriques et son rôle dans l'évaluation des systèmes de TAL interactifs. Une discussion du rôle de l'évaluation en TAL est inséparable d'une discussion des objectifs de cette discipline, qui par ses nombreuses ramifications avoisine la linguistique et les sciences cognitives d'un côté, et l'informatique et l'ingénierie des systèmes d'information d'un autre. On peut affirmer, en toute généralité, que les recherches en TAL placent sous le signe de la modélisation informatique deux objectifs complémentaires : l'étude des langues et de la faculté de langage d'une part, et l'exécution automatique de certaines tâches linguistiques d'autre part. La première dimension se rattache davantage à une vision scientifique du TAL, alors que la seconde relève du domaine applicatif ou technologique. La modélisation informatique permet d'opérationnaliser certains modèles cognitifs visant des capacités linguistiques humaines et d'effectuer certains traitements permettant une meilleure compréhension d'un système linguistique, offrant notamment des « instruments » à la linguistique. La modélisation informatique peut également viser à reproduire certaines capacités linguistiques humaines indépendamment de la compréhension de leur mécanisme, se rattachant alors à l'ingénierie des langues, dont l'objectif est d'accroître l'efficacité et la productivité des tâches qui font intervenir un contenu linguistique. Les rapports sont nombreux entre la dimension scientifique et la dimension technique du TAL. La modélisation informatique d'une capacité linguistique humaine aboutit de fait à un système informatique reproduisant ce traitement. Inversement, la conception de méthodes efficaces pour traiter certaines tâches linguistiques peut inspirer le linguiste ou le cogniticien dans son travail de modélisation, bien que les systèmes les plus efficaces ne soient pas nécessairement ceux qui sont fondés sur les modèles les plus plausibles cognitivement. Il reste que ces deux dimensions du TAL partagent une composante expérimentale essentielle, qui est l'utilisation de systèmes informatiques dans le processus de recherche et développement, ainsi qu'une interrogation méthodologique commune, portant sur les critères de succès des recherches entreprises. Nous nous interrogerons donc d'abord sur la notion de qualité des systèmes informatiques, et examinerons ensuite le rôle de l'évaluation dans les recherches en TAL [1 ]. Les travaux dans le domaine du TAL étant essentiellement liés au développement de systèmes informatiques, le jugement de qualité que l'on porte sur ces systèmes constitue de toute évidence un élément essentiel permettant de juger le succès des recherches elles -mêmes. Or, il existe déjà un cadre éprouvé pour décrire et estimer la « qualité » des logiciels tout au long de leur cycle de développement, et nous allons l'adopter comme point de départ de nos propositions. L'importance réduite du matériel dans les systèmes de TAL justifie en effet l'intérêt exclusif porté à la qualité du logiciel. La qualité des logiciels a fait l'objet d'une longue série de normes élaborées sous l'égide de l'Organisation internationale pour la normalisation (ISO) et de la Commission électrotechnique internationale (IEC) depuis le début des années 1990. Certaines normes ont connu plusieurs versions, et l'ensemble a subi une importante réorganisation sous le nom de SQuaRE [2] au début des années 2000, toutes les normes prévues n'étant pas encore achevées. La série de normes ISO/IEC 9126 est ainsi divisée en cinq groupes : le groupe 9126-1 n (n = 0, 1) offre une perspective d'ensemble sur les notions et les processus liés à la qualité; 9126-20 normalise la notion de modèle de qualité; 9126-3 n (n = 0 à 5) s'intéresse aux métriques de qualité des logiciels et à leur documentation; 9126-40, principale nouveauté de la série, concerne la spécification des qualités requises; et 9126-5 n (n = 0 à 3) décrit le processus d'évaluation de divers points de vue, reprenant ainsi le contenu de la série ISO/IEC 14598-1 à 6 déjà publiée. La notion de qualité est définie comme l'ensemble des caractéristiques du logiciel qui lui permettent de répondre aux besoins de ses utilisateurs. Selon la norme ISO/IEC 14598-1 le cycle de vie du logiciel débute en effet par une analyse des besoins des utilisateurs auxquels le logiciel répondra, à savoir les « exigences de qualité à l'usage ». Cette analyse conduit à des spécifications fonctionnelles qui correspondent à des « exigences de qualité externe », qui seront finalement internalisées lors de la phase de conception du logiciel en « exigences de qualité interne ». Lorsque le logiciel est implémenté, il devient possible de mesurer les différents types de qualités afin d'évaluer le logiciel. L'approche ISO distingue par conséquent trois types de caractéristiques de qualité : internes, externes et à l'usage. Les qualités internes peuvent être mesurées sans exécution du logiciel – évaluations dites « en boîte de verre » – alors que les qualités externes doivent être mesurées en faisant fonctionner le logiciel – évaluations dites « en boîte noire » où l'on s'intéresse aux résultats produits. Enfin, la qualité à l'usage doit être mesurée en plaçant le système dans un contexte d'utilisation, expérimental ou final, et en observant dans quelle mesure le système aide ses utilisateurs à accomplir leurs tâches (nous y reviendrons dans la section). Les caractéristiques de qualité internes influencent naturellement les caractéristiques de qualité externes, mais cette influence est souvent difficile à prédire pour les systèmes de TAL, comme expliqué à la section suivante. Plus difficile encore est de prédire la qualité à l'usage à partir des qualités internes et externes. D'ailleurs, si la qualité à l'usage est souvent exprimée en termes d'efficacité, efficience (ou rendement), satisfaction et sûreté de l'utilisateur, les qualités internes et externes se décomposent quant à elles selon un modèle de qualité bien différent. Les caractéristiques de qualité internes et externes d'un système sont en effet regroupées en six catégories : fonctionnalité, fiabilité, utilisabilité, efficacité (du système), possibilité de maintenance, et portabilité – catégories qui elles -mêmes se subdivisent en sous-catégories en fonction du type de système évalué et de sa tâche. Dans cette hiérarchie, les éléments dont on peut mesurer directement la qualité sont les subdivisions terminales, appelées attributs. Pour chaque attribut on utilise une métrique qui assigne à cet attribut, par le biais d'un processus de mesure, un niveau de qualité sur une échelle associée à la métrique. Évaluer un système, c'est donc mesurer sa qualité en utilisant une décomposition fondée sur un modèle de qualité accompagné de métriques pour chaque attribut pertinent dans le contexte d'utilisation prévu. L'aperçu qui précède conduit naturellement à la question suivante : en quoi les propositions de l'ISO concernent-elles le TAL, dans sa visée scientifique ou technique ? Pour ce qui est de la dimension technique, la réponse est sans ambiguïté : lorsque l'on doit déterminer si une recherche à visée applicative a abouti, il faut évaluer le logiciel construit en le comparant aux objectifs initiaux de la recherche afin de déterminer s'ils ont été atteints. Mais la question de l'évaluation est également déterminante pour les recherches fondamentales, dépourvues de visées applicatives directes. En effet, la modélisation informatique faisant partie intégrante du TAL, le succès de ces recherches est fortement lié aux performances des systèmes utilisés comme modèles. Par conséquent, afin de démontrer le succès d'une recherche à visée théorique, il faudra également rendre compte des performances du système informatique implémenté. Seule une véritable évaluation permet en effet de démontrer qu'un système possède le comportement prévu par ses concepteurs, dans des conditions expérimentales contrôlées. Ces conditions peuvent d'ailleurs varier considérablement selon la recherche entreprise : seule demeure constante la nécessité de l'évaluation. L'évaluation des performances d'un système implémenté n'est certes pas la seule source d'arguments démontrant la qualité d'une recherche fondamentale, mais s'ajoute à des considérations analytiques sur la plausibilité cognitive ou linguistique du modèle ou sur ses possibilités de généralisation. Si l'application du modèle ISO à l'évaluation d'un système informatique de TAL permet d'assurer une certaine normalisation de la procédure et de la terminologie (EAGLES EWG, 1996), cela ne résout pas les principales difficultés de l'évaluation. En effet, les nombreuses recherches en évaluation qui continuent d' être présentées aux congrès spécialisés (tels ACL, EACL, LREC ou TALN) montrent que l'évaluation en TAL demeure une question ardue, puisque d'importantes tâches ne disposent pas encore de métriques d'évaluation universellement acceptées, par exemple la traduction automatique de la langue écrite ou parlée (Blanchon et al., 2004), comme nous le verrons plus loin. La principale difficulté de l'évaluation en TAL est due, selon nous, à l'impossibilité de fournir des spécifications formelles pour les tâches de traitement faisant intervenir les données linguistiques. Il paraît en effet difficile de spécifier une telle tâche sans faire directement référence à la faculté humaine du langage. (Par exemple, on ne peut définir en termes formels la traduction d'une langue à une autre car il n'existe aucune procédure formelle permettant de vérifier qu'un texte est bien la traduction d'un autre.) Or, le modèle ISO exige une spécification formelle pour pouvoir tester si un système fonctionne conformément à ses objectifs. Par conséquent, à défaut d'une telle spécification, ce sont les métriques d'évaluation qui permettent de tester sur des exemples combien le comportement d'un système est proche de celui qui est implicitement souhaité. De surcroît, puisque la résolution de problèmes en TAL fait souvent usage d'heuristiques plutôt que d'algorithmes déterministes, il est souvent difficile d'établir un lien clair entre les qualités internes d'un système et ses qualités externes. Par exemple, le nombre de règles d'un analyseur syntaxique n'influence pas de manière directe sa couverture. Or, alors que dans la perspective ISO les qualités internes sont supposées figurer en parallèle avec les qualités externes au sein d'un modèle de qualité, dans le cas du TAL ces deux ensembles de qualités et les métriques associées seront souvent très différents, ce qui rend encore plus complexe l'ensemble des métriques à disposition. De nouvelles métriques sont régulièrement proposées en TAL – une dizaine pour la traduction automatique depuis 2002 (Hartley et Popescu-Belis, 2004; Callison-Burch et al., 2006) – alors que d'autres travaux visent à organiser les métriques existantes en modèles de qualité spécifiques à certaines tâches. L'évaluation à l'usage, fondée sur l'utilisation d'un système en vue d'accomplir une tâche possédant ses propres métriques de succès, fait figure à part, et nous y reviendrons dans la section à la fin de l'article. Les arguments ci-dessus montrent l'importance et la difficulté de l'évaluation dans le processus scientifique du TAL. Il s'agit toutefois à ce stade d'une conception très générale de l'évaluation comme moyen de comparaison entre le comportement souhaité d'un système et son comportement observé. Il ne faudrait pas conclure que tout type d'évaluation est également indispensable, comme par exemple l'évaluation sur de grandes quantités de données. Si l'évaluation est indispensable à la recherche, le type d'évaluation mis en œuvre dépend en grande partie des objectifs fixés a priori, notamment en ce qui concerne les données d'évaluation, sur lesquelles nous allons nous pencher brièvement. Les méthodes d'évaluation permettent de comparer un modèle informatique à la capacité linguistique que le chercheur vise à modéliser ou à reproduire, mais elles ne contraignent pas a priori le choix des données de test, qui peut se faire en fonction des objectifs d'une recherche. Le chercheur est certes tenu d'évaluer son système pour démontrer sa réussite, mais reste maître de délimiter un ensemble de données auxquelles celui -ci est destiné. Les débats méthodologiques qui traversent le TAL concernent ainsi davantage la nature et la taille des données d'évaluation que la présence ou l'absence d'évaluation. L'adéquation aux données est un critère essentiel de jugement d'une théorie linguistique. Les théories peuvent en effet être évaluées en considérant les phénomènes linguistiques qu'elles permettent de décrire ou d'expliquer. Cette méthodologie ne semble pas sujette à contestation, et le débat entre les différents courants linguistiques porte davantage sur la nature des données à considérer. Chomsky argumente par exemple contre l'utilisation de grandes quantités de données « brutes », leur préférant une focalisation sur des phénomènes linguistiques plus rares mais plus informatifs, un point de vue qui s'oppose ainsi aux linguistes de corpus. Une métaphore souvent utilisée par Chomsky est celle des expériences de physique qui se concentrent sur des situations en apparence sans rapport avec la réalité afin d'isoler au maximum le phénomène à expliquer. Cela revient ainsi à éliminer ses nombreuses interférences avec d'autres phénomènes, qui se manifestent dans un cadre expérimental insuffisamment contrôlé. Au sein du TAL proprement dit, il n'est pas rare de voir surgir la question de l'évaluation dans l'opposition entre approches symboliques et approches statistiques, alors que le facteur discriminant nous paraît être davantage la variété des données. Par exemple, Cunningham et al. évoquent l'exemple d'une grammaire de l'anglais conçue vers 1985 pour « couvrir un ensemble de phrases test justifié linguistiquement » mais qui ne permettait d'analyser syntaxiquement presque aucune phrase extraite au hasard d'un journal. La conclusion des auteurs est que « de tels conflits entre les résultats et l'intuition illustrent l'absence totale d'évaluation dans les projets d'analyse syntaxique de l'époque » (nous traduisons). En réalité, le fonctionnement adéquat d'un système sur un jeu de phrases test constitue une évaluation tout à fait acceptable. Ce qui pose problème dans l'exemple ci-dessus, ce n'est pas l'absence d'évaluation, mais plutôt le passage d'un ensemble de données de test sur lesquelles le système présente un comportement satisfaisant à un autre ensemble, beaucoup plus vaste, sur lequel le comportement n'est plus du tout satisfaisant. Le cas cité, exemplaire lorsque l'on évoque l'application des systèmes de TAL à des données peu contraintes, illustre plutôt la nécessité de tester un système sur des données typiques de celles qu'il aura plus tard à traiter – à l'exception du cas où l'on souhaite plutôt mesurer l'adaptabilité d'un système à un nouveau domaine ou comparer des systèmes conçus pour des domaines différents. Évaluer des systèmes de TAL sur des domaines très restreints peut être totalement légitime si ces domaines sont conformes aux objectifs d'une recherche. Les métriques d'évaluation figurent donc nécessairement dans un modèle unifié des systèmes de TAL, par delà les oppositions entre approches symboliques ou statistiques, modèles de compétence ou de performance (en termes chomskyens), approches rationalistes ou empiriques, ou systèmes de traitement à grande ou à faible échelle. Les données apparaissent comme le compagnon indispensable des métriques d'évaluation externes, et nous allons maintenant focaliser la discussion sur la place de la langue parmi ces données. Afin de pouvoir préciser notre conception de l'évaluation et développer un modèle plus spécifique des métriques d'évaluation, nous allons proposer un classement des systèmes de TAL selon la place des données linguistiques dans leur fonctionnement. Nous adoptons ici une approche inspirée de l'image de la « boîte noire » pour nous intéresser seulement aux entrées et aux sorties des systèmes de TAL. Le contenu linguistique – parlé, écrit ou même signé – peut ainsi figurer en entrée d'un système de TAL, en sortie, ou des deux côtés; le système peut ou non nécessiter une interaction avec un utilisateur humain. Lorsque la langue figure seulement en entrée d'un système de TAL, on parlera de système d'analyse ou d'annotation (type A) : ce sont le plus souvent des tâches de classification du contenu linguistique en un nombre limité de catégories. Par exemple, selon Habert, « l'annotation consiste à ajouter de l'information (une interprétation stabilisée) aux données langagières : sons, caractères et gestes. Elle associe deux ou trois volets : (i) segmentation pour délimiter des fragments de données et/ou ajout de points singuliers; (ii) regroupement de segments ou de points pour leur affecter une catégorie; (iii) (éventuellement) mise en relation de fragments ou de points » [3 ]. La compréhension automatique de textes peut être conçue comme une série de tâches d'annotation, comme dans l'approche de l'évaluation définie par les Message Understanding Conferences. Réciproquement, lorsque la langue figure seulement en sortie d'un système de TAL, on parlera de système de génération ou de synthèse (type G). Le contenu linguistique peut être généré à partir d'informations non linguistiques, comme dans le cas de la génération de bulletins météorologiques par exemple, ou bien il peut être généré par la transformation des données linguistiques d'entrée : nous parlerons alors plutôt de systèmes de type AG qui combinent l'analyse et la génération. Certains systèmes enfin n'accomplissent leur fonction qu'au terme d'un échange avec un utilisateur humain, à savoir au terme d'une série d'entrées/sorties conditionnées par des réactions de l'utilisateur, sans que l'on puisse considérer uniquement la dernière sortie du système comme le résultat de l'ensemble des échanges. Cette catégorie correspond donc aux systèmes interactifs, et en particulier aux systèmes de dialogue humain-machine. On parlera alors du type AGI même si la langue n'intervient pas toujours dans leurs entrées et sorties à la fois. La distinction de ces quatre types – A, G, AG ou AGI – est importante pour la modélisation qui va suivre, mais est-elle exhaustive ? Pour répondre à cette question, nous avons examiné les champs de recherche du TAL tels qu'ils sont classifiés par deux ouvrages récents à visée encyclopédique. Après avoir traduit les titres des chapitres selon la terminologie française usuelle, nous avons fusionné les deux listes obtenues, tout en éliminant les champs correspondant à des questions méthodologiques ou d'infrastructure (par exemple les automates à états finis ou les ontologies). Le classement selon les quatre types figure dans le tableau 1 ci-dessous. Cette analyse montre que les principaux champs de recherche du TAL se laissent aisément classer dans l'une des catégories A, G, AG ou AGI, et qu'une majorité de ces champs relèvent de l'analyse ou annotation automatique (type A). La liste des champs diffère selon les deux ouvrages utilisés – les champs qui figurent dans les deux ouvrages à la fois sont marqués avec l'exposant « 2 ». Plusieurs des champs de recherche indiqués dans le tableau 1 ont fait l'objet de campagnes d'évaluation, et nous les avons répertoriées au niveau francophone. Les tâches du tableau 1 marquées avec l'exposant « J » ont fait l'objet d'évaluations présentées aux journées du réseau FRANCIL de l'Aupelf-Uref en 1997 alors que celles marquées avec « T » ont été évaluées au sein de la récente plateforme EVALDA de l'action Technolangue. On constate ainsi que des systèmes des quatre types – A, G, AG ou AGI – ont fait l'objet d'évaluations quantitatives, avec toutefois une prédominance des systèmes d'analyse (A). Nos propositions de modélisation se concentrent également sur le type A, tout en étant applicables aux types G et AG, alors qu'une analyse du cas des systèmes AGI sera proposée dans la section finale. Le processus de recherche en TAL passe par la conception d'un modèle informatique d'une certaine fonction ou capacité linguistique. Lorsque ce modèle prend la forme d'un système à entrée/sortie, tels les systèmes de type A, G ou AG, la recherche suit généralement les étapes représentées schématiquement dans la figure 1 ci-après. Cette description ne préjuge pas de l'approche choisie pour la modélisation, et englobe aussi bien les systèmes symboliques, à base de règles, que les méthodes fondées sur l'apprentissage automatique, où la phase d'entraînement doit être clairement séparée de la phase de test. Lorsqu'une capacité linguistique est choisie au commencement d'une recherche, son étude emprunte deux chemins parallèles (figure 1). Le premier doit cerner les fondements et les limites de cette capacité chez les sujets humains, en produisant ainsi au passage des données de référence, alors que le second vise la modélisation informatique à proprement parler. L'évaluation joue un rôle clé à quatre étapes de ce cheminement, correspondant aux boîtes en trait plein sur la figure 1, la dernière boîte regroupant deux étapes. Premièrement, les métriques d'évaluation permettent de mesurer la stabilité de la capacité linguistique étudiée à travers les individus, et de déterminer les limites de fiabilité des jugements humains, en comparant plusieurs traitements des mêmes données (voir section 7.2). Si cette fiabilité est insuffisante, les instructions d'annotations, voire l'ensemble de l'étude doivent être repensés. Ensuite, ce sont également des métriques d'évaluation qui permettent l'ajustement du système ou l'apprentissage automatique (lorsqu'une telle méthode est utilisée), en indiquant au développeur ou à l'algorithme d'apprentissage une distance par rapport à la capacité linguistique idéale qui est visée. Lorsque le système est finalisé, l'évaluation proprement dite indique si son comportement est conforme à l'objectif initial, à savoir si sa fonctionnalité principale est satisfaite (voir section 7.3). Notons que pour des systèmes à visée applicative, l'évaluation doit aussi considérer d'autres caractéristiques de qualité du modèle ISO. L'extrapolation des performances futures du système à partir de son score sur les données de test, un point essentiel souvent considéré comme allant de soi, demeure une question difficile à étudier objectivement, comme le montre l'exemple de l'analyseur syntaxique cité à la section supra. L'évaluation finale n'exclut pas d'autres types d'analyses, dans la perspective de la capacité linguistique modélisée par un système. Le succès peut être mesuré également par la cohérence interne du modèle utilisé, ses analogies de structure ou de fonctionnement avec la cognition humaine, ou les indications qu'il fournit à propos des connaissances requises pour maîtriser la capacité linguistique étudiée. Enfin, si les métriques d'évaluation sont peu coûteuses à appliquer (par exemple si les scores sont calculés automatiquement), il est possible de les utiliser en vue d'analyser la contribution des divers composants du système à ses performances globales. On peut ainsi estimer l'utilité des composants individuels d'un système à base de règles ou la pertinence des traits utilisés pour l'apprentissage automatique. Par exemple, on pourra mesurer pour chaque trait la performance du système en utilisant seulement ce trait : plus la différence avec le score minimal est grande, et plus ce trait est important. On peut également mesurer la performance du système en enlevant tour à tour chaque trait : plus les performances diminuent en enlevant un trait, et plus ce trait est important pour la capacité étudiée. Que l'on se place dans la perspective des systèmes de type A, G ou AG, il faut constater que ce sont les humains qui sont considérés comme la référence de la capacité étudiée. Or, leurs performances varient à cause des erreurs d'attention et de l'ambiguïté inhérente aux données linguistiques. C'est pourquoi il est essentiel de quantifier l'accord entre les humains accomplissant une certaine tâche linguistique, ainsi que la stabilité des jugements successifs d'un même sujet, qui serviront de limite supérieure aux performances attendues des systèmes informatiques. La mesure de cet accord fait classiquement intervenir un ensemble déterminé de données d'entrée. Dans le cas des systèmes de type A, ces données sont annotées (ou catégorisées) par plusieurs sujets humains auxquels la tâche a été expliquée. Les métriques d'évaluation permettent alors d'estimer la différence ou la distance entre deux annotations, ce qui, en fonction de leur nature, peut être une tâche complexe. En outre, la définition d'une échelle de valeurs afin de déterminer un niveau d'accord acceptable constitue également un problème difficile. L'une des métriques les plus connues mesurant l'accord sur des tâches de classification linguistique est le coefficient kappa, mais la signification de son échelle de valeurs est encore sujette à discussion. Le type d'argument apparaissant dans ces discussions est bien illustré par l'exemple cité par Habert : « le paradigme actuel d'évaluation en termes de rappel/précision […] peut conduire à sous-estimer les hésitations inter et intra-annotateurs lors de la construction de données de référence. Les zones de flou semblent globalement minorées. » En d'autres termes, la dernière proposition signale que les scores calculés pour l'accord entre annotateurs ne reflètent pas convenablement la véritable importance des points de désaccord. La plupart des tâches de type A du tableau 1 peuvent être définies par une seule sortie de référence – en anglais, ground truth ou gold standard. Les données sont alors accompagnées d'une estimation de la confiance accordée à la référence, autrement dit une mesure de sa variabilité admise, dérivée de l'accord entre annotateurs. Par exemple, en recherche documentaire, on admet la possibilité que les juges puissent manquer des documents justes, ou au contraire en proposer des faux, a fortiori dans le cas du pooling automatique utilisé parfois pour construire les données de référence (Tague-Sutcliffe, 1996; Chaudiron, 2004, section 12.2.1); l'estimation de la marge d'erreur peut alors se révéler ardue ou impossible. Dans le cas des systèmes de type G ou AG, il serait illusoire de chercher à accorder les réponses des évaluateurs humains, étant donné la variabilité des résultats linguistiques considérés comme acceptables. Bien que l'on ne puisse pas exclure les erreurs de performance, il est courant de considérer chaque réponse humaine comme une référence valable de la capacité linguistique étudiée. Par conséquent, les données de référence contiennent dans ce cas un faible échantillon de réponses correctes, car l'espace de toutes les réponses correctes – phrases ou textes acceptables – est très vaste. L'étude de la capacité linguistique humaine aboutit donc à la production d'un jeu de données de référence, composé de données d'entrée brutes et d'une ou plusieurs sorties de référence (annotations ou texte générés). Les données peuvent à ce stade être divisées en deux parties : certaines seront utilisées pour développer, mettre au point, ou entraîner un système (données signalées par un « E » dans la figure 1), alors que d'autres pourront être cachées aux développeurs en vue d'évaluer plus tard le système sur des données auxquelles celui -ci n'était pas explicitement préparé (données « T »). La nature et la partition de ces données font partie des conventions a priori de la recherche entreprise, comme indiqué dans la section, et sont en partie conditionnées par le coût de production des données et par l'utilisation à laquelle on destine le système de TAL. L'évaluation d'un système de TAL obtenu comme résultat d'une recherche peut se faire selon un grand nombre de caractéristiques de qualité, suivant en cela l'approche ISO, selon laquelle l'estimation de la qualité d'ensemble dépend notamment de l'utilisation prévue. Toutefois, c'est la fonctionnalité linguistique des systèmes qui fait la spécificité et la difficulté des recherches en TAL. Alors que beaucoup de paramètres contribuent à la qualité d'un système (par exemple sa vitesse, sa convivialité, sa facilité de mise à jour), nous allons nous concentrer dans ce qui suit sur les caractéristiques de qualité relevant de la fonctionnalité, à savoir la capacité à effectuer un traitement linguistique défini par une description initiale et par des données de référence. La plupart des campagnes d'évaluation initiées par les chercheurs ou les bailleurs de fonds visent ainsi l'évaluation d'une seule caractéristique de fonctionnalité, formulée de façon indépendante d'un contexte particulier d'utilisation [4 ]. Le principe d'évaluation de la fonctionnalité, pour les systèmes A, G et AG, est la comparaison des résultats produits par le système avec ceux élaborés par les annotateurs humains pour les mêmes données d'entrée. Le critère essentiel de cette comparaison, signalé par un point d'interrogation dans la figure 1, est le niveau d'accord mesuré entre les juges humains eux -mêmes, car celui -ci fournit une véritable unité de mesure de la tolérance sur les résultats produits par le système. En d'autres mots, lorsque l'on compare les résultats du système aux résultats de référence, une distance inférieure à la distance moyenne entre les annotations humaines est synonyme de réponse correcte. De même, on ne peut départager les réponses de deux systèmes si leur distance est inférieure à la variabilité des annotations humaines. Le principe d'évaluation par comparaison des résultats du système avec les résultats de référence s'étend aux systèmes de type G ou AG, sachant toutefois que l'ensemble des réponses « correctes » n'est connu que par un échantillon de réponses. Nous allons y revenir dans les sections suivantes. L'évaluation fondée sur des données de référence et sur des mesures de similarité conçues comme des distances à un ensemble de réponses correctes est un moyen incontournable pour estimer le succès d'une recherche en TAL. Il est par conséquent utile de modéliser le fonctionnement de telles métriques, en s'inspirant notamment d'études récentes, pour en déduire ensuite quelques principes de bonne définition et d'utilisation, qui seront exposés dans la section 9.3. Nous utilisons ici le terme « métrique » en référence aux normes de l'ISO, bien que ces métriques ou distances ne satisfassent souvent pas les propriétés mathématiques d'une métrique (identité, réflexivité et inégalité triangulaire). Nous ne discuterons pas le cas des métriques internes de la fonctionnalité, qui examinent (sans exécuter le système) les caractéristiques de qualité telles que la nature des algorithmes employés ou la quantité de ressources linguistiques disponibles. Comme indiqué à la section 4, il est difficile de déterminer l'influence exacte de ces caractéristiques internes sur les performances externes des systèmes de TAL, et c'est pourquoi la grande majorité des évaluations en TAL utilisent plutôt des métriques externes (évaluations en boîte noire). Les métriques externes de la fonctionnalité peuvent être modélisées comme des distances entre la réponse d'un système (sur un certain jeu de données de test) et la réponse ou les réponses correctes attendues. L'évaluation externe de la fonctionnalité détermine si l'exécution du système résultant d'une recherche en TAL est proche du comportement satisfaisant, celui -ci étant défini comme l'ensemble de résultats acceptables possibles, obtenus par traitement des données de référence. Cet ensemble peut ou non être explicité; ses frontières peuvent être plus ou moins nettes; sa taille peut être très faible (une seule réponse correcte ou presque) ou bien très grande (notamment si la réponse prend la forme d'un texte entier); toutefois, son existence formelle paraît difficile à contester, au risque de ne pouvoir indiquer ce qu'est une réponse satisfaisante. Réciproquement, on peut formuler l'hypothèse qu'il est nécessairement difficile d'évaluer la fonctionnalité propre au TAL sans disposer des ressources externes que sont les données de référence ou les juges humains. En effet, si une telle métrique « intrinsèque » était trouvée, elle serait sans doute incorporée par les développeurs dans leurs systèmes afin de guider ceux -ci dans la recherche des réponses optimales. Une telle métrique serait donc au fond équivalente à une heuristique spécifique au problème traité, et par conséquent rendrait l'évaluation superflue, du moment qu'elle guiderait nécessairement le système vers une réponse optimale. Tant que les développeurs ne pourront trouver une telle métrique (que la nature même du langage semble exclure), l'évaluation reste indispensable, en utilisant des données de test accompagnées d'annotations ou de réponses de référence, que les développeurs ne connaissent pas à l'avance. La question de savoir si l'ensemble des réponses satisfaisantes peut être déterminé avec une précision convenable relève de l'étude de la capacité linguistique humaine (partie gauche de la figure 1). Il semble plus facile d'aboutir à un accord des juges humains sur des annotations (type A) que sur du texte généré (types G ou AG). Comme nous l'avons indiqué dans la section 7.2, dans le premier cas, l'annotation attendue pour un jeu de données d'entrée pourra être unique ou presque unique, alors que dans le second cas l'ensemble des réponses satisfaisantes sera vaste et en pratique impossible à énumérer. C'est pourquoi les métriques externes, dans le second cas, font souvent appel à des juges humains, qui pourront déterminer grâce à leurs compétences linguistiques si une réponse du système appartient ou non à l'ensemble des réponses satisfaisantes. Ainsi, alors que les annotateurs humains construisent directement l'ensemble des réponses satisfaisantes pour les tâches de type A, les évaluateurs humains vérifient mentalement si une réponse produite par un système de type G ou AG figure dans cet ensemble. Selon la nature du système, la conception des métriques comme distances doit être précisée comme suit. Dans le cas des tâches d'analyse (A), la réponse correcte étant connue pour les données de test (unique ou avec une faible variation), la difficulté de l'évaluation réside dans la quantification de la distance entre un résultat produit par un système et la réponse correcte. S'il est en général facile de vérifier par une procédure automatique (et a fortiori par des juges humains) qu'une réponse est identique à la réponse correcte, il est bien plus difficile d'estimer une distance lorsque ces réponses sont différentes. La difficulté à quantifier les distances est illustrée par les systèmes de résolution de la référence, pour lesquels toutes les distances entre annotations qui ont été proposées sont complexes à définir. De manière analogue, l'insuffisance des mesures simplistes de la distance entre deux étiquetages des actes de dialogue a été récemment signalée. Les métriques d'évaluation fondées sur les distances s'étendent également aux systèmes de type G ou AG [5 ]. L'ensemble des réponses « correctes » n'est alors plus connu que, au mieux, par un échantillon de réponses, de taille en général extrêmement réduite par rapport à l'ensemble tout entier. La qualité d'un résultat, à savoir sa distance à l'ensemble des réponses correctes, doit être estimée à partir de la distance à chacun des éléments de l'échantillon – une estimation a priori loin d' être déterministe, mais qui passe aussi par le calcul d'une distance entre la réponse et chaque élément. Les solutions proposées consistent souvent en une distance qui peut être calculée automatiquement, puis en une suite d'estimations sur un ensemble de données de test, en espérant une convergence des distances estimées vers une valeur stable grâce à la loi des grands nombres. Ainsi, Soricut et Brill (2004) proposent un cadre général pour des métriques automatiques fondées sur des n - grammes pouvant être appliquées à diverses tâches de type AG et pouvant reproduire divers types de jugements humains, guidés soit par le rappel soit par la précision. L'illustration typique des systèmes de type AG est fournie par l'évaluation des systèmes de traduction automatique. Si l'on se restreint, pour simplifier, à l'évaluation phrase par phrase, on constate que l'ensemble des traductions acceptables d'une phrase donnée est potentiellement vaste (selon le domaine et la longueur) mais borné. Par conséquent, il a été proposé d'estimer la distance d'une phrase candidate à l'ensemble des traductions acceptables en calculant la distance à un échantillon de 1 à 4 phrases seulement. Ainsi, la métrique Bleu calcule la distance entre deux phrases grâce au nombre de n - grammes commun (n = 1, 2, …). Testée empiriquement, Bleu fait montre d'une certaine corrélation avec les jugements humains, mais de nombreuses exceptions ont été signalées (Culy et Riehemann, 2003; Callison-Burch et al., 2006). Par exemple, l'évaluation d'une bonne traduction humaine ne faisant pas partie de l'échantillon de référence est souvent loin d'obtenir des scores Bleu élevés. Les juges humains, quant à eux, utilisent parfois également des échantillons de référence pour estimer la qualité d'une réponse – ils y sont même obligés s'ils ne connaissent pas la langue source – et calculent mentalement des distances fondées en général sur le contenu sémantique et l'acceptabilité linguistique. Le défi des évaluateurs, selon notre modèle, est de définir des distances entre des « réponses » (annotations ou textes générés) qui puissent mesurer véritablement les capacités linguistiques désirées. Ces métriques seront le plus souvent utilisées également par les développeurs de systèmes qui chercheront à maximiser les performances quantitatives obtenues, y compris dans le cas où les développeurs jouent aussi le rôle d'évaluateurs. Or, s'il paraît légitime d'améliorer un système de TAL en se guidant sur l'évaluation – comme nous l'avons fait pour la résolution des co-références dans – le risque est que l'amélioration des scores ne traduise pas une véritable amélioration de la « qualité », si les métriques utilisées n'approximent qu'imparfaitement la qualité visée. Du point de vue des évaluateurs, l'objectif de l'évaluation est de dégager la « qualité » d'un système dans un contexte d'utilisation bien délimité, mais qui ne peut pas être entièrement connu à l'avance notamment à cause de la variabilité et de l'innovation constante du contenu linguistique à traiter. Par conséquent, l'un des plus grands biais d'une évaluation est d'utiliser des données de test qui ont déjà été à disposition des développeurs du système. Dans ce cas, le résultat du système sera en principe très proche de la réponse correcte, et donc illustre très mal sa capacité future à traiter des données non vues auparavant. Les développeurs chercheront quant à eux à approximer au mieux le contexte futur d'utilisation du système, et en particulier à optimiser (légitimement) le système pour le type particulier de données le caractérisant. Les développeurs pourront également tenter d'optimiser le système par rapport à la métrique d'évaluation utilisée dans ce processus. Que peuvent alors faire les évaluateurs pour mesurer la véritable qualité des systèmes ? La réponse passe encore une fois par un usage raisonné des métriques. Idéalement, la distance entre le résultat d'un système et l'ensemble des réponses correctes devrait refléter la qualité du résultat telle qu'elle serait estimée par des juges humains en contexte. Optimiser un système selon une telle métrique reviendrait alors certainement à augmenter sa qualité. Mais il est souvent difficile ou impossible de trouver une telle distance. Une solution prudente consiste alors à utiliser plusieurs métriques « imparfaites » et de ne considérer comme valides que les comparaisons confirmées par toutes les métriques, ou par une majorité d'entre elles [6 ]. L'exemple classique de distances imparfaites mais complémentaires sont les métriques de rappel et de précision, définies à l'origine pour la recherche documentaire, mais applicables à toute tâche visant à identifier des éléments pertinents parmi un ensemble d'éléments candidats. Aucune des deux métriques ne mesure à elle seule la distance entre l'ensemble des éléments identifiés par le système et l'ensemble correct; c'est leur moyenne harmonique, ou f-mesure, qui est en général utilisée. L'utilisation de métriques complémentaires inspirées du rappel et de la précision a aussi été proposée pour la reconnaissance automatique de la parole, où le taux d'erreur de mots semblait pourtant être une métrique unique suffisante. De la même façon, les performances des systèmes de résolution des co-références sont souvent énoncées selon plusieurs métriques. Enfin, la traduction automatique est l'un des domaines où la multiplication des métriques et le risque d'optimisation sur la plus utilisée sont très plus visibles, comme nous allons le montrer. Dans le cas de la traduction automatique, il a été observé que l'utilisation d'un modèle de langage pour contraindre la sortie d'un système, comme le font tous les systèmes statistiques, permet d'améliorer le score de la métrique Bleu. Le risque que les systèmes de traduction soient optimisés pour Bleu et ne visent plus directement une qualité perceptible par les humains est ainsi souligné par l'un des responsables des campagnes DARPA GALE, J. Olive : « Une bonne partie de l'amélioration des technologies de traduction automatique durant les deux ou trois années précédentes est due aux approches statistiques couplées à des procédures d'optimisation utilisant Bleu. Je crains toutefois que ce paradigme ne soit en train d'atteindre ses limites, si ce n'est déjà fait ». De nouvelles métriques ont donc récemment été étudiées pour les campagnes DARPA GALE, notamment la métrique HTER, qui requiert des juges humains mesurant le temps de post-édition nécessaire pour corriger des traductions automatiques. On constate ainsi un retour aux évaluateurs humains déjà utilisés pour estimer la fidélité et l'intelligibilité des phrases traduites, mais leur coût reste beaucoup plus élevé que celui des métriques automatiques. Ce retour peut être le signe d'une amélioration notable des systèmes de traduction automatique, puisque les distances fondées sur les n-grammes deviennent peu fiables lorsque les traductions se rapprochent par leur qualité et par leur variabilité des traductions humaines. Une solution possible pour préserver l'usage des métriques « automatiques » repose sur l'utilisation de plusieurs métriques différentes, comme dans la campagne française CESTA (Hamon et al., 2006). Les campagnes organisées par le NIST aux Etats-Unis, dans le cadre du programme TIDES, utilisent également plusieurs métriques; même si dans le rapport final officiel ne figurent que les scores Bleu. En réalité, et à usage interne, ces campagnes utilisent en plus trois autres métriques automatiques, ainsi que des jugements humains sur une partie des données (NIST, 2006). La variation corrélée de plusieurs métriques fournit alors un indice plus fiable d'une différence de qualité que la variation d'une seule métrique. La responsabilité des évaluateurs est d'utiliser des métriques d'évaluation qui reflètent le plus précisément possible la qualité recherchée, ou, à défaut, des combinaisons de métriques complémentaires. En principe, les métriques calculées par des juges humains fournissent une référence pour les jugements de qualité, mais elles sont coûteuses à appliquer et par conséquent difficilement reproductibles en dehors des campagnes d'évaluation. Les distances qui peuvent être calculées automatiquement sont quant à elles beaucoup plus facilement utilisables par les développeurs. Outre la nécessité, énoncée plus haut, que ces métriques capturent la fonctionnalité linguistique désirée, un certain nombre d'autres critères de cohérence doivent être satisfaits. Une métrique définie comme distance à un ensemble de réponses correctes doit d'abord satisfaire les critères dits de « borne supérieure » et « borne inférieure ». La distance devrait atteindre sa valeur minimale (correspondant au meilleur score) pour les résultats corrects et seulement pour eux. Si cela est souvent le cas pour les distances qui comparent des annotations (dans la limite de l'accord entre annotateurs), le critère est moins souvent satisfait pour la comparaison de textes générés, du fait des grandes différences entre plusieurs textes acceptables. Inversement, une distance devrait atteindre sa valeur maximale (correspondant au score minimal) sur les réponses des systèmes dits « minimaux » (en anglais baseline), en d'autres mots pour les plus mauvaises réponses et seulement pour celles -ci. Ce critère est difficile à vérifier car il est difficile d'examiner toutes les réponses minimales possibles, qui peuvent être les réponses d'un système aléatoire, celles d'un système facile à construire, ou celles d'un système qui fait toujours les mauvais choix. Par ailleurs, il est souvent difficile de calculer la valeur minimale théorique d'une métrique, et encore plus difficile de trouver des exemples concrets de réponses qui obtiennent effectivement ce score. Ces incertitudes peuvent être vues comme autant de failles d'une métrique, que les développeurs pourront exploiter pour augmenter leurs scores avec un minimum d'effort. Un critère plus général de cohérence est celui de la monotonie : la distance par rapport aux réponses correctes d'un résultat X meilleur qu'un autre résultat Y devrait être plus faible que celle de Y. La vérification de ce critère passe souvent par une étude de corrélation avec les jugements de qualité humains [7 ]. En outre, une distance peut être plus indulgente (respectivement plus sévère) qu'une autre si les scores qu'elles fournit sont systématiquement plus élevés (respectivement plus faibles) que ceux de l'autre. Ces notions permettent d'expliquer pourquoi la mesure kappa est préférable à d'autres pour mesurer l'accord entre annotateurs : kappa est plus sévère que la f-mesure lorsque les deux annotations sont proches, donc elle permet d'estimer plus précisément de faibles différences d'annotation. Notre analyse a mis en évidence le rôle central des métriques d'évaluation en TAL et les défis que leur définition pose aux évaluateurs. Quelle que soit la visée d'une recherche en TAL, la mesure de son succès passe par l'évaluation du système développé, dans des conditions conformes aux objectifs de la recherche. L'évaluation permet aussi de définir une marge d'erreur sur les scores attendus, grâce à l'étude de l'accord entre annotateurs humains. Quant à la mesure des performances, les métriques externes fondées sur la distance entre un résultat et un ensemble de réponses correctes offrent aux évaluateurs flexibilité et reproductibilité. C'est pourquoi elles sont fréquemment utilisées, parfois accompagnées de métriques impliquant des juges humains lorsque l'évaluation requiert davantage de fiabilité. Étant donné le rôle central de l'évaluation, il ne serait pas absurde de conclure que le problème épistémologique central de toute question étudiée en TAL est la définition de métriques d'évaluation ainsi que l'élaboration de données de référence. La définition de chaque question apparaît en effet inséparable de la définition d'une métrique d'évaluation. Il est toutefois une classe de systèmes auxquels le modèle des métriques comme distances entre des résultats ne semble pas s'appliquer : ce sont les systèmes interactifs, notés AGI dans notre classification. Ces systèmes, appelés aussi « symbiotiques », ne produisent de résultats qu'après une série d'interactions avec un utilisateur humain, et c'est pourquoi le modèle à entrée/sortie s'applique difficilement à eux, bien que leurs composants soient parfois des modules du type A ou G. Les méthodes d'évaluation de ces systèmes, à défaut de s'appuyer sur des mesures externes de la fonctionnalité, font appel aux méthodes d'évaluation fondées sur la tâche ou à l'usage. Une analyse de ces méthodes d'évaluation qui soit compatible avec l'approche généralisatrice proposée ici est également possible, mais dépasse les objectifs de notre article. Une première distinction séparerait l'évaluation fondée sur une tâche, au cours de laquelle le système évalué est utilisé par des sujets humains ou par d'autres modules informatiques dans un contexte idéalisé (mais en principe représentatif d'un contexte réaliste à venir), de l'évaluation à l'usage, qui place le système dans un contexte d'utilisation réel, avec des utilisateurs finaux [8 ]. L'évaluation par la tâche a été discutée pour la traduction automatique par White et al. (2000). Cette approche a inspiré également une métrique récente, HTER, qui mesure le taux d'erreur de traduction en observant l'effort de post-édition nécessaire à un éditeur humain afin d'obtenir une traduction de qualité à partir d'une traduction automatique (Snover et al., 2006). L'évaluation à l'usage, en termes d'efficacité, rendement, satisfaction et sûreté présuppose une définition encore plus précise de la tâche et du contexte. Dans les deux cas, les principaux problèmes semblent être le coût de l'évaluation et la possibilité de généraliser les résultats obtenus à des tâches ou à des contextes d'utilisation différents. Le rôle de l'utilisateur humain est en réalité important pour tous les types de systèmes. En effet, comme l'ont montré les travaux des projets EAGLES et ISLE, la définition d'un modèle de qualité est inséparable de l'analyse préalable du contexte d'utilisation prévu pour un système de TAL. L'importance des caractéristiques de qualité requises d'un système dépend considérablement de la façon dont il sera utilisé, qu'il s'agisse par exemple des systèmes de recherche d'information ou de traduction automatique. L'analyse que nous venons de présenter se situe toutefois en amont de la théorie des modèles de qualité contextuels, puisqu'elle vise spécifiquement les métriques associées aux caractéristiques de qualité portant sur la fonctionnalité externe des systèmes de TAL, et non la pondération de ces métriques au sein d'un modèle de qualité complexe. Les développeurs et les évaluateurs institutionnels se concentrent souvent sur les caractéristiques de la fonctionnalité, car celles -ci mesurent les progrès accomplis pour répondre aux défis contemporains du TAL. Si un contexte de qualité précis est spécifié lors d'une évaluation, et a fortiori s'il s'agit d'une évaluation à l'usage, un modèle de qualité riche devra être utilisé. En revanche, si l'évaluation concerne une technologie générique, fondamentale, les métriques du type décrit ici seront alors de première importance . | RÉSUMÉ. Le traitement automatique des langues (TAL) relève à la fois de la démarche scientifique et de la démarche technologique. Dans les deux cas, l'évaluation des systèmes informatiques implémentés est indispensable pour estimer le succès d'une recherche. S'inspirant du cadre ISO pour l'évaluation des logiciels, et utilisant une typologie des systèmes de TAL fondée sur la place de la langue parmi les données d'entrée ou de sortie, cet article analyse le rôle central des métriques d'évaluation à plusieurs étapes du processus de recherche en TAL. L'accent est mis sur les métriques qui comparent un résultat produit avec des résultats corrects attendus. L'analyse de plusieurs situations d'évaluation, en particulier le cas des systèmes de traduction automatique, illustre l'importance d'un choix cohérent des métriques et de l'utilisation conjointe de plusieurs métriques. L'influence du contexte d'utilisation sur le choix des métriques et le cas des systèmes interactifs sont discutés en conclusion . | scientext_ling_art_238_Tal_PopescuBelis_en_tete_div.xml |
termith-770-scientext | La communication alternative désigne un ensemble d'outils d'aide à la communication pour des personnes handicapées atteintes dans leur motricité et leur capacité de production de parole. Il s'agit par exemple de patients atteints de pathologies neurodégénératives totalement paralysantes ou encore de personnes victimes d'accidents vasculaires cérébraux. Ces patients ne gardent le contrôle que de quelques muscles(comme la paupière) et ne peuvent plus parler. Pour d'autres pathologies, certains types d'aphasies par exemple, les capacités linguistiques et cognitives sont affectées et des stratégies alternatives comme la communication non verbale à base d'icônes doivent être utilisées. L'objectif de ce type de système est de permettre à l'utilisateur d'améliorer voire de rétablir la possibilité de communication avec son entourage en offrant la possibilité de composer des messages, de piloter un système de synthèse de parole ou encore de désigner des objets ou des actions. Il s'agit donc de prendre en compte les besoins effectifs des utilisateurs dans une situation réelle de communication, et d'intégrer des modalités multiples d'interaction pour le support de la communication et le contrôle de l'environnement (voir par exemple (Vaillant, 1997) et (Brangier et Gronier, 2000)). L'aide à la communication de personnes handicapées est un problème majeur, mais qui peut aujourd'hui bénéficier de la maturité technologique des travaux menés dans le domaine de la linguistique, la linguistique-informatique, l'ergonomie et la psychologie cognitive. Les réponses apportées à ce jour ne sont pas totalement satisfaisantes, notamment pour ce qui concerne les modalités d'interaction entre l'utilisateur handicapé et son environnement humain ou électronique (voir par exemple (Maurel et al., 2000)).Quelques systèmes d'aide à la communication en langue française sont aujourd'hui proposés sur le marché. Citons par exemple pour le verbal : WiViK, clavier virtuelavec prédiction de mots et principe de défilement en option, permettant également le contrôle du système d'exploitation; Eurovocs Suite, claviers virtuels et prédiction de mots basée sur un dictionnaire contenant 35 000 formes. Et pour la communication non verbale : Clicker 4, outil d'aide à la communication à base d'icônes; MindExpress, un système de communication non verbale à base d'icônes qui intègre une reformulation rudimentaire; Axelia, destiné aux jeunes enfants IMC (Infirme Moteur Cérébraux) et aphasiques, accessible via une interface graphique évoluée, qui base sareformulation sur l'application du modèle de la grammaire applicative et cognitive(voir (Abraham, 2000) et (Abraham, 2006)). Il existe enfin un certain nombre d'applications expérimentales développées dans le milieu académique : par exemple, Vitipi (Boissière et Dours, 2000), HandiAS (Le Pévédic, 1997) ou Kombe (Pasero et Sabatier, 1995), mais qui ne sont pas véritablement distribués au grand public. Signalons toutefois le système Sibylle (Schadle, 2003) (Wandmacher et al., 2007), un clavier orthographique optimisé pour la modalité défilement et muni d'un moteur de prédiction de mots très efficace, qui sera prochainement disponible en libre accès. La Plateforme de Communication Alternative (PCA), a été developpée au Laboratoire Parole et Langage par une équipe pluridisciplinaire constituée de chercheurs en informatique et en linguistique, de psychologues cognitivistes et d'ergonomes, d'électroniciens, de médecins et rééducateurs ainsi que de centres d'accueil et d'associations de handicapés. Distribuée depuis début 2004, la PCA est caractérisée par son homogénéité, sa généricité et son évolutivité, trois points clés pour tout système de communication assistée (Copestake, 1997). Le logiciel PCA permet la composition assistée de messages selon deux modes principaux : le mode verbal et le mode non verbal (Blache et Rauzy, 2003) (Bellengier et al., 2004). Ces deux types de composition sont accessibles par le clavier, la souris, ou une procédure de défilement controlée par un capteur binaire, selon le degré de motricité des utilisateurs (Blache et Rauzy, 2004) (une version de démonstration de la PCA est disponible sur le site www.aegys.com). La composition en mode non verbal s'effectue à l'aide d'un clavier d'icônes. La base d'icônes générale partagée par tous les utilisateurs regroupe environ 750 pictogrammes qui ont été dessinés à partir d'une chartre graphique et sémantique élaborée par le Laboratoire Parole et Langage. Elle couvre des besoins communicationnels variés. La base comprend environ 200 verbes (les verbes les plus courants et des verbes spécialisés utilisés par exemple dans le domaine médical), environ 200 noms communs (désignant des objets, des lieux, des personnes, etc.), une cinquantaine d'adjectifs, les pronoms, les adverbes, les déterminants, les prépositions les plus courantes, et les nombres. La base comprend de plus les icônes représentant les lettres et les phonèmes qui permettent de créer des claviers alphabétiques ou phonétiques. Chaque utilisateur pourra ensuite créer et ajouter, via une interface facile d'accès, ses propres icônes (à partir de photos numériques par exemple). Le système incorpore un module de reformulation iconique qui génère, à partir de la séquence d'icônes composée, une phrase en langage naturel syntaxiquement et sémantiquement correcte (Blache et Rauzy, 2007). La composition en mode verbal s'effectue à l'aide d'un clavier virtuel orthographique statique complété par un clavier dynamique de proposition de mots. Le moteur de prédiction implanté dans PCA utilise un lexique très couvrant du français et propose une prédiction contextuelle incluant l'information sur les traits morphosyntaxiques associées aux entrées du lexique ainsi qu'un modèle utilisateur qui prend en compte les habitudes langagières de l'utilisateur par apprentissage. Nous décrivons dans cet article le modèle de langage sous-jacent au moteur de prédiction de mots de la PCA. Dans la section 2, nous présentons le principe de fonctionnement de la PCA Orthographique. Le modèle de langage du moteur de prédiction de mots est décrit section 3 et son évaluation est conduite section 4. Nous résumons finalement section 5 les principaux résultats obtenus, et proposons des pistes en vue d'améliorer l'efficacité du système. La PCA dans sa version orthographique est principalement destinée aux personnes possédant une bonne maîtrise de l'écrit, mais qui souffrent de sévères troubles moteurs les empêchant de la mettre en oeuvre naturellement. Le problème est tout d'abord de proposer une solution adaptée à chaque utilisateur handicapé pour piloter le logiciel d'aide à la communication. L'évaluation du niveau de motricité de l'utilisateur est donc fondamentale et la recherche de capteurs adaptés doit tenir compte des facteurs tels que le taux d'échecs, la charge cognitive, le confort, la rapidité et la fatigabilité de l'utilisateur. D'autre part, le problème réside dans la lenteur de saisie des messages écrits (en moyenne 1 à 5 mots par minute sur un clavier non dédié (Wandmacher et Antoine, 2006)). Le logiciel d'aide à la communication doit donc proposer à l'utilisateur des procédés permettant d'accélérer la vitesse de composition des messages. Dans cette section, nous décrivons les modalités d'accessibilité permettant de piloter l'application, le clavier de lettres optimisé pour accélérer la saisie des messages et la stratégie à suivre pour composer des messages avec la PCA Orthographique. Trois modalités d'accessibilité sont proposées pour contrôler le logiciel PCA, selon le degré de motricité de chaque utilisateur. Quelle que soit la modalité d'accessibilité employée pour composer un message, les grands principes d'utilisation de la PCA ainsi que l'interface graphique restent inchangés. Ainsi, un utilisateur amené à changer de modalité d'accessibilité au cours de l'évolution de sa pathologie n'aura pas à réapprendre le fonctionnement du logiciel (c'est le cas par exemple pour les utilisateurs atteints d'une pathologie neurodégénérative ou pour les utilisateurs en phase de remédiation). La modalité Clavier : l'utilisateur interagit avec l'ordinateur en utilisant le clavier physique de l'ordinateur, c'est-à-dire en appuyant sur les lettres et les touches de fonction du clavier. Cette modalité requiert de l'utilisateur la capacité de déplacer le bras au-dessus du clavier (le mouvement peut être lent), de sélectionner la touche (un guide-doigts peut être utilisé pour pallier des tremblements non contrôlés) et d'exercer une pression sur la touche. La modalité Souris : l'utilisateur a la possibilité de contrôler le déplacement du curseur de la souris à l'écran, en utilisant la souris standard de l'ordinateur, un trackball ou un joystick. Cette modalité peut être proposée à un utilisateur possédant encore la motricité du poignet (même de faible amplitude). Des solutions alternatives, consistant par exemple à associer les déplacements du pointeur de la souris aux mouvements de la tête de l'utilisateur filmé par une webcam, peuvent aussi être retenues comme procédé de pointage. La touche virtuelle pointée est ensuite sélectionnée par une interaction binaire déclenchée par un capteur ou un contacteur. Dans ce cas, l'utilisateur a la capacité de contrôler un mouvement intentionnel (pression du doigt, émission d'un souffle, clignement de la paupière, etc.) détecté par le capteur. Un mode pour sélectionner automatiquement la touche virtuelle pointée au bout d'un certain délai est aussi proposé. 5 La modalité Défilement : l'utilisateur a la capacité de contrôler un mouvement intentionnel qui est transformé en interaction binaire. Un curseur défile automatiquement sur les touches des claviers virtuels. Lorsque le curseur passe sur la touche désirée, l'utilisateur sélectionne la touche virtuelle en activant le capteur. Le clavier virtuel de lettres est présenté figure 1. Il s'agit d'un clavier statique dont la disposition des caractères est optimisée pour la modalité d'accessibilité défilement. Dans ce cas, la sélection des touches se fait selon un défilement ligne-colonne. Deux interactions avec le capteur sont ainsi nécessaires pour saisir un caractère, une interaction pour sélectionner la ligne contenant la touche et une interaction pour sélectionner la touche sur cette ligne. Le temps d'accès est proportionnel à la somme de la position de la ligne et de la colonne de la touche dans le clavier (voir par exemple (Copestake, 1997)). Les lettres sont donc disposées en diagonale suivant leurs fréquences d'utilisation (pour le français), des plus fréquentes en haut à gauche aux moins fréquentes en bas à droite (i.e. deux temps de défilement sont nécessaires pour accéder à la lettre a, trois pour e et s, quatre pour i, r et n. .., neuf pour -, k et z). Nous avons choisi d'enfreindre localement cette organisation en fréquences afin de regrouper les voyelles sur la première ligne du clavier. La touche intitulée « fin » est utilisée pour signaler la fin de saisie du mot lorsqu'une nouvelle entrée est ajoutée au lexique personnel de l'utilisateur. Un système d'onglets (les touches bleu-gris au bas du clavier) permet à l'utilisateur d'accéder aux autres jeux de caractères. On trouve notamment le clavier des majuscules, celui des chiffres, parenthèses, et symboles mathématiques, celui des caractères accentués, et le clavier des caractères spéciaux. Afin d'éviter de changer d'onglets à chaque saisie de lettres accentuées ou majuscules, les touches du clavier de saisie représentent en fait plusieurs caractères. La touche e par exemple permet de saisir le caractère e ou ses diacritiques è, é, ê et ë ou le caractère E. La désambiguïsation entre ces différents caractères est réalisée automatiquement lorsque l'utilisateur sélectionne le mot souhaité dans la liste des mots proposés par le moteur de prédiction. Ce mécanisme permet de limiter l'utilisation des claviers de lettres accentuées ou de majuscules à la saisie des nouveaux mots ajoutés par l'utilisateur à son lexique personnel. Il offre de plus à l'utilisateur rencontrant à l'usage des problèmes d'accentuation la possibilité d'accéder à la bonne orthographe du mot. Le clavier dynamique de prédiction de mots occupe une place centrale dans la procédure de composition de messages. Il permet d'une part de réaliser une économie d'interactions et un gain de temps considérable. D'autre part, compte tenu de la très bonne couverture du lexique, la consultation de la liste des mots proposés offre à l'utilisateur un procédé pour vérifier l'orthographe du mot en cours de composition. La composition d'une phrase s'effectue mot à mot en s'appuyant sur les propositions du système. Pour composer une phrase, il est recommandé de respecter le cycle d'opérations suivant : – lecture de la liste des mots proposés par le moteur de prédiction; – sélection du mot si il est présent dans la liste; le mot est ajouté à la phrase en cours de composition, la composition du mot suivant débute; les ajouts des espaces entre les mots et des majuscules en début de phrase sont gérés automatiquement; – le mot n'est pas présent dans la liste, ajout d'une lettre au mot en cours de composition; l'opération est à reproduire jusqu' à l'apparition du mot souhaité dans la liste des propositions; – en fin de phrase, saisie d'une ponctuation. À tout moment, une touche de correction permet à l'utilisateur d'annuler la ou les dernières opérations effectuées. Une fois le message composé, la PCA offre la possibilité de faire prononcer le texte par une synthèse vocale, de mémoriser le texte dans un fichier, d'envoyer le message par e-mail ou d'effectuer des opérations d'édition sur une partie du message. Le système de prédiction de mots implanté dans la PCA utilise un lexique général du français de 320 000 formes orthographiques dont les fréquences d'usage et les traits morphosyntaxiques associés sont fournis. Un lexique personnel permet de compléter le lexique général en mémorisant les mots inconnus composés par l'utilisateur. Un module d'apprentissage stocke les phrases produites au cours de la composition des messages et calcule les fréquences d'usage propres à l'utilisateur. Le moteur de prédiction possède ainsi un modèle utilisateur qui s'enrichit au fur et à mesure de l'utilisation du système. Le principe directeur du moteur de prédiction de mots est de proposer les mots les plus fréquents sur la base des informations de fréquence d'usage contenues dans les lexiques. Un module de prédiction morphosyntaxique vient ensuite modifier les fréquences lexicales en fonction du contexte syntaxique du mot en cours de saisie. Le schéma de fonctionnement du moteur de prédiction est présenté figure 2. Le système propose à l'utilisateurNprop propositions affichées dans un clavier dynamique (le nombre de propositions affichées est réglable, de 1 à 9 propositions). La liste des mots proposés évolue à chaque fois que l'utilisateur sélectionne une ponctuation ou un mot dans le clavier de propositions (événement Nouveau mot ou ponctuation) ou ajoute une lettre au mot en cours de composition (événement Nouvelle lettre). Lorsqu'un nouveau mot ou une ponctuation est saisi, il est ajouté au contexte de la phrase en cours de composition (dans le cas d'un début de phrase, ce contexte est réinitialisé). Les fréquences provenant des lexiques sont initialisées (voir sections 3.1 et 3.2 pour plus de détails). Le module de prédiction morphosyntaxique modifie la fréquence de chaque entrée lexicale en fonction des traits morphosyntaxiques qui lui sont associés, et compte tenu du contexte syntaxique de la phrase (voir section 3.3). Le module permettant de donner plus de poids aux phrases déjà composées par l'utilisateur est ensuite appliqué (voir section 3.4). Enfin, dans les cas d'élision, les fréquences des graphies à rejeter sont mises à zéro. Lorsqu'une nouvelle lettre est ajoutée au mot en cours de composition, deux opérations sont effectuées. La première consiste à mettre à zéro les fréquences des entrées correspondant aux propositions précédemment affichées (et donc non sélectionnées par l'utiliseur). La seconde opération consiste à appliquer un filtre qui élimine toutes les entrées qui ne commencent pas par les lettres déjà saisies. Pour les deux types d'événements, les Nprop mots les plus fréquents sont ensuite extraits sur la base des fréquences recalculées et finalement triés par ordre alphabétique pour être affichés dans le clavier de proposition. Le lexique utilisé par le moteur de prédiction de mots de PCA est extrait du lexique DicoLPL (VanRullen et al., 2005). Il s'agit d'un lexique très couvrant du français comportant 440 000 entrées défactorisées correspondant à 320 000 formes orthographiques différentes. Pour chaque entrée, DicoLPL fournit la forme orthographique, la forme phonétisée, la catégorie morphosyntaxique, le lemme, et la fréquence d'usage. Les fréquences d'usage ont été calculées sur un corpus de 143 millions de mots environ tirés du journal Le Monde (VanRullen et al., 2005). La figure 3 illustre quelles sont les propriétés de couverture associées au lexique DicoLPL. Sur l'axe des abscisses, les formes ont été classées par fréquences d'occurrence décroissantes. La forme 1 correspond ainsi à la préposition de, la forme apparaissant le plus fréquemment en français, suivie de la deuxième forme la plus fréquente et, etc. Sur l'axe des ordonnées est noté le taux de couverture des n-premières formes les plus fréquentes. Ainsi, les 10 formes les plus fréquentes composent en moyenne 21 % des énoncés du français, les 10 000 formes les plus fréquentes composent en moyenne 90 % des énoncés, etc. Un lexique limité aux 10 000 formes les plus fréquentes couvrirait en moyenne 90 % du français, ou autrement dit, pour des énoncés de 100 mots, 10 mots en moyenne seraient absents de ce lexique de 10 000 formes. Il est intéressant de noter que les 54 000 formes les plus fréquentes couvrent 99 % du français et que seules 181 000 des 444 000 formes composant notre lexique ont été observées dans le corpus de 143 millions de mots analysés. Les formes peu usitées, au nombre de 263 000, soit 60 % du lexique environ, sont en majorité composées de verbes (à 80 %), de noms communs (à 15 %) et d'adjectifs (à 5 %). formes classées par fréquence décroissante Chaque entrée du lexique général de PCA correspond à une forme orthographique à laquelle est associée sa fréquence générale fG et la liste des catégories morphosyntaxiques caractérisant le mot. Cette liste possède ainsi plusieurs éléments en cas d'ambiguïté syntaxique (e.g. l'entrée montre propose {Noun, Verb} comme catégories morphosyntaxiques). Lorsque l'utilisateur compose un mot inconnu, c'est-à-dire absent du lexique général, le mot est mémorisé, après une demande de confirmation, dans le lexique personnel de l'utilisateur. Par défaut, les mots inconnus ajoutés sont classifiés comme nom propre (c'est souvent pertinent en pratique compte tenu de la bonne couverture du lexique général). Les entrées du lexique général et du lexique personnel sont fusionnées pour former la liste des mots du lexique global. Après chaque utilisation, la production de l'utilisateur est analysée. Les fréquences d'usage propres à l'utilisateur sont mémorisées dans un fichier qui s'enrichit au cours des utilisations répétées. La prise en compte des fréquences propres est modélisée pour chaque entrée i de la liste des mots du lexique global (de taille NL) par l'équation : fL,i =1 AL (NG × fG,i + NA × fP,i) avec AL tel que XNL i=1 fL,i = 1 [1] La fréquence fL,i affectée à l'entrée i est une moyenne pondérée entre sa fréquence générale fG,i et sa fréquence propre fP,i, le poids affecté aux fréquences propres étant proportionnel au nombre NA de mots produits par l'utilisateur depuis la première utilisation du logiciel, le poids NG affecté aux fréquences générales étant constant. L'influence des fréquences propres augmente donc linéairement avec le nombre NA de mots produits au cours de l'apprentissage. La valeur de la constante NG détermine la vitesse d'apprentissage du système. Lorsque le nombre de mots produits NA atteint NG, les fréquences propres contribuent en moyenne à même hauteur que les fréquences du lexique général. Nous avons adopté une valeur de NG = 800 000 pour la constante régissant la vitesse d'apprentissage. Avec une telle valeur pour NG, on s'attend à ce que les fréquences ne soient que peu modifiées en moyenne (e.g. après un apprentissage de 8 000 mots, la contribution moyenne des fréquences propres s'élève à 1 %). Les mots les plus fréquents du lexique général ne verront donc pas leurs fréquences significativement se modifier. En revanche, les entrées moins fréquentes (disons les formes de la figure 3 dont le rang en fréquence décroissante est supérieur à 5 000) seront les plus affectées par les variations de fréquence propre. Nous illustrons cet effet en prenant l'exemple concret suivant. L'adjectif handicapées apparaît dans le lexique général avec un rang en fréquence de 19 398 correspondant à une fréquence de 2, 871 10−6. Après un apprentissage de 8 000 mots, l'utilisateur a composé 25 fois la forme handicapées, soit une fréquence propre de 3, 125 10−3. La nouvelle fréquence d'usage donnée par l'équation [1] est égale à 3, 412 10−5, ce qui fait remonter la forme handicapées au 2 978 rang dans la liste des formes classées par fréquence décroissante. La prise en compte des fréquences propres de l'utilisateur par le modèle décrit équation [1] a donc pour effet de favoriser les formes peu fréquentes dans le lexique général mais pourtant produites par l'utilisateur, après un nombre de mots appris de taille raisonnable. Le moteur de prédiction intègre un module morphosyntaxique qui modifie la fréquence de chaque entrée du lexique selon la liste des catégories morphosyntaxiques associée à l'entrée et en fonction du contexte syntaxique dans la phrase en cours de composition. Le modèle de langage adopté est ici un modèle stochastique sans notion de constituants ni de structures imbriquées (le système HandiAS (Le Pévédic, 1998) par exemple utilise une grammaire plus complexe). La grammaire probabiliste est apprise sur un corpus de phrases annotées morphosyntaxiquement. Nous avons utilisé le corpus du projet CLIF (des extraits tirés du journal Le Monde contenant 370 000 mots environ (Abeillé et al., 2001)). L'information syntaxique est représentée sous la forme de 24 catégories morphosyntaxiques (voir tableau 1) pour lesquelles les traits de genre, de nombre et de personne sont disponibles lorsque pertinents. Nous utilisons le modèle des patrons (Blache et Rauzy, 2006) pour calculer la probabilité de chaque entrée du lexique global compte tenu du contexte syntaxique constitué par la séquence des formes orthographiques déjà saisies dans la phrase. Le modèle des patrons, une sous-classe des modèles de Markov cachés (voir par exemple (Rabiner, 1989)), présente des avantages par rapport aux modèles de N-grammes que nous décrivons appendice A. La phase d'apprentissage de la grammaire probabiliste sur le corpus CLIF fournit 224 patrons de taille variable qui permettent de calculer la probabilité en contexte à affecter aux entrées du lexique. Tableau 1. Les 24 catégories morphosyntaxiques utilisées À chaque entrée i du lexique global est associé un vecteur de taille 24 (le nombre total de catégories) noté {cMS}i. La j-ième valeur du vecteur est mise à 1 si la catégorie j fait partie des catégories morphosyntaxiques associées à la forme orthographique i. Le vecteur {cMS}i représente ainsi les catégories possibles pour l'entrée i. Le modèle des patrons se comporte comme un automate à états finis dont l'évolution est régie par l'ajout successif des vecteurs {cMS}t associés aux mots composant la phrase en cours de composition (le contexte syntaxique). À chaque étape, le modèle permet d'évaluer la probabilité pour que le contexte soit suivi de tel ou tel vecteur {cMS}i. Nous notons cette probabilité Pt({cMS}i) (voir équation [9]). Elle est calculée pour chacune des entrées du lexique. La prise en compte de la prédiction morphosyntaxique est finalement donnée par l'équation : fM,i =1 AM (fL,i × Pt({cMS}i)) avec AM tel que XNL i=1 fM,i = 1 [2] La fréquence fM,i affectée à l'entrée i est la fréquence fL,i obtenue équation [1] qui rend compte des fréquences propres de l'utilisateur, pondérée par l'influence du contexte syntaxique de la phrase en cours de composition. Nous avons vu section 3.2 que la production de l'utilisateur était analysée après chaque utilisation afin d'extraire les fréquences d'usage propres. De même, les phrases produites sont mémorisées sous forme d'arbre. Le noeud racine correspond au début de phrase. Les noeuds fils de la racine sont identifiés par la forme orthographique de tous les premiers mots débutant les phrases produites, et ainsi de suite. Chaque phrase produite est donc représentée par une branche de l'arbre. Chaque noeud possède un compteur qui est incrémenté à chaque fois que le chemin passant par ce noeud est emprunté (e.g. si deux phrases ont été produites je vais bien et je suis fatiguée, le compteur du noeud je en première position dans la phrase vaut nje = 2, les autres valant nje,vais = 1, nje,suis = 1, nje,vais,bien = 1, nje,suis,fatigu´ee = 1). L'arbre des phrases est utilisé par le moteur de prédiction de mots pour proposer en priorité les mots complétant les débuts de phrases déjà produits par l'utilisateur. Le modèle implanté fonctionne comme suit. À chaque début de phrase composé par l'utilisateur, le noeud contexte est réinitialisé sur la racine de l'arbre. Les Ns fils du noeud contexte sont examinés et une table donnant la fréquence relative de chacun des fils est calculée à partir des valeurs nj des compteurs des noeuds fils : Pour j 2 [1,Ns ], fj = nj NT avec NT = XNs i=1 nj [3] Lorsqu'un mot est ajouté à la phrase en cours de composition, ce mot est comparé à l'identifiant de chacun des fils du noeud contexte. Si un fils correspond au mot ajouté, on descend dans l'arbre en associant le noeud contexte au fils correspondant. L'opération est répétée tant qu'il existe un chemin dans l'arbre décrivant la phrase en cours de composition. Les fréquences évaluées équation [3] sont intégrées au modèle général. Pour chaque entrée i du lexique, la quantité fT,i vaut fj si l'entrée est le j-ième fils du noeud contexte, fT,i vaut 0 autrement. La fréquence fS,i de chaque entrée du lexique est déduite de la fréquence fM,i donnée équation [2] par l'équation : fS,i = 1 AS (NS×fM,i+Min(Nseuil,NT )×fT,i) avec AS tel que XNL i=1 fS,i = 1 [4] La fréquence fS,i est une moyenne pondérée entre fM,i, qui rend compte des fréquences d'usage propres à l'utilisateur et de la prédiction morphosyntaxique, et fT,i qui donne la distribution en fréquence des mots complétant les débuts de phrases déjà produits. Le poids associé à la prédiction par complétion de phrases est Min(Nseuil,NT), qui vaut NT si NT < Nseuil et Nseuil sinon. Ce poids est proportionnel au nombre NT de fois que la phrase a déjà été produite, jusqu' à un nombre seuil que nous avons fixé à Nseuil = 20. Le poids alloué à la prédiction au sortir du module morphosyntaxique est fixé à NS = 5. Le seuil est incorporé au modèle afin de limiter l'influence de la prédiction par complétion de phrases. La contribution maximum du module est obtenue lorsque le contexte a été produit plus de Nseuil fois par l'utilisateur, et atteint la valeur fmax = Nseuil/(NS+Nseuil), soit 80%des fréquences. L'évaluation écologique d'un système d'aide à la communication pour personnes handicapées est un problème complexe qui fait appel à des domaines de connaissances aussi variés que la psychologie, l'ergonomie, la psycholinguistique et la linguistique. Le premier problème rencontré est celui du dispositif d'interaction entre l'utilisateur et la machine support du système. Un certain nombre de solutions techniques (contacteurs, capteur de mouvements, capteur de souffle ,. ..) sont aujourd'hui proposées mais il est difficile d'évaluer leur efficacité en termes de taux d'échecs, de fatigabilité, de confort. L'évaluation et le diagnostic du dispositif le mieux adapté à la motricité de l'utilisateur sont pourtant fondamentaux, ils conditionnent en pratique l'utilisation ou non du système d'aide à la communication. L'évaluation de l'ergonomie de l'interface du logiciel est un autre problème. Il s'agit ici de quantifier en termes de durée et de nombre d'interactions les différentes tâches effectuées par l'utilisateur au cours de la composition de messages. Les coûts associés à la tâche de répérage d'un mot dans une liste, d'un caractère dans un clavier dynamique de lettres ou le coût associé à la procédure d'annulation en cas d'erreur de saisie, doivent être estimés. De nombreuses métriques d'évaluation sont proposées dans la littérature (voir à ce sujet (Vigouroux et al., 2004)), mais qui ne couvrent qu'une partie de la totalité des processus cognitifs mis en oeuvre. Enfin, la procédure d'évaluation doit prendre en compte les compétences linguistiques et la stratégie de communication de chaque utilisateur. Il est montré dans (Wandmacher et Antoine, 2006) que les performances des aides à la prédiction de mots varient de façon importante suivant le type de registres de langage considérés. Comment modéliser alors le registre de langage produit par l'ensemble des utilisateurs d'un système d'aide à la communication ? De même, quel poids doit-on accorder aux erreurs linguistiques produites par l'utilisateur durant le processus d'évaluation (voir à ce sujet (Boissière et al., 2007)) ? Nous avons adopté dans cet article la démarche proposée par (Boissière et Schadle, 2006) qui consiste à n'évaluer qu'une sous-partie du système, à savoir l'impact du moteur de prédiction de mots sur les performances de l'utilisateur. La métrique utilisée pour évaluer le modèle de langage du système sur un corpus est le taux d'économie de saisies défini par l'équation : Keystrokes saving rate = 1 − Nbr de caract`eres saisis + Nbr de validations Nbr de caract`eres total du corpus Le nombre de caractères saisis ne tient pas compte du procédé employé pour sélectionner les caractères sur le clavier virtuel de lettres (voir section 2.2). Nous n'évaluons donc pas ici l'apport de l'organisation du clavier de lettres. Le nombre de validations correspond au nombre de sélections de mot dans la liste de mots proposés. Le modèle ne rend pas compte du coût cognitif associé au repérage du mot dans la liste des propositions et des possibles carences en orthographe de l'utilisateur. Le taux d'économie de saisies est une mesure de la performance du moteur de prédiction de mots du système. Il possède une valeur optimale théorique qui est atteinte si dans 100 % des cas, le mot que souhaite composer l'utilisateur est présent dans la liste des propositions sans avoir à utiliser le clavier de lettres. Pour ce cas idéal, le taux d'économie de saisies est égal au nombre de mots saisis (identique au nombre de validations) divisé par le nombre de caractères total du message. Cette limite est en moyenne d'environ 80 % pour le français. Le corpus que nous avons utilisé pour effectuer l'évaluation du modèle de langage sous-jacent au moteur de prédiction de mots de la PCA Orthographique est extrait du corpus Multitag (Paroubek et Rajman, 2000). Il s'agit d'une autobiographie d'environ 52 000 mots relatant les mémoires de guerre d'un général durant la Première Guerre mondiale. Certains passages sont à la première personne du singulier, d'autres sont descriptifs et incluent de nombreux noms propres faisant référence à des personnes ou des lieux-dits. Les temps employés alternent entre le passé et le présent et quelques envolées lyriques sont même présentes. Nous avons sélectionné ce corpus sur les bases de son hétérogénéité temporelle à mesure que l'auteur avance dans le récit. Le modèle utilisateur de notre système fonctionnant par apprentissage, il est en effet important de tester si il est aussi capable de « désapprendre ». Notre corpus d'évaluation ne fait pas partie des textes ayant servis à calculer les fréquences du lexique général ni à apprendre la grammaire probabiliste du module de prédiction morphosyntaxique. Le corpus a été découpé en tranches de 500 mots sur lesquelles a été appliquée la procédure d'évaluation. Nous avons été amenés à adapter le programme du logiciel PCA afin d'automatiser cette évaluation. Néanmoins, certaines contraintes techniques rendent la procédure coûteuse en temps, de l'ordre de 30 mn par tranche de 500 mots. Il n'a pas été possible, pour cette raison, d'évaluer notre système pour différents types de registres de langage comme dans (Wandmacher et Antoine, 2006) ou de traiter le corpus de référence proposé dans (Boissière et Schadle, 2006). Les valeurs obtenues pour le taux d'économie de saisies que nous présentons dans la suite de l'article sont donc propres à notre corpus de test. La figure 4 présente l'évolution du taux d'économie de saisies en fonction du nombre de mots engrangés par le modèle utilisateur. Les mesures ont été réalisées par tranches de 500 mots, la taille de la liste de mots proposée à l'utilisateur a été fixée à 9. Le taux d'économie de saisies augmente avec la taille de l'échantillon d'apprentissage jusqu' à atteindre un plateau aux alentours de 2 000 mots appris environ. Le taux d'économie de saisies fluctue ensuite autour de sa valeur moyenne (environ 55 %) avec un écart-type entre tranches de 1, 5 %. Les différents modules d'apprentissage implantés dans le moteur de prédiction de mots (lexique personnel, fréquences propres à l'utilisateur, et arbre des phrases de l'utilisateur) contribuent à hauteur de 3 % au gain en performances du système. L'apprentissage est rapide, le système atteint son régime de croisière lorsque l'utilisateur a composé 2 000 mots. Le plateau observé correspond à une saturation du système de prédiction, certaines formes orthographiques sont favorisées par le module d'apprentissage, mais au détriment d'autres formes tout aussi pertinentes. Nous avons testé en avancant dans le récit le comportement du système à plus grande échelle, jusqu' à 25 000 mots appris. Le plateau perdure avec une dispersion moyenne de 2, 5 % entre tranches. Le modèle utilisateur que nous avons adopté ne semble donc pas trop invasif. La figure 5 présente la variation du taux d'économie de saisies en fonction de la taille de la liste des propositions. Les résultats sont obtenus sur une tranche de 500 mots et lorsque 8 000 mots ont été appris par le modèle utilisateur. Les barres en gris foncé représentent les résultats pour le moteur complet. Le taux d'économie de saisies augmente comme attendu avec le nombre de propositions, mais un tassement est observé à partir de 5 propositions (augmentation de 4 % entre 3 et 5, de 2, 5 % entre 5 et 7, et de 1, 5 % entre 7 et 9 propositions). Il n'apparaît donc pas nécessaire d'augmenter plus encore le nombre de propositions, le gain en performance étant contrebalancé par le coût cognitif associé à la tâche de répérage du mot recherché dans la liste des propositions. La performance du moteur de prédiction de mots de la PCA Orthographique est bonne, comparable avec les résultats obtenus par le système Sibylle (Wandmacher et al., 2007). Pour une liste de 5 propositions, le taux d'économie de saisies s'élève environ à 50 %, c'est le même taux que celui mesuré pour Sibylle sur les corpus de type journaux et sans intégrer le module basé sur l'analyse sémantique latente. Nous avons essayé d'analyser l'apport des différentes composantes de notre moteur de prédiction de mots. Les barres en gris clair sur la figure 5 représentent le taux d'économie de saisies pour notre moteur de prédiction amputé de son module de prédiction morphosyntaxique, de la prise en compte des fréquences propres à l'utilisateur et de l'arbre des phrases (pour des raisons techniques, le lexique personnel a été conservé). Le moteur de prédiction établit alors la liste des mots proposés sur la seule base des fréquences du lexique général, sans notion de contexte. On observe que c'est le facteur dominant du modèle (pour 5 propositions, le taux d'économie de saisies est supérieur à 45 %). Pour les cas à 5, 7 ou 9 propositions, l'intégration des autres modules dans le moteur élève le taux d'économie de saisies de 3 % environ. Nous avons aussi testé le moteur sans le module morphosyntaxique et avec apprentissage (gain de 2 %) et avec la prédiction morphosyntaxique et sans apprentissage (gain de 2 %). Dans cette section, nous analysons nos résultats en prenant en compte l'information sur les catégories morphosyntaxiques. La figure 6 présente le nombre moyen de caractères par mots en fonction de la catégorie morphosyntaxique (en gris). Les barres noires représentent le nombre de caractères à saisir en moyenne pour faire apparaître le mot dans la liste des propositions (pour 9 propositions). Ces résultats sont obtenus sur une tranche de 500 mots et lorsque 8 000 mots ont été appris par le modèle utilisateur. On distingue nettement les différents rôles joués dans la phrase par les catégories morphosyntaxiques. Les catégories Nom, Verbe et Adjectif portant une fonction sémantique importante nécessitent la saisie d'un peu plus de 2 caractères en moyenne avant d' être trouvées par l'utilisateur dans la liste des propositions. Au contraire, les classes fermées représentées par les catégories morphosyntaxiques Conjonction, Déterminant et Préposition sont dans la plupart des cas proposées par le système sans avoir à saisir la première lettre du mot. Pour les catégories intermédiaires dont la fonction sémantique est moins importante, comme les catégories Pronom et Adverbe, la saisie d'environ 1 caractères en moyenne suffit à le faire apparaître dans la liste des propositions. Nous présentons figure 7 le taux d'économie de saisies réalisé par le moteur de prédiction (9 propositions) pour chacune des catégories morphosyntaxiques (en noir). Les barres grises représentent la valeur optimale que peut atteindre ce taux, c'est-à dire le cas limite idéal ou chacun des mots que souhaite composer l'utilisateur est prédit dans la liste de propositions sans avoir à utiliser le clavier de lettres. L'écart entre le taux optimal limite et le taux mesuré nous donne des pistes sur les progrès pouvant être réalisés afin d'améliorer les performances du moteur de prédiction de mots. Pour les catégories Nom, Verbe et Adjectif portant une fonction sémantique forte, le taux d'économie de saisies peut encore être amélioré de façon significative, par exemple en introduisant un module de prédiction sémantique dans le système. On observe d'autre part que le moteur de prédiction dans son état actuel est proche de la limite optimale pour les catégories morphosyntaxiques Conjonction et Déterminant. Le taux d'économie de saisies pour la catégorie morphosyntaxique Pronom est particulièrement bas dans notre système. Nous l'expliquons par le fait qu'une seule classe de pronom a été considérée dans notre modèle de prédiction morphosyntaxique. Le type et le cas du pronom, qui portent une information syntaxique forte, doivent être aussi pris en compte. Les taux d'économie de saisies de la figure 7 sont en moyenne supérieurs au résultat de 55 % annoncé section 4.2. Dans notre évaluation, les ponctuations molles (comme les virgules) ou les ponctuations dures (comme les points finaux) sont d'abord saisies puis validées. Le taux d'économie de saisies pour les ponctuations, qui représentent en moyenne 10 % du nombre de mots du corpus, est ainsi de −100 %, ce qui fait chuter la mesure du taux d'économie de saisies global d'environ 2 %. Nous avons présenté dans cet article le moteur de prédiction de mots de la Plateforme de Communication Alternative, version orthographique. Il utilise un lexique général du français très couvrant, 320 000 formes orthographiques pour lesquelles les fréquences d'usage et les traits morphosyntaxiques associés sont connus. Un lexique personnel permet de compléter le lexique général en mémorisant les mots inconnus composés par l'utilisateur. Le moteur de prédiction possède un modèle utilisateur qui calcule les fréquences d'usage propres à l'utilisateur et mémorise les phrases produites au cours des utilisations répétées du système. Le moteur intègre de plus un module de prédiction morphosyntaxique qui pondère les fréquences des mots prédits en fonction du contexte syntaxique de la phrase en cours de composition. Nous avons conduit l'évaluation du système, plus précisément l'évaluation du modèle de langage du moteur de prédiction de mots, en mesurant le taux d'économie de saisies sur un corpus de test. Les résultats sont satisfaisants, le taux d'économie de saisies est d'environ 55 % pour une liste de 9 propositions et d'environ 50 % pour une liste de 5 propositions. Une analyse des contributions respectives des différents modules montre que les contributions du modèle utilisateur et du module de prédiction morphosyntaxique, même si bien réelles, sont dominées par la contribution principale provenant de la prédiction brute basée sur les fréquences d'usage du lexique général (plus de 45 % du taux d'économie de saisies pour 5 propositions). L'analyse de ces résultats par classe de catégories morphosyntaxiques nous donne des pistes sur les moyens d'améliorer les performances du moteur de prédiction de mots actuel. Le module de prédiction morphosyntaxique montre notamment des faiblesses quant à la définition de certaines catégories morphosyntaxiques comme les pronoms par exemple. Une nouvelle version du module de prédiction morphosyntaxique sera prochainement intégrée dans la PCA Orthographique. Basée sur l'analyse du corpus Multitag (Paroubek et Rajman, 2000), un corpus annoté morphosyntaxiquement de 700 000 mots environ, la prise en compte d'informations syntaxiques plus précises devrait considérablement améliorer les performances du module . | RÉSUMÉ Nous présentons le modèle de langage sous-jacent au moteur de prédiction de mots de la Plateforme de Communication Alternative (PCA), un logiciel d'aide à la communication pour personnes handicapées. Le moteur s'appuie sur un lexique général du français très couvrant qui donne pour chaque entrée la fréquence d'usage du mot et ses traits morphosyntaxiques associés. Il intègre un modèle utilisateur (lexique personnel mémorisant les mots inconnus saisis par l'utilisateur, calcul des fréquences d'usage propres, stockage des phrases produites) et un module de prédiction morphosyntaxique qui pondère les fréquences des mots prédits en fonction du contexte syntaxique de la phrase en cours de composition. L'évaluation du modèle de langage donne des résultats satisfaisants, le taux d'économie de saisies est d'environ 55 % pour une liste de 9 propositions. La contribution dominante provient de la prédiction brute basée sur les fréquences d'usage du lexique général . | scientext_ling_art_242_tal_blache__rauzy_entete.xml |
termith-771-scientext | Dans la hiérarchie, aujourd'hui devenue classique, des niveaux d'analyse àlaquelle il est nécessaire de soumettre un texte pour permettre soninterprétation, le niveau énonciatif [1] constituel'étape ultime. On y associe habituellement le recours à certains repèrescontextuels et co-textuels (spatiaux, temporels, interpersonnels…) pour calculerla référence, ainsi que l'incidence de l'implicite (du présupposé ou dusous-entendu) sur les valeurs de succès des actes de discours. De nombreuxexemples illustratifs (dont certains sont également devenus classiques) en sontdonnés, le plus souvent pour montrer la nécessité (et la difficulté) de tenircompte des connaissances extralinguistiques. L'inventaire des systèmesinformatiques qui assurent ces différents types d'analyse s'arrête, pour sapart, au niveau sémantique, pour lequel relativement peu de réalisationseffectives peuvent être exhibées. La dimension énonciative des productionstextuelles, quant à elle, n'est pratiquement jamais considérée en tant que tellecomme objet de traitement. [2] Parallèlement, on note un développement significatif d'applications directementintéressées par certains aspects de la textualité, tels que la cohésionthématique, référentielle, anaphorique ou relationnelle pour la segmentation enunités de traitement et la navigation textuelle (Bilhaut etal., 2003), (Couto et al., 2004), (Hernandez etGrau, 2005) ou l'identification de certains « objets » textuels comme lestitres, les annonces thématiques, les annonces de plan, les énoncés conclusifs ,les références bibliographiques… à des fins de résumé ou de fouille (Minel et al., 2001), (Laublet et al., 2002), (Abdalla and Teufel, 2006), (Jacques et Rebeyrolle, 2006), (Teufel ,2006). Parfois en marge des recherches sur le discours, souvent pour répondre àdes besoins concrets de veille ou d'analyse d'image, certains travaux touchent àdes phénomènes énonciatifs quand ils cherchent à capter des contenus subjectifs( opinions, émotions, sentiments…) exprimés dans des textes (Wiebe et al., 2005), (Prasad et al. ,2006). Nous reviendrons sur ce point dans le paragraphe 2.2.2. L'étude que nous présentons ici s'intéresse résolument à l'énonciation textuelle ,et ce dans une double approche : théorique et appliquée. Elle prend pour objetles discours rapportés (DR) dont il s'agit de mettre en évidence les opérationsénonciatives et sémantiques constituantes. Ce travail est réalisé grâce àl'analyse des marques linguistiques, témoins de l'activité citationnelleobservée dans des médias écrits. Sur le plan linguistique, outre une meilleurecompréhension du discours rapporté, notre étude apporte une contribution auxrecherches sur les relations de discours. Une réflexion sur la manière dont lesrelations que nous dégageons pourraient enrichir le formalisme de certainesthéories qui cherchent à rendre compte des représentations discursives (tellesla SDRT, par exemple, (Busquets et al., 2001)) constitueun prolongement possible de ce travail. Quant aux applications visées, lescatégorisations proposées ainsi que les ressources linguistiques correspondantessont destinées à différentes procédures d'annotation de textes, dans descontextes de l'enseignement, de la recherche d'informations et du websémantique. Après avoir rappelé que les discours contiennent de façon constitutive desindications relatives à l'acte de parler et aux interactions entre les usagersde la langue, nous montrons qu'une prise en considération effective desorganisations énonciatives dans des textes conduirait à améliorer notablement laqualité des sorties de systèmes de résumé, de filtrage ou de fouille d'opinion( section 2). La section 3 présente un modèle énonciatif et sémantique desdiscours rapportés, ainsi qu'une étude sur les ressources linguistiques qui luisont associées. La question des applications possibles et prévues de ce travailest abordée dans la section 4, avant une conclusion générale qui résume lesgrandes lignes de l'étude (section 5). Tout discours se construit à travers l'énonciation. L'énonciation prend encharge un énonçable en le plongeant dans un système de référence intersujets( ou intersubjectif), en relation avec l'espace-temps. C'est un phénomènelangagier complexe qui témoigne également de la façon dont le sujet parlants'approprie la langue pour organiser et présenter son discours. Organiserson discours, c'est le segmenter et articuler ses unités (qu'il fautdélimiter, lier, enchâsser, regrouper dans des unités supérieures). Cetteorganisation formelle peut être donnée à voir (avec plus ou moinsd'implication de la part de l'énonciateur) par des moyenstypo-dispositionnels et discursifs (découpage en paragraphes, sections, motsde liaison, diverses « balises », marqueurs d'intégration linéaire…) .Présenter son discours, c'est se situer par rapport à ce qu'il dit sur lemonde, par rapport aux paroles choisies pour le dire, par rapport àl'interlocuteur. On peut même parler d'une véritable dynamique énonciative ,car l'énonciateur, selon les termes de (Culioli, 2002, p. 187), est amené àajuster en permanence son discours : « La notion d'ajustement est fondéeelle -même sur la conception qu'il n'y a pas des énoncés tout prêts, desvérités toutes prêtes, mais des énoncés produits par un sujet, de tellemanière que l'autrui va lui -même reconstruire à partir des marqueurs desreprésentations. Entre cette construction et cette reconstruction, nousallons donc avoir un ajustement ». Ces différents ajustements (intersujets ,sur soi -même, à son propre discours…) renvoient, au moins partiellement, àce que (Authier-Revuz, 1995) appelle des non-coïncidences [3 ]. Paraphrases, reformulations, commentairesautonymes, diverses annonces, qui laissent transparaître de manière variablela subjectivité de l'énonciateur, font partie des traces discursives lesplus manifestes de cette « hétérogénéité montrée ». Les discours rapportéscondensent, quant à eux, plusieurs relations intersubjectives différentes .Ce phénomène énonciatif et discursif complexe mérite à nos yeux uneattention toute particulière, tant sur le plan théorique, qu'en raison deses retombées possibles pour différentes applications finalisées. Les travaux actuels en TAL et en web sémantique se donnent pour objet d'unepart l'aide à la construction de modèles conceptuels ou d'ontologies parl'identification de candidats termes, et d'autre part l'indexation etl'annotation de documents à l'aide de la recherche d'entités nommées et ,plus rarement, de relations structurantes. Cette approche référentielle voitun texte principalement comme un lieu où sont déposées des connaissances surle monde, sous forme d'étiquettes représentant des notionsextralinguistiques. La notion du contenu est ainsi abordée en faisantabstraction de la dimension intersubjective des discours analysés. Cet étatdes lieux doit toutefois être nuancé et complété. On peut rétorquer en effetque ce n'est pas parce que les éléments énonciatifs ne sont pasexplicitement désignés comme objets d'analyses ou de traitements, qu'ils nesont pas dans les faits considérés par des applications informatiques .Nombre d'entre elles y recourent, souvent sans les identifier comme tels .Toutes ces solutions, souvent très empiriques, gagneraient de toute évidenceà exploiter d'une manière plus poussée et plus systématique certainespropriétés des organisations énonciatives des textes. En voici quelquesillustrations. Citons tout d'abord les systèmes de résumé automatique par extraction dephrases, basés sur la rhétorique de l'auteur du texte, c'est-à-dire surl'identification d'annonces thématiques, de soulignements d'importance ,d'annonces de plan ou de conclusions, tels que ContextO (Minel et al., 2001). La qualité des sorties de cessystèmes dépend d'une part de la présence des indices « dialogiques »par lesquels l'auteur signale explicitement ses intentionscommunicationnelles (une part importante de ces indices sont de natureénonciative), et d'autre part de la capacité des règles à lesreconnaître et à les interpréter. Comme le montre (Blais, 2004), cedeuxième point est loin d' être trivial [4 ]. Onconstate que parmi les sources d'erreurs commises par le système, il y aune interprétation trop rapide (appuyée sur peu d'éléments) ou bien troplocale (car limitée à la phrase) des indices pertinents considérés( certains déictiques, verbes présentatifs, formes adverbialesdétachées…). Une annonce thématique ou une conclusion doivent se rapporter au documenten cours et non à un autre document qu'il peut être question deprésenter ou de résumer (1). Un soulignement d'importance, pour êtrerévélateur des idées de l'auteur, doit être pris en charge par cedernier, ce qui conduit soit à écarter tout ce qui appartient auxdiscours rapportés, soit à vérifier que l'auteur adhère aux contenusqu'il cite. Une reformulation qui suit une citation concerne le plussouvent le discours rapporté, et non le discours de l'auteur lui -même ,elle ne peut donc être intégrée au résumé censé refléter les idées del'auteur. Dans (2), nous sommes en présence d'une reformulation d'undiscours rapporté avec une distanciation (non prise en charge) de lapart de l'énonciateur. (1) En guise de conclusion, le rapport relève que, « sans doute parce que son coût n'est pas couvert par l'impôt mais par des redevances aéronautiques, le service public français de contrôle aérien, dont l'efficacité technique n'est pas en cause, s'est trop longtemps exonéré d'une gestion administrative et financière rigoureuse et économe ». (Le Monde, 7 novembre 2002, p. 23) (2) Selon M. Dominique Strauss-Kahn, ministre français de l'économie et des finances, alors que ce solde financier était négatif de 149,2 milliards de francs en 1990, il était devenu positif de 134,7 milliards de francs en 1996. Ce qui revient à dire que, chose extrêmement rare, non seulement les entreprises françaises n'ont pas besoin d'emprunter pour financer leurs investissements, mais qu'elles sont en mesure de. .. prêter. (Le Monde diplomatique, avril 1998, p. 18) Pour pouvoir statuer sur la pertinence d'un énoncé en vue de sonintégration dans le résumé, il faudrait idéalement savoir découper letexte en unités homogènes du point de vue de leur source énonciative ,attribuer un statut sémantique à chaque unité, puis associer uneinterprétation textuelle aux enchaînements d'objets identifiés( exemples : séquence « citation par discours direct, reformulation » ouséquence « soulignement d'importance par auteur, reformulation »). Unetelle solution est de toute évidence très (ou trop) coûteuse. Une voieplus réaliste serait d'étendre l'espace de recherche au-delà de laphrase et d'enrichir les configurations de marques pertinentes, entenant compte des traces linguistiques des citations. Par exemple, lesintroducteurs de cadres médiatifs (selon … )peuvent être retenus comme des indices pertinents pour permettre uneinterprétation énonciative des marques de reformulation (ce qui revient à dire …), comme on le voit dans( 2). Nous insistons sur le fait que la question des discours rapportés ne peutêtre occultée par les systèmes de résumé automatique, car les textes àrésumer n'incombent pas nécessairement à une seule instanceénonciative. Pour certaines applications concrètes, ce point peutrevêtir une importance capitale, comme cela a été le cas dans le résumédes jurisprudences, étudié par (Farzindar, 2005) dans le cadre de sathèse. Ce travail montre clairement le besoin de départager dans lestextes de jurisprudences l'auto et l'hétéro-discours, avant de procéderà l'interprétation sémantique de leurs composantes. Cela a conduit àintégrer de plein droit l'identification des discours autres (articlesde lois applicables, par exemple) dans la chaîne de traitements opéréspar le système [5 ]. Depuis quelques années, le besoin d'identifier des contenus subjectifsexprimés sur le web ou dans des bases textuelles conduit à laréalisation d'applications informatiques dites de fouille d'opinions( opinion mining), d'analyse d'émotions, de sentiments ou d'images [6 ]. Rechercher des commentaires deconsommateurs à propos d'un produit ou d'un service donné, interpréterla nature des sollicitations des clients dans des courriersélectroniques, analyser l'image d'un parti politique, d'une personnalitépublique ou d'une institution, trouver des personnes partageant lesmêmes centres d'intérêt sont quelques exemples de tâches qui relèvent deces problématiques. Les enjeux sociaux et économiques en sontconsidérables. Parmi les travaux linguistiques menés dans ce domaine ,citons à titre d'exemple les recherches de (Bestgen, 2002), (Beauchêneet al., 2002) ou (Nava, 2003). L'approche proposée dans (Nava, 2003) a attiré notre attention car elleprésente la particularité de s'intéresser à des verbes. Plusprécisément, il s'agit de verbes (ou syntagmes verbaux) qui permettentd'exprimer des « sollicitations » (demande d'information, demanded'intervention, plainte, constat, engagement, refus, contrainte ,explication). La proximité de ces verbes avec les termes du domaineconsidéré est à la base du classement et du routage des courriersélectroniques. Cette solution, bien qu'elle soit présentée commedélibérément empirique pour répondre à des besoins très précis, cible etexploite judicieusement un sous-ensemble de verbes performatifs, dont lacapacité à exprimer des actes de langage pourrait servir dans plusieursautres contextes appliqués. Le travail sur les verbes de parole que nousprésentons dans la section 3, en constitue une généralisation. Sans rentrer dans les particularités distinctives des différentesméthodologies utilisées, on constate que sur le plan linguistique lesressources utilisées sont essentiellement de nature lexicale (nominaleet adjectivale en priorité). Les mots sont classés selon l'attitudeexprimée (positive, négative, neutre) ou parfois plus finement (dans lecas des sentiments, par exemple), selon la direction émotive (bonheur ,tristesse, colère, crainte, dédain, surprise) qui peut leur êtreassociée. Leur traitement est généralement de nature statistique. Leproblème qui se pose avec acuité est de savoir selon quelles méthodessont constituées ces ressources ? Quelle est leur couverture ? Commentsont choisies les catégories ou les valeurs sémantiques pertinentes ?Comment associe -t-on aux mots leur orientation et leur force émotive ouévaluative… ? Car dans le discours, on le sait, avec un éclairagecontextuel approprié, il est possible de charger de valeur positive ounégative des termes qui a priori sont neutres ou possèdent une valeuropposée. Annoter sémantiquement des objets textuels (une définition, une séquencecausale…), pour en extraire certains conformément à un critèresémantique ou à un jugement d'importance, nécessite au préalable uneétude de la manière dont les frontières de ces objets et leurs modesd'organisation sont signalés dans et par le discours. Il est en effetimportant de savoir extraire de l'information relativement complète ,pour être en mesure de l'interpréter correctement et de statuer sur salégitimité. Une des difficultés auxquelles sont confrontés les systèmesde fouille est de fournir le contexte de validité (par exemple de véritéou de prise en charge) de la phrase placée dans le fragment textuel. Parexemple, une information causale ou une description d'un événementn'auront pas le même intérêt pour un utilisateur donné, suivant qu'ellessont entièrement prises en charge par l'auteur du texte, attribuées à unautre énonciateur avec une marque de distanciation de la part del'auteur, ou plus simplement placées à l'intérieur d'un univers spatialou temporel limité (Jackiewicz, 2004). Isoler une connaissance de soncadre de validité revient à occulter une part essentielle de soncontenu, au risque de lui faire perdre sa valeur opératoire. Comme on le voit bien dans l'extrait qui suit, l'explication causale dela détermination du sexe (« c'est une plus forte chaleur qui faitconcevoir un mâle ») y est indissociable des cadres médiatifs (dans les deux cas, Pour Anaxadore, PourEmpédocle) dans lesquels elle prend sens, puis devient ou nonopératoire. (3) Pour Anaxadore, la détermination du sexe vient du père : les garçons proviennent du testicule droit, le plus chaud, les filles du gauche. Pour Empédocle, c'est la plus forte chaleur de la matrice, selon l'état du sang menstruel, qui fait naître un garçon ou une fille. Comme on le voit, dans les deux cas, c'est une plus forte chaleur qui fait concevoir un mâle. Aristote critique ses devanciers sur certains points, car ce n'est pas une mince affaire, dit-il, que de démontrer que la mise en présence du froid déclenche la production d'un utérus sur le fœtus, dans la matrice de la mère, bien qu'il conserve la vertu de l'opposition entre chaud et froid. (F. Héritier, Masculin/féminin, 1996, p. 192) Enfin, la problématique même d'assignation de valeurs sémantiques à desobjets textuels est concernée par l'organisation discursive eténonciative du texte, car la levée de certaines ambiguïtés s'opèresouvent à l'intérieur des unités supérieures à la phrase. Nous l'avonsmontré notamment dans le cas de l'interprétation sémantique d'énoncéscausaux (Jackiewicz, 2004). La problématique des discours rapportés, se trouvant de fait au cœur desrecherches sur l'énonciation, concerne également les analyses de discoursintéressées par les organisations textuelles. En effet, comme on le verra dansles paragraphes qui suivent, l'objet « citation » est une entité discursivemultiforme, composée de segments fonctionnellement hétérogènes, non tousnécessaires, mais participant chacun d'une manière précise à l'intelligibilitéde l'ensemble. La question de l'identification et de l'annotation de cet objetaux multiples facettes est donc éminemment complexe, car plusieurs anglesd'approche semblent possibles. Le rôle d'une analyse linguistique préalable estd'indiquer les éléments de solution ayant une certaine validité théorique. On ne peut résumer en quelques mots les recherches linguistiques sur lediscours rapporté, compte tenu de leur longue tradition et de la diversitédes approches, dont l'une des plus récentes s'intéresse à l'effacementénonciatif dans les discours rapportés (Rabatel, 2004). Nous avonsprivilégié et exploité les travaux qui, contrairement à ce dernier courant ,mettent clairement l'accent sur le signalement de l'activité citationnelleen surface du texte. D'une part, il existe de nombreuses descriptions ,souvent minutieuses et abondamment exemplifiées, des modes de citation( discours direct, discours indirect, discours narrativisé et de multiplesvariantes de ces modes de base) que nous devons, sans être exhaustive, à (deGaulmyn, 1983), (Authier-Revuz, 1995), (Charaudeau, 1997) ,( Kerbrat-Orecchioni, 1999), (Rosier, 1999), ainsi qu' à la vaste communautéCi-dit. D'autre part, plusieurs auteurs ont proposé des analyses syntaxiqueset/ou sémantiques des verbes de parole, dont (Gross, 1975), (Vanderveken ,1988), (Eshkol, 2002) et (Lamiroy et Charolles, 2003). Cependant, il est frappant de constater qu'il n'existe pas de classificationssémantiques de verbes potentiellement introducteurs de DR ayant pour viséede catégoriser systématiquement l'ensemble de ces verbes. On notel'existence de nombreuses ébauches de catégories, illustrées pour la plupartpar quelques verbes prototypiques, ce qui rend leur portée théoriquedifficile à cerner. On constate que les catégories sémantiques quireviennent le plus souvent (« la fidélité » / « l'infidélité » du DR, « lediscours du vrai » / « le discours du faux », « l'objectivité » / « lasubjectivité » du locuteur rapportant, « la prise en charge » / « lanon-prise en charge ») touchent globalement à l'attitude que l'énonciateurrapportant adopte par rapport aux paroles rapportées. Inversement, on trouveau fil des analyses consacrées aux citations des listes de verbescaractérisés selon les cas par leurs propriétés sémantiques ou énonciatives .Par exemple, (Rosier, 99) fait mention de « verbes descripteurs dudéroulement énonciatif », « verbes de mouvement ou de mimiques gestiques » ,verbes de « vocifération », verbes d ' « interrogation indirecte » … Prenant appui sur les travaux mentionnés, nous avons choisi de travaillerégalement sur corpus, afin de pouvoir examiner des séquences citationnelles ,telles qu'elles fonctionnent dans des situations réelles de communication .Par ailleurs, il est important à nos yeux de pouvoir travailler sur desséquences citationnelles « complètes », c'est-à-dire interprétables (etexploitables) indépendamment de leur co-texte. La question de ladélimitation de l'objet citation, composé éventuellement de plusieurssegments, devient alors importante, alors qu'elle n'est pas soulevée par lesétudes linguistiques sans visée applicative. Les marques linguistiquespertinentes pour l'étude deviennent alors des configurations d'indices oùles expressions introductrices de DR interagissent avec d'autres élémentscontextuels également impliqués dans les repérages énonciatifs de lacitation. Nous avons choisi comme observables des textes de presse quotidienne ,« naturellement » riches en citations [7 ]. Lesmédias tels que le Monde rapportent des événementsénonciatifs fort variés : présentations orales, conférences de presse ,interviews tenues par divers acteurs de la vie politique, sociale ouculturelle, diverses réactions venant des syndicats, des associations… maisaussi, livres et critiques de livres, extraits ou synthèses de différentsrapports ou publications. Mais, leur mission n'est pas seulement detransmettre ou reproduire des paroles qui circulent dans l'espace social ,mais également (ou surtout) de les rendre intelligibles et de montrerl'impact qu'elles produisent dans cet espace. Il s'agit de représenter d'unemanière synthétique et lisible les aspects saillants des discours originelset, préférentiellement, les interactions qui s'opèrent dans et à traversl'activité linguistique des sujets communicants. Pour cette raison, nousavons focalisé notre attention sur des relations intersubjectives quis'expriment dans l'activité citationnelle [8 ]. Concernant les ressources linguistiques préexistantes et exploitables dansnotre étude, nous avons retenu la liste des verbes de parole (512 verbesclassés en transitifs et intransitifs) constituée par (Lamiroy et Charolles ,2003), ainsi que les prédicats de parole (1 130 prédicats, dont 637 verbes )de (Eshkol, 2002). Même si elles ont été constituées en dehors de laproblématique des discours rapportés, ces deux listes fournissent de faitles principaux marqueurs aptes à introduire des paroles étrangères .Concernant la couverture de ces ressources et leur adéquation à nos besoins ,plusieurs remarques s'imposent. Si tous les verbes de parole répertoriésdans les dictionnaires faisant autorité y sont présents, la décisiond'inclure dans la base des néologismes (tels que litoter ,euphémiser, pléonasmer, xéroxer) inconnus de ces dictionnaires ,mais très présents dans des forums ou des blogs, et pour certains utiliséscouramment dans la presse (euphémiser), fait l'objetd'un choix à assumer. Certains verbes de parole n'introduisent des discoursrapportés que dans des constructions très particulières et donc trèsrares [9 ]. Inversement, plusieurs classes deverbes ne rentrent pas directement dans la catégorie des verbes de parole ,mais peuvent introduire des discours rapportés, il s'agit des verbes ayanttrait à (i) certaines activités intellectuelles, (ii) certaines attitudescorporelles, (iii) des attitudes propositionnelles, (iv) des situations decommunication de nature non spécifiée, (v) de la perception, (vi) des crisd'animaux. À l'exception de la classe (vi), tous ces verbes ont étérassemblés par nos soins sur corpus, il est donc impossible de garantir leurcomplétude [10 ]. Difficile (voire impossible )à atteindre en pratique, la complétude des ressources n'est pas visée parnotre travail. Nous cherchons en revanche à dégager une catégorisationsémantique de ces ressources, permettant de savoir quels types de marquespeuvent en faire partie. Au final, une base de 722 verbes a été constituée pour l'étude. Ces verbesont été classés dans un premier temps à l'aide de catégories sémantiquesissues de la littérature consultée. Les représentants de chaque classe ,associés éventuellement à d'autres marques de nature énonciative, ont permisde sélectionner des citations dans le corpus de référence [11 ]. L'observation de ces extraits a débouché surla proposition d'un premier ensemble de relations énonciatives permettant dedistinguer plusieurs types de séquences citationnelles. L'analyse sémantiquesystématique de l'ensemble des verbes (hors corpus, mais avec consultationd'attestations pour de nombreux verbes) a permis de dégager une organisationsémantique cohérente (en plusieurs catégories et sous-catégories ,voir § 3.3), débouchant en retour sur une structuration plus fine desrelations énonciatives. Les relations énonciatives ainsi dégagées ont servià consolider la typologie initiale des discours rapportés. Le problème de la citation est comment restituer d'une manière juste etsynthétique toutes les informations qui disent dans un contexte initial( oral ou écrit) comment il faut comprendre un discours. Citer consiste donc ,au minimum, à transcrire ou reproduire l'ensemble ou une partie du discoursd'un autre (rapporter ce qui a été dit). Mais, la compréhension de cesparoles s'appuie de toute évidence sur la connaissance des paramètresessentiels de la situation d'énonciation les caractérisant (par qui, quand ,où, à l'attention de qui cela a été dit). De plus, l'interprétation desintentions du locuteur (si elle ne découle pas clairement des parolescitées), celle des attitudes manifestées par le locuteur en parlant ,facilitent notablement, voire conditionnent dans certains cas, l'accès ausens de la citation. Enfin, certains discours appellent, en raison notammentde l'absence d'un bagage culturel ou d'un savoir commun entre le locuteurd'origine et le co-énonciateur, un commentaire, une explication ou unereformulation mettant en évidence leur teneur effective. Nous dirons doncque, selon la nature de ses composants, une citation peut être qualifiée deminimale, authentifiée, interprétée ou dialogique. L'extrait (4) exemplifie une séquence citationnelle composée qui restitue desparoles étrangères, authentifie l'énonciation et après avoir porté unjugement d'euphémisation sur la forme d'expression du discours rapporté ,rend intelligible son contenu. Si la citation minimale correspondant audiscours entre guillemets (« pas toujours l'exemple quel'on pourrait attendre d'elle ») est difficilement interprétable ,on constate que le segment plus large exprimant une citation authentifiée( selon…, mercredi 26 mai) n'est pas encoresuffisamment informatif. La teneur réelle de cette citation est révélée parl'énonciateur dans le segment qui suit la citation à proprement parler (Un euphémisme …). (4) La France ne serait-elle plus la « patrie des droits de l'homme » ? Selon un rapport d'Amnesty International, rendu public mercredi 26 mai, elle ne donne, en tout cas, « pas toujours l'exemple que l'on pourrait attendre d'elle ». Un euphémisme, cachant des critiques sévères sur certaines législations et pratiques des autorités publiques, mises en lumière par l'organisation non gouvernementale (ONG). (Le Monde, 27 mai 2004) Les paroles rapportées à proprement dit constituent le noyau de toutecitation. Le seul fait de les délimiter par des signes typographiquesconventionnels dédiés à cet usage (guillemets, italique…) [12] permet de signifier qu'elles ont uneorigine différente de celle du discours dans lequel elles sont plongées .Si aucune autre marque explicite ne vient s'ajouter aux balises marquantles frontières des paroles rapportées, c'est que leur auteur et lecontexte d'énonciation d'origine : (i) sont supposés connus du lecteur ,faisant partie d'un savoir partagé (5); (ii) ne sont plus disponiblesdans la mémoire collective ou ne sont pas importants, comme c'est le casd'un grand nombre de « particitations » au sens de (Maingueneau, 2004 )( 4); (iii) sont accessibles au lecteur dans un contexte plus large, ils'agit des citations minimales contenues dans des titres et dans desaccroches, qui sont généralement issues des discours rapportés plusamplement dans le corps de l'article; (iv) ne sont pas connus, c'est lecas des bruits et des rumeurs (6) qui doivent alors être signalés commetels [13 ]. L'énonciateur, quant à lui ,s'efface pour laisser résonner les paroles étrangères. (5) Les 35 heures : bilan globalement positif (Le Monde, 21 septembre 2002; titre de l'article) (6) Les rumeurs, et elles sont nombreuses, assurent que, dans la période de succession qui s'ouvre, certains membres de la famille royale auraient une attitude ambiguë. (Le Monde, 22 juin 2004) Si les paroles enregistrées ou transcrites sont souvent déjàinterprétables (c'est le cas de bon nombre d'écrits anciens), ellesrestent néanmoins coupées de leur contexte d'origine. Pour mieuxcomprendre leur teneur, nous avons besoin de les authentifierc'est-à-dire connaître les principaux paramètres de l'acted'énonciation [14 ], à savoir qui a parlé ?où ? quand ? à l'attention de qui ? (7), ainsi que certaines propriétéssaillantes de ces paramètres (8). Différentes combinaisons de cesparamètres peuvent être linguistiquement exprimées et chacun d'entre euxpeut être spécifié d'une manière plus ou moins riche. Le statutprivilégié revient toutefois au locuteur, à la fois auteur de l'énoncérapporté et source des repérages spatio-temporels et personnels au seinde cet énoncé. Individuelle ou collective, cette entité peut êtreprésentée avec différents degrés de détermination, de manière àrenseigner sur sa notoriété et, par voie de conséquence, sur lalégitimité et l'impact possible de ses paroles. (7) « Cette grève de la faim est un choix personnel de Mme Nasraoui. Elle n'a qu' à en assumer les conséquences », a déclaré, vendredi 26 juillet, le responsable du dossier des droits de l'homme auprès du ministre de la Justice, Ridha Khemakhem, en réponse à une question du Monde concernant la dégradation de l'état de santé de l'avocate. (Le Monde, 29 juillet 2002) (8) Au bout du fil, un homme s'exprimant en anglais, avec un fort accent arabe, qui lui annonce qu'il a été recruté pour faire sauter, dans les prochaines heures, un camion bourré d'explosifs devant l'ambassade des États-Unis, près de la place de la Concorde. (Le Monde, 10 décembre 2003) Notons qu'une citation qui restitue son énonciation fait clairementréférence à un acte de parole effectif. Cet événement, s'il est oral ,peut être caractérisé également par les propriétés physiques etacoustiques de la parole du locuteur. À l'écrit, c'est la formegraphique de la parole, indissociable de son support physique, quitémoigne de son existence réelle. On distingue de cette façon une paroleréellement prononcée ou écrite d'un acte de communication réalisé pard'autres biais (un dessin, un signe gestuel, une mimique… qui fontcomprendre une intention). Dans la plupart des cas, les paroles citées ne font qu'illustrer undiscours plus large dont le but communicatif est restitué grâce à untravail interprétatif de l'ensemble de la situation d'énonciationd'origine. L'énonciateur prend alors en charge ce qu'il a identifié etreconstruit comme essentiel dans l'intention communicative manifestéepar le locuteur. C'est le rapport subjectif de ce dernier à sa propreparole et à l'effet qu'elle est censée produire qui se trouve ainsi misen évidence, sans qu'aucun jugement n'y soit porté. Premièrement, lacompréhension d'un discours rapporté exige que l'on détecte la valeurd'illocution que ce discours portait dans son contexte d'énonciationoriginel [15 ]. Dans certains cas, lesparoles rapportées suffisent à reconstituer la nature de l'acte dediscours réalisé (9); autrement, l'énonciateur se doit de l'exprimerexplicitement (10). Deuxièmement, il est parfois pertinent de restituerl'état d'esprit et l'attitude affective de celui qui a pris la parole ,ses croyances, ses réserves, l'importance qu'il accorde à son propos ,son rapport à la valeur de vérité de ce qu'il avance. Troisièmement ,qualifier le style, le mode d'argumentation ou la manière des'exprimer [16] du locuteur s'imposeparfois, notamment quand celui -ci emploie des figures du style où cequ'il veut dire diffère nettement de la signification conventionnelle deson énoncé (l'ironie, le sarcasme, le sous-entendu…) (11) ou s'exprimedans un style professionnel (éloquence juridique, politique…) ou social( dialecte social, régional…) particulier. (9) Dans son discours, le ministre a, par ailleurs, affirmé : « Je déclare devant vous que l'Irak est libre de toute arme nucléaire, chimique et biologique. » (Le Monde, 21 septembre 2002) (10) Les enquêteurs du SRPJ de Marseille, dans leur rapport de synthèse, innocentent totalement Bernard Tapie des accusations de Pierre Dubiton. « Les mouvements (achats-ventes) de joueurs ont été nombreux durant l'intersaison 2001-2002 et le mercato d'hiver, écrivent-ils, et, comme l'a reconnu M. Dubiton, aucun document engageant le club n'a été signé par Bernard Tapie. » (Le Monde, 14 juin 2003) (11) Et le quotidien Trybuna, héritier de Trybuna Ludu, jadis organe du parti communiste, toujours au service de ses amis postcommunistes, conclut avec sarcasme : « La nervosité s'installe dans les cercles politiques et médiatiques. Le ministre Kolodko ose réclamer une déclaration de patrimoine ! » Avant de démasquer, dans son meilleur style, les fraudeurs : « Pour satisfaire Kolodko, chaque honnête businessman et sa businesswoman, M. et Mme le juge, M. et Mme le médecin, M. et Mme le député, Mgr l'évêque, devraient déclarer ce qu'ils possèdent. Quel culot ! » (Le Monde, 4 septembre 2002) La quatrième composante du discours rapporté met en lumière la doublerelation dialogique qui s'établit d'une part entre celui qui rapporte( l'énonciateur) et le locuteur d'origine, et d'autre part entrel'énonciateur et celui à l'attention de qui le discours est rapporté (leco-énonciateur). Dans la première, l'énonciateur affiche explicitementle jugement qu'il porte sur le discours rapporté. Son appréciation peutconcerner (i) l'adéquation des choix des moyens d'expression ou desmodes d'organisation du discours au contenu du discours ou à lasituation d'énonciation (12), (ii) l'attitude du locuteur face à sonallocutaire, (iii) le positionnement du locuteur face au contenuexprimé. Dans la deuxième relation, l'implication affichée de l'énonciateurtraduit son souci de rendre intelligible le discours rapporté à sonpropre co-énonciateur. En effet, certains énoncés n'expriment pas d'unemanière claire et directe ce qu'ils veulent vraiment dire : ilsimpliquent, insinuent, suggèrent autant (ou plus) qu'ils (n') affirment ,déclarent ou définissent ouvertement. De plus, certains discours neconduisent à leurs significations réelles qu' à condition d'accéder àcertaines connaissances extralinguistiques précises (12, 13). Parconséquent, de nombreuses citations ne peuvent être interprétées sans uncommentaire, une reformulation ou une explication rédigés en fonction dela personne à qui elles sont destinées. Cet aspect de la citation esttrès saillant dans les articles de presse où la fonction de guidage estimportante. Le journaliste se positionne en médiateur qui traduit enlangage ordinaire, reformule, paraphrase, met en images, métaphorise etrecontextualise le discours autre (scientifique, technique, politique ,appartenant à une culture particulière ou peu connue…) pour le rendreaccessible au plus grand nombre [17 ]. Laséquence 12 illustre parfaitement cette double intervention de la partde l'énonciateur : l'appréciation sur la manière de s'exprimer (le doux euphémisme) du locuteur cité, y estsuivie d'une reformulation (en clair) adressée àdes lecteurs a priori peu habitués à la rhétorique communiste [18 ]. (12) Li Qinfu sait parfaitement qu'une cellule communiste stipendiée peut lui être d'une grande utilité dans ses relations avec les autorités. « Le grand problème en Chine dans les affaires, dit-il, c'est l'absence de transparence des politiques officielles. Ces politiques changent tout le temps. Le comité du parti nous aide à mieux comprendre. » Plus important encore est l'ordre social que fait régner ce même parti. « Il nous aide à évaluer la performance des employés. » Le doux euphémisme. En clair, le parti, c'est le syndicat maison. Sous le dôme du Capitole de Pinghu, le néo-capitalisme chinois croisé de tradition communiste germe. Une culture en serre d'un nouveau type, idéologiquement modifié. (Le Monde, 15 janvier 2002) (13) Deux jours après s'en être entretenu avec Nicolas Sarkozy, Jacques Chirac a fait savoir, jeudi 24 juin, par les services de l' Élysée, qu ' « un ministre ne peut pas être en même temps président du principal parti de la majorité ». En clair, M. Sarkozy devra abandonner Bercy, s'il se présente et est élu à la présidence de l'UMP. (Le Monde, 26 juin 2004) La typologie énonciative des discours rapportés que nous venons d'esquisserest construite à partir des modes d'intervention de l'énonciateur dans lediscours qu'il rapporte [19 ]. « Absent » dans lacitation minimale, restituant les paramètresfondamentaux de l'énonciation rapportée dans la citationauthentifiée, observateur et interprétant neutre des différentsaspects de l'énoncé et de l'énonciation rapportés dans la citation interprétée, enfin, véritable médiateur investi ,dialoguant à la fois avec la parole rapportée et avec le co-énonciateur ,dans la citation dialogique. Chaque catégorie de citation est définie par un ensemble de relationsénonciatives constitutives (tableau 1). Nous y symbolisons le locuteurd'origine [20] (l'énonciateur rapporté) parJe1, son allocutaire (le destinataire initial du propos rapporté) par Tu1 ,le lieu par S1, le moment par T1, l'énonciateur rapportant par Je2, leco-énonciateur (le destinataire du texte comportant la citation) par Tu2, laforme du propos par dire (P), le contenu du propos par dit (P), l'existenced'une relation explicite par . Les relations énonciatives de niveau 0 sont relatives aux repéragesélémentaires, constitutifs de toute énonciation. Les relations énonciativesde niveau 1 sont celles que l'énonciateur restitue, en observateur ou eninterprétant objectif (symbolisé par <Je2)> :); elles concernent leschoix et les positionnements du locuteur à l'égard de son allocutaire, de laforme d'expression et du contenu exprimé. Les relations énonciatives deniveau 2 intègrent explicitement l'énonciateur, lequel exprime un jugementsur les choix et les attitudes manifestés par le locuteur. Au niveau 3 ,l'énonciateur explique ou reformule le discours rapporté à l'attention deson propre co-énonciateur, lequel dans la plupart des cas n'est pasidentifié (<Tu2 >). À chaque relation énonciative est associée une famille de valeurs sémantiquesrelatives aux propriétés saillantes à l' œuvre dans la relation. Ces valeurs ,dégagées essentiellement à partir de l'étude des verbes introducteurs de DR( voir le § 3.4), peuvent être catégorisées de manière de plus en plus fine .Au niveau le plus général, trois aspects saillants semblent se dégager dansla manière de présenter des paroles d'autrui : (i) faire référence à leurforme d'expression originelle, (ii) focaliser l'attention sur leur contenu ,( iii) insister sur la relation (visée) interpersonnelle dont elles étaientporteuses dans leur énonciation d'origine. Chacun de ces aspects peut, à sontour, être décrit par un certain nombre de catégories plus précises. Parexemple, la forme d'expression qui réfère au choix des moyens d'expressionet des modes d'organisation du discours, peut être caractérisée selon les« rubriques » suivantes : ‘ mode argumentatif ', ‘ figure de style ', ‘ genre ' ,‘ gestion du discours ', ‘ manière de s'exprimer ', ‘ support', ‘ type d'objettextuel '. La rubrique ‘ type d'objet textuel ' correspond aux différentesvaleurs exprimées par les verbes tels que introduire ,conclure, titrer, résumer, exemplifier… Pour montrer d'une manière précise comment les valeurs sémantiques donnentcorps à une relation énonciative, considérons la relation Je2 (Je1 dire (P)). Dans cette relation, l'énonciateur porte un jugement surl'adéquation des moyens d'expression ou des modes d'organisation du discourschoisis par le locuteur au contenu du discours ou à la situationd'énonciation. Cette attitude critique peut prendre de nombreuses nuancessémantiques : (i) dénoncer une écriture rapide et dépourvue de soin detextes se réclamant d'un certain genre (écrivasser ,écrivailler, rimailler, criticailler …), (ii) signaler des défautssur le plan de l'argumentation : s'écarter du thème (digresser), le fait d'opposer des arguments excessivement subtilset captieux (ergoter) ou d'avoir un souci excessif dedétails (pinailler), (iii) pointer l'excès de formecachant l'absence de contenu (blablater, laïusser) ,( iv) révéler l'usage de l'implicite, le fait de laisser entendre quelquechose sans l'exprimer directement (insinuer) ,( v) critiquer le style employé : excès d'emphase (pérorer), langage obscur (jargonner) (14) ,( vi) porter une appréciation sur la manière de parler (élocution, force ,violence…) (criailler, invectiver), le fait d'émettredes sons (souvent désagréables) faisant penser à des cris d'animaux (beugler, bramer…), (vii) porter une appréciation surla gestion du discours (longueur, répétitions…) (discourir, palabrer, rabâcher, radoter, rebattre, ressasser), (14) « L'appropriation politique du pacte par les États membres a diminué », jargonne la Commission, ajoutant que les gouvernements n'ont « pas voulu tirer les conséquences de l'introduction de l'euro dans la conduite des politiques budgétaires nationales » (Le Monde, 27 novembre 2002) Les différentes rubriques sémantiques peuvent apparaître dans plusieursrelations énonciatives. En effet, les relations énonciatives s'organisentdans un système où de nombreuses caractéristiques du discours rapporté ,touchant à la forme, au contenu ou au rapport social entre interlocuteurs ,peuvent être restituées par l'énonciateur d'une manière neutre ou fairel'objet de sa part d'un jugement explicite. En voici un exemple. La trace dela sollicitation de l'autre qui est une des valeurs possibles de la relationinterpersonnelle <Je2> : Je1 Tu1, peut s'enrichir d'une appréciationde la part de l'énonciateur, dans la relation Je2(Je1Tu1), mettant enévidence son caractère abusif (racoler, bassiner …) ,la volonté d'imposer un modèle de pensée (endoctriner …) ou le fait de chercher par de belles paroles à obtenirdes avantages personnels (enjôler, fayoter …) (15 ,16). (15) Parallèlement, le juge s'est attaqué aux finances du mouvement indépendantiste basque et de ses possessions présumées à l'étranger. Il a sollicité, jeudi, du président du Parlement européen Pat Cox, « la suspension des aides et subventions que reçoit Batasuna » (Le Monde, 7 septembre 2002) (16) Simple militant du PS aujourd'hui, il estime que la « motion Hollande, qui nous a bassiné en disant : “attention à la gauche du parti” fait aujourd'hui exactement la même chose ». (Le Monde, 6 juin 2003) Au fond, cette organisation permet de rendre compte du fait que les citationsne reflètent pas seulement les rapports, s'exprimant en termes d'adhésion oude distanciation, que le locuteur et l'énonciateur entretiennent avec lecontenu propositionnel des paroles rapportées, mais aussi de nombreusesrelations sémantiquement riches et nuancées touchant tant à descaractéristiques formelles du discours rapporté, qu' à des relationsinterpersonnelles établies par ce discours. Les valeurs énonciatives qui fondent notre classification des discoursrapportés ont été dégagées à partir de l'analyse des configurations demarques impliquées dans le signalement de l'activité citationnelle. En fontpartie les expressions introductrices de discours rapportés (verbes ,syntagmes nominaux et expressions adverbiales), les marques relatives auxprincipaux paramètres de l'énonciation rapportée, ainsi qu'une vaste famillede marques permettant à l'énonciateur de commenter, d'expliquer ou dereformuler le discours d'autrui. Afin de valider la pertinence de cescatégories, nous avons analysé 722 verbes introducteurs de DR, dontl'aptitude à superposer la fonction d'attribution de dire avec diversesmodalisations, en fait les principaux « porteurs » de la valeur sémantiquede la citation [21 ]. Plus de 660 verbes ont puêtre classés dans les catégories énonciatives proposées, ce qui confirmeleur adéquation à la modélisation des discours rapportés. Le classement desverbes selon les valeurs sémantiques possibles pour chaque relationénonciative, se heurte à l'épineux problème posé par la multiplicité desnuances de sens exprimables par les verbes de parole. Nous avons proposé uneorganisation sémantique selon trois niveaux, cohérente avec l'organisationénonciative, sans pour autant prétendre d'avoir trouvé le « bon » grain dansla distinction des différentes catégories. Nous pensons qu'il serait souhaitable de réaliser un travail analogue surcertaines expressions adverbiales qui exercent, elles aussi, une incidencesignificative sur l'interprétation des paroles rapportées (d'une voix forte, sur un ton monocorde, en deux mots, dans un anglaisparfait, non sans ironie, avec précision et rigueur, avec mépris, avecraison…). Spécifiant, selon les cas, certaines caractéristiques dulocuteur, du discours produit ou de la relation interlocutive, voireexprimant des appréciations de l'énonciateur sur ces différents aspects dudiscours rapporté, ces expressions semblent jouer sur le plan énonciatif etsémantique un rôle comparable à celui des verbes introducteurs (17). Ils'agirait de construire un protocole précis de collecte automatique de cesexpressions sur corpus. Puis, de vérifier si les valeurs énonciatives etsémantiques dont elles sont porteuses au sein des discours rapportés ,permettent de valider les catégories que nous avons constituées à partir duclassement des verbes. Une étude sémantique comparative entre ces deuxensembles de marques pourrait alors être entreprise, pour expliquer queltype de valeurs sont préférentiellement portées par quel type de marque. (17) D'un ton monocorde, parfois vindicatif, Dutroux s'est appliqué à démontrer maladroitement qu'il n'était qu'un « fusible », que le procès visait en réalité à cacher « ce que le peuple ne doit jamais comprendre, afin que la haine bloque la raison ». Il a aussi dit souhaiter, par moments, qu'un infarctus « efface les fautes ». (Le Monde, 12 juin 2004) Comme nous l'avons montré dans la section 2, l'exploitation avertie despropriétés énonciatives des discours peut conduire à améliorer sensiblement laqualité des résultats obtenus par des applications de résumé, de filtrage ou defouille de textes. Nous pensons que la catégorisation des opérationsdiscursives, produite entre autres par nos recherches dans le champ del'énonciation textuelle, pourrait trouver toute son utilité dans diverses tâchesd'annotations de segments textuels (pour l'enseignement ou pour la recherched'information, par exemple). En particulier, il nous semble intéressant et productif de situer ce travaild'annotation dans le contexte du web sémantique (WS) (Handschuh and Staab, 2003 )qui permet de bénéficier de langages standardisés et d'outils exploitant dedifférentes manières les représentations produites. Un des atouts majeurs du WSest l'utilisation d'ontologies dans le sens spécifique donné à cette notion parl'ingénierie des connaissances (IC) qui les définit, pour schématiser, comme desmodèles conceptuels partagés et (ré) utilisables par des communautés de pratiquede dimension extrêmement variable. Dans la plupart de ces travaux du WS, lesannotations utilisées correspondent à des ontologies d'un domaine applicatif .Pour notre part, nous pensons que pour différentes tâches, il est intéressantd'associer des annotations portant sur des aspects discursifs et permettant dequalifier des portions de texte en fonction de leur rôle dans l'énonciation etpar rapport à d'autres segments textuels. On pourra par exemple repérer uncertain type de discours rapporté, ainsi que son locuteur avec son type( personne, gouvernement, etc.), en tirant profit de la structuration del'ontologie. Avec cet objectif, nous avons entamé récemment une réflexion avec desspécialistes de l'IC, et notamment avec Philippe Laublet. Cela nécessite deréfléchir à la constitution d'une ontologie qui modélise certains aspects de lalinguistique du discours. Certains travaux sur les ontologies de la linguistiquevont déjà dans ce sens (Farrar and Langendoen, 2003), en notant toutefois queles plus abouties se focalisent essentiellement sur la morphosyntaxe et sur desaspects grammaticaux, même si certaines réalisations en cours se consacrent à lamodélisation de relations rhétoriques en suivant telle ou telle théorie, commela RST (Goecke et ali., 2005). En s'inspirant de théoriesou travaux plus récents (encadrement du discours…), on se propose des'intéresser, de manière cohérente avec nos travaux, à l'énonciationtextuelle. Une telle ontologie, à laquelle nous entendons contribuer sansprétendre couvrir l'intégralité du champ, peut trouver son utilité dansdifférentes tâches : annotation d'articles scientifiques de linguistique ou deleurs résumés, indexation de ressources linguistiques et interopérabilité entredescriptions linguistiques, aide à l'enseignement de la linguistique. De manière plus générale en association avec des ontologies spécifiques, on peuts'intéresser à des situations d'annotation de textes où des utilisateurscherchent à repérer différents types d'énoncés et leur contexte (journalistes ,veilleurs…). L'utilisation des formalismes du WS permet alors, en utilisant descatégories énonciatives et sémantiques bien définies ainsi que des ontologies dedomaine, de faciliter les réponses à des requêtes de différents types, laprésentation des textes et la navigation intra ou intertextuelle. Les discours, quelle que soit leur nature, sont emprunts de la subjectivité deleurs auteurs et fortement orientés en fonction de l'horizon d'autrui. Cettedimension énonciative est source d'instructions précieuses pour la gestion del'activité de compréhension, tant par l'humain que par la machine. Ainsi ,pouvoir capter et interpréter correctement ces instructions devient aujourd'huiun enjeu à part entière pour plusieurs types d'applications informatiques. Onconstate toutefois que les stratégies effectives sont souvent très empiriques etne font que rarement le lien avec des travaux linguistiques touchant àl'énonciation. Du côté de la linguistique, peu de consensus existe sur lescatégories pertinentes propres à ce domaine et peu d'études livrent desressources (marqueurs et connaissances) systématisées exploitablesinformatiquement. Le travail présenté ici se situe dans la lignée des recherches sur l'énonciation ,accordant une priorité à l'analyse systématique des marques de surfaceconsidérées comme traces d'opérations constitutives des objets de discours. Lescatégories que nous proposons pour typer et décrire les discours rapportéstraduisent la diversité des relations intersubjectives dans lesquelles sontimpliqués non seulement les énonciateurs rapportant et rapporté, mais aussileurs co-énonciateurs respectifs. Elles permettent de dépasser les oppositionsbinaires « habituelles » : entre l'opinion positive et l'opinion négative d'uncôté, et entre la prise en charge et l'absence de prise en charge des contenus ,de l'autre. Ces dernières écrasent de toute évidence l'étendue dessignifications dont peut être chargé l'acte de transmission de parolesétrangères. D'une part, l'intervention de l'énonciateur rapportant peut prendreplusieurs formes d'implication différentes, ce qui nous amène à distinguerquatre grands types de séquences citationnelles, d'autre part, trois aspectssaillants semblent se dégager dans la manière de présenter des parolesd'autrui : (i) faire référence à leur forme d'expression originelle ,( ii) focaliser l'attention sur leur contenu, (iii) insister sur la relation( visée) interpersonnelle dont elles étaient porteuses dans leur énonciationd'origine. Les ressources et les catégorisations proposées demandent de toute évidence àêtre validées à la lumière des travaux linguistiques similaires et parconfrontation à des objectifs précis, notamment pour différentes tâches derecherche d'information (pour la fouille d'opinions ou la veille sociale, parexemple). Sur le plan théorique, elles pourront alimenter les réflexions sur laconstitution d'une ontologie linguistique relative au domaine du discours, dontl'utilité immédiate est d'abord d'ordre didactique. Mais, comme nous l'avons ditplus haut, toute une gamme d'applications informatiques qui relèvent du websémantique pourraient combiner efficacement les ontologies de domaine avec uneontologie des faits de discours, pour améliorer la qualité des annotationstextuelles et des traitements qui en dépendent . | RÉSUMÉ. L'article décrit les relations énonciatives et sémantiques constitutivesdes discours rapportés, dégagées à partir de l'analyse des marques linguistiquesde l'activité citationnelle dans des médias écrits. Les catégorisations et lesressources constituées sont destinées à différentes tâches d'annotation detextes, notamment dans le contexte du web sémantique . | scientext_ling_art_241_Tal_Jackiewicz_en_tete_div.xml |
termith-772-scientext | Les émissions de plateau à la télévision accordent de plus en plus souvent unepart importante à la dimension émotionnelle de la parole des participants. Onpeut aller jusqu' à caractériser certains genres télévisuels par rapport à cecritère. Par exemple, Charaudeau et Ghiglione (1997) montrent bien que letalk-show se distingue du débat par son traitement des émotions. D'autresémissions mettent la mise en scène des émotions au centre de leurs dispositifs .C'est le cas des émissions de confidence, comme Bas LesMasques. D. Mehl voit même dans cette évolution l'émergence d'une formeparticulière de télévision, qu'elle appelle « la télévision de l'intimité »( 1996). En partant de ces observations, nous allons tenter de comprendre, par une analyseempirique, ce qu'est une séquence médiatique « chargée d'émotions ». Nous montrerons que l'émotion à la télévision résulte en fait de la mise en œuvred'un dispositif médiatique relativement complexe, qui combine plusieursparamètres : le comportement verbal et mimogestuel des participants, la gestionde l'interaction par l'animateur, et la sur-énonciation opérée par laréalisation visuelle. On pourra donc parler de « dispositif émotionnel » pour définir cette combinaisonde paramètres et faire l'hypothèse qu'une séquence de parole à la télévisionsera d'autant plus chargée émotionnellement qu'elle fera intervenir un grandnombre d'éléments de ce dispositif. Pour compléter cette hypothèse et ce travail, nous avons procédé à un test deréception, en soumettant la « séquence émotionnelle » décrite à trente sujets« non avertis ». Le but de ce test est de recréer les conditions « normales » dela réception, conditions dans lesquelles les analystes ne sont évidemment pas. Ce travail porte sur une séquence extraite de l'émission Demainles jeunes, diffusée sur France 2, le 28 mars 1994. Cette émission estanimée par Michel Field, elle dure 2H15, et repose sur un dispositif complexe( 61 participants, un large public sur le plateau, des duplex). Elle estconsidérée comme l'acte de naissance d'un genre télévisuel : la télévisionforum. La « fabrication » de ce genre repose sur l'articulation de différentscadrages, parfois conflictuels. Un forum télévisé oscille en effet entre lesrègles du talk-show (filmage en gros plan, parole en « je », valorisation del'émotion), et du débat politique et social (présence de représentants syndicauxet de politiques, parole revendicative et collective) (H. Atifi, M. Marcoccia, àparaître). Cette émission est consacrée au débat sur le Contrat d'InsertionProfessionnelle (CIP), instauré par le Gouvernement Balladur et contestéfortement par les étudiants (manifestations, violences, etc.). Dans cetteémission, des jeunes opposés au CIP sont invités ainsi qu'un ministre etd'autres « personnalités » politiques et de la société civile. La séquence qui est au centre de notre analyse se situe à la fin de l'émission ;c'est même la dernière séquence pendant laquelle un jeune présent sur le plateauprend la parole. Pendant cette séquence, une jeune étudiante – dont le nom n'estni indiqué par l'animateur ni mentionné en incrustation – exprime son« désespoir » et ses problèmes pour trouver un emploi stable. En tant quetéléspectateur, on ressent cette séquence comme très chargée émotionnellement .Pour D. Mehl, qui l'évoque dans un de ses ouvrages, cette séquence est le sommetde l'émission Demain les Jeunes (1996, p. 174). Cette séquence démarre une dizaine de minutes avant la fin de l'émission et dure45 secondes. Dans le cadre de cet article, nous avons choisi une technique detranscription de la séquence qui rendra compte uniquement du verbal et du vocal .Les phénomènes mimogestuels et visuels seront abordés uniquement au cours del'analyse mais ne seront pas indiqués dans la transcription. Cette transcriptionsimplifiée reprend en fait les règles utilisées pour les transcriptionssemi-techniques (voir M. Grosjean, 1993). Nous allons procéder à l'analyse decette séquence en mettant en évidence les divers paramètres qui contribuent à enfaire une « séquence émotionnelle » : procédés discursifs utilisés par la jeunefille, paramètres vocaux, comportement mimogestuel, mise en scène visuelle. Transcription de la séquence (MF : Michel Field, JF : jeune fille) : MF : une réaction (.) vous vouliez immédiatement JF : oui moi c'était euh pour parler désespoir je voulaisdire que (.) j'ai 21 ans j'ai un BTS secrétariat trilingue et j'ai été pendant 7mois au chômage (inspiration) j'avais rien (.) là ça faittrois mois que je travaille (.) à la fin du mois et je me retrouve au chô:mage (.) et je et je toucherai aucune allocationc'est-à-dire que j'ai rien je suis complètement dé:sespérée dé:moralisée parceque j'ai fait ce bts (.) en me disant (.) quand je vais sortir j'aurai unboulot (inspiration) et ben en fait j'ai rien du touttout ça parce que je suis trop jeune (.) j'ai pas assez d'expérience mais bonDieu j'aimerais bien l'avoir l'expérience mais qu'on me laisse (..) le choixau moins (inspiration) ou alors parce que ça fait pasassez longtemps que je suis au chômage (..) mais bon qu'on fasse quelque chosepour nous et moi je sais vraiment pas quoi faire mon avenir je ne le vois mêmepas c'est un gros point d'interrogation (inspiration) etje peux dire que (.) j'éprouve plus rien aucun sentiment et et (.) je suiscomplètement morte au fond de moi – La « préparation du terrain émotionnel » Avant d'analyser précisément la séquence, il est nécessaire d'observer la manièredont elle s'articule avec le reste de l'émission. On se rend alors compte quetout au long de l'émission, la charge émotionnelle est construite et que, d'unecertaine manière, l'animateur « prépare le terrain » favorable à l'expressiondes émotions. En effet, tout au long de l'émission, Michel Field attribue dansses énoncés certaines émotions à la jeunesse, comme dans l'extrait suivant : M.Field : Je voudrais faire intervenir avant de passer, avant de passer maisc'est aussi la suite au sujet des (.) le sujet des violences et desmanifestations et peut-être aussi de la manifestation de ce désespoir et de ce mal de vivre dont on parlaittout à l'heure. On peut y voir la volonté d'imposer un traitement du « débat » plus proche du talk-show que de l'émission politique. De ce point devue, la séquence étudiée renforce le cadrage de l'instance journalistique. Onpeut considérer que ces énoncés d'attribution d'émotions fonctionnent comme descadrages préalables pouvant agir à la fois sur les participants, invités àproduire une « émotion attendue » (P. Paperman, 1995, p. 177), et sur letéléspectateur, invité à interpréter ce qu'il voit comme étant chargéémotionnellement. – Les procédés discursifs La dimension émotionnelle de cette séquence est directement liée au contenu deson intervention et aux procédés discursifs utilisés par la jeune fille .Celle -ci utilise divers procédés rhétoriques favorisant l'inférence émotionnelle( Plantin, 1998) : l'organisation thématique de son intervention (le désespoir etla perte d'emploi répétée), l'explicitation des émotions (« c'était pour parlerdésespoir »), la personnification (le discours est en « je »), la mention dedétails (« un BTS secrétariat trilingue »), l'utilisation de procédésstylistiques d'amplification (« complètement désespérée »), des constructions encrescendo (« désespérée… démoralisée… aucun sentiment… morte »), le recours à lamétaphore (« point d'interrogation »), l'interjection (« Bon Dieu »), laconclusion alexithymique (J. Cosnier, 1994, p. 140) : « j'éprouve plus rienaucun sentiment (..) je suis complètement morte au fond de moi ». Par ailleurs ,la valeur pragmatique de son intervention est proche d'une supplique (« maisqu'on me laisse le choix au moins »). On observe un certain nombre de paramètres vocaux qui sont en adéquation avecla dimension émotionnelle de cette séquence. On peut dire que le jeune filleparle d'émotion d'une manière émue. Ainsi des variations d'intensité vontrenforcer la charge émotionnelle de certains mots, qui sont les mots-clés àpartir desquels se construit son discours (« rien », « trop jeune » ,« j'aimerais bien avoir l'expérience »). Des allongements vocaliquespourront jouer le même rôle, par exemple sur les mots « chômage » ,« désespérée », « démoralisée »). D'autres caractéristiques articulatoiresvont être des signes (ou des indices) d'émotion : la fréquence importanted'inspirations sonores qui pourra être interprétée comme signalant l'émotionde la jeune fille (qui a le « souffle coupé »). Enfin, le débit rapide ethaché par des pauses assez nombreuses peut aussi signaler l'émotion, demanière assez prototypique. – Le comportement mimogestuel Les phénomènes précédemment décrits s'articulent avec des comportementsmimogestuels qui peuvent aussi être interprétés comme signalant l'émotion dela jeune fille. On observe ainsi des mouvements latéraux de la tête, trèsnombreux et en continu, correspondant au geste stéréotypé de la résignation .La combinaison de phénomènes continus – comme le balayage du regard (leregard « perdu ») – et locaux – comme l'élévation fréquente des sourcils etl'écarquillement des yeux, synchronisés avec des passages importants (« jeme retrouve au chômage », « démoralisée », « bon Dieu… », « qu'on fassequelque chose ») – peut aussi être lue comme formant un regard angoissé ouapeuré. De même, le comportement mimogestuel de la jeune fille après sontour de parole est intéressant : elle ferme les yeux (comme si elle donnaitla traduction corporelle de l'énoncé « je suis morte au fond de moi »), ellea une mimique faciale typique de tristesse, on peut même penser qu'elle ales yeux humides et qu'elle est au bord des larmes. – Le filmage La mise en image est organisée de la manière suivante : au début, on entendla voix de la jeune fille mais on ne la voit pas; à l'image, l'animateurl'écoute attentivement. Puis, après 5 secondes, le réalisateur passe à unplan demi-ensemble avec un petit travelling lent, montrant la jeune fille( filmée à la taille) en légère contre-plongée, entourée de deux personnes .Puis, à partir de la 13 eme seconde et jusqu' à la fin, lajeune fille est filmée en plan rapproché (cadrée à l'épaule en légèrecontre-plongée) puis avec un zoom avant rapide jusqu' à un plan-visage trèsrapproché. La jeune fille est donc filmée de plus en plus proche, ce quicorrespond bien à une mise en scène de l'intimité et de l'émotion dans la« grammaire » classique du filmage (le gros plan est traditionnellement latraduction cinématographique et télévisuelle de l'affect). L'analyse des différents paramètres constituant ce que nous appelons undispositif émotionnel ne nous dit rien sur la manière dont la séquence esteffectivement perçue par des téléspectateurs. Pour apporter des éléments deréponse à la question de la réception, nous avons mis en place un « test deréception », qui ne tient pas lieu de véritable étude de la réception maisqui donne quelques indications pertinentes pour notre analyse. Nous avonsprojeté la séquence décrite à trente étudiants (inscrits en formationd'ingénieurs à l'Université de Technologie de Troyes). Ces étudiants suiventun cours d'analyse des médias et ont répondu au test dans le cadre d'uneséance de travaux dirigés. Le protocole est le suivant. On projète une seulefois et sans commentaire préalable la séquence aux étudiants, puis ceux -cisont invités à répondre au test, comprenant les trois questions suivantes :parmi une liste de cent mots désignant des émotions (tirée de la structurehiérarchique des domaines émotionnels, (cf. J .Cosnier, 1994, pp. 44-45), ils doivent cocher l'émotion principale qui leursemble être exprimée par la jeune fille (question 1), puis indiquer cinqémotions secondaires (question 2). Enfin, ils doivent alors indiquer cinqindices à partir desquels ils ont identifié cette émotion, en les classantpar ordre d'importance (question 3). Un rapide traitement de ce test nous donne les résultats suivants. Pour lesétudiants, l'émotion principale exprimée par la jeune fille est massivementle désespoir (20 réponses sur 30). On trouve aussi le dégoût (4) et ladépression, le malaise, l'angoisse, la déception, la colère et l'amertume (1fois chacune). On peut donc noter une forte corrélation dans la perceptionde cette séquence. Les réponses à la question 3 nous permettent de comprendre la manière dontles indices dégagées par notre analyse sont hiérarchisés dans une phase deréception. Il est alors intéressant de noter que les procédés discursifsutilisés par la jeune, ainsi que le contenu de son intervention sontconsidérés comme les indices les plus importants (pour 15 étudiants sur 30) .Cette réponse peut être mise en corrélation avec la réponse 1. En effet, ledésespoir est l'émotion principale simplement parce que la jeune fille dit« Moi, c'était pour parler désespoir » ! Les paramètres vocaux sont jugésles plus importants pour 10 étudiants, la mimogestualité pour 5 étudiants .On note avec surprise qu'aucun étudiant ne considère le filmage comme uninducteur d'émotion pour le téléspectateur. On peut observer avec intérêt les indices secondaires indiqués par lesétudiants. Si le contenu reste important (22), le mimogestuel l'est encoreplus (25). Apparaissent les mentions de l'expression du visage (10 fois) etdes larmes de la jeune fille (7 fois). Sur ce dernier indice, les étudiantstestés sont moins « prudents » que notre analyse. En effet, la descriptionobjective de l'image ne permet pas d'affirmer que la jeune fille pleure. On peut noter par ailleurs que le comportement vocal est cité 12 fois etqu'un seul étudiant indique le filmage comme indice secondaire. Ce travail montre que l'analyse d'interactions télévisées exige la prise encompte de la dimension multimodale du média. C'est par l'articulation de diversphénomènes que se construit l'émotion dans cette émission. On peut mettre enrelation ce dispositif émotionnel avec la finalité empathique de l'émission .Dans le cadre d'une mise en scène télévisée de l'émotion, la nécessaire prise encompte du téléspectateur se réalise par l'empathie. On comprend alors pourquoile dispositif mis en œuvre dans cette émission privilégie l'expression dudésespoir : la tristesse (qui est l'émotion de base à laquelle se rattache ledésespoir) est la plus empathique des émotions (J. Cosnier, 1994, p. 141). Cetteséquence incarne donc bien ce que Mehl (1996) appelle la télévisioncompassionnelle. Le « test de réception » mis en place confirme l'essentiel de l'analyse mais nousinterroge sur la manière dont les critères constituant le « dispositifémotionnel » se hiérarchisent. Manifestement, les étudiants testés considèrentque le travail de construction énonciative par la filmage ne détermine pas leurréception. Ce résultat assez surprenant illustre sans doute le fait que latélévision est encore bien souvent considérée comme un dispositif de purecaptation de la réalité et non pas comme une action sur cette réalité et saperception. La télévision « fabrique » des émotions qui sont perçues néanmoinscomme authentiques . | Résumé — Cet article traite des émotions dans une émission de télévision, etplus précisément de la mise en place d'un « dispositif émotionnel » au coursd'un talk-show politique. Ce travail est basé surl'analyse multimodale de l'émission Demain les jeunes ,diffusée sur France 2 en mars 94. L'analyse de cette séquence émotionnelle (unejeune fille parlant de son désespoir) montre que sa force émotionnelle dépendd'un dispositif global et multimodal. L'expression des émotions est basée sur leverbal, le vocal et le mimogestuel, mais est aussi induite par un cadragepréalable (l'animateur parle de l'angoisse de la jeunesse) et renforcée par lefilmage (gros plans). Cette analyse est complétée par un test de réception. Cetravail s'inscrit dans le champ de la pragmatique des interactionsmédiatiques . | scientext_ling_comm_117_ling_EID_Atifi_Marcoccia_entete.xml |
termith-773-scientext | Le terme de navigation textuelle reçoit de multiples interprétations. La plus commune renvoie inévitablement au processus mis en œuvre par les outils de navigation utilisés pour circuler dans les documents hypertextes; c'est-à-dire la possibilité d'activer un lien pour déplacer le point de lecture, ce déplacement pouvant être intra ou intertextuel. Avant de présenter notre propre conception, nous allons rappeler les principales caractéristiques de la navigation hypertexte. Plusieurs points caractérisent la navigation hypertexte quelle fut effectivement mise en en œuvre à l'origine. Tout d'abord, l'activation du lien est en quelque sorte « aveugle » ou « non assistée », plus précisément aucune signalétique (en dehors d'un titre ou de l'adresse Url qui est en général peu significative) ou instructions de navigation ne sont associées au lien. Deuxièmement, l'orientation de la navigation n'est pas indiquée explicitement : le lecteur ne sait pas si le déplacement se fait vers l'amont ou vers l'aval du texte lu. Dans certains systèmes, l'affichage d'une carte représentant l'ensemble du site et la localisation du point de lecture sont utilisés pour résoudre en partie ce problème (Danielson, 2002). Enfin et surtout, les liens sont placés dans le corps même du texte, mélangeant ainsi le texte et les connaissances qui spécifient la navigation dans ce texte. Cela limite les possibilités d'adapter les parcours de lecture à un lecteur car tous les parcours possibles sont potentiellement définis indépendamment du lecteur. En d'autres termes, aucune information ou connaissances complexes ne peuvent être associées à la navigation. Malgré le succès incontestable de l'hypertexte, les avis sur l'effectivité de son utilisation comme support à la lecture sont partagés. Par exemple, certaines critiques mentionnent le phénomène de désorientation cognitive (Elm et Woods, 1985) (Edwards et Hardman, 1989) (Cotte, 2004) lorsqu'un utilisateur navigue dans un environnement hypertexteMême si ce phénomène est généralement utilisé comme mécanisme de narration par les écrivains, il est particulièrement perturbateur lorsque les textes sont de type informatif ou argumentatif, entre autres. Plusieurs approches ont proposé de résoudre en partie ces problèmes en adaptant les techniques d'hypertextes. On peut les distinguer suivant deux modes : adaptatif ou dynamique. L'approche de l'hypertexte adaptatif (Mathe et Chen, 1994) (Brusilovsky, 1994;et 1996) cherche à pallier le problème de l'adaptabilité à un utilisateur présente dans l'approche traditionnelle de l'hypertexte. L'objectif principal de cette approche est d'adapter un système hypertexte aux besoins spécifiques d'un utilisateur. Notons que la modélisation de l'utilisateur est un point clé de cette approche. Il existe deux voies d'adaptation : présentationnelle et navigationnelle. La première a trait à l'adaptation des nœuds afin de modifier la manière dont l'information est affichée, tandis que la seconde concerne les liens qui sont présentés à l'utilisateur. Tandis que l'hypertexte adaptatif conserve la notion de lien tel qu'il existe dans l'approche traditionnelle de l'hypertexte, l'hypertexte dynamique change la notion même de lien. Dans cette approche, les liens sont créés à l'exécution, au lieu d' être calculé préalablement (liens pré-calculés), ou à travers des modifications ou sélections dans des ensembles existants de liens (liens adaptatifs) (Bodner et Chignell, 1999). Une possibilité dans cette approche consiste à calculer les liens selon des relations prédéfinies ou selon des critères de similarité entre les textes. Dans ce cas, un lien n'est pas défini comme un pointeur d'un nœud hypertexte vers un autre, mais comme une requête visant un nœud. Ces requêtes peuvent prendre en considération l'historique de navigation, le profil de l'utilisateur, etc. Cette notion de requête sur un nœud est une source d'inspiration pour notre démarche, mais plutôt que de considérer des éléments liés au lecteur, nous allons exploiter les différentes connaissances linguistiques (au sens large du terme) présentes dans les textes. Cette exploitation exige une étape d'annotation du texte, résultat d'un traitement linguistique finalisé. Notre conception de la navigation textuelle se démarque ainsi de la navigation hypertextuelle car nous considérons que circuler ou naviguer dans un texte est l'expression d'un processus cognitif qui convoque des connaissances qui sont propres à la finalité de la navigation (Minel, 2002 et 2003; Couto et Minel, 2004; Couto, 2006). Ainsi, comme nous l'illustrerons en présentant différentes expérimentations, un documentaliste qui doit écrire un résumé d'un texte (Endres-Niggemeyer B. et al., 1995) ne navigue pas de la même façon qu'un lecteur intéressé par l'évolution des sentiments d'un des personnages d'un roman (Mathieu, 2005) ou qu'un linguiste qui explore les annotations placées par un système automatique (Pery-Woodley, 2005). Ainsi, le fait qu'un texte soit maintenant numérisé et qu'il soit présenté au lecteur sur un écran peut être considéré, de notre point de vue, comme une nouvelle mutation qui place le lecteur devant de nouvelles possibilités qui restent à explorer : « Le texte [. ..] offre en effet une richesse sémiotique particulière, qui fournit de multiples objets d'interprétation et de multiples pistes d'actions [. ..] les lecteurs n'ont pas la même démarche envers l'objet ni la même définition de cet objet, ils ne « voient » pas la même chose. » (Souchier et al., 2003) Nous formulons l'hypothèse que la démarche du lecteur, ou plus exactement d'une catégorie de lecteurs, peut d'une part, s'appuyer sur la présence de marques discursives et d'annotations dans le texte et, d'autre part, sur des connaissances qui exploitent celles -ci. De plus, ces connaissances sont susceptibles d' être modélisées sous une forme déclarative. En conséquence, nous proposons le langage SEXTANT pour exprimer ces connaissances. Autrement dit, nous considérons qu'il ne suffit pas de créer des liens mais qu'il est nécessaire d'expliciter l'opération de navigation et que, de plus, ce processus doit être mis en œuvre par un « expert » capable d'encoder ces connaissances. Une différence capitale entre notre conception de la navigation textuelle et la navigation hypertextuelle tient au statut du texte et de la modélisation des connaissances de navigation. Dans le cas de l'hypertexte, la visualisation du texte est unique et les connaissances de navigation sont encodées dans le texte même et en font partie. Ces connaissances ne sont donc pas explicitement modélisées mais plutôt dispersées dans le texte. Dans notre approche, nous considérons qu'un texte peut être visualisé de différentes manières, appelées vue du texte, et que chaque vue peut donner lieu à différentes manières de naviguer dans le texte. De plus, les connaissances navigationnelles sont modélisées indépendamment de l'objet texte et gérées dans une base de connaissances appelées « module de navigation ». Du point de vue du lecteur, cette différence de conception entraîne que c'est celui -ci qui active les connaissances d'interprétation (Kintsch, 1998; Baccino, 2004) et qu'il peut interagir en choisissant la vue du texte et la voie de navigation qui lui semble la plus appropriée pour sa tâche de lecture. Il est néanmoins évident que cette interaction est actuellement très limitée, car la navigation proposée reste dans les limites posées par le concepteur des modules de navigation. En ce sens, il serait peut-être plus précis de parler de « navigation textuelle assistée ». Notre approche systématique de la navigation textuelle nécessite quatre éléments : i) une représentation du texte pouvant décrire différents phénomènes linguistiques; ii) la possibilité d'isoler les connaissances de visualisation et de navigation; iii) un agent (une personne, une équipe d'experts, un système, etc.) capable d'encoder ces connaissances; iv) un système qui interprète ces connaissances. Le point iii) sera abordé dans la discussion sur l'évaluation des expérimentations (cf. 5.4). C'est le type de traitement à effectuer qui vient déterminer habituellement la représentation la plus convenable selon des critères à choisir : rapport coût/performance, souplesse, exhaustivité, simplicité, etc. En conséquence, il existe des représentations d'un texte qui le conceptualisent comme une séquence de caractères, jusqu' à des représentations fortement imprégnées par des approches linguistiques, où la représentation de texte permet de modéliser certains phénomènes discursifs. Dans cette optique, ces logiciels de traitement automatique de textes fonctionnent de manière semblable à certains « traducteurs » (Aho et al., 1986) : ils traitent un texte source, construisant une représentation intermédiaire, puis ils génèrent un texte résultat. Bien évidemment, les trois représentations (source, intermédiaire et résultat) ne sont pas nécessairement différentes pour tous les systèmes de traitement de textes, et il existe des cas où la représentation source coïncide avec la représentation intermédiaire, où cette dernière correspond aussi à la représentation du résultat. Les représentations structurées de texte sont parmi les plus utilisées actuellement. Elles adoptent généralement une approche hiérarchique où des aspects syntaxiques et discursifs se mélangent souvent. La représentation générique proposée par la Text Encoding Initiative (TEI), et plus spécifiquement la TEI Lite est emblématique de ce type d'approche. Celle -ci propose des éléments de division du texte tels que le paragraphe « p », ou les génériques « div », qui peuvent s'emboîter (« div1 », « div2 », …, « div8 »). Ces éléments de division peuvent être typés et comporter un identifiant, utilisé postérieurement pour créer des liens entre les éléments. Certains auteurs (Webber et al., 2003), (Wolf et Gibson, 2005) ont critiqué le choix de représentations arborescentes pour modéliser les phénomènes discursifs. Par exemple, dans (Wolf et Gibson, 2005), les auteurs montrent comment des structures de graphe sont nécessaires afin de représenter la cohérence discursive. Ils présentent un exemple de texte analysé à l'aide de l'ensemble des relations de cohérence développées dans (Hobbs, 1985) et (Kehler, 2002) et montrent que la structure de cohérence discursive correspond à un graphe. D'autres exemples (e.g. les relations anaphoriques) montrent qu'il existe des phénomènes discursifs non représentables avec des structures hiérarchiques et qui doivent faire appel à des structures de graphe. Les insuffisances des représentations présentées précédemment ont motivé la définition d'une représentation des textes spécifique à la navigation textuelle (Couto, 2006) qui s'inspire à la fois des propositions de (Crispino, 2003) et de celles du modèle TEI Lite (TEI), tout en se fixant les objectifs suivants : le premier objectif vise à ne pas restreindre le type d'unités textuelles qui composent un texte à un ensemble prédéterminé; le second objectif consiste à offrir à la fois une organisation hiérarchique des unités textuelles et une autre permettant d'exprimer des relations non hiérarchiques; le troisième objectif est de considérer les titres comme des unités textuelles; le dernier objectif vise à offrir la possibilité que toute unité textuelle, y compris les titres et les relations non hiérarchiques, soit susceptible d'avoir un nombre non limité d'annotations de nature quelconque. Un texte est ainsi représenté comme une hiérarchie d'unités textuelles de base, permettant la définition d'unités plus complexes susceptibles de ne pas suivre la hiérarchie établie. Toutes les unités de base sont typées, ce qui offre une souplesse non négligeable car au lieu d'avoir, par exemple, une unité textuelle section ou paragraphe, nous disposons d'une unité textuelle générique pouvant être d'un type quelconque qui peut éventuellement être instancié en un type section ou paragraphe. Il ne s'agit pas ici d'une nuance mais d'une décision conceptuelle d'après laquelle l'utilisateur n'est pas restreint par un jeu prédéfini d'unités. Au contraire, celui -ci peut définir ces types d'unités à volonté. Le texte est donc composé des trois éléments : son Titre, un ensemble de relations non hiérarchiques regroupées dans une unité nommée Tête, et une hiérarchie d'unités textuelles formulée dans une unité nommée Corps. Précisons qu'une DTD (Couto, 2006) spécifie l'agencement de ces différents éléments. Pourquoi concéder un statut spécial aux titres au lieu, par exemple, de confier à l'utilisateur le soin de définir des unités textuelles de type « Titre » ? Les titres pouvant faire partie des relations entre constituants textuels (par exemple une relation rhétorique), leur légitimité comme une entité allant au-delà du simple attribut d'un constituant textuel est justifiée. De ce fait, un titre est composé d'unités textuelles de base dont l'organisation dépendra de l'analyse faite par l'encodeur. Malgré une diversité d'études sur les titres de presse (Ho-Dac et al., 2004), il en existe peu sur leur rôle dans des documents longs structurés hiérarchiquement en sections et sous-sections titrées. Intuitivement, même si les titres surpassent le simple rôle d'attribut, il est cependant certain que ceux -ci sont généralement reliés à un constituant textuel, celui -ci constituant leur empan. Le titre est donc une unité textuelle particulière formée, au sens le plus général, par une hiérarchie d'unités textuelles de base, et étant toujours affectée à une unité textuelle de base. Ces unités textuelles de base sont présentées par la suite. Dans le Corps, l'élément de base de notre modèle est l'Unité Textuelle (UT) typée, ce qui permet d'incorporer de nouveaux éléments textuels de manière simple. Ces principes d'annotation sur lequel s'appuie la plate-forme de navigation textuelle NaviTexte sont classiquement ceux proposés par les standards tels que ceux de la TEI. Concrètement, dans le Corps, une UT est balisée, avec la balise <Chaine>, et des attributs, en nombre illimité, peuvent lui être attribués. Chaque UT est typée et possède optionnellement un rang. Le type peut aussi bien dénoter la fonction structurelle de l'unité en question, sa caractéristique syntaxique, sa fonction discursive. On peut remarquer que ce type d'annotation laisse une marge de liberté très grande, notamment dans la répartition des valeurs d'annotation entre le type de l'UT et les attributs de cette UT (Couto et al., 2005). Examinons un fragment de texte (cf. tableau 1), emprunté à (Couto et al., 2004) et encodé par nos soins afin d' être utilisé par NaviTexte (cf. section 4). Le diagramme correspondant à l'analyse effectuée pour ce fragment est affiché dans la figure 1, où les UT ont été numérotées, selon un parcours en profondeur de l'arborescence, pour simplifier leur mention. L'importance quantitative de l'investissement étranger est cependant moins significative de l'impact des firmes multinationales que le type de secteurs où elles se localisent. En Côte-d'Ivoire les firmes contrôlent pratiquement l'ensemble de l'industrie produisant pour le marché interne. Au contraire, l'accès à ce dernier leur est interdit dans la plupart des branches en Corée du Sud. Cette situation a des conséquences décisives, particulièrement sur trois variables stratégiques du processus de développement : l'allocation des ressources, le modèle de consommation et l'intégration en amont de l'activité industrielle. Tableau 1. Exemple de texte à représenter. Plusieurs points sont à signaler dans l'exemple précédent. Le premier correspond à la granularité des UT : notons qu'il n'est pas nécessaire d'encoder toutes les UT de manière identique. Ainsi, l'UT numéro 2 (cf. figure 1) est encodée comme une phrase, tandis que les trois autres UT de type « Phrase » sont composées d'UT filles. Le deuxième point correspond à deux notions importantes : l'héritage d'annotations et la synthèse de chaînes lexicales. Les annotations d'une UT peuvent être héritées ou bien par les UT descendantes (héritage descendant), ou bien par les UT ascendantes (héritage ascendant), ou bien dans les deux cas. Ce mode d'héritage est choisi parmi les valeurs suivantes : aucun, ascendant, descendant et bidirectionnel. Dans l'exemple, l'UT numéro 10 est une phrase annotée comme une phrase démonstrative (ES signifiant « Étiquette Sémantique » et Dém. la valeur « Démonstration »), composée d'un segment et de trois syntagmes nominaux. Chacune de ces quatre UT filles, en tant que constituants textuels individuels, ne constitue pas une « Démonstration ». Par exemple, le syntagme nominal « l'allocation des ressources » n'est pas une « Démonstration ». En conséquence l'annotation de la phrase ne devrait pas être propagée à celles -ci. C'est-à-dire qu'il ne devrait pas y avoir d'héritage descendant. De même pour l'héritage ascendant, car le fait d'avoir une phrase étiquetée en tant que « Démonstration » ne nous permet pas d'inférer que le paragraphe parent peut lui aussi être étiqueté comme « Démonstration ». Figure 1. Diagramme d'UT pour le texte du tableau 1. Néanmoins le type de délimitation des unités présenté dans la section précédente est insuffisant pour traiter certains phénomènes linguistiques tels que la discontinuité ou le recouvrement. Plusieurs solutions ont été proposées qui reposent généralement sur les fonctionnalités offertes par X-Link et XPointer. Mais la généricité et la relative complexité de ces approches associées à l'absence d'outils d'édition sophistiqués rendent leur utilisation plutôt difficile dans le cadre du Traitement Automatique du Langage (TAL). C'est pour répondre à ce besoin, l'annotation des structures complexes rencontrées en TAL, que quatre structures, (déclarées dans la Tête), ont été définies (Couto, 2006). Ces quatre structures sont nommées Ensemble, Séquence, Référence et Graphe et elles permettent de déclarer de nouveaux éléments composés d'unités textuelles du Corps du texte. De plus, pour chacune de ces structures, des opérations de visualisation et de navigation prédéfinies sont en cours de développement. Un Ensemble déclare un ensemble non ordonné d'UT pour lesquelles existe, du point de vue de l'annotateur, une relation d'équivalence. Par exemple, des UT avec des étiquettes morphosyntaxiques mais qui expriment un même thème peuvent être regroupées dans un Ensemble. Une Référence décrit une relation orientée entre deux UT et une opération de navigation prédéfinie est associée à cet objet. Cette opération va du référé au référent. Typiquement une Référence permet de représenter le lien entre une anaphore et son référent discursif. D'autre part, il est possible de déclarer plusieurs références ayant la même UT référée, ce qui permet de lier toutes les anaphores à leur référent. La différence avec la déclaration d'une Séquence (cf. ci-dessous) tient au fait que les UT qui référent n'ont pas de liens déclarés entre elles. Un deuxième exemple est celui de la représentation des relations rhétoriques entre un noyau et un satellite proposées par la RST (Thompson et Mann, 1988). Un objet de type Référence est un moyen de représenter ce type de relation discursive. Une Séquence est une suite ordonnée d'UT à laquelle l'annotateur attribue une cohésion. Les cadres thématiques (Porhiel, 2003) constituent un premier exemple de l'intérêt de cette structure puisqu'elle permet de déclarer les introducteurs de cadre comme appartenant à une même unité : « Les introducteurs thématiques constituent une classe cohésive dont les éléments, de nature abstraite, sont morphologiquement des prépositions (en ce qui concerne, pour ce qui est de, à propos de, sur, etc.) et des anaphores résomptives (à ce sujet, à ce propos). […] Les introducteurs ont aussi pour fonction de séquencer explicitement des parties d'un texte : ils attirent l'attention sur un référent et le rendent saillant par rapport à d'autres choix possibles; ils organisent l'information dans un texte […] » (Couto et al., 2004). En effet, la portée de ces marques, syntaxiquement non intégrées à l'énoncé où elles figurent matériellement, généralement en position initiale, peut s'étendre sur plusieurs phrases (voire paragraphes, pour certaines d'entre elles). Une Séquence composée par les différents introducteurs des cadres thématiques présents dans le texte permet ainsi de représenter la fonction cohésive de ces marques. Le deuxième exemple d'utilisation d'un objet Séquence concerne les chaînes de référence. Une chaîne de référence est constituée par l'ensemble des syntagmes nominaux qui réfèrent à un même objet. Ainsi, dans un article de presse (Le Figaro, le 16 juillet 2004) sur l'amnistie fiscale, on trouve pour référer à « La taxe sur les fonds rapatriés en France », dix-sept corrélats linguistiques qui réfèrent au même référent dont par exemple « La taxe sur les fonds rapatriés en France », « une taxe sur les fonds placés à l'étranger et rapatriés en France », « une telle mesure », « elle », etc. La déclaration d'une Séquence composée de toutes ces unités textuelles, et qui concrétise la chaîne de référence lexicale, permet d'offrir au lecteur un parcours entre ces éléments en utilisant la même opération de navigation décrite précédemment. Comme l'illustrent ces deux exemples, l'objet Séquence qui combine une structure avec une opération de visualisation et une opération de navigation offre les moyens de traiter simplement des phénomènes linguistiques très fréquents. Le dernier type d'objet, Graphe, est utilisé pour construire des relations multiples entre des UT. Cette structure correspond exactement à la notion de graphe en mathématiques (Berge, 1958) : on distingue les sommets du graphe, dans le cas présent ce sont des UT déclarées dans le corps, et les arcs orientés entre ces sommets, qui représentent les relations entre les UT. Cette structure permet de représenter des phénomènes linguistiques complexes comme par exemple l'imbrication de différents cadres de discours (Charolles, 1997), les différentes pistes de cohérence qui structurent un texte (Lundquist, 1990), ou encore les expressions des sentiments d'un personnage dans un roman (Mathieu, 2005). Toute représentation de texte est en même temps une prise de position et un choix dont il convient de mesurer les conséquences. Celle proposée ici, bien que raisonnablement indépendante d'un type d'application déterminée, est focalisée sur la navigation textuelle, qui se fonde sur l'existence dans les textes d'informations servant de guide à la lecture. Un des aspects positifs de cette représentation est de permettre de typer librement les UT, ce qui constitue un bon compromis entre flexibilité et expressivité. Certaines unités textuelles habituelles dans les textes, telles que les tables ou les énumérations, peuvent être en conséquence encodées. De plus, la possibilité de construire de nouvelles unités textuelles ne suivant pas une hiérarchie textuelle définie offre les moyens de traiter assez aisément des phénomènes linguistiques très fréquents. Un deuxième aspect concerne la lisibilité de la représentation proposée. Ainsi, la représentation dans le Corps du texte reste accessible et compréhensible par un lecteur humain et manipulable par des outils standard capables de visualiser des textes annotés dans le format XML. Nous nous distinguons ainsi des propositions de représentation, qui offrent des possibilités beaucoup plus puissantes et génériques (Bird et Liberman, 2001), comme par exemple le codage des variantes d'un texte, mais dont la transformation du texte nécessite l'usage d'outils spécialisés pour le rendre lisible par un lecteur humain. Néanmoins, la représentation que nous proposons n'est pas exempte de critiques. La première concerne le fait que la sémantique des constituants textuels (par exemple : « cette UT est une table ») est indépendante du texte (i.e. la sémantique des UT n'est pas guidée par un constituant textuel déterminé, mais elle doit être correctement décodée à partir des types et annotations des différentes UT). C'est le problème classique de trouver le bon compromis entre spécificité et généralité. La deuxième critique vient du fait que les nouvelles UT construites dans la Tête en utilisant les constructeurs Ensemble, Séquence, Référence et Graphe, risquent, d'une part, de devenir très complexes et, d'autre part, d'introduire des erreurs ou une certaine redondance dans la représentation. A priori, la représentation n'offre pas de mécanismes de contrôle de ce type d'erreurs. La troisième critique concerne les éléments iconographiques et certains éléments de mise en forme tels que la numérotation des pages ou les entêtes : ils ne sont pas pris en considération par la représentation, bien qu'ils soient habituellement présents dans les textes. Enfin, la représentation proposée suppose que des outils de repérage automatique des structures sont développés en amont afin d'annoter les textes ou que ces annotations sont placées manuellement (cf. section 5). Afin de pouvoir isoler les connaissances visuelles et navigationnelles, il est nécessaire de définir un formalisme pour représenter celles -ci car, faute de formalisation, il serait impossible, pour les différents agents encodeurs, de partager ces connaissances et, pour un système interpréteur, de les interpréter correctement. La navigation textuelle se fonde sur l'hypothèse selon laquelle il existe dans les textes des informations qui servent, à un utilisateur, de guide à la lecture. Les informations guidant cette lecture correspondent aux résultats d'un ensemble de traitements automatiques ou semi-automatiques d'un texte, qui se traduisent en la réécriture de ce texte selon la représentation proposée ci-dessus. Du point de vue de cette représentation, cela peut signifier plusieurs choses. Un traitement de découpage automatique en propositions (Wonsever, 2004) peut construire la hiérarchie dans le Corps du texte, en utilisant des UT de base. Des traitements comme ceux effectués dans le projet RÉGAL (Ferret et al., 2001) (Couto et al., 2004) peuvent d'une part, annoter différentes UT du Corps et, d'autre part, créer de nouvelles UT dans la Tête afin de représenter des structures telles que les cadres thématiques ou les cadres organisationnels. Le fait de pouvoir afficher un texte de différentes manières, et que chaque manière (vue du texte) comporte des indications précises sur les différentes options d'affichage (opérations de visualisation) et sur les interactions que l'utilisateur peut effectuer (opérations de navigation) constitue l'épine dorsale de notre approche. De plus, une vue d'un texte n'en montre pas nécessairement tous les constituants; il peut s'agir d'une vue partielle se focalisant sur certains aspects spécifiques ou phénomènes présents dans celui -ci. Cela constitue, en quelque sorte, la vue d'un filtrage du texte. La gestion de la coordination entre différentes vues d'un même texte peut être définie par l'encodeur en exprimant des opérations de coordination. Le langage SEXTANT a pour finalité d'offrir des fonctionnalités à la fois suffisamment génériques tout en proposant une sémantique qui se focalise sur l'essentiel du processus de visualisation et de navigation coordonnée dans les textes, à l'inverse de langages de transformation ou de programmation comme, par exemple, XSLT (EXtensible Stylesheet Language). Dans sa version actuelle, le langage SEXTANT est de type déclaratif et propose des opérations prédéfinies de visualisation et de navigation. La sémantique formelle du langage est intégralement décrite dans (Couto 2006) où toutes les opérations sont définies dans un format de « règles » inspiré de la déduction naturelle en logique. Afin de présenter une approche systématique des différentes vues, nous proposons une classification selon leur type et leur contenu. Les types possibles sont : linéaire, arborescent et graphe tandis que les contenus possibles sont : les chaînes lexicales et les annotations. Il en résulte qu'il existe six combinaisons possibles. Cependant, une vue de type linéaire où le contenu correspond aux annotations ne semble pas particulièrement utile, et elle ne sera pas prise en considération. Certes, d'autres types de vues que ceux présentés ici sont envisageables, comme les vues basées sur la technique « Focus + Context » (Lamping et Rao, 1996) (Dieberger et Russell, 2002), par exemple; ou d'autres plutôt ad hoc comme la vue « docball » (Crestani et al., 2002), qui montre la structure hiérarchique d'un document. Néanmoins, le choix des types linéaire, arborescent et graphe correspond à la représentation de texte proposée, et constitue, de notre point de vue, un bon point de départ, pouvant s'enrichir des propositions et des développements postérieurs. La vue la plus simple d'un texte est la vue linéaire, où celui -ci est représenté comme une suite de chaînes de caractères, cette suite étant le résultat d'un parcours en profondeur dans la hiérarchie d'UT de base présentes dans le Corps du texte. Notons que si une UT comporte un titre, celui -ci est affiché en premier, selon une chaîne calculée également à partir d'un parcours en profondeur dans les UT constituant le titre. Étant donné la nature plate de la représentation, il n'est pas possible de visualiser les unités textuelles complexes pouvant être exprimées dans la Tête du texte. Pour cette vue, il est important d'indiquer les éléments textuels (types d'UT) constituant des séparateurs visuels. Un deuxième type de vue montre le contenu du texte, c'est-à-dire les UT de base déclarées dans le Corps du texte, de manière arborescente, cette arborescence reflétant la hiérarchie d'UT existante. La nature hiérarchique de cette vue ne permet pas de représenter les unités textuelles complexes exprimées dans la Tête du texte. Selon le contenu, les libellés à afficher seront les chaînes lexicales des UT ou les annotations de celles -ci. La figure 2 montre un exemple de vue de type arborescent dont le contenu visualise les annotations utilisées dans le cadre du projet RÉGAL (Couto et al., 2004). Notons que dans cette figure, toute UT comporte ou bien une annotation (dont la valeur s'affiche en utilisant un jeu de couleurs selon une carte de couleurs définie par l'utilisateur) ou bien aucune. Figure 2. Exemple d'une vue de type arborescent (extrait de Couto et al., 2004). Ce type de vue affiche toutes les UT d'un texte, en montrant les rapports entre elles. Ce rapport est déterminé à partir du rapport hiérarchique exprimé dans le Corps du texte, et à partir des unités textuelles complexes exprimées dans la Tête du texte. En conséquence, c'est cette vue qui montre la structuration globale du texte. De même que pour la vue précédente, les libellés à afficher seront les chaînes lexicales des UT ou les annotations de celles -ci. Notons, d'une part, que la vue de type arborescent est un cas particulier de cette vue. D'autre part, la vue graphe peut devenir très complexe à visualiser et la navigation s'avérer difficile. Les éléments constitutifs d'une vue sont spécifiés dans une description de vue. Plusieurs descriptions de vues peuvent être rassemblées dans une entité cohérente d'après l'encodeur des connaissances, nommée module de connaissances. Nous pouvons concevoir la création d'une vue comme l'application d'une description de vue à un texte déterminé. Par analogie, l'application d'un module de connaissances à un texte implique la création d'un ensemble de vues. En conséquence, toute vue est liée à un texte, à une description de vue et, indirectement, à un module de connaissances. Une description de vue est identifiée dans le module par son nom. Afin de la définir, l'encodeur doit indiquer : - le type de vue selon les types de vues disponibles : linéaire, arborescent et graphe; - le contenu de la vue selon les contenus disponibles : chaînes lexicales et annotations; - ses paramètres, selon le type de représentation; - ses contraintes de création (i.e. des conditions d'appartenance à la vue, à vérifier par les unités textuelles du texte); - un ensemble d'opérations de visualisation; - un ensemble d'opérations de navigation; - un ensemble d'opérations de coordination. Le fait de pouvoir créer des vues partielles d'un texte introduit le besoin de contraintes qui vont être exprimées à l'aide du langage de conditions. Le langage de conditions constitue une partie importante du langage SEXTANT. Par exemple, on formule une condition pour exprimer des contraintes d'appartenance d'une UT à une vue, pour indiquer les UT sur lesquelles une mise en relief s'applique, ou bien pour préciser la cible et la source dans la description d'une opération de navigation. Le langage de conditions est composé de conditions simples, de conditions d'existence sur les éléments des UT et de conditions sur la hiérarchie. Pour les conditions d'existence d'UT, un opérateur sans arguments est défini pour chaque élément (cf. tableau 2.). Pour les conditions où se joue le rapport entre les UT dans la hiérarchie, des opérateurs unaires spécifiques sont définis. Ces opérateurs prennent comme argument une condition simple. Le tableau 3 montre les opérateurs définis pour tester des conditions sur le rapport hiérarchique des UT. Il convient de noter que ces opérateurs permettent de parcourir intégralement, à partir d'une UT, l'arbre qui représente la structure du texte (Couto, 2006). Les conditions peuvent se combiner en utilisant les opérateurs classiques OU, ET et NON, de la logique. Le tableau 4 présente un exemple d'expression du langage qui exprime la condition suivante : « Les UT de type SN comportant une annotation de nom Référent discursif, tel qu'il existe dans les ascendants une UT de type Paragraphe qui ne comporte pas une annotation de nom Étiquette Sémantique et de valeur Conclusion ». En résumé, le langage de conditions permet d'exprimer pour une UT quelconque, d'une part, des conditions sur les annotations de cette UT, et, d'autre part, des conditions sur la position de cette UT dans la structure hiérarchique du texte. Les connaissances de visualisation modélisées sont considérées ou bien comme des opérations de transformation qui s'appliquent sur une UT ou bien comme des opérations d'affichage d'information relative à une UT. Elles s'inspirent des propositions de (Couto, 2002) et peuvent se diviser en deux types principaux : des opérations de mise en relief et des opérations d'aide contextuelle. Les opérations de mise en relief peuvent, d'une part, changer l'apparence sur l'écran de la chaîne textuelle (colorisation, taille de la police, etc.), et, d'autre part, permettent de modifier la chaîne textuelle, en ajoutant des informations lexicales. Une opération basique de mise en relief est définie par : i) l'élément textuel à mettre en relief; ii) une liste d'opérations de transformation. Les opérations d'aide contextuelle utilisent des techniques de type infobulle pour transmettre à l'utilisateur des informations sur les UT du texte. Une opération d'aide contextuelle est définie par : i) le type d'aide contextuelle; ii) l'élément textuel qui déclenche l'opération; ii) l'aide à afficher. Nous avons défini deux types d'aide contextuelle : l'affichage d'infobulles et l'affichage dynamique de vues. L'UT déclenchant l'opération est signalée en exprimant la condition qu'elle doit vérifier. L'aide à afficher dépend du type d'aide contextuelle. Dans le cas d'affichage d'infobulles, il s'agit d'une chaîne lexicale. Dans le cas d'affichage dynamique de vues, il s'agit d'une description de vue ou du nom d'une description de vue existante dans le module. La navigation est conceptualisée comme une opération reliant une UT source avec une UT cible. La manière dont ces deux UT sont liées est fonction de quatre paramètres : i) la condition à vérifier par l'UT source; ii) la condition à vérifier par l'UT cible; iii) le type d'opération de navigation; iv) la relation existant entre l'UT source et l'UT cible. Une opération de navigation est définie comme une opération qui cherche l'UT cible à partir de l'UT source, en vérifiant une condition déterminée (exprimée dans le langage de conditions présenté ci-dessus) et en suivant l'orientation et l'ordre spécifiés par le type d'opération (cf. tableau 5). La source est définie en utilisant une condition sur les UT. Implicitement, une opération de navigation est disponible pour une UT déterminée si celle -ci vérifie la condition exprimée par la source. La cible est déterminée à partir de deux paramètres : une condition à vérifier pour l'UT cible et le type d'opération de navigation qui combine orientation et ordre dans la recherche. Une fois la source déterminée, plusieurs UT peuvent vérifier la condition de la cible, et c'est le type d'opération qui indique laquelle choisir parmi celles -ci. Chaque opération est donc typée avec une valeur qui appartient à l'ensemble {premier, dernier, suivant[i ], précédent[i] }, i étant un nombre entier positif. Ces valeurs spécifient d'une part l'orientation, c'est-à-dire dans quel sens (avant ou après l'UT source) doit être effectué la recherche de l'UT cible, et, d'autre part, le référentiel, absolu (premier, dernier), ou relatif (suivant[i ], précédent[i]), par rapport à la source. Dans le cas d'un référencement relatif, l'index i permet de spécifier le rang de la cible recherchée. Par ailleurs il est possible de spécifier que la recherche de la cible ne se fait pas en suivant l'ordre des UT dans le texte (ordre narratif), mais un ordre (déclaré par l'intermédiaire d'un objet Séquence) imposé par le concepteur du module de connaissances. Cette fonctionnalité du langage est utilisée dans l'expérimentation de lecture chronologique des sentiments d'un personnage d'un roman (Mathieu, 2005). Dans sa première version, la puissance d'expression du langage était limitée par la nécessité d'exprimer de manière absolue les conditions sur les valeurs des attributs des UT. Cette limitation avait par exemple pour conséquence l'obligation d'écrire une opération de navigation différente pour naviguer entre chaque anaphore et son référent discursif. Dernièrement, nous avons enrichi le langage de conditions par la possibilité d'exprimer des relations entre les valeurs des attributs des UT de la source et de la cible, ce qui entraîne qu'une seule opération de navigation suffit pour traiter la navigation évoquée ci-dessus. Par exemple, il suffit d'indiquer que la source et la cible portent sur le même référent discursif, sans avoir besoin d'indiquer explicitement le référent discursif sur lequel elles doivent porter. Puisqu'un même texte peut avoir différentes vues, il est important de pouvoir coordonner celles -ci, c'est-à-dire que le fait de changer l'UT active d'une vue (que ce soit par la sélection explicite d'une UT ou par l'exécution d'une opération de navigation), implique le changement de l'UT active d'autres vues. Supposons que nous ayons une vue de type linéaire et une autre de type carte sur cette vue linéaire. Si un changement de l'UT active dans la première vue se répercute automatiquement sur la deuxième, nous avons toujours, grâce à la deuxième vue, un repère visuel du positionnement global de l'UT. Néanmoins, si nous avons une vue partielle d'un texte (i.e. une vue contenant seulement un sous-ensemble de toutes les UT du texte), il peut être intéressant de ne pas faire automatiquement la coordination avec une vue totale du même texte. L'utilisateur pourrait souhaiter parcourir (naviguer) la vue partielle (par exemple la vue d'un extrait), vouloir mettre en contexte une UT dans la vue totale, et demander manuellement la coordination. Notons que si la coordination est automatique, le système interpréteur est chargé de la réaliser, tandis que si elle est manuelle, le système doit fournir des mécanismes pour sélectionner les opérations de coordination à exécuter. Nous travaillons actuellement à la formalisation des opérations de coordination. Afin de vérifier la validité et l'intérêt de nos hypothèses concernant la navigation textuelle nous avons entrepris la réalisation d'une plate-forme logicielle, nommée NaviTexte, dédiée à la navigation textuelle Cette implémentation comporte deux aspects. Tout d'abord, l'implémentation informatique de la représentation des textes proposée dans la section 2 et celle de SEXTANT, le langage de modélisation des connaissances décrit dans la section 3. Puis, la conception et le développement d'un environnement capable de traiter les textes, d'interpréter le langage SEXTANT et de gérer l'interaction avec l'utilisateur. D'un point de vue conceptuel, la plate-forme NaviTexte est constituée par trois sous-systèmes principaux. Le système de gestion des textes, le système de gestion des modules, et le système de gestion des interactions. Le système de gestion des textes se charge d'offrir toutes les fonctionnalités concernant la représentation informatique du texte décrite ci-dessus. Rappelons que d'après celle -ci, les textes sont encodés sous forme de fichiers XML, selon une DTD définie. Le chargement d'un fichier par le système entraîne la création en mémoire d'une instance du texte selon une représentation interne. Cette représentation prend en considération (i.e. interprète) des éléments XML ayant une sémantique particulière vis-à-vis du texte, tels que les constructeurs déclarés dans la partie Tête (cf. section 2.2.3). De même pour le traitement des titres. C'est ce sous-système qui offre les fonctions nécessaires afin de parcourir la structure d'un texte : hiérarchie d'UT dans le corps, les UT « construites » dans la partie tête, les titres, etc. Le système de gestion des modules permet de charger les modules de connaissances en mémoire et de manipuler ceux -ci. Pour ce faire, une représentation des modules en mémoire a été définie équivalente à celle d'un arbre. La représentation en mémoire tient compte des différents éléments du langage et c'est ce sous-système qui s'occupe, entre autres, d'interpréter le langage de connaissances, y compris le langage de conditions. Quant au système de gestion des interactions, celui -ci se charge de tout ce qui concerne l'interaction avec l'utilisateur, et agit comme une interface entre les deux sous-systèmes précédents. À titre d'exemple, ce sous-système est chargé d'offrir les différentes opérations de navigation sur une UT (lorsque l'utilisateur clique sur celle -ci), de capturer le choix de l'utilisateur, de faire exécuter l'opération, d'appliquer le résultat de cette exécution (i.e. changer éventuellement d'UT active, modifier l'historique de navigation…), etc. À partir de l'architecture conceptuelle présentée, plusieurs architectures logicielles sont possibles. Nous avons opté (Couto, 2006) pour une architecture du type Model-View-Controller (MVC) (Burbeck, 1987). Par ailleurs, afin d'optimiser les traitements plusieurs aspects ont été pris en compte. Le premier concerne les structures de données. Bien que les textes et les modules des connaissances soient encodés sous forme de fichiers XML, lorsque ceux -ci sont chargés en mémoire, le système analyse le fichier et construit l'arbre DOM correspondant ainsi que plusieurs dictionnaires en vue d'optimiser les recherches dans l'arbre. Un deuxième critère d'optimisation concerne les opérations de navigation. Étant donné que ni le texte ni le module de connaissances ne changent après que la vue est créée (ou bien si ceux -ci changent, ces changements ne sont pas répercutés sur les vues de manière dynamique tant que l'utilisateur ne redemande pas le chargement du module), l'ensemble du parcours reste figé au moment de la création d'une vue. Il en résulte que le système pourrait calculer, avant de présenter les vues à l'utilisateur, le résultat de l'application de toutes les opérations disponibles pour chaque UT appartenant à la vue. Néanmoins, ce calcul peut devenir complexe et potentiellement non nécessaire car il se peut que l'utilisateur n'exécute qu'un nombre très réduit de toutes les combinaisons possibles. Afin d'optimiser ce calcul, un système de trace de résultats, s'inspirant des techniques de programmation dites paresseuses (lazy), a été mis en place. La figure 3 illustre le modèle général de l'écran principal de NaviTexte. L'écran est divisé en trois panneaux, une barre de menus, une barre d'outils et une barre d'état. Le panneau placé en haut à gauche visualise une vue condensée du texte où les éléments correspondent aux annotations. Le panneau placé en bas à gauche visualise l'information sur les textes et des modules de connaissances ouverts, ainsi que l'information des vues créées. Le panneau placé à droite contient les différentes vues des textes accessibles via des onglets. Une barre d'outils propose les opérations principales de la plate-forme. Dans une vue déterminée, une UT peut avoir trois états vis-à-vis de la navigation textuelle : i) l'état d'une UT sans annotations et, en conséquence, sans opérations de navigation déclenchables; ii) l'état d'une UT avec annotations mais qui ne vérifie la condition d'aucune des opérations de navigation décrites dans la description de vue correspondant à la vue; iii) l'état d'une UT avec opérations de navigation déclenchables (i.e. une UT pour laquelle au moins une condition des sources des opérations de navigation se vérifie). La souris sémantique est une option configurable différenciant sous la forme d'icônes, ces trois états possibles. Ainsi, au survol de la souris, lorsque l'utilisateur se positionne sur l'objet représentant une UT, le caret de la souris change de forme selon l'état de l'UT. De la même manière, il existe trois états possibles pour les opérations de navigation : i) soit l'opération n'est pas exécutable, c'est-à-dire que bien que l'UT vérifie la condition de la source de l'opération, il n'existe pas d'UT vérifiant la condition de la cible; ii) soit l'opération est exécutable et elle n'a pas été exécutée; iii) soit l'opération est exécutable et elle a été déjà exécutée. Lorsque l'utilisateur clique sur une UT ayant des opérations de navigation déclenchables (i.e. une UT qui vérifie la condition d'au moins une source de toutes les opérations de navigation définies pour la vue), un menu lui est offert, affichant les opérations de navigation associés à l'UT actuelle. La mise en forme de chaque option correspondant à une opération de navigation indique son état. Dans l'exemple de la figure 3, la première option, libellée « Lire_Thématique », est grisée car elle n'est pas exécutable. La deuxième et la quatrième options, libellées respectivement « Lire_Récapitulation » et « Lire_Conclusion », s'affichent en gras car elles sont exécutables et n'ont jamais été exécutées. Enfin, la troisième option, libellée « Lire_Argumentation » et affichée dans une police de style normale, renvoie à une opération de navigation exécutable qui a déjà été exécutée. Rappelons que différentes vues graphiques d'un texte peuvent être visualisées. Celles -ci sont classifiées selon leur type et leur contenu. Les types possibles sont : linéaire (texte plat), arborescente et graphe tandis que les contenus possibles sont : les chaînes lexicales et les annotations. De plus, il existe des vues condensées et des vues de type « carte ». La technique de « greeking » est l'une des techniques utilisées en visualisation d'informations pour afficher un texte dans un format réduit. L'utilisation de cette technique permet de visualiser un texte selon une vue de type « carte » et d'avoir une vision globale du texte. Enfin, en ce qui concerne l'aide contextuelle, une option configurable, de type affichage d'infobulles a été implémentée. Afin de vérifier la validité de nos hypothèses nous avons entrepris plusieurs expérimentations dont une, le projet NaviLire (cf. 5.2.), a donné lieu à une application pédagogique. Les trois expérimentations que nous présentons ci-dessous nous ont aussi permis d'évaluer la pertinence du modèle de représentation des textes proposé, la puissance d'expression du langage SEXTANT et la validité des choix concernant la gestion des interactions avec l'utilisateur. Ces expérimentations recouvrent des finalités très différentes, qui vont du parcours de lecture comme procédé de résumé automatique, à l'apprentissage du français comme langue seconde, ainsi qu' à l'exploration des sentiments éprouvés par un des personnages dans un roman. Nous les présentons ci-dessous avant de synthétiser quelques éléments d'évaluation sur la plate-forme. Un grand nombre de systèmes de résumé automatique ont été proposés ces dernières années (Mani, 2001; Minel, 2003). Tous ces systèmes, fondés sur le principe de l'extraction de phrases, sont confrontés à deux problèmes intrinsèques au procédé d'extraction : d'une part à la rupture de la cohésion textuelle, comme par exemple la présence d'anaphores sans leur référent discursif, d'autre part à l'adaptation du résumé aux besoins spécifiques d'un lecteur. Jusqu' à présent ces problèmes n'ont pas reçu de solutions totalement satisfaisantes. Une autre approche consiste à considérer le processus de résumé comme un cheminement ‑ plus exactement un parcours de lecture (Minel, 2002) ‑ dans le texte source, qui soit propre au lecteur. Ainsi, plutôt que de construire des fragments textuels, nous proposons des parcours de lecture spécifiques. Les spécifications des parcours de lecture sont fondées sur les propositions de (Endres-Niggemeyer et al., 1995) et sur les observations d'usage effectuées dans le cadre de l'évaluation du système de résumé SERAPHIN (Minel et al., 1997) et de la plate-forme (Filtext Minel et al., 2001). Ces travaux tendent à montrer qu'un « résumeur » humain professionnel d'une part s'intéresse, à certaines catégories discursives qu'ils repèrent en exploitant à la fois l'organisation du texte et des marques lexicales et, d'autre part, navigue dans les textes en appliquant des heuristiques acquises par expérience. Par exemple, commencer par lire la conclusion, puis rechercher dans l'introduction des syntagmes nominaux qui figurent dans la conclusion. Par conséquent, un parcours de lecture spécifie le type de catégorie discursive que cherche un lecteur (par exemple, une conclusion, une définition, une argumentation, une hypothèse, etc.) et l'enchaînement dans lequel les segments qui énoncent linguistiquement ces catégories (en général les phrases) doivent lui être présentés. La mise en œuvre de ces parcours de lecture présuppose le repérage de ces catégories discursives et l'annotation du texte source. Pour ce faire, nous avons utilisé la plate-forme ContextO (Crispino, 2003) mais d'autres systèmes d'annotation automatique pourraient être utilisés, par exemple Linguastream (Bilhaut, 2003) ou Gate (Cunningham et al., 2002). Il convient par ailleurs de noter que ces plates-formes n'offrent pas de fonctionnalités qui permettent de programmer des opérations de navigation. Un exemple de parcours de lecture orienté est présenté dans la figure 3. Le point de lecture initial est positionné sur la première UT (phrase) annotée « Annonce thématique » (les différentes valeurs sémantiques annotant le texte correspondent aux résultats de plusieurs travaux, voir (Minel et., al. 2001) pour plus de détails). À partir de ce point, quatre opérations de navigation sont proposées. Une opération qui déplacera le point de lecture vers l ' « Annonce Thématique » suivante, les trois autres opérations proposant respectivement de se déplacer vers la première « Conclusion », la première « Récapitulation », la première « Argumentation ». Ainsi, dans la continuité de sa lecture du texte, le lecteur se voit proposer, par une signalétique spécifique, des parcours spécifiques sans rupture de la cohésion textuelle puisqu'il peut voir à tout instant le texte complet, ce qui lui permet entre autres d'assurer la continuité référentielle (Battistelli et Minel, 2006). L'utilisation de la navigation textuelle à des fins pédagogiques au travers du projet NaviLire, est le fruit d'une collaboration entre Lita Lundquist et nous -mêmes; en conséquence, nous reprenons brièvement ci-dessous les principaux concepts et résultats exposés dans les articles cités. Des explications plus détaillées sur les hypothèses linguistiques sous-jacentes et sur les interactions proposées par le logiciel NaviLire peuvent être consultées respectivement dans (Lundquist, 90) et (Couto et al., 2005, Lundquist et al., 2006). Par le procédé, par lequel le lecteur apprend à naviguer dans un texte en suivant ses différentes pistes de cohérence – basées sur la référence, sur la prédication et sur les connecteurs – nous nous attaquons à des problèmes cognitifs cruciaux pour lire, comprendre et interpréter correctement un texte, ainsi que pour apprendre par les textes. Le premier problème consiste à identifier les référents discursifs d'un texte et à établir les relations correctes entre les SN qui y réfèrent. Le second problème cognitif consiste à identifier le « où veut en venir l'émetteur » du texte. Cette orientation – expressive, argumentative, ou autre – a été qualifiée de « programme d'interprétation » (Lundquist, 1990), étant donné qu'il s'agit d'une orientation marquée dès le début du texte. Cette identification de l'orientation, apportée entre autres par les prédications, est primordiale pour un déchiffrage correct de la cohérence sémantique et pragmatique du texte. Finalement, les connecteurs soulignent les relations rhétoriques à établir entre des propositions ou autres séquences du texte, ce qui contribue, évidemment, de manière essentielle à établir les relations nécessaires pour construire la représentation mentale correcte du texte, c'est-à-dire, de son contenu et de son acte illocutoire prédominant (tels informer, persuader, convaincre, narrer, décrire, etc.). Dans le cadre du projet NaviLire, pour naviguer dans l'objet texte, nous avons isolé des unités textuelles qui permettent de spécifier des opérations de navigation, ce qui équivaut à établir des liens de cohérence entre des unités de même nature. Comme les éléments textuels appartiennent à des types différents, la navigation permet d'une part de suivre des pistes de cohérence différentes dans un même texte, et, d'autre part, d'en identifier les réalisations linguistiques dans une langue donnée (ici, et pour le moment, le français). Plutôt que de manipuler des structures textuelles hiérarchiques (Couto et Minel, 2004), nous distinguons ici des pistes parallèles de marques textuelles qui chacune contribue à un type particulier de cohérence. Jusqu' à présent, NaviLire a été mis en pratique auprès d'étudiants danois de quatrième année d'études dans le cursus de « Language and Communication » à « The Copenhagen Business School ». Un « pilote » a permis de réaliser une première expérience auprès de quatorze étudiants, divisés en deux groupes, les « Papiristes » qui lisent le texte en utilisant les méthodes traditionnellement utilisées dans ce cursus, et les « NaviListes » qui lisent le même texte avec NaviLire. Les premiers résultats (cf. tableau 6), fondés sur les réponses d'un questionnaire composé de 40 questions, dont 35 sur le contenu du texte, (voir Lundquist et al., 2006 pour le détail de l'expérience) montrent que les « Navilistes » ont une performance (mesurée par le nombre de bonnes réponses aux questions) de compréhension du texte qui est supérieure au « Papiristes » pour 14 questions, identique pour 16 autres questions et inférieure pour 5 questions. Une deuxième expérimentation sur une promotion complète d'étudiants et sur une année scolaire pleine est en cours. Cette expérimentation, visant la lecture du roman « Madame Bovary » (Gustave Flaubert) en suivant les sentiments des personnages, a été développée en collaboration avec Yannick Mathieu du Laboratoire de Linguistique Formelle (UMR 7110, CNRS – Université Paris 7). L'annotation des sentiments dans le roman est fondée sur un lexique d'environ 1 200 termes dénotant sentiments, émotions et états psychologiques sous forme de verbes comme aimer, effrayer, etc., substantifs comme amour, colère, etc., et adjectifs comme amoureux, jaloux, etc. Ces termes sont regroupés en 38 classes sémantiques : amour, amusement, déception, déprime, indifférence, peur, etc. (Mathieu, 2000). De plus, il existe trois catégories de termes : négatif, positif et neutre. Il existe également des relations de sens, d'intensité et d'antonymie entre les classes sémantiques, lesquelles peuvent se représenter en utilisant des graphes. L'orientation des arcs dans les graphes dépend de l'intensité du sentiment expérimenté. Trois concepts participent aux relations : la notion d'intensifieur, la notion d'expériencer et celle d'objet. L'intensifieur est une propriété dont la valeur par défaut est neutre, qui sert à dénoter, en affectant sa valeur à fort, que dans une même classe sémantique il existe des termes dont l'intensité est plus marquée. Par exemple, pour les termes exaspérer et irriter, appartenant à la même classe sémantique, l'intensifieur du premier terme est affecté à fort tandis que celui du deuxième est affecté à neutre. L'expériencer est l'individu qui éprouve un sentiment et l'objet est l'objet que concerne ce sentiment. En guise d'exemple, dans la phrase « Paul effraye Marie », l'expériencer est Paul et l'objet est Marie. Une UT générique de type « Marque Sentiment » est utilisée, regroupant les trois catégories syntaxiques possibles. Les UT annotées dans le roman contiennent les informations suivantes indiquées sous forme d'annotations : catégorie grammaticale, classe sémantique, intensifieur, expériencer et objet. L'annotation du texte est réalisée semi-automatiquement en s'appuyant d'une part sur le logiciel Syntex (Bourigault, 2002) et d'autre part, sur les ressources linguistiques de (Mathieu, 2000, 2005). Une étape manuelle corrige certaines erreurs et résous les problèmes de co-référence. Actuellement, cinq pistes de lecture existent (cf. figure 4), pour chaque personnage principal du roman (Emma, Rodolphe, Charles et Léon). Ces trois expérimentations nous ont permis d'évaluer le modèle de représentation du texte, le langage SEXTANT et les interfaces de navigation qui sont proposées aux utilisateurs. En ce qui concerne le modèle de représentation du texte, les résultats confirment nos hypothèses : les différentes relations convoquées, syntagmatiques, syntaxiques, sémantiques et discursives ont pu être facilement représentées tout en conservant une bonne lisibilité. Il convient néanmoins de pondérer ce constat en remarquant que ces trois expérimentations ne convoquent pas de représentations intratextuelles complexes. En ce qui concerne le langage SEXTANT, les résultats sont là aussi satisfaisants, puisque toutes les opérations de navigation demandées par les experts ont pu être exprimées. Néanmoins, certaines limitations du langage de conditions sur lequel s'appuie le langage SEXTANT sont apparues. Notamment, il n'est pas possible d'exprimer une condition sur la position relative d'une UT cible dans le texte, autrement qu'en faisant référence à l'UT source. Si aucune des expérimentations n'a nécessité l'expression de telles conditions, il n'en reste pas moins que ceci pourrait constituer une limitation pour certains développements futurs. Quant à la gestion des interactions, le menu actuel de choix des opérations de navigation satisfait les besoins essentiels, mais sa position dans le texte ne peut pas être paramétrée, il se positionne toujours sur l'UT source, ce qui rend la lecture quelquefois difficile. Ces expérimentations nécessitent l'expression d'opérations de navigation qui convoquent des expertises très différentes. L'expérimentation NaviLire a bénéficié de la longue expérience pédagogique et des réflexions théoriques de L. Lundquist sur l'enseignement de la linguistique textuelle. Nous disposions ainsi d'une documentation abondante (exemples d'exercices sur support imprimé, ouvrages publiés) que nous avons aisément transcrite sous la forme d'opérations de navigation. De même, les structures textuelles ont été balisées (manuellement) par L. Lundquist à partir de ces mêmes exercices. Pour l'expérimentation sur le résumé, nous avons déjà mentionné les travaux sur lesquels nous nous sommes appuyés et il faut simplement remarquer que les structures textuelles sont repérées automatiquement par un système dédié au filtrage d'informations. En revanche, les opérations de navigation, même si elles sont issues de divers travaux ont été spécifiées empiriquement et une évaluation en usage reste à faire. Enfin, l'expérimentation sur la navigation dans le roman « Madame Bovary » est la plus prospective mais elle a le mérite de montrer que des relations de types syntaxiques et ontologiques peuvent être représentées dans le formalisme proposé par NaviTexte. Nous avons montré que la navigation dans un texte, processus cognitif complexe, peut être modélisée à l'aide du langage SEXTANT. Les expérimentations que nous avons conduites sont assez hétérogènes, ce qui est pour nous une preuve de la souplesse de la plate-forme logicielle NaviTexte. Néanmoins, ces expérimentations nous ont confrontés à de nouveaux besoins. D'une part, nous cherchons à modéliser des phénomènes discursifs qui mettent en jeu des relations d'ordre comme par exemple l'ordre chronologique (Battistelli et al., 2006), d'autre part, nous travaillons actuellement à des extensions du langage et à leur implémentation dans NaviTexte afin de pouvoir exprimer des opérations de navigation sur ces structures discursives. Enfin, la création d'applications concrètes pour des cas d'utilisation réels, alimente des discussions quant à une méthodologie d'acquisition et d'expression de connaissances. Soulignons qu'il est important de définir les moyens pour coordonner l'information encodée dans les textes avec les vues et les opérations définies dans les modules de connaissances. Il existe également des problèmes concernant le niveau de détail des connaissances dans les textes, la granularité des UT, la nomenclature, la manière dont les opérations de navigation peuvent être définies, etc. Un travail futur consistera à proposer des « directives d'encodage de connaissances », tant dans les textes que dans les modules. Cela entraînera, sûrement, un enrichissement du langage SEXTANT et de nouvelles versions de la plate-forme logicielle NaviTexte . | RÉSUMÉ. Nous présentons tout d'abord notre conception de la navigation textuelle conçue comme un processus cognitif qui convoque des connaissances qui sont propres à la finalité de la navigation. Nous formulons l'hypothèse que ces connaissances peuvent être, en partie, modélisées sous une forme déclarative avec le langage SEXTANT que nous décrivons. Enfin, nous présentons plusieurs expérimentations qui utilisent la plate-forme NaviTexte dans laquelle le langage SEXTANT est implémenté . | scientext_ling_art_239_Tal_Couto__Minel_en_tete.xml |
termith-774-scientext | La tradition rhétorique nous a transmis (par l'intermédiaire en particulier deDumarsais et de Fontanier) un répertoire raisonné de procédés stylistiques ,nommés figures et tropes. Les procédés cités sont généralement considérés commedevant donner « plus d'ornement », « plus de vivacité » au discours. Mais ilssont décrits hors de tout contexte ou, si le contexte est pris en compte, lesexemples donnés sont le plus souvent tirés de textes littéraires, ou même detextes latins (Dumarsais). C'est cette absence d'ancrage actuel qui peut amenerà considérer leur exploitation de nos jours comme « un anachronismestérile » [1 ]. Notre propos sera pourtant ici ,prenant pour base certaines de ces « étiquettes » rhétoriques et leurdescription, de considérer quelques figures, mais : a) au sein d'un corpus nonlittéraire : ici un ensemble de textes journalistiques de la presse généraliste ,et b) par rapport à une situation d'énonciation donnée. Les figures ne serontdonc pas appréhendées en fonction de considérations stylistiques. Ce qui nousintéresse ici est plutôt de décrire, en référence à la situation d'énonciation ,en quoi elles sont un « écart », et quel peut être éventuellement leur rôlepragmatique pour un énonciateur. Le recours à un travail en corpus suppose naturellement un tri, de fait : ne seratraité que ce qui est attesté dans le corpus. Nous n'avons cependant pasprivilégié ici l'importance quantitative, les figures décrites n'apparaissantpas toutes en grand nombre. Nous préférons montrer la diversité de leursmécanismes malgré des ressemblances formelles, et, partant, la différence desprocédés nécessités par leur analyse. Le point commun des figures choisies est d' être basées sur des référencesplurielles : il s'agit ici plus particulièrement de SN définis pluriel et denoms collectifs (Ncolls désormais). Les figures que nous décrirons commeutilisant ces bases sont l'hyperbole [2 ], un type desynecdoque [3 ], et un type d'énallage [4] qui joue sur l'appréhension distributive etcollective d'un ensemble, comme en (1) : Dans les écoles clandestines des musulmans kosovars, les gosses apprennent qu'ils sont un peuple et qu'un jour le pays des Aigles reprendra son envol [5 ]. (Kosovo, Fgr 27-28/03/99). En décrivant ces figures, nous ne nous prononçons pas sur leur éventuel repérageen tant que telles par un usager « ordinaire » de la presse. De fait, si l'onsuit Perelman (1977), c'est parfois en se faisant discrètes que les figurespeuvent avoir une efficacité dans le discours. Nous cherchons à les observer« de l'extérieur », prenant comme élément de description la situationd'énonciation, avec ce qu'elle permet de supposer par exemple sur le rapporténonciateur/énonciataire, les connaissances de l'énonciataire, etc. Par ailleurs, parler de figure, et donc « d'écart » nécessite de postuler un« autre chose » par rapport auquel se détermine cet écart : une norme, ou unusage. Cette « norme » peut être constituée des règles de la langue, et c'est enfonction d'elles que nous décrirons l'énallage exemplifié par (1). Mais l'écartpeut se situer également parfois, non pas par rapport à la langue, mais dans unenégociation intersubjective de la représentation du réel. C'est le cas enparticulier pour l'hyperbole, où la représentation d'un fait donnée par unénonciateur peut être jugée exagérée, amplifiée par l'énonciataire. Dans lepremier cas le contexte phrastique est suffisant pour repérer et analyserl'écart, alors que dans le second le repérage de la figure, parce que lesindices proprement linguistiques en sont plus diffus, nécessite la référence àla situation d'énonciation elle -même. L'analyse des tropes quant à elle (et toutspécialement de la synecdoque qui nous intéresse ici), parce qu'ils réalisentune dénotation détournée, doit tenir compte de la représentation des objets dediscours en contexte. Cette représentation, pour être jugée tropique, supposeune comparaison avec quelque chose d'autre : ici le « SN juste », c'est-à-direle SN approprié au référent désigné. Mais c'est en dernière instance dans lasituation que peut s'apprécier la « justesse » de la dénotation. Parfois eneffet, le trope ne se manifeste pas en surface par un indice linguistique :rupture combinatoire dans le SN ou la prédication [6] par exemple comme en (2). (2) Matignon apprend, à 14 heures, que l'ancien chef de l'Etat va poser une question au gouvernement (CSM, Mde 20/01/00). Il repose plutôt, comme d'ailleurs l'hyperbole, sur la représentation par unénoncé des objets désignés. Il faut donc prendre en considération pour ladescription le type d'énonciateur, d'énonciataire et le rapport entre les deux .De fait, le « contrat communicationnel » (Charaudeau 1997) qui lie implicitementle journaliste et le lecteur détermine un certain rapport à la véracité, sinon àla vérité, qui n'est pas présent dans la publicité ou la littérature parexemple. Schématiquement (car ce rapport est non trivial) : le discoursd'information met en présence « celui qui sait », et qui a une légitimité pourdire, et « celui à qui l'on fait savoir ». C'est donc en tenant compte de laspécificité de ce type de discours, et en particulier de son rapport à laréférence, que nous conduirons notre étude, recourant à des analyses portant surle code de la langue. Il ne s'agira cependant pas de nous déterminer en termesde vrai ou de faux, mais en termes de « produire une valeur de vrai ou de faux àtravers la mise en discours » (Charaudeau : 75). Les figures dont nous traiterons ici mettent donc à contribution la langue et lecontexte de manière différente, et graduelle à certains égards. Nous rendronscompte tout d'abord de l'énallage exemplifié par (1), qui joue essentiellementsur le code linguistique, puis de l'hyperbole dont nous pensons que sacaractéristique principale est de se situer dans un jeu de consensus/dissensusentre l'énonciateur et l'énonciataire. Nous traiterons en dernier lieu de lasynecdoque. La prise en compte de ce trope, tel qu'il apparaît à traverscertains exemples de notre corpus, se base essentiellement sur la connaissanceque peut avoir le lecteur de la presse des objets représentés. Schématiquement ,on associera à ces trois figures, dans la terminologie de Jakobson ,respectivement les fonctions poétique pour l'énallage, conative et expressivepour l'hyperbole. La synecdoque peut être décrite dans le cadre de la fonctionréférentielle. Nous avons choisi, pour un travail sur la métonymie et la synecdoque quidépasse le cadre de cet article, de rassembler un corpus de textes de lapresse généraliste sur des thèmes d'actualité susceptibles d'intéresser legrand public, ou instaurés comme tels par les journalistes, puisque cesthèmes ont été à un moment donné présentés à la « Une ». Le corpus secompose de 160 articles analysés de Libération, le Monde, le Figaro sur troisthèmes : la guerre du Kosovo, (corpus Kosovo ci-après); les accordsconduisant à la participation au gouvernement du parti d'extrême-droite( FPÖ) en Autriche (corpus Autriche ci-après); le report du Congrès pour levote sur le Conseil Supérieur de la Magistrature (corpus CSM ci-après). Notre but en choisissant la presse était de rencontrer des figures présuméesnon littéraires, et donc de pouvoir considérer sous un angle différent cequi est appelé généralement « figure de style ». Nous supposons en effetque, dans un discours informatif tel que celui de la presse, l'objectif del'énonciateur est centré sur le contenu à transmettre au moins autant quesur la forme du message, et ceci probablement de manière plus nette dans lesquotidiens que dans les hebdomadaires ou les mensuels. Par ailleurs, lejournaliste de la presse généraliste, s'adressant à un public le plus largepossible, se trouve dans une nécessité de simplification, voire deschématisation. C'est précisément ce qui nous intéresse. Dans les faits, nous n'avons pas trouvé de métonymies ni de synecdoques trèsvariées ni créatives (les métaphores se présentant, par contre, en nombreimportant). Nous avons essentiellement isolé des métonymies [7] du type de (37), utilisées de manièreextrêmement routinière (87 % des tropes du corpus) : (2) Matignon apprend, à 14 heures, que l'ancien chef de l'Etat va poser une question au gouvernement. Le recours à l'hyperbole, basée sur des SN pluriel et des Ncolls, estextrêmement fréquent (3) L'Occident, tétanisé, découvre qu'il n'est pas à l'abri, lui non plus, des spectres d'antan. (Kosovo, Fgr 26/03/99). tandis que les énallages du type de (1) représentent une quinzaine decas. Les traités de rhétorique classique étudient généralement les figures hors detout contexte, et préférentiellement dans la littérature. Pourtant ,l'appréhension des figures dans un cadre non restreint aux seuls procédés destyle doit prendre en considération les conditions bien concrètes de leurréalisation. Celles -ci se définissent en fonction du genre textuel, dulocuteur intégré dans une situation institutionnelle donnée, et de lareprésentation que ce locuteur se fait de son auditoire ou de son lectorat .De fait, les figures étudiées ici ne sont pas nécessairement desélaborations individuelles et calculées, mais elles s'intègrent dans undiscours qui possède ses règles et ses objectifs propres. La presse généraliste, par mission et par nécessité économique, doits'adresser à un large public. Elle se trouve donc avoir, pour ces raisons ,deux visées contradictoires : une « visée d'information » et une « visée decaptation » (Charaudeau 1997). Selon la première, il s'agit d' être fiable ,crédible. Selon la seconde, il s'agit de « séduire » le lecteur. De plus, lapresse quotidienne est soumise à des nécessités d'ordre temporel : unévénement chasse l'autre, et il s'agit d'en rendre compte, aussi ou plusrapidement que les concurrents [8 ]. Par ailleurs ,la profession journalistique, en tant qu'énonciateur collectif, se construitnécessairement une représentation de son lectorat, que cette représentationsoit une projection (que Charaudeau 1997 : 16, nomme « la cible, imaginéepar l'instance médiatique »), ou qu'elle soit précisée par des études :sondages, études d'impact (mais Charaudeau montre combien elles sontdifficiles et sujettes à caution). C'est donc en fait à la cible que s'adresse nécessairement le journaliste, c'est la cibledont il postule « des savoirs de connaissance », et « des savoirs decroyance ». C'est dans ce contexte que se déterminent les conditions de la mise en scènede l'information. Mise en scène, car si l'écrit journalistique est censérendre compte du réel, il en est, en fait, nécessairement unereprésentation. Mise en scène et mise en mots, l'une dépendant de l'autre .Le choix par l'énonciateur de la dénomination d'un objet ou d'un événement ,sa manière de le catégoriser n'est naturellement pas indifférente parrapport à sa visée dans l'énonciation. C'est d'autant plus flagrant pour lestropes - en particulier la métonymie et synecdoque - du fait de leur mode deréférence « détourné » qui leur permet en quelque sorte d'actualiser deuxsignifiés avec un seul signifiant. Le journaliste est également un acteur social qui a ses propres opinions .Selon le type d'article (reportage, chronique, éditorial) il a, suivant lesnormes institutionnelles de la profession, une position plus ou moinsengagée. Il n'en demeure pas moins que, même dans des articles supposés« neutres », la mise en mots n'est pas indifférente, qu'elle s'appuiesouvent sur une opinion particulière, ou sur une opinion communément admiseet non remise en cause. Les figures, dans la tradition rhétorique, se signalent par un « écart » surl'axe syntagmatique [9 ], et sont classées en fonctiondu type d'écart manifesté. Leur analyse peut de ce fait présenter un grandintérêt pour le linguiste. En effet, elles donnent parfois l'impressiond'exacerber la subtilité de certains faits grammaticaux ou lexicaux par le faitmême de les transgresser. En voici quelques exemples : - la syllepse fait se « rencontrer » dans une même occurrence deux sens d'unterme polysémique. Elle focalise donc par là -même l'attention sur la polysémie : (4) […] Zarko, qui vend à la criée des hebdomadaires Vreme et Nin, bouclés trop tôt pour annoncer la nouvelle de l'accord. (Kosovo ,Lbn 11/06/99). ici hebdomadaire désigne à la fois l'objet concret ,produit fini et, par le biais de l'adjectif bouclés leproduit de l'activité éditoriale. - le zeugme, en mettant sur le même plan syntaxique (par exemple par le biais dela coordination) deux éléments appartenant à des registres sémantiquesdifférents attire l'attention sur les deux constructions possibles de l'élémenten quelque sorte mis en facteur [10] : (5) Retenez cette date et votre table. (Cité par Bacry 1992). - la différence d'appréhension distributive ou collective d'un pluriel passe leplus souvent inaperçue dans l'usage « standard » de la langue. Mais un usagefigural réalise la potentialité de cette opposition : (1) Dans les écoles clandestines des musulmans kosovars, les gosses apprennent qu ' ils sont un peuple et qu'un jour le pays des Aigles reprendra son envol. L'observateur trouvera donc matière dans des réalisations langagières de ce typeà repérer et analyser des phénomènes que la figure met en évidence de manièreflagrante. Mais les figures sont insérées dans des énoncés et ont donc, par leur spécificitémême, une utilité dans un projet énonciatif. Pour l'énonciateur, c'est ens'appuyant en premier lieu sur le différentiel entre langue et discours figuralqu'il peut attirer l'attention sur le message lui -même : c'est ce que Meyer( 1993 : 13) nomme « intransitivité ». L'effet, généralement reconnu aux figures ,est donc au minimum celui dû à une différence par rapport à l'usage standard. Ilpeut être centré sur la dimension stylistique ou ludique du message, mais ilpeut également, et souvent dans le même temps, être orienté versl'interlocuteur, dans une visée perlocutoire. C'est le cas par exemple dans lapublicité, mais aussi fréquemment dans les titres de périodiques comme (6) ,auxquels on peut reconnaître une fonction « d'appel » : (6) Clônage Humain : la gêne éthique. (NO 31/08/00, en titre). On ajoutera que l'écart et l'effet fonctionnent de pair : c'est parce qu'il y aécart qu'il y a effet, mais aussi c'est souvent l'effet qui conduit à remarquerl'écart, comme dans le cas de l'hyperbole que nous traiterons en 2.2. Nous débuterons ici par la description d'une figure de type grammatical qui, dece fait, peut se repérer dans les limites de la phrase. Nous étendrons notreanalyse à la prise en compte du rapport énonciateur/énonciataire avec ladescription de l'hyperbole. Nous réservons la description de nos exemples desynecdoques à un paragraphe suivant, où nous évoquerons de quelle manièreinterviennent les connaissances du lecteur de la presse. La première catégorie des figures basée sur une référence plurielle [11] met en jeu l'appréhension distributive etcollective de cette référence. On sait en effet que les ensembles dénotéspar des SN pluriel ou des Ncolls peuvent être appréhendés distributivement( on fait référence aux membres de l'ensemble : omnis )ou collectivement (on fait alors référence à l'ensemble lui -même : totus). Cette différence est manifeste dans lesexemples suivants : (7) L'association a été créée en 1998. Ici, le prédicat existentiel permet la référence à l'association en tant qu'ensemble. Avec un pluriel, la référencedistributive est la plus fréquente, mais l'usage collectif apparaît dans : (8) Les paysans sont une espèce en voie de disparition. (TA3-9/02/01) [12 ]. On voit par contraste qu'en (9), ce sont les membres de l'ensemble qui sontdésignés. (9) L'association se réunit tous les vendredis. ci-dessous, (37) rendexplicite en une phrase les deux types de référence : (10) Que la batellerie fasse grève - les bateliers en ont le droit comme tout travailleur français [. ..] (Europe 1, 03/73, cité par Morel 1982). Le SN collectif la batellerie englobe l'ensemble de laprofession, alors que son emploi serait difficile avec enont le droit qui est nécessairement individualisant. On trouve doncici la référence distributive du pluriel lesbateliers. La différence distributivité/collectivité permet en partie d'expliquer lasouplesse d'emploi des SN définis pluriel. Dans certains cas (interprétationomnis), ils peuvent correspondre à laquantification universelle. Ainsi, dans : (11) Rentre les chiens les chiens correspond, distributivement ' à tous leschiens ' (Kleiber 1994 : 174), alors que dans d'autres cas, oùl'interprétation est collective, les SN définis pluriel permettent dedésigner un sous-ensemble de la collection (au sens totus). C'est le cas, si l'on suit Martin (1984 : 189), dans : (12) En 1981, les français ont voté à gauche. qui est vrai de l'ensemble des français pris collectivement, mais nondistributivement. Ce qui peut être décrit en théorie comme ci-dessus apparaît finalement peusouvent dans les énoncés. La différence évoquée s'y trouve en effetgénéralement annihilée, ou plutôt les deux interprétations y sontsuperposées, comme dans (13) ci-dessous : (13) La menace militaire de l'OTAN visait à obliger les Serbes à accepter l'accord de Rambouillet. (Kosovo ,Lbn 25/03/99). Elle retrouve cependant toute sa force à travers les figures ou les jeux delangage. Ceci peut être illustré plaisamment par cette devinette (Martin1984 : 190) : « - Quelles sont les brebis qui mangent le plus ? les blanches ou les noires ? - Les blanches parce qu'elles sont en plus grand nombre. La subtilité de cette « devinette » vient justement de ce que la réponse ,collective, y a quelque chose d'étonnant. La question posée orientaitfortement vers une réponse distributive (par exemple " Les brebis blanchesmangent plus que les brebis noires parce qu'elles sont plus corpulentes "). » Voici également certains énoncés de notre corpus qui manifestentl'exploitation figurale de l'opposition référence distributive/référencecollective, puisque ces références, habituellement présentes isolément, ysont exprimées toutes deux et mises en relation syntaxique étroite. Ainsici-dessous en (14), dans le SN, entre le nom et son complément : (14) Nous avons imaginé ce que fut le calvaire des Kosovars […] en regardant les visages innombrables de ce peuple en larmes. (Kosovo :Lbn 11/6/99, éditorial). Les visages innombrables renvoie distributivement auxéléments de l'ensemble exprimé collectivement par le Ncoll peuple. (15) Beaucoup d'entre eux ont trouvé des postes dans une administration purement serbe qui va devoir céder la place, ou dans une police qui, après s' être comportée brutalement pendant dix ans, doit se retirer. (Kosovo : Lbn 11/6/99). En (15), police est appréhendé collectivement toutd'abord (coordination avec administration lui -même enréférence collective), puis la référence distributive apparaît par le biaisde s' être comportée (référence aux individus), pourredevenir collective avec se retirer (c'est en tantqu'entité administrative que la police doit se retirer). (1) Dans les écoles clandestines des musulmans kosovars, les gosses apprennent qu'ils sont un peuple et qu'un jour le pays des Aigles reprendra son envol. Le recours aux procédés littéraires n'est pas la caractéristique principaledes textes de la presse quotidienne de notre corpus [13 ]. De fait, on peut se demander, par exemple en (15), sil'effet est réellement volontaire [14 ]. Notrepropos n'est d'ailleurs pas d'évaluer la dimension stylistique des énoncés .Ce qu'on observera ici cependant, c'est la puissance expressive du procédé .La présentation condensée en (14) par exemple, du tout (peuple) et des individus (visages) a uneforce évocatrice efficace dans un objectif de dramatisation. La figurepermet, en peu de mots de focaliser l'attention sur deux aspects du référentcollectif (au besoin par une syllepse (15)), et se révèle dès lorsextrêmement rentable. Comme nous l'avons dit plus haut (2.1), l'appréhension collective d'unensemble offre la possibilité, dans un usage référentiel du plurielparfaitement standard, de ne désigner par le SN défini pluriel qu'unesous-partie de cet ensemble. Le sous-ensemble concerné peut êtredéterminé par la prédication elle -même, comme en 12) que nousrappelons : (12) En 1981, les français ont voté à gauche. mais également par le contexte, qu'il s'agisse des phrases précédentes oud'autres connaissances : dans le cas de notre étude sur des donnéesjournalistiques, il s'agit plus spécifiquement de la connaissanceacquise par le lecteur au suivi de l'actualité. Pour le Kosovo : (13) La menace militaire de l'OTAN visait à obliger les Serbes à accepter l'accord de Rambouillet. les Serbes désigne ici ' la sous-partie desSerbes ' concernée par la signature de l'accord, à savoir ' legouvernement serbe '. En (16), les Européens présente, ' la sous-partie de l'Europe ' qui prend part aux frappes del'OTAN [15] : (16) [. ..] Un sommet qui, pour la première fois sans doute permet aux Européens de jouer un rôle dans une crise qui les concerne au premier chef. Mais il ne s'agit pour (16) que d'une conjecture, car rien n'oblige dansla phrase ni dans le contexte précédent à interpréter les Européens comme étant restreint à la sous-partie que nousévoquons. En réalité, la souplesse d'emploi des SN définis pluriellaisse ouverte la possibilité d'une utilisation globalisante ,hyperbolique dans certains cas. De fait, qu'elle soit figurale ou non ,nous avons pu remarquer dans le corpus l'utilisation globalisanterécurrente de SN définis pluriel tels que lesEuropéens, les Occidentaux, etc. Cecinous conduit à penser qu'il s'agit là d'un procédé d'écriture, adoptépar la communauté journalistique. Ce qui précède nous conduit à penser que la perception des limites del'hyperbole (où commence -t-elle ?) ne peut se fonder sur une analyseobjective. En effet, si on la décrit, comme Cohen (1970), en termes decontradiction entre le terme extrême (hyperbolique) et le sujet qu'ilqualifie, encore faut-il avoir une appréhension objective du référentdésigné. Dans l'exemple fourni par Cohen : (17) Il va plus vite que le vent on peut effectivement remarquer comme cet auteur que l'énoncé estcontradictoire si il est un homme, mais non pass'il s'agit d'un avion. Mais dans l'exemple (16) cité ci-dessus, ainsique dans les énoncés que nous présentons plus loin, rien ne permet àcoup sûr de déterminer si l'expression collective désigne de manièreappropriée son référent. En réalité, l'essentiel de la figure estailleurs : dans la perception intuitive par l'allocutaire de la volontéd'exagération de la part du locuteur. Tout se passe donc dans unenégociation intersubjective de l'adéquation de la représentation donnéepar le locuteur. L'emphatisation à partir des références plurielles est un procédélargement répandu dans les articles analysés. La plupart du temps ,l'effet figural qu'elle provoque prend une allure délibérée, donnantainsi l'impression d'en appeler à une connivenceénonciateur/énonciataire. On trouve ainsi fréquemment des énoncésrecourant à l'emploi de Ncolls, que ces noms (ou SN collectifs ici )désignent des ensembles de personnes ou [16] des entités proches de l'abstraction. Les Ncolls, plus queles SN définis pluriel sont le lieu privilégié de l'hyperbole, car ladifférence distributif/collectif s'y trouve généralement annihilée .C'est alors la double référence à une totalité homogène et à unepluralité qui est exploitée. L'aspect quantitatif de la pluralité, ainsique le caractère abstrait de l'entité collective agissent de pair pourprovoquer l'effet figural. Voici quelques exemples : (3) L'Occident, tétanisé, découvre qu'il n'est pas à l'abri, lui non plus, des spectres d'antan. Ici l'hyperbole est due à plusieurs éléments : le Ncoll, mais égalementl'adjectif tétanisé employé métaphoriquement .L'effet dramatique est renforcé par l'expression lesspectres d'antan, métaphorique elle aussi. (18) Que l'Occident leur soit hostile sur la question du Kosovo leur semble complètement incompréhensible. (Kosovo ,Fgr 25/03/99) (leur réfère dans l'article auxpopulations serbes qui se sentent trahies par les Européens dans leconflit du Kosovo) L'Occident invoqué (mais est -ce le terme utilisépar l'informateur ?) et repris à son compte par le journaliste dépasselargement les réels protagonistes du conflit. (19) Le même ton a prévalu à Belgrade où Slobodan Milosevic semble avoir choisi de mettre l'Occident au pied du mur [. .. ]. (Kosovo ,Lbn 20-21/03/99). (20) « Slobo Saddam » [. ..] : au-delà d'une indifférence apparente aux coups de semonce du reste de la planète, tout sépare les vilains canards de la communauté internationale. (Kosovo ,le Fgr 25/03/99). Ici, Les coups de semonce désignant concrètementl'intervention en Irak et en Yougoslavie, le reste dela planète représente les alliés dans le cadre de l'un etl'autre des conflits. Remarquons au passage l'importance symptomatiquequ'accorde le journaliste aux pays « alliés » en les désignant par le reste de la planète. (21) Ils [les policiers serbes] laissent passer les journalistes français mais sermonnent notre pays pour avoir trahi le peuple serbe, « votre vieil allié ». (Kosovo, Fgr 27-28/3/99). Le journaliste rapporte ici, de manière indirecte mais assumée, lespropos de locuteurs serbes. On peut remarquer à travers ces exemples que les SN pluriels n'agissentpas seuls pour provoquer l'effet figural hyperbolique et que leco-texte, métaphorique ou hyperbolique lui -même (mettre au pied du mur, coups de semonce etc.), provoqueglobalement un effet emphatique et dramatisant. L'hyperbole n'est naturellement pas réservée aux seules réalisationscomportant des pluriels. Elle peut être observée dans la qualificationcomme dans la quantification, dans des registres comme l'expression d'unsentiment, d'une perception, d'un jugement axiologique. Elle a égalementpour base différentes catégories grammaticales : nom, verbe, adjectif ,adverbe, etc., comme on a pu l'observer avec (3). Cette diversité demanifestations confirme notre intuition que l'hyperbole ne peut êtreappréhendée en termes exclusivement linguistiques, comme c'est le cas del'énallage. En revanche, ce sont des notions pragmatiques commel'intention (de l'énonciateur) et la reconnaissance de cette intentionpar l'énonciataire qui permettent le mieux de capter le génie de lafigure. Bacry (1992) définit l'hyperbole comme : « l'expression exagérée ou amplifiée d'une idée ou d'un fait ». Chez Morel (1982 : 9) l'hyperbole (figure utilisée pour des arguments quise basent sur la structure du réel [17 ]) estdéfinie ainsi : « […] l'Hyperbole, figure qui opère une transposition du réel et joueainsi sur la perception du récepteur, dans le but " non de letromper, mais d'amener à la vérité même et de fixer, par ce qu'ildit d'incroyable, ce qu'il faut réellement croire ". (Fontanier1977) ». C'est bien dans cette problématique de représentation, de véracité et decroyance, que se situe le rapport journaliste/lecteur. La synecdoque et la métonymie, « tropes en un seul mot » dans la terminologiede Fontanier (1977) sont souvent présentées comme étant en rapport desubordination l'une par rapport à l'autre (Dumarsais 1988, Bonhomme 1987 ,Meyer 1993 et 1995), le point fédérateur entre les deux tropes étant unerelation de contiguïté (interne pour la synecdoque et externe pour lamétonymie) entre référents, celui désigné par le mot exprimé (la source) etcelui qui aurait dû l' être (la cible). D'autres auteurs conservent la seulecatégorie métonymique. Pourtant, même si la frontière entre les deux tropesest parfois dans les faits difficile à tracer, nous choisissons pour notrepart de considérer la synecdoque comme une catégorie à part entière. Eneffet, le plus souvent, la distinction contiguïté interne/contiguïté externeest pertinente pour la description. Ainsi, par exemple dans (2), que nousrappelons, le rapport entre Matignon et ' le premierministre ' repose sur une contiguïté externe entre un lieu et l'occupantinstitutionnel de ce lieu : (2) Matignon apprend, à 14 heures, que l'ancien chef de l'Etat va poser une question au gouvernement. Nous nous en tiendrons par la suite à la description de la synecdoque. Tous les types de synecdoques ont pour particularité de prendre comme pointde référence l'objet, dans son intégrité quantitative ou qualitative, à untitre ou un autre. Nous comprenons en effet sous le terme de synecdoque lesrelations tropiques qui mettent en jeu le tout et la partie, le pointd'unité entre les différentes catégories étant un rapport d'appartenance. Ils'agit : - des rapports traditionnels partie/tout (méronymiques) à l'intérieur del'objet (22), et tout/partie (23), mais aussi des relations de partition àl'intérieur d'un ensemble traité comme un objet (Ncoll (24) ou pluriel( 25)) : (22) C'est un derrière qui a un très joli filet de voix. (Anouilh, cité par Meyer). (23) Au loin, les maisons fument. (Baudelaire, cité par Meyer). (24) L'ONU en otage. (Titre de Mde; début de l'article : 300 casques bleus pris en otage.) (25) Les alliés soulignent le travail qui reste à faire. (Lbn 11/06/99, en titre; début de l'article : Le président Bill Clinton a affiché sa satisfaction [… ]. Hubert Védrine a salué jeudi le vote par le Conseil de sécurité de l'ONU d'une résolution […]). Ici, c'est le contraste quantitatif entre le titre, globalisant, et leséléments coréférentiels présentés dans le corps de l'article qui nous amèneà considérer cet énoncé comme synecdochique. Mais nous y revenons plus loin( 3.3.2.). - des relations singulier/pluriel : mention de l'élément pour l'ensemble( 26), de l'ensemble pour l'élément (27) : (26) Avoir l' œil vif, avoir le cheveu rare. (27) Il a reçu la visite du corps médical. (Cité par Meyer). - du rapport genre/espèce (28), et espèce/genre (29) : (28) Des nudités de femelles lasses d'enfanter des meurt-la-faim. (Zola, cité par Meyer). (29) Gagner son pain à la sueur de son front. - du rapport entre une qualité et l'ensemble des entités qui présentent cettequalité : (30) Cuba : la dissidence brave la répression. (Mde 14-15/11/1999). Comme on peut le voir, il est nécessaire de prendre comme base du trope, nonpas le nom, mais le SN, certaines synecdoques jouant sur le nombre. C'estd'ailleurs à ce titre qu'elles reçoivent le qualificatif de« grammaticales » de la part de Meyer (1993), qui de ce fait leur dénie leurqualité de synecdoque. En effet, les synecdoques sont généralement étudiéesuniquement en termes de rapports lexicaux. Signalons tout d'abord que nous avons isolé peu de synecdoques dans notrecorpus, et en particulier aucune du type partie/tout ou tout/partie dans unobjet individuel (si ce n'est les deux têtes del'exécutif, quasiment lexicalisé). De plus, à part pour le rapportméronymique précisément, les indices linguistiques qui permettraient derendre compte d'un écart figural paraissent à première vue extrêmementténus. Plusieurs raisons à cela, nous semble -t-il : en ce qui concerne larelation genre/espèce, il a été remarqué à maintes reprises qu'elle peut selaisser décrire dans le cadre de l'hyperonymie (le Guern 1973, Delhay 1997) ,même si elle n'y est pas réductible (Meyer 1995), cf. notre exemple (28) .Pour notre part, nous avons isolé les termes frappes et dommages collatéraux (toujours employés aupluriel) qui sont censés signifier ' bombardements '. Bien qu'appartenant audomaine militaire, ces termes sont suffisamment routiniers dans le discoursjournalistique pour passer inaperçus. Dans le cas des pluriels définisensuite, il est souvent délicat de déterminer s'ils figurent dans un emploispécifique ou non spécifique, distributif ou collectif, ce qui peut avoirune incidence, nous le verrons, sur le « diagnostic » de la synecdoque. Deplus, comme nous l'avons remarqué, ils sont souvent utilisés de manièreglobalisante ou hyperbolique. Nous voudrions cependant donner des éléments de différenciation entrehyperbole et trope (synecdoque ou métonymie) à partir de (21) que nousrappelons : (21) Ils [les policiers serbes] laissent passer les journalistes français mais sermonnent notre pays pour avoir trahi le peuple serbe, « votre vieil allié ». La différence apparaît de la manière suivante. Dans le premier cas : notre pays (que nous considérons comme synecdoquetout/partie), l'analyste peut s'interroger sur le référent désigné : « dequi s'agit-il ? », « que désigne notre pays ? » ,alors que, dans le deuxième, le peuple serbe désigne« plus », mais la question « plus que quoi ? » ne nous parait paspertinente. En d'autres termes, l'élucidation du trope (synecdoque) est unequestion d'ordre référentiel, au sens jakobsonien, ce qui n'est pas le casde l'hyperbole, où la dénomination plurielle apparaît comme délibérémentexagérée. Ce qui n'exclut pas, naturellement, l'utilisation hyperbolique dutrope, mais a posteriori. Nous allons à présent nous centrer sur le cas de l'exemple (25), que nousconsidérons comme une synecdoque de type ensemble/sous-ensemble ,c'est-à-dire, en termes substitutifs, que des ou certains serait plus attendu, plus approprié que les dans le SN sujet. Pris isolément, l'énoncén'offre pourtant pas de spécificité, et en particulier aucune anomaliecombinatoire, comme c'est le cas de (24) : (25) Les alliés soulignent le travail qui reste à faire. (24) L'ONU en otage Mais rappelons que (25) figure en titre. En fait, son caractère tropique nese manifeste que si on prend en compte le corps de l'article. Nous enrappelons les premières phrases : Le président BillClinton a affiché sa satisfaction [… ]. HubertVédrine a salué jeudi le vote par le Conseil de sécurité de l'ONU d'unerésolution [… ]. Les alliés du titre annonce donc cataphoriquement lesseuls Bill Clinton et Hubert Védrine, qui sont de plus présentés dansl'article séparément, et en termes purement événementiels. C'est donc lecontraste quantitatif entre ce titre globalisant et les élémentscoréférentiels du corps de l'article qui a attiré notre attention. Nous faisons le même constat pour le titre : (31) Autriche. L'opinion s'indigne des menaces européennes. (Autriche, Fgr 2/02/00). contrastant avec le corps de l'article : Dans l'opinion ,des voix s'élèvent contre, etc. Iciaussi, le contraste titre/article attire l'attention, puisque le des attendu se trouve bien explicité dans l'articlelui -même. S'ajoute à cette différence le fait que l'on sait par ailleurs( autres journaux) que les opinions sont en réalité plus mesurées. Que faut-il penser de cette distorsion d'ordre quantitatif ? Peut-êtres'apparente -t-elle plutôt à un « énoncé approximatif » du type : (32) Je gagne 8000 balles par mois qui ne signifie certainement pas ' Je gagne exactement 8000 balles parmois ' (Kleiber 1994), car la situation et l'entour social n'imposent pasune précision extrême, et prescrivent même, la plupart du temps ,l'approximation pour ce type d'information. Ici pourtant, la situation est différente : si les imprécisions et lesapproximations sont monnaie courante dans la pratique journalistique ,par le recours notamment au conditionnel, à l'emploi de Ncolls, demétonymies du type de (2) dont la dénotation est « floue », l'énoncé (25), sur lequel nous nous attardons à présent, nécessite une analysedifférente. En effet, « les alliés » dans le contexte du corpus (guerredu Kosovo) a pris une signification [18] etune extension que le lecteur est amené à connaître, ne serait -cequ'approximativement, en suivant les rapports de l'actualité dans lesmédias. Celui -ci peut donc comparer le titre et le corps de l'article etconstater une différence. Comme en (32) c'est la maxime de quantité deGrice (1979) qui s'applique, maxime elle -même subordonnée dans tous lescas, comme le montre Kerbrat Orecchionni (1986) à la maxime depertinence. Autrement dit, le caractère éventuellement tropique de (25 )( s'agit-il d'une approximation attendue ou d'un écart ?) s'évalue encontexte, le corps de l'article, mais également et plus généralement lapratique du lectorat étant ce contexte. Comme il a été dit au § 2.1., tous les SN définis pluriel ne sont pasappréhendés en termes de quantification universelle. Si l'énoncé (11 )Rentre les chiens correspond à laquantification universelle : ' tous les chiens ', à l'autre extrême( Kleiber 1994) : (33) Les américains ont mis le pied sur la lune. peut ne désigner que ' un seul américain ', s'il représente son pays, commec'est également le cas par exemple dans les compétitions sportives. Ce qui joue pour Kleiber dans le cas de (33), c'est la pertinence de la« partie » (le référent) par rapport au tout désigné par le SN ,elle -même déterminée par le prédicat et par les connaissances que l'on ade la situation décrite. Cette « partie » mise en saillance peutpermettre une assertion sur « le tout » sans que l'on doive recourir àune analyse en termes de trope. C'est ici le principe de métonymie intégrée qui s'applique. Kleiber 1994 : 155 : « Certaines caractéristiques de certaines parties peuvent caractériserle tout. » Il nous semble important de remarquer que le SN lesaméricains se présente comme devant être appréhendé en (33) entant que classe, intensionnellement. C'est la qualité ' d'américain ' quiest ici convoquée, et ceci malgré le prédicat événementiel. C'est donc àce titre que l'on peut asserter du tout quelque chose qui ne concerneempiriquement que la partie, ici un seul individu. Rappelons( 25) : Les alliés soulignent le travail qui reste à faire. (25) présente certaines ressemblances formelles avec (33) : a) en (25 )comme en (33), les sujets sont des SN définis pluriel, qui induisentd'abord un effet globalisant; b) les prédicats sont des prédicatsévénementiels. Mais dans (25) et dans l'article qui suit, l'énoncé présente les alliés, non pas en termes de représentativitéliée à la qualité ' d'allié ' telle que définie par l'événement décrit [19 ], mais dans une situation concrète etfactuelle qui les présente en tant qu'individus empiriques.(25) se donnedonc à voir, de par l'énoncé auquel il appartient, en termesextensionnels, même si dans le même temps le SN défini pluriel garde sonpouvoir globalisant (et ceci rajoute au contraste entre le titre et lecorps de l'article). De plus, les éléments empiriques de l'ensemble ' lesalliés ' sont suffisamment peu nombreux et susceptibles d' être distinguésindividuellement pour que l'ensemble soit appréhendé ici, non comme untout (totus), mais comme l'ensemble des éléments( omnis). Dès lors ,l'énoncé (25) doit, pour être non tropique, se rapprocher del'exhaustivité de l'ensemble que constitue ' les alliés ', comme nousl'avons vu pour les chiens de (11) : Rentre les chiens. En effet, tout écartquantitatif important sera perçu comme « fautif », voire « trompeur » .Le prédicat, loin d'annuler la distorsion quantitative opérée parl'utilisation du SN défini, comme c'est le cas pour (33), ne peutprécisément que la mettre en saillance. Nous concluons donc ici entermes de synecdoque ensemble/sous-ensemble, la « norme » par rapport àlaquelle se définirait le trope étant d'ordre quantitatif dans unensemble présenté, dans l'énoncé (titre et article) et en lien avec lecontexte, en termes distributifs. D'autres titres présentent le même type d'écart que (25). On trouve ainsidans le corpus CSM : (34) Les magistrats s'inquiètent d'un « scénario catastrophe ». (CSM ,Fgr 20/01/2000.) (35) Les magistrats « catastrophés ». (CSM, Lbn 20/01/2000. )( en sous-titre : Leurs syndicats ont vivementréagi). Le corps de chacun des deux articles traite des réactions négatives aureport du Congrès de deux syndicats de magistrats sur trois, letroisième ayant eu une réaction opposée. Ici aussi, la lecture del'article conduit à l'impression d'une distorsion quantitative parrapport au titre. On remarquera également la ressemblance entre les deuxtitres, et le sous-titre de Libération donnant, comme par remords, uneprécision supplémentaire. Ces quelques exemples ont tous la particularité de mettre en rapport untitre et le corps de l'article. Il y a donc, pour le lecteur, un pointde comparaison, qui lui permet de répondre à la question : « de quis'agit-il ? ». Nous laissons cependant ici de nombreuses questions ensuspens : à partir de quel moment en effet, parler de distorsion ,d'erreur, d'inexactitude ? Il nous semble impossible de répondre à celade manière définitive. Dans ce continuum, tout est affaire d'adhésion del'énonciataire à la représentation donnée par l'énonciateur dans unesituation de communication donnée. D'une manière générale, les énoncés approximatifs, flous, globalisants, tels queceux présentés précédemment, sont banals et souvent indispensables, témoignantune fois encore de la plasticité du langage. Mais cette considération généraledoit nécessairement être rapportée à la prise en compte de la situationd'énonciation. C'est ici aussi la maxime de quantité de Grice qui joue ,subordonnée à la maxime de pertinence, comme nous l'avons vu pour (32) que nousrappelons : (32) Je gagne 8000 balles par mois. Pour (32) c'est la situation qui détermine la pertinence. En (13), c'est leco-texte qui joue ce rôle : (13) La menace militaire de l'OTAN visait à obliger les Serbes à accepter l'accord de Rambouillet. Mais l'adéquation référentielle ou sa « transgression » éventuelle est égalementliée à l'intention communicative du locuteur. Apothéloz et Reichler-Béguelin( 1995 : 242) : « [le locuteur] […] peut, par des recatégorisations, par l'ajout ou leretranchement d'expansions, etc., moduler l'expression référentielle enfonction des visées du moment; celles -ci peuvent être de natureargumentative (soutenir une certaine conclusion), sociale (ménager la facede l'autre, euphémiser le discours), polyphonique (évoquer un autre point devue sur l'objet que celui de l'énonciateur), esthétique-connotative ,etc. » Bien que l'étude d'Apothéloz et Reichler-Béguelin porte sur la « stratégie dedésignation » par le choix des noms ou des anaphoriques, nous pouvons, à proposdes SN définis pluriel, reprendre leurs conclusions à notre compte : que leursusages soient tropiques ou non, les SN définis pluriel entrent nécessairementdans une stratégie de désignation. De plus, nous avons pu remarquer leur grandeflexibilité, qui leur permet de « coller » à l'expression d'un point de vue. Ce qui nous intéressera ici est donc l'usage (en termes d'actes de langage) quipeut être fait, dans certaines situations, des pluriels. Reprenons un exemple de Kleiber (1994 : 155). Si (36) Les alsaciens boivent de la bière ne signifie pas : (37) Tous les alsaciens boivent de la bière l'énoncé se présente toutefois, isolé de tout contexte, comme une caractérisationgénérale. Il a un caractère emblématique qui renforce l'impression globalisantedue au SN défini pluriel. Si on insère maintenant (36) dans une situation où ,par exemple, le fait de boire de la bière estaxiologiquement marqué (négativement ou positivement), ou discriminant pourtoute autre raison, l'effet globalisant prendra alors une autre valeur. Ainsi ,l'appartenance d'un individu au sous-ensemble de ' ceux qui boivent de la bière 'ou ' qui ne boivent pas de la bière ' acquerra dans ce cadre une pertinencenouvelle. De l'énoncé anodin de départ (36), on peut donc dans certainescirconstances tirer une conclusion qui nécessitera que soient spécifiées lespossibilités de sa généralisation à (37) (« de qui s'agit-il ? »). Autrementdit, selon la situation de communication, et plus généralement, selon lediscours où il est employé, un SN défini pluriel peut éventuellement présenterun caractère tropique (ici de type ensemble/sous-ensemble). C'est ici que se situe l'usage argumentatif que nous postulons pour les SNdénotant des ensembles. L'argumentation que nous évoquons ici ne se base pas àproprement parler sur la déclinaison d'un raisonnement, et n'est pasnécessairement insérée dans un discours dit « argumentatif ». Mais elles'appuie : a) sur la présentation, sur le mode de l'évidence grâce à l'article défini, del'existence de certaines réalités (présupposition existentielle), b) et ceci, et dans le même temps, dans une « stratégie de désignation »globalisante. Ainsi a), l'emploi par les journalistes [20] destermes la communauté juive de France et la communauté musulmane de France fut l'objet de critiques de la partd'une commentatrice de France Culture, au motif que « les mots créant leschoses » [21 ], ces termes imposaient l'idée del'existence de telles communautés, dans leur aspect à la fois unitaire et opposéau reste de la communauté française. Ici, l'effet d'évidence et l'effetglobalisant b) se combinent par l'emploi du SN collectif lacommunauté. Autre exemple : dans tel débat radiophonique [22] àpropos des gitans, un auditeur, après avoir exposé ses déboires avec des gitans poursuivait et concluait à propos de les gitans. Il va sans dire que cette généralisation futremarquée et soulignée par les commentateurs (de même d'ailleurs que ladésignation du thème de l'émission les gitans, dansl'idée d'unicité qu'elle imposait [23]). Il estégalement probable que, dans des contextes de débats politiques, par exemple ,l'inadéquation référentielle ou cotextuelle des SN définis pluriel serasoulignée. Ainsi l'effet figural, qui est une des bases de la spécificité dutrope par rapport à l'usage « standard », pourra dans ces situations decommunication passer au premier plan, servir, de manière argumentative, dans unprojet langagier à imposer un point de vue sur l'objet, et être repéré à cetitre par l'énonciataire. Quant à (25), (31), (34) et (35) que nous rappelons ci-dessous, leur rôleargumentatif éventuel nous semble plus diffus, témoignant plutôt d'une pratiqueroutinière de généralisation et de simplification des représentations du réel : (25) Les alliés soulignent le travail qui reste à faire. (37) Autriche. L'opinion s'indigne des menaces européennes. (34) Les magistrats s'inquiètent d'un " scénario catastrophe ". (35) Les magistrats « catastrophés ». Si ces synecdoques sont vues comme argumentatives, ce sera sous l'angle envisagépar Perelman et Olbrecht-Tyteca [24] : ici, la figure ,parce qu'elle se fait oublier, peut être efficace pragmatiquement : « Nous considérons une figure comme argumentative si, entraînant un changementde perspective, son emploi paraît normal par rapport à la nouvelle situationsuggérée ». Ces quelques exemples nous montrent que les SN définis pluriel ainsi que lesNcolls ont, de par leur mode de désignation homogénéisant et globalisant, unepotentialité argumentative. Cette potentialité ne saurait être utilisée demanière neutre par les journalistes, même s'il ne s'agit pas nécessairement destratégie délibérée individuelle mais plutôt de routine sociolectale. Nous avons vu, à travers l'observation de trois figures portant sur lesréférences plurielles, la diversité des moyens d'analyse mis en jeu. Les indicesde ces figures sont en effet extrêmement hétérogènes. Si la description del'énallage peut se baser sur une analyse grammaticale et lexicale et se situedans les limites de la phrase, il en va autrement de l'hyperbole, qui nécessitele recours à des notions pragmatiques. Comme l'hyperbole, la synecdoque décritene peut s'évaluer en dehors de la situation d'énonciation et, à la différence decelle -ci, elle se base sur un rapport à la connaissance. Dans le cas du discoursjournalistique en effet, c'est le rapport spécifique au réel, et à lareprésentation de ce réel par un énonciateur collectif qui sert de point deréférence à l'observation du trope. C'est ce qui nécessite pour l'observateur lerecours à un travail en corpus, et qui nous a amenée à réfléchir sur l'aspectsocial de la production journalistique. Notre intérêt pour les figures dépasse le cadre d'une analyse stylistique et sepropose de les replacer dans le projet de la rhétorique antique. En effet, lejeu des figures, loin d' être une subtilité stylistique gratuite, s'inscrit à samanière, spécifique pour chaque figure, dans un cadre communicatif oùl'énonciateur prend en compte celui auquel il s'adresse. Ainsi l'hyperbole ,intrinsèquement argumentative, est un appel assumé à la connivenceénonciateur/énonciataire et participe à la « visée de captation » décrite parCharaudeau op. cit. Mais, comme le dit Amossy (2000 : 6) : « l'importance de la réflexion sur les figures ne peut manquer de soulever desquestions fécondes sur le rapport complexe qu'entretient le style avecl'argumentation. On peut se demander en effet dans quelle mesure le stylecontribue à l'impact de la parole. » Ceci apparaît en particulier pour l'énallage, dont on peut remarquer à traversles exemples cités l'utilisation dramatisante qu'en fait l'énonciateur, au-delàde son processus interne, intéressant par lui -même. Par ailleurs, nous avons voulu montrer l'existence, aux côtés des synecdoqueslexicales habituellement décrites, d'une synecdoque de type grammatical portantsur le nombre du SN. Nous envisageons cette synecdoque comme un cas extrême dela notion de trope. Ici, en effet, l'écart, qui permet habituellement de repérerle trope ne s'impose pas, comme dans les figures d'invention. Il se faitdiscret, et c'est ce qui le rend difficilement cernable. On ne peut alors quepostuler son éventuel repérage par un destinataire. En chemin, nous avons souligné la grande flexibilité des SN définis pluriel, quien fait le lieu possible d'une négociation de la référence et de la désignation .Ceci peut donner lieu à des usages standard variés, où l'adéquationréférentielle parait la plus grande, et ouvre également un champ pour lesfigures, de l'euphémisme à l'hyperbole, en passant par le trope synecdochique .Cette potentialité peut se trouver exploitée pour donner lieu à un usageargumentatif. Mais en dernière instance cet usage, comme l'existence du tropelui -même, ne se construit qu'en référence à la situation de communication . | Nous étudions ici des énoncés figuraux basés sur l'expression de référencesplurielles (syntagmes nominaux définis pluriel, noms collectifs), dans un corpusjournalistique portant sur l'actualité. Est abordée tout d'abord la descriptiond'une figure que nous nommons énallage, et qui se présente comme un jeu entreappréhension collective et distributive d'un ensemble. Puis celle del'hyperbole, qui se manifeste ici dans l'amplification du nombre. Enfin nousexaminons le trope synecdochique substituant le tout à la partie (ce quicorrespond ici à un rapport ensemble/sous-ensemble). Nous prenons en compte dansla description le cadre énonciatif de la communication journalistique etconsidérons l'usage argumentatif que l'énonciateur peut faire des figurescitées . | scientext_ling_art_87_ling_CDG_Lecolle_entete.xml |
termith-775-scientext | L'un des domaines de recherche de l'opération " Sémantique et corpus " de l'ERSSest la construction de ressources lexico-conceptuelles à partir de corpusspécialisés. Les types de ressources envisagés sont très divers : dictionnairespécialisé, lexique sémantique pour l'extraction d'information, thesaurus pourl'indexation, lexique bilingue pour la traduction, ontologie pour la recherched'information. Toutes ces ressources ont des fonctions différentes et sont doncconstituées selon des objectifs différents. Mais dans tous les cas, d'une partelles doivent être élaborées à partir de l'analyse de corpus du domaineenvisagé, et d'autre part, leur structure se rapproche le plus souvent de cellede classes sémantiques et de réseaux lexicaux, basés pour l'essentiel sur lesrelations classiques d'hyperonymie, de méronymie, de synonymie. Les recherchesen linguistique de corpus doivent fournir des éléments théoriques ,méthodologiques et logiciels pour cette activité de construction de ressourceslexicales. Notre objectif est alors de développer des méthodes d'analyselinguistique permettant de construire de façon aussi réglée et systématique quepossible ces ressources à partir de l'analyse linguistique de corpusspécialisés. C'est un axe fort de l'opération " Sémantique et corpus " de l'ERSS ,depuis les travaux d'Anne Condamines sur l'étude linguistique de la terminologie( Condamines 1996) et sur la notion de Base de Connaissances terminologiques. Unedes volontés qui animent l'opération est de provoquer des échanges et d'établirdes passerelles entre des travaux théoriques en linguistique descriptive et destravaux appliqués en sémantique lexicale sur corpus. Parmi les travaux menés par les linguistes de l'opération dans cette optique ,certains visent à la réalisation d'outils de traitement automatique des languesdestinés à être utilisés pour la construction de ressources lexico-conceptuellesà partir de corpus. Deux types de recherches sont concernés, correspondant auxdeux types de structuration de ces ressources, la structuration en réseausémantique et la structuration en classes sémantiques. Un premier axe derecherche contribue à la mise au point d'outils de repérage de structureslinguistiques en corpus. Les efforts ont porté principalement sur le repérage demarqueurs de la relation d'hyperonymie et sur celui de contextes définitoires( Condamines & Rebeyrolle 2001) (Tanguy & Rebeyrolle 2001). Un second axevise à outiller une démarche d'analyse distributionnelle " à la Harris ", enréalisant un analyseur syntaxique robuste capable de repérer dans un corpusspécialisé les relations de dépendance syntaxique à partir desquelles seronteffectués les regroupements distributionnels. C'est aux travaux effectués autour du développement de cetanalyseur qu'est consacrée la suite de cet article. A partir de la notion de sous-langage définie par Harris (1968), a été développéeune méthode d'analyse de corpus pour mettre au jour les classes de mots et lespatrons syntaxiques caractéristiques d'une langue spécialisée. Pour reprendreles termes de N. Sager : « Si on applique à un corpus detextes d'un secteur scientifique des méthodes de linguistique descriptivesimilaires à celles utilisées pour le développement d'une grammaire d'unelangue dans son ensemble, on obtient des motifs précis de cooccurrences demots à partir desquels on peut définir des sous-classes de mots et desséquences de ces sous-classes qui sont caractéristiques [. .. ]. Ces catégories lexicales et formules syntaxiques de lagrammaire du sous-langage sont étroitement corrélées aux classes d'objets dumonde et aux relations qui sont propres à ce domaine. » (Sager, Friedman & Lyman 1987, cités par Habert et al., 1997 ,p. 149). Dans les travaux de Harris, l'analyse et la normalisation syntaxiquessont effectuées à la main. Dans la communauté du traitement automatique deslangues, un certain nombre de travaux ont été menés pour exploiter le principede l'analyse distributionnelle, dans lesquels l'analyse syntaxique initiale estréalisée par un analyseur syntaxique (Hirshman & al. 1975) (Sager, Friedman& Lyman, 1987) (Hindle 1990) (Greffenstette 1994). Dans la communauté française, ce type d'approche connaît un regain d'intérêtdepuis le milieu des années 90, principalement dans la communauté del'ingénierie des connaissances. Citons les travaux H. Assadi (Assadi &Bourigault 1995) et ceux de B. Habert et A. Nazarenko (1996). Dans ces travaux ,l'analyseur syntaxique utilisé pour extraire les relations de dépendance est lexter, un analyseur syntaxique robuste " tout terrain "dédié au repérage des syntagmes nominaux dans les corpus spécialisés (Bourigault1994). Les diverses expérimentations réalisées avec lexter ontmis en évidence la nécessité d'étendre la couverture du logiciel à l'extractiondes syntagmes verbaux. Ceci exige une refonte complète du logiciel. Dans cetarticle, nous présentons les recherches que nous menons pour développer, àpartir des principes de base de lexter, un nouvelanalyseur syntaxique à large couverture pour le français, l'analyseur syntex. La suite de cet article est composée de troisparties. Dans la section 3, nous précisons quel est le statut épistémologique del'analyseur et comment sa conception s'inscrit dans un travail de recherche enlinguistique. Nous illustrons le travail d'implémentation dans la section 4, enprésentant la notion de productivité et les heuristiques basées sur corpus pourl'acquisition des propriétés de complémentation des unités lexicales du corpus .Nous concluons l'article par une tentative de rapprochement entre les hypothèsesqui guident la conception de l'analyseur et certains principes de la théoriesyntaxique (section 5). « Un analyseur, considéré en dehors du cadre théorique quipréside à sa conception, est une machine célibataire. Un analyseur ,considéré à partir du cadre qui préside à sa conception, est le refletde ses options fondamentales. » Nous souscrivons à cetteaffirmation de J.-M. Marandin (1993, p. 31), et tentons dans cette sectionde préciser quel statut nous donnons à l'analyseur au sein d'un programme derecherche en linguistique de corpus. La fonction de notre analyseur est d'identifier des relations de dépendancesentre mots et d'extraire d'un corpus des syntagmes (verbaux, nominaux ,adjectivaux). Le résultat de l'analyse se présente sous la forme d'un réseaude dépendance, dans lequel chaque syntagme extrait est relié à sa tête et àson expansion syntaxiques (figure 1). Ces relations de dépendance permettentd'effectuer automatiquement des regroupements distributionnels : par exemplela liste de tous les compléments de tel verbe ou la liste des adjectifsmodifieurs de tel nom, qui constituent des amorces de classes sémantiques. Atitre d'illustration, l'analyse du réseau présenté sur la figure 1 suggèreun regroupement des noms alluvion, sable et lave qui sont tous les troisarguments des verbes disparaître sous et creuser dans. Ces regroupements devront êtrecorrigés, affinés, ou rejetés par l'analyste, utilisateur de l'outil, enfonction du type de description lexico-conceptuelle qu'il cherche àconstruire à partir de l'analyse du corpus. Notre programme de recherche s'inscrit donc dans le paradigme de l'aide à l'interprétation de textes. Notre analyseurn'est pas un module dans un dispositif visant la compréhension automatique ,mais un outil dont les résultats doivent aider un analyste humain àconstruire à partir de l'analyse du texte une interprétation qui sematérialisera sous la forme d'une ressource lexico-conceptuelle. Dans notretâche de conception de l'analyseur, nous ne faisons donc aucune hypothèsesur les processus cognitifs à l' œuvre lors de la compréhension humaine. Parcontre, nous intégrons dans la conception de l'outil les spécificationsliées à la tâche d'interprétation au cours de laquelle les résultats qu'ilfournit seront exploités par un analyste humain. Cette rétroaction justifiepour une part nos choix d'implémentation. Par rapport aux analyseurs développés classiquement dans le domaine dutraitement automatique des langues (Abeillé 1992), l'analyseur syntex présente cette différence fondamentale d' êtreun analyseur de corpus, et non pas de phrases. C'est un analyseur de corpusparce que (i) le résultat de l'analyse est un réseau de dépendance globalconstruit pour l'ensemble du corpus, (ii) le réseau de dépendance construitconstitue un mode d'accès au corpus pour l'analyste en charge del'interprétation, (iii) le corpus est source d'information pour l'analyseur. (i) Les représentations construites par l'analyseur ne sont pas de façoncruciale des représentations de phrases, mais un réseau global de dépendanceentre mots ou syntagmes construit pour l'ensemble du corpus (figure 1). Dansla conception de l'analyseur, la phrase joue un rôle en tant que domainepour la recherche des syntagmes et des relations de dépendance : l'analyseurcherche des relations de dépendance syntaxique à l'intérieur des frontièresde la phrase. Mais l'objectif final de l'analyse n'est pas de construire unereprésentation de la structure globale de la phrase. L'objectif estd'identifier des relations de dépendance locales, d'extraire des syntagmeset de synthétiser ces analyses locales en construisant un réseau global dedépendance entre mots. (ii) Dans une telle approche, le rôle du corpus est fondamental. Laconstruction d'un réseau global de dépendance n'a de sens que si sont poséesdes hypothèses de clôture et d'homogénéité thématiques du corpus. Dans notreconception de l'activité de construction de ressources lexico-conceptuellesà partir de corpus, la tâche de construction du corpus est problématisée. Lecorpus d'analyse n'est jamais déjà donné. Il doit être constitué en fonctiondu type de ressources à construire. Il faut à la fois viser une " bonne "couverture, et donc parfois une certaine diversité, et une " bonne "homogénéité. Par ailleurs, le corpus est le point de départ de l'analyse, entant qu'objet " traité " par l'analyseur. Il en est aussi le pointd'aboutissement, en tant que lieu de passage obligé des parcoursinterprétatifs de l'analyste. C'est pourquoi, dans la visée d'aide àl'interprétation qui est la nôtre, la conception de l'analyseur doits'accompagner de celle de l'interface qui permettra à l'analyste demanipuler et d'interpréter les résultats de l'analyseur. Cette interfacedoit en particulier ménager un accès aux textes via les occurrences dessyntagmes extraits. (iii) Le rôle du corpus est enfin fondamental dans notre approche parce quele corpus est non seulement l'objet du traitement pour l'analyseur, et lelieu d'interprétation pour l'analyste, mais c'est aussi une sourced'information pour l'acquisition par l'analyseur d'informations decomplémentation, comme nous allons le montrer dans la section suivante. Comme tout analyseur syntaxique, l'analyseur syntex est mis en difficulté dans les situations d'ambiguïté de rattachement desgroupes prépositionnels et des adjectifs ou groupes adjectivaux. Le tableau1 illustre le problème du rattachement de l'adjectif dans la structure'Nom 1 de Nom 2 Adjectif '. Quandles informations de genre et de nombre sont non discriminantes, aucun signelocal ne permet de décider duquel des deux noms dépend l'adjectif. De même ,le tableau 2 illustre le problème du rattachement du groupe prépositionnel'en Nom'dans la structure ' Verbe Déterminant NomAdjectif en Nom'. Le syntagme prépositionnel ' en Nom'peut dépendre de l'adjectif, du nom ou duverbe qui précèdent. Un analyseur déterministe strictement syntaxique, quin'exploite d'autre information que la simple succession des étiquettesmorpho-syntaxiques, est incapable de distinguer le détail de ces groupes ,puisque les séquences de catégories sont identiques (Marandin 1993, p. 28) .Or nous voulons que l'analyseur prenne une décision (et une seule) dans cescas ambigus, pour identifier la structure syntaxique du syntagme et enrichirainsi le réseau de dépendance. L'analyseur est censé être utilisé dans un contexte de construction deressources lexicales spécialisées, à partir d'un corpus portant sur undomaine a priori quelconque. Il est donc hors dequestion de lui faire exploiter des informations de type sémantique, puisqueles informations sémantiques qui lui seraient utiles pour lever l'ambiguïtésont justement celles que l'analyseur doit contribuer à mettre au jour. Nouspoussons cette hypothèse nihiliste plus loin encore en affirmant qu'il en vade même pour les propriétés syntaxiques de sous-catégorisation. Nous nefournissons ainsi à notre analyseur aucune information syntaxique desous-catégorisation. Ce parti pris est justifié par le constat maintes foisconfirmé que les informations de complémentation des mots dans les corpusspécialisés sont souvent inédites et imprédictibles. On peut ajouter à celaqu'il n'existe pas actuellement pour le français de base lexicale complèteet facilement accessible qui recenserait les propriétés de complémentationdes verbes, noms et adjectifs. Mais fondamentalement, l'hypothèse de latable rase, qui est également à la base d'autres travaux comparables, commeceux de Basili et al. (1999) sur l'italien, n'est pas une position de repliface à la pénurie, c'est une position imposée par l'objectif même deconstruction de ressources sémantiques à partir de corpus spécialisés. La stratégie alternative adoptée est celle de l'apprentissage endogène surcorpus (Bourigault 1994). L'analyseur est doté d'heuristiquesd'apprentissage qui lui permettent d'acquérir par lui -même, grâce àl'analyse du corpus en cours de traitement, les informations pertinentespour lever les ambiguïtés de rattachement syntaxique. Le principe estsimple. Nous l'illustrons dans les tableaux 1 et 2. Pour reprendre l'exemple( 1) (resp. 2, 3) du tableau 1, c'est parce qu'il aura relevé une occurrencenon ambiguë du syntagme onde séismique (resp. vague d'érosion, plainekarstique) dans la séquence (1 ') (resp. 2 ', 3 ') que l'analyseur, enl'absence d'autres indices, prend la décision de choisir l'analyse (a )( resp. b, b) qui isole la même relation de dépendance entre onde et séismique (resp. entrevague et érosion, entreplaine et karstique). Demême, pour reprendre l'exemple (4) (resp. 5, 6) du tableau 2, c'est parcequ'il aura relevé une série d'occurrences nonambiguës du verbe disséquer (resp. du nom charge, de l'adjectif pauvre )suivi de la préposition en que l'analyseur acquiertl'information que, sur ce corpus, cette unité lexicale est susceptible derégir la préposition en. Il utilise cette informationpour prendre la décision, en l'absence d'autres indices, de choisirl'analyse (c) (resp. b, a) qui isole une relation de dépendance entre disséquer (resp. charge, pauvre) et le syntagme prépositionnel en en. Ce principe de l'apprentissage endogène, reprisde lexter, est à la base de la conception del'analyseur syntex, dans lequel il a été étendu et systématisé. On le trouve déjà en germe dans les travaux de Fathi Debili (Debili 1982) ,ainsi que ceux sur l'analyseur alsf de Sophie David( David & Plante 1990), voir (Bourigault 1994, pp. 63-78). Ainsi équipé de procédures d'apprentissage endogène sur corpus et destratégies de résolution des ambiguïtés qui exploitent les informationsacquises, l'analyseur est capable à la fois d'identifier des groupessyntaxiques et d'analyser le détail de leur constitution. D'une certainfaçon, l'analyse en largeur rend possible l'analyse en profondeur : pourrestituer l'analyse syntaxique profonde d'un syntagme extrait, l'analyseurprocède à un examen large de l'intégralité du corpus à la recherche depreuves (configurations attestées non ambiguës) lui permettant de choisirparmi un ensemble d'analyses concurrentes. Nous allons voir à présent, à travers la description plus détaillée de ladémarche de désambiguïsation mise en œuvre dans syntex, comment ce principegénéral d'une démarche endogène basée sur le repérage d'informations encorpus se réalise à travers le repérage d'indices linguistiques originaux. L'étape cruciale de désambiguïsation du rattachement prépositionnel consiste àidentifier les liens de dépendance qui s'établissent entre des unités rectrices ,dotées de propriétés de complémentation (verbes, mais aussi noms et adjectifs) ,et des unités régies. Nous illustrons dans cette dernière partie la façon dontnotre analyseur, basé sur l'observation des cooccurrences entre mots du corpus ,met au jour ces relations de dépendance et intègre des stratégies propres àdifférencier, au sein de ces relations, différents types de dépendance. Nousdécrivons au préalable dans ses grandes lignes la stratégie mise en œuvre parl'analyseur pour résoudre les ambiguïtés du rattachement prépositionnel. Comme nous l'avons expliqué dans la section 3.3, le principe del'apprentissage endogène des propriétés de complémentation s'effectue par lebiais du repérage dans le texte de zones de rattachement non ambiguës. Dansces zones, nous identifions les triplets (recteur ,prép, régi), associés parune relation de dépendance syntaxique. Cette relation peut s'instaurer dansle cadre de schémas de sous-catégorisation (comme c'est le cas pour lestriplets (pénétrer, dans, pore) ou (aptitude, à, décrire)), ou illustrer desliens de dépendance de nature non argumentale (circonstants (déplacer, à, vitesse), expansions nominales (côte, à, fjord) ,etc.). Acquisition en contexte non ambigu Le module de découpage a pour rôle de circonscrire le domaine de rectiond'une préposition, c'est-à-dire la zone textuelle au sein de laquelle lapréposition doit trouver son recteur. Il est basé sur une procéduresimple [2 ], qui consiste à remonter à gauchede la préposition jusqu' à rencontrer un élément frontière (ponctuation ,forme verbale, coordonnant, préposition autre que de). Le module de découpage livre ensuite à la phase d'acquisition laliste des candidats-recteurs (verbes, noms et adjectifs) rencontrés dans lazone de rattachement de la préposition. Une fois découpée la zone derection, deux cas de figure se présentent. Dans le premier cas, la zone necomporte qu'un candidat recteur. Le rattachement est donc considéré commenon ambigu, et le triplet (recteur, préposition, régi) est acquis par leprogramme. Dans le deuxième cas, plusieurs candidats figurent dans la zone ,aucun indice fiable ne peut donc être extrait de cette situationd'ambiguïté. Les cas de rattachement non ambigu fournissent donc l'amorceessentielle du programme. Calcul de la productivité Tous les liens acquis en situation non ambiguë ne sont pas exploitables. Uncritère intervient pour évaluer leur fiabilité : il s'agit de laproductivité de l'association entre un recteur et une préposition. Laproductivité est déterminée par le nombre de régis différents avec lesquelsla paire (recteur, prép) se combine dans le corpus. Un mot est productifvis-à-vis d'une préposition donnée, si la paire se combine avec au moinsdeux régis différents dans le corpus. Par exemple, au vu des contextes nonambigus suivants, on constate que la productivité du mot disséquer comme recteur de la préposition en a pour valeur 5. disséqué parfois en récif disséquer en récif disséqué en dents de scie disséquer en terrasses disséqués en bois de renne disséquée en chevron ==>disséquer, en + (récif, dent, terrasse, bois, chevron) Cette valeur permet, de façon plus fiable que le simple calcul de lafréquence du couple (recteur, prép), de mesurer la force d'association entreles deux éléments, dans la mesure où une productivité élevée est l'indiceque le recteur fonctionne de manière régulière avec cette préposition ,donnant lieu à des occurrences diversifiées. Résolution Le module de résolution exploite une conjonction d'indices permettantd'évaluer la fiabilité d'un lien recteur/préposition potentiel. Outrel'indice de productivité, que nous venons de définir, les principaux indicesutilisés lors de la résolution sont les suivants : - le triplet dans son entier a été trouvé au moins une fois en situationd'acquisition, - le correspondant verbal [3] d'un nom dérivé( ou vice-versa) a été trouvé en situationd'acquisition avec cette même préposition et ce même régi, - le recteur a été trouvé en situation d'acquisition avec cette prépositionet un mot voisin du régi, c'est-à-dire un mot ayant des propriétésdistributionnelles proches. Deux mots sont considérés comme voisins s'ilssont régis par au moins deux mêmes recteurs. L'exemple 4 présenté dans le tableau 2 donne ainsi lieu à la configurationsuivante : L'érosion a disséqué (prod 5, même régi) le plateau (prod 1) rocheux enchevrons. Des trois candidats en lice, seul le verbe possède des indices de fiabilité .Sa productivité avec la préposition en estrelativement élevée, et le triplet (disséquer, en, chevron) a été trouvé telquel en contexte non ambigu. A l'inverse, le couple (plateau, en) n'est pas productif, etl'adjectif rocheux n'a jamais été trouvé avec lapréposition en dans une situation d'acquisition. Cette phase de résolution est en cours de mise au point. Le taux de précisionobtenu à l'heure actuelle est de 86 %, le taux de rappel de 60 %. Cesrésultats sont obtenus en comparant les rattachements effectués de manièreautomatique aux résultats d'une tâche de rattachement manuel effectuée surplusieurs milliers d'occurrences. La précision est très satisfaisante. Letaux de rappel doit être amélioré en perfectionnant en particulier le modulede segmentation, de manière a rechercher dans certains cas des recteurspotentiels au-delà des éléments frontières que nous avons définis. Le rattachement prépositionnel, envisagé la plupart du temps comme uneprocédure préliminaire à la délimitation de syntagmes et à l'analysesyntaxique, permet dans notre cas de déterminer des relations de dépendanceexploitables en tant que ressources lexicales pour l'analyse sémantiquedistributionnelle. Cette expérience pose en chemin une question d'ordre plusthéorique : quels types d'information linguistique peut-on tirer del'observation des associations lexicales, quelle est la nature des relationsde dépendance extraites par ce moyen ? En particulier, la force del'association dans un texte entre un recteur et un groupe prépositionnel ,que nous mesurons en termes de productivité du couple (recteur, prép) ,dit-elle quelque chose du statut syntaxique de l'expansion prépositionnelle- argument ou circonstant ? Brent (1993) défend l'hypothèse que deux motsseront plus fréquemment associés s'ils sont unis par une relationargumentale; des heuristiques exprimées en termes de fréquence doiventselon lui permettre d'approcher cette distinction syntaxique fondamentale .Selon Basili et al. (1999) au contraire, cette distinction est impossible àfaire de manière automatique, et elle n'est pas souhaitable dans la mesureoù les circonstants contribuent également à la sémantique du verbe etmanifestent une régularité au même titre que les arguments. Les observationsque nous menons sur les corpus montrent en effet à quel point la frontièreentre les deux types de compléments est difficile à tracer, même dans lessituations de validation manuelle. Nous avons cependant cherché à déterminers'il était possible d'aller au-delà du simple diagnostic de rattachement etde s'appuyer sur l'indice de productivité pour tenter de repérer des groupesprépositionnels de statut différent. Nous livrons dans ce qui suit nospremières conclusions sur ce point. Nous avons cherché à comparer deux types de productivité : celleconcernant les régis et celle concernant les recteurs. Nous comparons lestatut des informations acquises selon deux critères différents : lerecteur est productif vis-à-vis d'une préposition donnée, il s'associedonc par ce biais avec différents noms dans des groupes nominaux dont ilest la tête; ou bien : le régi est productif vis-à-vis de cettepréposition, il s'associe donc à différents noms tête. Notre but est deproposer des critères pour établir des propriétés de rectiondifférenciées, en partant de l'étude des noms simples, c'est-à-dire sanslien morphologique avec un verbe. Est-on en mesure de faire undiagnostic différent selon que la force d'association lexicale s'établitentre le recteur et la préposition, ou entre la préposition et le régi ?Notre hypothèse en suivant cette piste était d'observer s'il existaitune corrélation entre le type de liens complétifs existant dans un N prép N - tels que les définissent par exempleMilner (1989) dans le cas des N de N, ou Cadiot( 1997) dans le cas des N à N - et la forced'association de la préposition avec l'un ou l'autre nom. Nousillustrons cette expérience à partir du cas de la préposition à. L'analyseur extrait de notre corpus 50 noms recteurs et 54 noms régisproductifs avec la préposition à. Les tableaux 3et 4 présentent les triplets N à (dét) N présentant uneproductivité supérieure ou égale à 3. La première ligne du tableau 3indique par exemple que le mot carte a été trouvédans un contexte d'acquisition comme seul recteur candidat de lapréposition à, sans déterminant. Les troiscontextes sont : carte à 1, carte à 1 200 000, carte à 1 80 000. Lapremière ligne du tableau 4 indique que le mot aval a été trouvé dans un contexte d'acquisition en situation derégi de la préposition à, associé à quatrerecteurs différents, avec un déterminant : ablation àl'aval, amont à l'aval, plage à l'aval, terrasse àl'aval. Faisons tout d'abord quelques remarques communes aux deux tableaux :certains triplets présentés sont erronés en raison de plusieursimperfections du traitement actuel. Certaines erreurs sont dues auxproblèmes de découpage. Ainsi, la séquence Ouest àdroite a été identifiée à tort comme contexte non ambigu .D'autres erreurs sont le fait de mots mal catégorisés par l'étiqueteurdont notre analyseur exploite les résultats (meuble, actif, sont en fait des adjectifs) ,ou de noms faisant partie de locutions verbales (êtrele cas) et pouvant difficilement de ce fait être considéréscomme des recteurs autonomes. De façon générale, les résultats obtenussont moins bons que dans le cas des verbes ou des noms processifs, quiont tendance auxquels sont associés des schémas de complémentation plusréguliers. Signalons également, dans la perspective de l'exploitation de cesinformations pour la mise en évidence de classes sémantiques ,l'importance de la distinction entre des structures avec ou sansdéterminant (conformément aux descriptions de Cadiot sur ce point). Celaest en particulier illustré dans le tableau 3 par l'opposition entre roche à l'extérieur, ausoleil et roche à diaclase, à feldspath, etc. D'autres exemples, pris dansles cas de productivité égale à 2, illustrent ce même contraste, ainsipour le mot zone s'opposent nettement : zone à cristal, àpergélisol vs zone à l'ombre, au pied. Si l'on considère à présent l'ensemble des triplets de manière à comparerles résultats obtenus selon les deux mesures de productivité, ons'aperçoit que les tableaux 3 et 4 manifestent des relations dedépendance de nature sensiblement différente. Les régis productifsapparaissent dans trois types de structures : - des locutions prépositives (à peine, au sens), - des groupes prépositionnels à valeur circonstancielle (à l'aval, au dessous, à droite, au pied, à la surface), - et minoritairement – 2 cas sur 10 – des composés N àN (à mica, àgrain). Les recteurs productifs constituent quant à eux dans 9 cas sur 14 la têtede composés N à N (craie àBélemnite, méthode au potassium), danslesquels l'expansion prépositionnelle a valeur de qualification (Cadiot1997). Ces résultats confirment l'idée que la forte productivité du recteurvis-à-vis de la préposition peut être utilisée comme indice d'un groupeN à (dét) N à forte cohésion. Ils montrentpar ailleurs qu'un fort degré d'attachement de la paire (préposition ,régi) peut être également exploité en orientant l'analyse vers desgroupes au statut particulier, présentant une relative autonomie, etdont la productivité signale une information caractéristique du texte( ici, il s'agit de groupes prépositionnels indiquant une localisation) .D'autres résultats concernant les verbes confirment ces premièresconstatations (Fabre et Bourigault 2001). Nous terminons cet article en tentant d'illustrer nos efforts pour établir unlien entre recherches théoriques en linguistique et travaux de conceptiond'outils de traitement automatiques des langues. Nous croyons qu'uneconfrontation entre approches des deux types, menée dans le cadre duprogramme de recherche de l'aide à l'interprétation de corpus, doiventconduire à une fécondation réciproque. Pourquoi tenter un rapprochement avecune théorie syntaxique ? Les premiers développements de l'analyseur ont étéeffectués indépendamment de toute théorie syntaxique. La méthode utilisée aété (et reste) une méthode expérimentale basée sur corpus. Les règlesd'extraction et d'analyse dépendancielle sont élaborées et testées parl'analyse d'un grand nombre de cas relevés sur des corpus divers. Laconfrontation avec ces données conduit à croiser des problèmes syntaxiquesqui ont été traités dans nombre de travaux de linguistique. Par ailleurs, lesouci de réaliser des analyses plus fines, pour améliorer la qualité desrésultats fournis par l'analyseur, nous conduit naturellement à rechercherun appui du côté des théories de la syntaxe. Parmi celles -ci, nous avons fait le choix d'analyser la théorie de J.-C .Milner, telle qu'elle est décrite dans son ouvrage « Introduction à unescience du langage » (Milner 1989), parce que c'est une constructionthéorique très riche, qui s'appuie sur la tradition de la grammairegénérative de Chomsky, tout en présentant une originalité et une rigueurtrès séduisantes. Nous avons volontairement écarté d'autres théories plusformelles inspirées ou non de la théorie chomskyenne, comme LFG ou HPSG ,pour maintenir une distance forte a priori entre nostravaux pour l'implémentation d'un analyseur syntaxique et des travauxvisant la construction d'une théorie syntaxique. De même que Milner s'appuiesur les arguments de la vigueur et de la résistance de la traditiongrammaticale et de la tradition lexicographique pour affirmer qu'une théorielinguistique aurait tort de ne pas s'appuyer sur leurs résultats, de mêmenous avons fait l'hypothèse qu'il nous serait très profitable de passer autamis la théorie de Milner pour y trouver une assise stimulante. Bien sûr, la différence est radicale entre l'ambitieux projet de J.-C .Milner, construire une science du langage et développer une théoriesyntaxique, et notre objectif plus modeste de fournir des outilsméthodologiques et logiciels pour l'analyse sémantique de corpus. Il nes'agit donc en aucun cas de " comparer " nos approches et hypothèses. Notreanalyse de la théorie est guidée par le souci de faire entrer en résonanceles problèmes et les choix méthodologiques de la conception de l'analyseuravec certains éléments de la théorie de Milner, notations, hypothèses ,principes, analyses de phénomènes. C'est un exercice à la fois stimulant etdifficile, dont nous synthétisons les premiers résultats dans la section5.3. Dans la section 5.2, nous décrivons succinctement la théorie de J.-C .Milner, que nous nommerons désormais " syntaxe posito-argumentale ". Celle -cise présente en trois parties : la théorie restreinte des termes, la théoriedes positions et la théorie étendue des termes. La première partie de la syntaxe posito-argumentale est la théorierestreinte des termes. Celle -ci concerne le lexique proprement dit. Elles'appuie sur l'hypothèse qu'il est possible d'établir les propriétésd'un terme hors emploi [4 ]. Elle s'intéresseaux propriétés absolues des termes. Ces propriétés sont des propriétésdistinctives, et les facteurs d'individuation d'un terme sont : - son appartenance catégorielle : Milner fait appel aux catégories de lagrammaire traditionnelle; - sa forme phonologique; - sa signification lexicale : la signification lexicale d'un terme est saréférence virtuelle, c'est-à-dire « un ensemble de conditions que doitsatisfaire un objet du monde pour pouvoir être désigné, en référenceactuelle, par une molécule syntaxique dont (le terme) sera le Nomprincipal » (Milner op. cit., p. 336). La théorie des positions est la partie strictement syntaxique de lasyntaxe posito-argumentale. Cette théorie se fonde sur la distinctionentre place et position. Par exemple, en (7a) et en (7b) le syntagmeprépositionnel à mon fils occupe des placesanalogues, mais des positions différentes : complément de faire en (7a), complément de donner en (7b) (Milner op. cit., p. 298). (7a) j'ai fait prendre le train à mon fils. (7b) j'ai fait donner une couchette à mon fils. Les positions sont l'objet de la syntaxe. Elles sont l'équivalent desfonctions grammaticales de la grammaire. Dans un domaine syntaxiquedonné, un terme donné occupe une position et une position doit êtreoccupée par un terme. Le jugement linguistique qui joue le rôled'observation empirique prend donc en syntaxe la forme minimalesuivante : « le terme lexical X qui, pourl'observation immédiate, occupe la place Y, occupe une positionsyntaxique Z ». Les places sont perceptibles, elles sedéduisent immédiatement de l'ordre linéaire des mots dans la phrase. Lespositions ne sont pas perceptibles, elles sont à identifier parl'analyse dans le cadre d'une théorie syntaxique positionnelle. Lagéométrie des places et la géométrie des positions sont de naturesdifférentes. Dans la théorie, cette distorsion entre place et positionest prise en charge par l'application du principe de naturalité, qui estun principe général auquel J.-C. Milner fait régulièrement appel dans lathéorie. Dans le contexte présent, ce principe requiert que l'on fassel'hypothèse qu'entre positions et places il y ait autant de coïncidenceque possible : [PN1] « On prédit donc qu'il y a plus de chancesqu'un élément auquel la géométrie syntaxique attribue telleposition abstraite occupe effectivement une place correspondantedans le système des places observées. Réciproquement, on préditqu'une différence de place peut signaler une différence deposition. » (ibid., p. 395). Les indices qui permettent de restituer les positions à partir del'observation des places sont : - la récurrence. Si un élément donné occupe régulièrement une placedonnée, on conclura que, sauf forte raison de penser le contraire, cetteplace correspond à sa position. - la proximité. Deux positions linguistiquement reliées doivent êtregéométriquement proches. Les positions ont des propriétés par elles -mêmes, indépendamment destermes qui les occupent. La propriété absolue d'une position est sonétiquette catégorielle attachée. Il faut alors distinguer le nomcatégoriel de la position (son étiquette attachée) et l'appartenancecatégorielle du terme ou de la molécule lexicale qui occupe cetteposition. Par exemple, Milner propose pour la phrase (8) l'analyse (9) ,qu'il faut lire ainsi : la position sujet étiquetée N' ' est occupée par un terme dont l'étiquette catégorielle estS (phrase) (ibid., p. 364). (8) mourir n'est rien (9) [N' ' (S e mourir)] n'est rien Mais là aussi le principe de naturalité s'applique, de la façonsuivante : [PN2] « Bien que l'appartenance catégorielle d'unterme X et l'étiquette catégorielle de la position Y occupée parX soient indépendantes en droit, il est naturel et normal[ qu'elles soient] homonymes. » (ibid., p. 370). La théorie étendue des termes s'intéresse aux propriétés relationnellesdes termes. Par exemple, parmi les propriétés sémantiques d'un lexèmeverbal figurent les types de ses compléments. Cette partie de la théoriese trouve à la jonction du lexique et de la syntaxe. La frontière estmarquée par la distinction entre arguments et positions appelées. Unlexème verbal a des arguments (une structure argumentale). En tantqu'opérateur, il impose à ses arguments des propriétés sémantiques (desconditions interprétatives spécifiques), qui constituent un rôle .Réciproquement, chaque argument d'un lexème verbal reçoit de lui despropriétés sémantiques en tant qu'argument. Par ailleurs, un lexèmeverbal appelle des positions; par exemple il peut être transitif ,c'est-à-dire appeler une position de groupe nominal. Ici, le principe denaturalité stipule que les arguments d'un lexème verbal se réalisentnaturellement dans les positions appelées par ce lexème. Ce qui est ditdes verbes peut l' être d'autres catégories (noms, adjectifs). Dans cecontexte, le principe de naturalité s'exprime ainsi : [PN3] « Sauf circonstances particulières [… ], l'argument N' ' du verbe est aussi complémentproche et non mobile dans le V ' ' dont le verbe est lenoyau. » (ibid., p. 436). L'apparition d'une telle théorie des termes rend plus lointain le projetdu programme génératif initial : « Le programmegénératif soutenait que des règles formelles [. ..] étaient non seulement nécessaires, mais aussisuffisantes. Or, l'étude empirique semble avoir montré qu'aucunensemble de règles formelles, définissable a priori, qu'il s'agissedes règles de réécriture seules ou des règles de transformation ,n'est suffisant : interviennent également certaines propriétés destermes et notamment leurs propriétés relationnelles. La théorie a dumême coup dû accorder un rôle décisif à une information nondéductible a priori. En effet, les propriétés des termes, qu'ellessoient relationnelles ou absolues, partagent le même caractère :elles ne peuvent qu' être enregistrées une par une, de manièreencyclopédique, par une mémoire individuelle. » (ibid., pp .456-457). En écho à la citation ci-dessus, rappelons que l'activité pour laquelle nousconcevons l'analyseur est celle de construction, et d'enregistrement, despropriétés des unités lexicales propres à un univers sémantique particulier ,à partir de l'analyse d'un corpus. En ce sens, l'hypothèse de base de lathéorie restreinte des termes, à savoir qu'il estpossible d'établir les propriétés d'un terme hors emploi, est eninadéquation avec notre programme de recherche. Ce sont les propriétésrelationnelles des termes qui nous intéressent. C'est donc du côté de lathéorie étendue des termes que nous nous tournons. Ony retrouve reformulée dans un programme différent l'hypothèse de l'analysedistributionnelle. Les arguments qui assurent le même rôle vis-à-vis d'unopérateur ont des propriétés sémantiques relationnelles identiques. On peut alors reformuler les spécifications de l'analyseur dans les termes dela théorie de la syntaxe posito-argumentale. L'analyseur doit aiderl'analyste à identifier les structures argumentales des unités lexicales( verbes, noms, adjectifs) du corpus. Selon le principe de naturalité ([ PN3] ,section 5.2.3), les arguments se réalisent dans les positions de complémentappelées par l'unité lexicale. L'analyseur devrait donc trouver cespositions de complément, ou, plus exactement, les unités lexicales ousyntagmes qui occupent ces positions. Par principe, les positions ne sontpas perceptibles par l'analyseur, seules les places peuvent l' être .L'analyseur ne peut donc chercher à repérer que des unités lexicales ousyntagmes occupant certaines places. Selon leprincipe de naturalité ([ PN1 ], section 5.2.2), et si on impose à l'analyseurdes contraintes de proximité et de récurrence dans sa recherche (section 5.2.2), il est susceptiblede repérer des places qui correspondent en toute probabilité à des positionssyntaxiques. Ces contraintes sont à la base du principe de productivité ,dont nous avons montré dans la section 4, comment il est un outil pour lerepérage de propriétés de complémentation des unités lexicales et pour ladésambiguïsation des rattachements prépositionnels. L'un des obstacles de fond à un rapprochement plus étroit entre la théoriesyntaxique de J.-C. Milner et notre approche pour concevoir un analyseursyntaxique vient de ce que les unités traitées dans les deux cas sont detypes radicalement différents. Les entités lexicales en jeu dans la syntaxeposito-argumentale sont les " termes " ou " molécules lexicales ", dontl'information sémantique est portée par la " tête lexicale ". L'analyseur ,lui, traite en entrée un corpus ayant subi une analyse morpho-syntaxique : àchaque mot du corpus sont associés une (et une seule) catégorie syntaxiqueet un lemme. Les unités perçues par l'analyseur sont donc des mots, tels queles a découpés l'analyseur morpho-syntaxique, dont les facteursd'individuation sont : la catégorie morpho-syntaxique, le lemme et la formegraphique. L'analyseur ne perçoit que des séquences de telles unités. Lesmolécules lexicales (syntagmes) ne sont bien entendu pas connues a priori par l'analyseur. Au contraire, la fonctionde celui -ci est de les identifier. L'analyseur n'a d'autre possibilité quede travailler sur les têtes lexicales des syntagmes à découvrir. C'est unefois qu'il aura identifié l'ensemble des relations de dépendance syntaxiqueentre mots que l'analyseur pourra déterminer les syntagmes. Pour reprendrel'exemple (4) du tableau 2, c'est après avoir identifié la relation dedépendance entre la préposition en et le verbe disséquer que le système est en mesure d'identifierla structure syntagmatique (4c). Cette expérience de mise au point d'un analyseur dédié à l'extraction desyntagmes illustre l'objectif général que nous poursuivons : créer un outildestiné à s'intégrer dans une chaîne de traitement des textes pour faciliter lamise au jour de leurs propriétés sémantiques, basé sur des procédures aptes àfaire émerger les comportements syntaxiques des mots. Plus spécifiquement, lesrésultats que nous avons exposés démontrent que le critère de l'associationlexicale, exprimée en termes de productivité, fournit un outil puissant pourdéterminer les relations de dépendance entre mots. Cette notion, qui trouve deséchos dans d'autres domaines de l'analyse linguistique (cf. en particulierBayyen et Renouf (1996) en morphologie) s'avère prometteuse à plusieurs titres ,puisqu'elle constitue un critère central pour guider la désambiguïsationsyntaxique, et fournit également des indices pour aller plus loin dansl'évaluation linguistique des unités ainsi identifiées. Un de nos objectifsconsiste donc à systématiser les premières observations que nous avonseffectuées concernant la différenciation de types de rattachementprépositionnel, et à intégrer ces résultats dans la phase de résolution. Dans une perspective plus épistémologique, nous avons affirmé ici la corrélationpossible, même distante, entre théorie linguistique et implémentation, àplusieurs niveaux, et en particulier dans la ré-interprétation d'une théoriesyntaxique pour l'implémentation d'un analyseur syntaxique. Le paradoxepositionnel est fondateur pour la théorie syntaxique, c'est la source dedifficulté essentielle pour l'analyse syntaxique automatique . | Cet article présente les premiers résultats d'un analyseursyntaxique de corpus, syntex, conçu pour effectuer une analyse syntaxiquesuperficielle des textes exploitable pour la constitution de ressourceslexicales. Nous décrivons la tâche initiale de résolution du rattachementprépositionnel, effectuée de manière endogène, en exploitant un faisceaud'indices linguistiques. Parmi ceux -ci, nous définissons une mesurespécifique de productivité, qui permet d'évaluer la régularité del'association entre un mot recteur potentiel et une préposition dans lecorpus. Cette mesure, très efficace dans la tâche de désambiguïsation ,s'avère également prometteuse pour mettre en évidence différents types derattachement prépositionnel. Les principes de conception de cet outil sontenfin mis en regard avec quelques hypothèses fondamentales de la théoriesyntaxique . | scientext_ling_art_88_ling_CDG_Bourigault__Fabre_entete.xml |
termith-776-scientext | Un trésor de renseignements dialectaux s'est ouvert naguère sur l'internet dans le domaine des dictionnaires dialectaux du néerlandais septentrional. Ce sont (a) les index cumulatifs de la terminologie rurale (volume I) et de la terminologie artisanale (volume II) des dictionnaires des dialectes limbourgeois et des dialectes brabançon; (b) la banque des données complètes des huit fascicules parus du vocabulaire général (volume III) de ces deux dictionnaires et (c) les réponses complètes de la grande enquête dialectale dans le sud des Pays-Bas entreprise en 1914. Les trois banques de données peuvent être consultées sur Le Dictionnaire des Dialectes Brabançons (WBD) et Le Dictionnaire des Dialectes Limbourgeois (WLD), les deux fondés par Toon Weijnen, fondateur, lui aussi, de l'Atlas Linguarum Europae, recouvrent la partie germanophone des l'ancien duché de Brabant (ce sont les provinces de Brabant du Nord dans les Pays-Bas en les provinces d'Anvers et de Brabant flamand dans la Belgique) de même que les deux provinces de Limbourg, l'un dans la Belgique et l'autre dans les Pays-Bas. À ces deux dictionnaires, rédigés dans les universités de Nimègue et de Louvain, se joint à l'ouest Le Dictionnaire des Dialectes Flamands (WVD), conçu de la même façon et recouvrant les provinces de la Flandre orientale et la Flandre occidentale en Belgique, les Flandres françaises en France en La Flandre zélandaise dans les Pays-Bas, voir la carte dans Figure 1. Les trois dictionnaires prennent une position spéciale dans la lexicographie dialectale. L'ordre des articles ne suit pas l'alphabet, mais l ' « emploi », l'ordre logique du monde virtuel des dialectisants. Ainsi, dans la terminologie rurale, les fascicules suivent les activités de l'agriculteur qui prépare ses terres, soigne les prés, sème et entretient les champs, nourrit son bétail en entretient la basse-cour, récolte et range ses produits. On trouve, dans la partie des terminologies artisanales, les métiers du boulanger et du boucher, du mineur et du cordonnier, ou encore, dans le vocabulaire général, le noms des oiseaux et de la flore. Un article du dictionnaire donne toutes les dénominations avec les lieux d'occurrence, qui ont été rapportées pour la notion en cause, pourvues d'une carte, d'un commentaire et d'une illustration si cela est utile. L'ensemble d'un fascicule est rendu accessible par des index alphabétiques. Les sources sont d'abord les enquêtes propres du projet, plus de 140 questionnaires distribués depuis 1960 dans quelque 200 villages; puis les enquêtes d'autres instituts de dialectologie (d'Amsterdam, de Louvain, etc.) et les enquêtes historiques, les dictionnaires locaux, les monographies, etc. Somme toute, les projets visent à la description exhaustive des vocabulaires dialectaux. Les Volumes I et II des deux dictionnaires contiennent les terminologies rurales et artisanales et la publication des quelque 40 fascicules est quasiment terminée. La publication des fascicules du Volume III, qui contiendra le vocabulaire général, est en cours. Le site dont il est question contient donc les index des Volumes I et II en les données complètes des fascicules publiés des volumes III. Les quelque 40 fascicules des deux premiers volumes des deux dictionnaires (agriculture et métiers et artisanats) contiennent tous un index alphabétique sur les titres des articles et les mots de référence (interprétations des termes dialectaux relevés). Le site contient les index cumulatifs pour chacun des volumes. Si l'on cherche sous le mot de référence spie (‘ clavette ') dans l'index sur volume I (terminologie rurale) du dictionnaire limbourgeois, on trouve : et cela veut dire que spie figure dans les fascicules sur le traitement de la terre, dans celui sur la fenaison, celui sur la ferme et dans celui sur le harnais des chevaux. La publication des fascicules des deux dictionnaires a commencé dans lesannées soixante. Toutes les variantes relevées pendant les enquêtes seretrouvent imprimées dans ces premières publications, comme c'était dans cetemps la seule moyen de les publier, de les « rendre publiques » .Aujourd'hui d'autres moyens de publication sont à notre disposition. Ledébut de la publication des fascicules sur le vocabulaire général a été unpoint de repère approprié pour changer la macrostructure des dictionnaires. Dans le volume III, le texte du dictionnaire publié « sur papier » necontient que les formes de référence avec l'indication de la fréquence etdes régions ou des villages où l'on les a trouvées. Au lieu de faireparaître toutes les variantes phonétiques et tous les codes des localitésdans le texte des fascicules mêmes, nous avons installé un site dansl'internet qui contient la banque organisée des données et que l'on peutconsulter à côté du livre. Chaque fascicule connaît de la sorte sa propre « base de matériaux » quicontient toutes les attestations des enquêtes et des sources anciennes, avecleurs interprétations qui ont trouvé abri dans les fascicules. De la sorteces bases de matériaux peuvent être considérées comme des versions trèsdétaillées des fascicules publiés, où les formes de référence sont pourvuesde la forme relevée même, telles que les informateurs les ont notées, ennotation phonétique ou autre, et de la localisation précise de chaqueattestation, avec source, date de l'enquête, commentaire de celui qui arempli le questionnaire, etc. Cette opération rend d'un côté le texte publié beaucoup plus accessible pourun grand public intéressé et pourvoit de l'autre les dialectologuesd'infiniment plus de détails sur les enquêtes que dans les anciensfascicules contenant les vocabulaires techniques. Les bases de matériaux des fascicules du Volume III sont donc à consultersur l'internet; à ce moment il s'agit des huit fascicules sur la maison, laflore et la faune des dialectes brabançons et limbourgeois et ces basescontiennent plus de 500.000 données dialectales. Dans une année le nombre defascicules disponibles sera triplé. Deux façons de consultation du site s'imposent : (1) faire simuler un articledu dictionnaire et enrichir de la sorte la lecture du fascicule; et (2 )chercher directement sur des formes, des significations, des lieuxd'attestation, des sources etc., dans la base complète. Je présente ici quelques exemples des deux sentiers. On peut faire simuler un articledu dictionnaire directement dans la base des matériaux : rassembler tousmatériaux pour un concept et les faire organiser en formes de référence ,parallèlement au texte publié. Prenons comme exemple le geai (Vlaamse gaai, WLDVolume III, section 4,1 p. 146-8) et comparons les deux versions; d'abord laversion imprimée (Figure 3). Dans le dictionnaire, l'article du geai comprend deux pages etdemie, dont voici la première. On y discerne le titre, la carte avec lalégende et l'indication des fréquences en chiffres, l'énumération dessources; l'explication et la précision du concept présenté en ensuite lasérie des formes de référence, (éventuellement les variantes lexicales enitaliques), dans un ordre libre (non-alphabétique) avec les noms des régions( avec l'indication de la fréquence relative) ou les noms des localités. Dansla figure 3 on voit les quatre premières formes de référence (sur 60 autotal), avec celle de markolf à la fin. Ensuite ontrouve dans le dictionnaire l'indication des régions (Ripuarien) avec lafréquence relative (alg. ‘ général '), ou les nom des localités (commeHasselt). Retenons comme exemple de traitement le cas de markolf ,la dénomination la plus fréquente dans les deux provinces de Limbourgdu geai : plus de 400 attestations dans le limbourgeois de l'est et ducentre). L'étymologie du terme l'identifie avec le nom d'homme Marculph, ouMarculphus, personnage connu dans les vaudevilles médiévaux, où il figurecomme le grand bavard. La série de variantes lexicales (douze dans ce cas )réfère à la fantaisie et à l'étymologie populaire. Dans la base de matériaux des oiseaux, on retrouve latable des matières de la publication, et donc aussi l'article du geai. Unesimple touche suffit pour faire apparaître toutes les formes de référence dumême geai, avec toutes les autres informations dont il était question. L'ensemble de l'article du geai comprend 6 pages; les huit lignes surmarkolf du dictionnaire de la Figure 3 sont devenus deux pages dans lasimulation de la base des matériaux. Nous avons repris ici les dix premièreslignes de la forme de référence markolf : On y distingue la forme de référence Markolf (engras), les variantes lexicales (en romain) Markef, Markoef, Markof, etc. ;les variantes (en italiques) telles qu'on les a relevées dans lesenquêtes : markef, ma.rkoef, etc.; puis lessources avec la date de la relevée : l'enquête telle que « ZND » (Louvain) ou« N » (Nimègue) ou l'indication d'une monographie telle que « Strous, J .( 1963) » en enfin les codes des localités, selon le registre généralementaccepté dans les Pays-Bas et la Belgique néerlandophone, celui de Kloeke( voir Systematisch etc. sous les Références). Il est évident que les informations fournies par les base des matériaux del'internet sont de beaucoup plus détaillées en ce qui concerne ladocumentation phonétique et la finesse des indications géographiques que nele donne le dictionnaire publié, qui, lui de son côté, est plus accessibleau lecteur. On peut s'approcheraussi directement à la banque des données, en se passant des fasciculesparus, et parcourir, par exemple, la base des matériaux des noms dialectauxdes oiseaux, à la recherche d'une certaine forme de référence, qui pourraitse présenter sous plusieurs concepts. On peut aussi vérifier quels nomsd'oiseaux se présentent dans une certaine source (questionnaire oumonographie), ou parmi toutes les attestions provenant d'un certain village ,etc. De cette façon on peut trouver la réponse aux questions telles que : (a) quelles sont les significations du mot markolf enlimbourgeois ? Et on trouvera, hors des 407 attestations pour le geai dontnous avons parlé, encore deux autres oiseaux qui se sont désignés par le motmarkolf : la pie grièche et la merle. Cette polysémie est encore plus fréquente dans la flore. Si l'on cherche ,dans la base de données de la flore en brabançon, les occurrences de ladénomination hondskruid (‘ fleur de chien ') on obtient4 attestations, réparties sur 4 plantes, respectivement la tanaisie ,l‘aunée, la violette des chiens et le chiendent, voir Figure 5. (b) quels sont les noms d'oiseau dans le dictionnaire de Maestricht (Endepols1955) ? Le résultat de recherche comprend 36 attestations; ce ne sont que - - àcôté de 16 dénominations pour les pigeons (preuve que les colombophiles sontnombreux à Maestricht !) et quelques parties du corps comme le bec - - septoiseaux : pinson, hirondelle, corneille, geai, bécasse, canard et cygne. (c) ou la même question sur les noms d'oiseau dans la ville de Maestrichtdans toutes les sources de la banque des données; voir Figure 6 (pagesuivante). Jusqu'ici il a été question de données interprétées par les rédacteurs desdictionnaires, qui ont déterminé les formes de référence qui apparaissentdans les fascicules et qui sont transférées dans les « base de matériaux»surl'internet. Ces bases de matériaux se limitent, provisoirement, auxfascicules parus. En attendant le souhait s'est imposé pour construire d'abord une banque desdonnées commune aux trois dictionnaires septentrionaux, limbourgeois ,brabançon et flamand, contenant les matériaux bruts ,de première main, dans la notation des informateurs. Les premiers pas dans cette direction ont été mis et ils sont présentés surle site indiqué. En 1914 une grande enquête a été initiée dans la meilleuretradition gilliéronienne, dans le sud-est des Pays-Bas (2280 items dans 179localités), par trois fondateurs de la linguistique à Nimègue : S chrijnen, Van G inneken en V erbeeten (l'enquête se désigne d'après lesinitiales : l'enquête SGV). Les quelque 400.000 données brutes de cetteenquête, utilisée toujours dans cahiers originaux des initiateurs pour larédaction de la partie historique des dictionnaires du brabançon et dulimbourgeois, ont été digitalisées et se trouvent sur le site et sont àconsulter, voir Figure 7, détail des données de pomme deterre (page précédente). Depuis 1960, le centre de dialectologie de Nimègue a distribué 60questionnaires sur le vocabulaire général, dans quelque 200 pointsd'enquête. Les données complètes de ces questionnaires ont été introduitesdans l'ordinateur en on prépare actuellement ces données pour les placer surle site à côté des données de 1914. Après, les matériaux bruts desquestionnaires nimégeois des volumes I en II (terminologie rurale etartisanale) et utilisés pour les premiers fascicules parus, seront préparéspour le site. Ainsi, on prépare à l'université de Louvain l'introduction dans la banquedes données des réponses réunies pendant une grande enquête dialectale( « ZND ») menée depuis 1922 à l'institut de dialectologie de l'université deLouvain. Les projets de recherche vont encore plus loin. Au cours de 2004 ledictionnaire du brabançon sera terminé, celui du limbourgeois suivraquelques années plus tard et le dictionnaire du Flamand encore quelquesannées plus tard. Dans le cadre des trois dictionnaires, beaucoup deprogrammes de tri et de cartographie ont été projetés et les rédactionscherchent à divulguer ces outils sur le site, au profit des lecteurs et desutilisateurs des dictionnaires. A ce moment nous faisons l'inventaire despossibilités techniques pour introduire automatiquement les articles parusdans les publications anciennes « sur papier » et d'autres recueils dematériaux dans la banque des données et d'y accoupler les programmes de triet de cartographie. Finalement, le dialectologue pourra remanier les résultats de ses enquêtesdans cette banque de données dans des articles nouveaux, selon sespréférences et à son gré . | Résumé Le Dictionnaire des Dialectes Brabançons (Woordenboek van de Brabantse Dialecten, WBD) et le Dictionnaire des Dialectes Limbourgeois (Woordenboek van de Limburgse Dialecten, WLD) couvrent le sud-est du territoire où l'on parle le néerlandais, les provinces de Brabant du Nord et de Limbourg dans les Pays-Bas et les provinces d'Anvers, de Brabant flamand et l'autre province de Limbourg dans la Belgique. C'est le territoire où l'on trouve les variétés du bas-franconien méridional, entre le flamand des Flandres dans l'ouest, le cléverois dans le nord, le ripuarien dans l'est et les dialectes wallons dans le sud. Depuis la fin de 2002 les deux dictionnaires se trouvent sur internet. La banque des données complète (enquêtes propres, autres enquêtes depuis la fin du xixe siècle, dépouillement de monographies, etc.) qui est à la base des fascicules parus récemment, peut être consultée sur le web, aussi bien article par article du dictionnaire, simulé par le programme conçu à ce but, que dans la forme d'un fichier qu'on peut parcourir selon des paramètres spécifiques. Pendant la conférence on pourra prendre connaissance des possibilités nouvelles pour la lexicographie dialectale, telle qu'on les a mis en oeuvre dans les WBD et WLD . | scientext_ling_comm_90_ling_euralex_Kruijsen_Swanenberg_entete.xml |
termith-777-scientext | La lexicographie est une science des utilisateurs par excellence (cf .Bergenholtz/Tarp, 2003). Elle a pour objet l'étude et la réalisation dedictionnaires répondant aux besoins humains des utilisateurs qui les consultent .La capacité du dictionnaire à résoudre les problèmes de l'utilisateur dans uncontexte d'utilisation spécifique s'appelle une fonctionlexicographique. Cette fonction a une double nature : elle esttextuellement dépendante lorsque l'utilisateur est confronté à un problème decommunication textuelle, qu'il s'agisse de la réception, de la traduction, ou dela production de texte, la mission du lexicographe étant alors de faciliterindirectement le processus de communication en cours. La fonction est enrevanche textuellement indépendante lorsque l'utilisateur consulte ledictionnaire pour acquérir une connaissance ou vérifier celle -ci. Lelexicographe se trouve alors en position d'émetteur vis-à-vis de l'utilisateurrécepteur, et la communication s'établit directement. Partant de cettedistinction centrale, les dictionnaires devraient dans tous les cas être étudiéset conçus comme des outils fonctionnels et ergonomiques. L'ensemble des donnéeslexicographiques constituant l'objet du dictionnaire – description d'une languespécialisée par exemple - doit alors être sélectionné et structuré conformémentau profil des utilisateurs et aux fonctions lexicographiques envisagées. La finalité du dictionnaire se résume ainsi à la coïncidencedes fonctions et de l'objet. Le projet de dictionnaire électronique du football développé par le LLI (cf .Gross/Guenther, 2002) représente un vaste pas en avant dans la conception dedictionnaires spécialisés à nomenclature beaucoup plus riche et nuancée, et àstructuration systématique des données lexicographiques. Ce projetessentiellement linguistique évacue toute référence à l'utilisateur humain ,puisque la finalité du dictionnaire sera de « permettre deconstruire toutes les phrases possibles d'un domaine donné », et queson objet est celui du traitement automatique de la langue. Ceci soulève deuxquestions : 1. A qui seront destinées les phrases générées par la machine ? 2. Les phrases générées seront-elles adaptées aux discours professionnelsdu football ? 1. Il va sans dire que les phrases ne peuvent être destinées qu' à desrécepteurs humains. Cette banale constatation nous permet de réintroduire lathéorie des fonctions lexicographiques brièvement esquissée plus haut, etlégitime une nouvelle approche fonctionnelle. 2. Les phrases générées auront un caractère artificiel car débarrassées deleur substance discursive naturelle. Il est en effet difficile d'envisagerdes contextes textuels dans lesquels elles pourront être intégrées pourrépondre véritablement aux besoins humains en situation de communication .Les articles du journal l'Equipe, le site Web d'unclub international, ou un manuel du football destiné aux arbitres aurontbesoin de phrases moulées dans la situation de communication spécifique quiest la leur. Un texte ne se résume pas à un assemblage de phrases; lacommunication professionnelle d'un domaine n'est pas de nature phrastique ,elle est de nature textuelle. C'est pourquoi nous proposons d'intégrer dansla nomenclature mise en place par Gross et Guenther un étage textuel dansles structures d'un dictionnaire humain du football ,tout en gardant à l'esprit que cet étage ne pourra aucunement « générer tousles textes d'un domaine donné ». Les solutions que nous présentons icis'inscrivent dans la théorie des fonctions lexicographiques : fournir uneassistance à la résolution de problèmes de communication spécifiques, dansnotre cas la production en L2 d'articles journalistiques par un locuteur dela L1. Elles pourront en outre venir se greffer sur la nomenclaturenormative du domaine, et permettre ainsi de développer un dictionnaire àgéométrie variable. L'étage textuel que nous proposons ici est de nature métaphorique. Les discoursdu football dans les médias sont en effet caractérisés par un usage massif demétaphores reliées les unes aux autres au sein de scénarios nuancés etcohérents. Béciri 2000 et Grévy 2001 défendent tous deux, sur la base de vastesrecherches empiriques dans le domaine de la micro-informatique, des thèsescomplémentaires expliquant le phénomène. Chez Béciri, la métaphorique est unestratégie discursive destinée à briser l'obstacle cognitif représenté par lesterminologies de domaines sujets à la néologie. Les médias y ont largementrecours pour vulgariser les connaissances et fidéliser ainsi leurs lecteurs .Chez Grévy, la thèse est plus radicale : les réseaux métaphoriques sont desmoules de production langagière inhérents au système, des ensembles sémiotiquescohérents destinés à construire et reconstruire le sens, à dire du nouveau enrecyclant de l'ancien, ce qui répond parfaitement à la tâche du journalistesportif : la production des news. Sans métaphores, quepourrait-on dire au fond du football sinon que des messages d'une extrêmebanalité, ou d'une extrême technicité : que telle équipe a battu telle équipedans tel championnat, sur tel terrain et se trouve désormais à telle place duclassement ? Que telle rencontre a été caractérisée par tel type d'attaque, teltype de défense, et tels types d'actions, avec tels rapports de force ? Par lebiais des métaphores, l'univers discursif des news se crée par resémentisationincessante du domaine et création de sens. Nous n'avons retenu que les discours traitant de l'actualité des championnats( Coupes, Ligues, etc.). Pour compléter la base empirique, il faudrait égalementinclure les discours propres aux aspects financiers et politiques du football ,etc. Les données sont extraites de deux éditions Web de deux grands quotidiens :le site L'Equipe pour le français, ainsi que les pagessportives du site du grand quotidien national JyllandsPosten pour le danois, dans la même tranche chronologique, et autourdes mêmes évènements : championnats, rencontres et classements. Les métaphoresmises en parallèle ont ensuite été testées au moyen du moteur de recherche Google (cf. Møller, 2003) pour en vérifier la fréquence ,la productivité, et le degré de prédictibilité, les chaînes de caractèrescontenant toutes des isotopies sémantiques. Internet constitue aujourd'hui un formidable outil de travaillexicographique, un espace de navigation tantôt utilisé par le lexicographeinternaute comme base de données quantitative, tantôt comme base de donnéesqualitative. La démarche quantitative consiste à appréhender etutiliser Internet comme mégabanque textuelle, comme mégacorpus en quelque sorte. Le lexicographe y vérifie a posteriori des occurrences (provenant de sourcesintro - ou multispectives) sous forme d'attestations, tandis que les donnéeslexicographiques ont été préalablement sélectées et structurées. Seule lataille du corpus est déterminante. Le lexicographe utilise ainsi Internetcomme corpus opérationnel, à des fins de vérificationou d'illustration des données lexicographiques. On pourra reprendrel'analogie développée par Sinclair 1999 : Internet est un océan de données ,et le travail du lexicographe se situe en surface, les données étantréticulées sur les sites indexés par les moteurs et par les annuaires. Ladémarche lexicographique est alors essentiellement de nature exocentrique, le corpus de référence utilisé par lelexicographe n'étant pas basé sur le site Web en tant que genre. La démarche qualitative que nous avons utilisé commeméthode de sélection des données métaphoriques du football est basée sur uneétude d'Internet comme média multimodal, un média pull dynamique et mouvantqui a développé ses propres genres, en particulier le site Web doté de seshiérarchisations et de ses réseaux associatifs hypertextuels Le lexicographe fait alors intervenir des analyses du genre et descaractéristiques communicatives du média et de ses réalisations, qui serventà guider la sélection et la structuration a priori des données lexicographiques bilingues : sites Web parallèles, rubriquesparallèles, macro - et microstructures parallèles. C'est la nature médiatiquedu corpus qui ici est déterminante : le corpus Web constitue un corpus théorique, un médiacorpus. Le lexicographe s'intéresse à la production desdiscours médiatisés, et à la sélection des stratégies rhétoriquesprivilégiées par le média (cf. Nielsen, 2002). Il en extrait les formeslinguistiques qui participent à la formulation des messages. Le lexicographes'intéresse essentiellement à la structuration communicative du domaine (cf .Libaert, 2000) – c'est-à-dire les points stratégiques soulevés par lesquestions « Qui ? Dit quoi ? A qui ? Comment ? Avec quel effet ? Où ? ,Quand ? Dans quel but ? » – et les lemmes deviennent alors des leviers de production permettant d'accéder à descadres communicatifs à la fois linguistiques et notionnels, des moulesd'écriture productifs, fidèles à la communication du domaine. En ce sens, ladémarche lexicographique est endocentrique, ets'appuie en profondeur sur la structuration narratologique de sitesdirectement comparables. Trois exemples suffiront à illustrer les principes destructuration métaphorique de la communication du domaine; joueurs etéquipes sont tantôt des machines, soumises aux aléas de la mécanique, tantôtdes pilotes les commandant : machine Pédro Miguel Pauleta est en panne d'efficacité, avecseulement un but au compteur ! Tour de chauffe L1. Monaco, le leader, accueille Le Mans, la lanternerouge. Le Real Madrid a raté l'occasion de prendre les commandes de laLiga. Les Madrilènes ont pressé en vain la défense pilotéepar leur ex-future recrue, l'Argentin Milito. Brøndbys lyntog. Lorsque les mécaniques des machines sont enrayées, c'est souvent le mauvaissort qui s'abat sur les entraîneurs, les joueurs et les équipes : magie Beckam : « Effacer les fantômes de 1998 ». Le Dinamo Zagreb engage un exorciste. Le Brésil semble de nouveau hanté par lamalédiction. Som ny AGF-træner gør Sören Åkeby klogt i hurtigst muligt at uddrivede onde ånder på Fredensvang. Christiansen fjernede Flensburgs forbandelse. Les rencontres enfin sont des agapes auxquelles sont conviés les joueurs: repas La prochaine rencontre face à Lille n'étant proposéeau menu que le 5. Les Normands n'ont plus goûté au succès depuis 7 matches. Bordeaux a retrouvé le goût de la victoire. Efter fem nederlag på stribe, smagte AGF's spillere onsdag endeligsejrens sødme. Kampene hjemme på Portman Road mod Burnley står påmenuen. La constitution d'un index tremplin (cf. Schneider, 1998) est la solution lamieux appropriée à un dictionnaire de production actif. Cet indexrudimentaire ne contient que les entrées dans la L1 et leurs équivalentsdans la L2. L'index ne permet pas de traduire des textes de la L1 vers laL2, et contraint l'utilisateur à prendre la L2 comme point de départ duprocessus de production, dans la liste lemmatique centralefrançais>danois. Les unités lemmatisées incluent le vocabulairespécifique au football (encaisser, équipe, pâquerettes ,victoire), qu'il s'agisse de termes en tant que tels (corner), de mots du vocabulaire général utilisé dansle domaine (équipe, victoire), d'expressionsidiomatiques (pâquerettes), et surtout les unitéslexicales servant de clé à l'ouverture des scénarios métaphoriques (auteur, rails) : afspore vb dérailler billet billet bøje sig vb incliner (s') brænde vb rater hjørnespark corner damp vapeur drøm rêve fordøje vb digérer forfølger poursuivant forspring avance fuldtræffer carton hold équipe; hommes, troupes indkassere vb encaisser kaliber calibre klasse classe klassement classement komme igen vb ressaisir (se) lokomotiv locomotive mandskab hommes mareridt cauchemar mål but omdrejninger régime opgør match, rencontre ophavs mand auteur overhale vb doubler plads place sejr victoire skinner rails skovtur pâquerettes snuppe vb chiper tabe incliner (s'), perdre terræn terrain tog train tropper troupes tryk pression uafgjort match nul udbrud échappée vej chemin vinde vb gagner, imposer (s') ydmyge vb humilier ånde vb respirer L'information collocationnelle est essentielle à tout dictionnaire deproduction, car c'est elle qui permet de construire les phrases conformes àla communication du domaine. Les schémas collocationnels illustrentparfaitement la nécessaire complémentarité des prédicats et des arguments ,comme cela est expliqué par Gross/Guenther 2002, ainsi que les phénomènes defigement syntaxique. Nous proposons ainsi une extension de l'informationcollocationnelle, au niveau des adjectifs prototypiques des discours parexemple (défaite : amère, consécutive, etc.), quirendent compte des conventions du genre textuel. Le dictionnaire du footballfrançais>danois sélectionnera le plus grand nombre possible de cescollocations. La présentation ci-dessous illustre deux formatsd'indication : sans traduction, pour la production uniquement, et avectraduction, si le lexicographe souhaite intégrer la traduction commefonction secondaire, en particulier pour les collocations qui ne sont pastransparentes (idiomes ou métaphores figées). but mål; score et ~ avalanche de ~ encaisser un ~ être auteur d'un ~ inscrire un ~ marquer un ~ signer un ~ være ophavsmand til et ~ corner hjørnespark tirer un ~ skyde et ~ vendanger un ~ omsætte et ~ défaite nederlag amère ~ bittert ~ connaître sa ~ opleve ~ ~ consécutive ~ i træk ~ humiliante ydmygende ~ ~ méritée fortjent ~ ~ surprenante overraskende ~ encaisser une ~ indkassere ~ énorme ~ kæmpe ~ lourde ~ tungt ~ nouvelle ~ nyt ~ égalisation udligning arracher l' ~ tilkæmpe sig ~ nul uafgjort concéder le spille ~ obtenir le få ~ se contenter du nøjes med ~ place plads chuter à la ~ conserver la ~ descendre à la ~ dégringoler à la ~ hisser (se) à la ~ maintenir (se) à la ~ perdre sa ~ reculer de la ~ reléguer à la ~ remonter à la ~ résister à sa ~ Un autre format de présentation consiste à opérer un regroupementsyntaxique : les scénarios verbaux qui modulent la mise en scène desarguments, avec une forte extension des verbes support sémantisants (arracher la victoire) et les scénarios adjectivaux ,qui modulent la prédication en la valorisant (victoireécrasante). L'information métaphorique est alors implicitement intégrée dans les indications collocationnelles (goûter à la victoire, signer la victoire, laborieusevictoire) : victoire sejr scénarios arracher la ~ tilkæmpe sig ~en assurer la ~ sikre sig ~en concéder la ~ måtte slippe ~en digérer la ~ fordøje ~en goûter à la ~ smage på e~n offrir la ~ forære ~en signer la ~ være ophavsmand til ~ remporter ~ få ~en hjemm e, hive ~en i land voler la victoire stjæle ~n valeurs courte ~ kneben ~ écrasante ~ knusende ~ nette ~ klar ~ petite ~ mindre ~ ~ consécutive ~ i træk ~ convaincante overbevisende ~ ~ éclatante overlegen ~ ~ importante vigtig ~ ~ laborieuse besværlig ~, hårdt tilkæmpet ~ ~ méritée fortjent ~ ~ prometteuse lovende ~ La liste lemmatique centrale incorpore des articles métaphoriques explicites. Outre la mise en équivalence de l'entrée ,les articles fournissent les informations collocationnelles, et illustrentles usages discursifs au moyen d'exemples textuels authentiques dans les deux langues, conformément à la méthode de sélectionet de présentation développée par Leroyer 2002 (pp. 193-286). Les exemplesparallèles (équivalences d'images et de valeurs) démontrent la productivitédes scénarios. Les articles métaphoriques sont tous dotés de renvois à desdescripteurs métaphoriques, qui assurent l'accès à l'index métaphoriqueexterne. billet billet Dimanche, Auxerre obtient in extremis son billet pour le dernier carréen éliminant Angoulême aux tirs au but. Får Danmark bare et enkelt point i kampen, kan billetten til EM iEngland næste år sikres. Klubben har den målsætning, at den skal være med i toppen af danskfodbold og løse billet til en af de europæiske turneringer. spectacle; train calibre kaliber Arsenal et Valence sont d'un calibre supérieur à celui del'Ajax. En modstander af et hel andet kaliber end gårdagens. armes cauchemar mareridt Les Canaris nantais ont même vécu un véritable cauchemar. Fodbold : Herfølges mareridt. troubles psychiques chiper snuppe Marseille a laissé passer une belle opportunité de chiper la premièreplace du classement à Monaco. Milaneserne var særdeles tæt på at snuppe alle tre point. crimes et délits dérailler afspore, køre af sporet Football : La D1 s'échauffe et déraille. Klubben er kørt af sporet. train digérer fordøje Valence digérerait mal une élimination en Ligue des champions. Skanderborg havde svært ved at " fordøje " sejren. repas échappée udbrud National - 12e journée : Reims et Brest pour confirmer l'échappée. Aab, Herfølge og AB er kommet i udbrud. cyclisme encaisser indkassere La France a encaissé deux buts en moins de dix minutes à Glasgowdevant le Celtic. Mallorca måtte omringe eget mål for ikke at indkassere mål. banque locomotive lokomotiv Les Bleus doivent servir de locomotive à TOUT le footballfrançais. Dansk klubfodbold med Brøndby som lokomotiv. train magicien magiker Un réveil tant espéré du magicien Deco. OB-angriberen Mwape Miti indtog rollen som fynsk magiker. magie ressaisir (se) tage sig sammen Manchester United s'est bien ressaisi face à Portsmouth (3-0). I anden halvleg så det i starten ud til at Tyskland tog sigsammen. états et réactions somatiques poursuivant forfølger Les ~s des Bisontins sont à l'affût. Nærmeste ~, Brøndby, tabte. cyclisme pression ryk Manchester United met la pression. Der var fuld tryk på resten af halvlegen. train raclée tæsk prendre/subir une ~ få ~ Etait -ce le traumatisme consécutif à la raclée subie samedi dernier àSochaux. .. Tyske tæsk til Tunesien. .. punitions rails skinner Pirès (5e), Henry (7e) et Vieira (48e) ont placé les Gunners sur debons rails. Fodbold : AaB er tilbage på skinnerne. train régime, à plein ~ omdrejninger, for fulde ~ La Juve et l'Inter à plein régime. Champions League kører i øjeblikket for fulde omdrejninger. moteur sable grus Mais quelques grains de sable ont enrayé la machine. Der er grus i det nordsjællandske maskineri i SAS-ligaen. machine troupes tropper Bastia s'attend à une réaction de ses troupes avec un objectif d'unpoint minimum. Dermed ser det lovende ud for cheftræner Roberton Mancinistropper armée Les scénarios sélectionnés sont regroupés dans un index métaphorique relié àla liste lemmatique centrale. Les entrées sont constituées par lesdescripteurs du scénario métaphorique : armes ,banque, etc. Les scénarios sont subdivisés en champs sémantiquespermettant de nuancer la resémantisation du scénario. Pour le scénariocatastrophe naturelle, par exemple, on trouvera les champs avalanche, tornade, etc. Les articles sont dotés d'exemplestextuels illustrant le parallélisme interlinguistique des constructions dediscours : ► armes calibre/kaliber Arsenal et Valence sont d'un calibre supérieur à celui de l'Ajax. En modstander af en hel anden kaliber, end gårdagens ► banque compte/konto L'attaque italienne concrétise à la 33ème mn et en ajoute un sur son compte personnel. Han havde i forvejen fire på kontoen, så totalt er han nu oppe på tolv mål. ► catastrophes naturelles avalanche/lavine Une avalanche de buts. En lavine af chancer. déluge/stormflod Le Mantois tranquille sous le déluge Coupe de Paris. En stormflod af gode forsøg. inondation/oversvømmelse Beckham inonde la surface de réparation des ses fameux centres. Endnu engang blev København oversvømmet. tempête/storm Football : l'Angleterre en plein tempête. Køge stormer mod Superligaen. tornade /tornado Une tornade blanche contre les Marseillais De var hjælpeløse over for den hvide tornado. ► cinéma scénario/drejebog Le scénario est inversé en deuxième période. Drejebogen er skrevet. Bayern München bliver tyske mestre. ► cirque clown/klovn Ajaccio a véritablement la " gueule d'un clown ". Fodbold : Cirkus Åkeby kom til byen. ► magie Monaco est magique Paris est magique ! ! Danskerne tryllede for Sydafrika. ► religion Dieu/gud Robert Pires, le dieu des milieux de terrain. Les Lions de la Teranga ont crucifié l'équipe de France. Fodboldguderne. foi/tro Silkeborg IF har ikke mistet troen på at vinde titler. Il y avait quelques minutes déjà que Galatasaray avait perdu la foi prêtre/stormester Michel Hidalgo, le grand prêtre du football. Nesta er en stormester. ► repas plats/retter C'était fromage et dessert ! Le choc entre les deux monstres européens a répondu à toutes les attentes. Kvinderne i elitedivisionen var forretten. ► théâtre scène/scene Lyon entre en scène. Nigerianerne trådte de ind på scenen med manér. Les solutions lexicographiques proposées ici sont des solutions fonctionnelles ,et n'ont pas pour but de permettre à l'utilisateur de générer la production detoutes les phrases des discours. Il demeure en effet une difficultéfondamentale : celle qui consiste à relier les schémas narratologiques que sonten amont les métaphores aux choix rhétoriques de resémantisation du domaine enaval. Le phénomène football étant un espace sémiotique créateur de sens et devalorisations, la palette globale des scénarios textuels à même d' être mis enscène pour desservir les stratégies créatives des rédacteurs est virtuellementillimitée, pourvu toutefois qu'elle respecte les conventions d'un paysagemétaphorique relativement stable et fortement prédictible. Il n'en demeure pas moins que le propre d'une langue de spécialité réside dans sacapacité à générer des discours professionnels s'inscrivant dans des genrestextuels, et que sa rhétorique métaphorique est un de ses plus puissants moteurssémiotiques, notamment dans les médias. En ce sens, le premier pas vers lesdictionnaires spécialisés à finalité discursive a étépris. L'utilisateur pourra y trouver non seulement la mise en discours destermes, mais aussi des exemples structurés de configuration et de transcriptionstratégiques de ces mêmes discours. Il appartient désormais d'étendre etd'affiner la recherche dictionnairique fonctionnelle, de consolider les apportsthéoriques et pratiques sur la lexicographie bilingue des discoursprofessionnels, et de contribuer de la sorte à revêtir le dictionnairespécialisé de nouveaux habits qui ne soient pas ceux de l'empereur, mais del'utilisateur professionnel . | Résumé De récents travaux basés sur de vastes corpus ont démontré l'existence descénarios métaphoriques nuancés et très productifs à l'oeuvre dans les discoursspécialisés, en particulier dans les médias, et en ont expliqué lefonctionnement. Les dictionnaires bilingues spécialisés devraient tenir comptede cette réalité discursive et présenter, par le biais d'entrées, d'indicationset de structures spécifiques, les informations nécessaires à la desserteoptimale des fonctions lexicographiques envisagées ici : production de discoursprofessionnels en L2 par un locuteur L1. Le rédacteur pourrait alors exploiterjudicieusement la productivité des scénarios métaphoriques dans les deuxlangues. Partant d'un projet de dictionnaire électronique de la langue dufootball élaboré par le LLI de Gaston Gross, nous proposerons ici quelquesréflexions et solutions lexicographiques fonctionnelles permettant d'intégrer lamétaphorique du domaine dans les structures d'un dictionnaire du football dontla base empirique est déterminée par l'objectif de représentation des genrestextuels . | scientext_ling_comm_254_ling_euralex_Leroyer_Moller_entete.xml |
termith-778-scientext | La sémantique du siècle qui vient de se terminer a été profondément influencée parune vision différentielle du sens lexical : les théories fondamentales de lasémantique contemporaine – du modèle des conditions nécessaires et suffisantes àl'analyse sémique componentielle (cf. Baylon, Mignot, 1995) – adoptent commeprésupposé le fait qu'un mot trouve son sens seulement à l'intérieur de la structurelexicale; il devient donc impossible de dénommer un mot, d'en décrire lasignification, sans avoir recours aux rapports qu'il entretient avec les autres…pièces de son échiquier. L'acte de définition récupère tout son sens étymologique :définir un mot, signifie lui attribuer des limites, desfines, des frontières, par rapport aux autres mots de safamille dérivationnelle ou de son champ sémantique. Dans ce contexte théorique, lemodèle de définition privilégié ne pourrait être qu'un modèle de définition pardifférence, par distinction : le modèle de définition logique, ou aristotélicienne ,décrit le sens d'un mot sur la base de ses traits distinctifs. Ce n'est que pendant les dernières décennies que la sémantique a progressivementrelativisé ce présupposé différentiel au profit d'une théorie de description du sensplus proche de la pratique du langage ordinaire : les études les plus récentesredonnent plus d'importance aux facteurs cognitifs et psycholinguistiques dansl'élaboration d'un modèle performant de description lexicale. Dans cette lignée, lesrecherches linguistiques s'orientent vers une définition du sens plus proche de lapratique linguistique quotidienne : la sémantique du prototype de Rosch et deKleiber, l'analyse sémique contextuelle de Rastier, la théorie de la folk definition de Anna Wierzbicka, les études sur ladéfinition naturelle, plaident pour une définition du sens reproduisant lescaractéristiques essentielles que, plus ou moins inconsciemment, le locuteur moyenassocie à un mot donné. La définition naturelle réévalue lavaleur de la composante substantielle, ou référentielle dans toute descriptionsémantique; pour décrire le sens d'un mot, il n'est pas suffisant de le situerprécisément sur l'échiquier lexical : il est aussi nécessaire de prendre en comptele concept auquel il renvoie, le petit morceau d'expérience partagée qu'il découpepour nous dans la réalité qui nous entoure, qui nous permet de pointer –linguistiquement – le doigt, et d'affirmer : « c'est untigre » … juste avant d' être dévorés ! Une description sémantique totalement étrangère à la dimension référentielle dulangage correspondrait d'ailleurs à la négation de l'essence même du lexique, grandréservoir de mots par essence hétérogène et complexe, où coexistent à la fois desconcepts qui ne sauraient être expliqués sans avoir recours à l'expérience concrète ,à la réalité, au monde, et d'autres qui seraient en revanche incompréhensibles sansun renvoi à d'autres unités lexicales : “The core of a given concept may be provided either by a linguistic bundle ofdistinctive features or by a point of reference directly located outside lexicalstructures, in the field of shared experience. The concept may be defined as endocentric in the former case, as exocentric in the latter. According to the kind of concept it is appliedto, a definition aims either at differentiating a concept from a set of competing values, or at describing its contents in a positiveway” (Prandi, à paraître) Le sens du mot abeille, par exemple, ne saurait se réduire àce qui différencie l'abeille des autres insectes du même paradigme : le dictionnairePetit Robert offre à ses lecteurs un bon exemple dedéfinition par genre prochain et marques spécifiques : « insectesocial hyménoptère (apidés) dit mouche à miel, vivant encolonies et produisant la cire et le miel »; en réalité, ce que, instinctivement, chacun associe au mot abeille, est une série de caractéristiques sensorielles, positives, concrètes ,évoquées par le référent concret du mot – la couleur noire et jaune, la sensation dedouleur donnée par l'aiguillon. Dans ce cas, et plus généralement dans le cas desconcepts à référent concret - que nous désignerons (empruntant ici la terminologiede Michele Prandi) comme concepts exocentriques – la langueest en quelque sorte modelée par la réalité, qui prime dans la descriptionsémantique. Dans le cas de concepts relationnels complexes, en revanche, ladescription du sens passe forcément par le renvoi à d'autres unités lexicales : lemot oncle, par exemple, ne saurait être expliqué par unrenvoi aux caractéristiques physiques du référent oncle, maisplutôt ayant recours aux autres mots appartenant au même paradigme de la parenté ;dans ce cas, la définition différentielle s'avère un choix obligé, et le locuteurmoyen rejoint le Petit Robert : « oncle : le frère du père ou dela mère ». Nous désignerons les concepts dont le sens évoque nécessairementun réseau de rapports lexicaux, comme concepts endocentriques (Prandi, à paraître). L'existence de ces concepts prouve que pour faire place à lastructure de l'expérience dans la description lexicale on n'est pas obligé deconsidérer la langue comme étant seulement un magma informe, modelé par la réalité ,mais qu'elle peut aussi imposer sa propre charpente sur notre perception du monde :la langue se révèle ici dans sa double essence de matière et de force, ergon et energeia. La description dusens ne pourrait finalement pas négliger la dualité intrinsèque du lexique : lanature même des concepts à décrire appelle différents types de définition. Les concepts que nous venons d'évoquer se manifestent avec plus d'évidence lors del'analyse d'un genre de définitions traditionnellement considéré comme imparfait ourudimentaire : les définitions spontanées élaborées par les enfants. Cette réflexionnaît justement d'une enquête conduite sur les dictionnaires scolaires, sur lesdifférents modèles de description sémantique qu'ils présentent, et sur lacomparaison de ces modalités définitoires avec les stratégies de définitionspontanée des enfants (Rossi, 2001, Biorci et al., 2000). Les dictionnaires scolaires actuels proposent aux enfants une approche du senslexical qui ne diffère aucunement de la tradition sémantique et lexicographique desadultes : le présupposé de la bonne définition reste ladifférenciation des unités lexicales : une analyse détaillée des différents modèlesde définition présents dans les dictionnaires scolaires démontre que 46 % desdéfinitions correspondent encore au modèle aristotélicien par genus et differentia, 16 % sont réalisées en modalité morpho-sémantique par renvoi à d'autres mots de la même familledérivationnelle, et environ 9 % par renvoi à un synonyme (7 % )ou antonyme (2 %) (Rossi, 2001). On nepourrait nier que ces modèles de définition s'avèrent performants, notamment dans lecas de certaines unités lexicales; par exemple, le choix d'une définition par synonyme est unanimement accepté lorsque le défini appartientà un registre linguistique autre que le registre standard-non marqué – comme dans lecas de termes scientifiques, techniques, ou bien familiers, voire argotiques :ainsi, le dictionnaire Hachette Juniors définit le mot merde par « synonyme grossierd'excrément »; de même, une définition morpho-sémantique semble être le modèle le plus efficace pour les dérivésdirects d'un mot-souche courant et bien connu : une définition de timidement : « de façon timide » est universellement acceptée et retenue .Ces exemples révèlent que, parfois, la description du sens lexical ne peut seréaliser qu' à l'intérieur du système linguistique, ou mieux, que la voie la plusrapide et la plus simple pour expliquer certaines unités du lexique passe par lalangue plutôt que par un renvoi à l'expérience concrète. L'application de ces modèles définitoires révèle toutefois des limitesinfranchissables : il suffit d'analyser de façon plus approfondie un corpuslexicographique pour repérer des énoncés bizarres, qui seraient censés éclaircir lesens des mots, et qui en fait compliquent considérablement le processus de décodagesémantique : comment découvrir, par exemple, que derrière la devinette « fruit à pépins dont la chair est juteuse et sucrée » (Hachette Juniors) se cache le mot melon (et pourquoi pas pastèque ?), ou que l'énoncé « arbre d'ornement dont la fleursent très bon » (Bordas Junior) renvoie à coup sûr àl'identification du mot tilleul ? Le point de vue change radicalement si l'on considère les définitions spontanéesélaborées par les enfants; l'aspect différentiel cède la place à une visionpositive, substantielle du lexique en tant que reflet de la réalité, et ce qui primepour les locuteurs dans la description du sens d'un mot est avant tout son côtésensoriel, perceptif, référentiel : ainsi, pour le mot abeille, le trait saillant s'avère être la sensation de douleur causée parl'aiguillon : « ça pique, ça vole, c'est rayé noir et jaune »; « elle a une aiguille, un piquant »; une analyse détaillée révèle que, pour les conceptsexocentriques, le renvoi au référent concret reste le choix le plus performant dansles échanges entre pairs, alors que, pour les concepts endocentriques, qui mettenten jeu des réseaux relationnels plus complexes, bien souvent c'est le recours àl'expérience personnelle, aux données émotives, aux situations typiques de la viequotidienne qui permet de définir à coup sûr le mot en question .L'ancrage à l'objet ponctuel fait place à l'évocation d'un réseau de relationscomplexes. Ainsi, pour définir un sentiment aussi complexe que l'amour, nos enfants s'expriment par l'évocation d'une situation-symbole :« l'amour, c'est quand on vient nous voir jouer un match defoot ». Les enfants exploitent avec succès entre euxdes modalités définitoires qui remettent au premier plan le côté référentiel dulexique : dans leurs échanges quotidiens, ils emploient des stratégies decommunication et de description du sens des mots qui se révèlent souvent bien plusefficaces et plus immédiates que les définitions des adultes. D'après notre expérience, la pratique des enfants pourrait se révéler précieuse comme« pierre de touche », car elle montre que le monde parfoisprime sur les mots dans la description du sens lexical. Lacapacité de comprendre le sens des mots dans sa dimension proprement linguistiqueest certainement à encourager, mais on ne peut pas oublier qu'elle est le pointd'arrivée d'un véritable voyage. : le linguiste italien Tullio de Mauro l'a récemmentcomparée à l'action de monter un escalier, où chaque marche représente une nouvelleacquisition (Biorci et al., 2003, Prefazione). Si le but du voyage reste la description de la langue, on nesaurait pour autant oublier le point de départ, à savoir la réalité concrète, ladimension perceptive, sensorielle, dans laquelle la langue s'enracine. Au momentd'entreprendre le voyage, le lexicographe ne peut évidemment pas proposer desdéfinitions dont la réception présuppose cette capacité comme acquise. A ce propos ,les enfants se révèlent des mini-sémanticiens naïfs et pourtant précis : lesconstantes de leurs modalités de définition spontanée, les mécanismes qui entrent enjeu dans leurs processus de décodage et de communication du sens des mots peuventdonc s'avérer autant de suggestions précieuses pour une description correcte etcomplète du lexique. D'après notre expérience, l'image représente sans aucun doute pour les enfants l'undes moyens privilégiés d'appropriation et de représentation de la réalité, parconséquent du langage dans sa fonction référentielle : sousses différentes formes (dessin, photo …), elle permet d'évoquer directement ,aisément et immédiatement le référent du mot en question, ce qui explique d'ailleurspourquoi l'illustration, traditionnellement proscrite des dictionnaires de langue ,retrouve dans les dictionnaires scolaires une place de premier plan, rivalisantparfois avec la description linguistique des entrées. L'illustration représente doncla première marche de notre escalier. Ce que l'image met en évidence, c'est le côté concret, positif, sensoriel de lalangue; autrement dit, elle permet de récupérer la dimension du lexique plusdirectement liée à notre expérience concrète du monde qui nous entoure : le lexiquecesse ainsi d' être un système, un code autonome et autosuffisant, et il redevient unmoyen d'appréhension de la réalité. On ne saurait, certes, nier qu'unereprésentation sémantique exclusivement fondée sur l'image présente des limitesintrinsèques; en premier lieu, l'image ne jouit pas de la pérennité que la langue ,en tant que code sémiotique abstrait, permet d'atteindre : une définition iconiquedu mot bicyclette tirée d'un Petit LarousseIllustré de la fin du XIX siècle serait probablement aberrante pour unlecteur de 2001. Et surtout, la définition par l'image est par essence épisodique; le caractère immédiat et la puissance d'évocation del'illustration ne sont pas toujours suffisants à garantir une reconnaissanceunivoque et précise du défini : en tant que définition substantielle, l'imagen'arrive pas à déterminer les traits pertinents du défini, qui le distinguent detous les autres mots de la langue, qui font en revanche l'objet de la définitiondifférentielle linguistique; ce manque de spécificité dans la définition iconiquepeut bien devenir la cause d'une méprise au niveau de l'identification du termedéfini : « si le mot soulier est illustré, il arrive que l'enfantlise chaussure » (Rey-Debove, 1989, 19), mêmelorsque l'image reproduit exactement l'exemplaire le plus « prototypique » d'uneclasse, elle ne peut jamais atteindre le degré d'abstraction et de généralisationd'une définition linguistique. Nous citerons à ce sujet un exemple tiré du Dictionnaire Larousse Mini-Débutants. L ' illustration à gauche se réfère à l'entrée admirer : même si la tentative de décrire par un dessin une notion abstraite commeun verbe, et d'autant plus un verbe concernant une action de l'esprit, nous semble en tout cas remarquable ,force est de constater que l'illustration en question est tout à fait ambiguë et nepermet aucunement d'évoquer le concept de admirer plutôt quele concept de regarder … Comme nous avons déjà eu l'occasionde le remarquer, dans le cas de concepts relationnels complexes tels que les verbes ,l'illustration ne peut que constituer un bon point de départ pour l'évocation duconcept en question, dont la définition reste en tout cas confiée à une paraphraselinguistique. Néanmoins, et malgré ses limites intrinsèques, une description iconique du sens nedevrait pas être totalement rejetée, car elle représente un point de départ, unmoyen d'évocation très fort, une sorte de tremplin vers la compréhension des mots ;finalement, une évocation puissante peut s'avérer plus performante qu'une mauvaisedéfinition. Notamment dans le cas des concepts exocentriques, l'illustration peut devenir unappoint décisif dans le procès de décodage du sens, en ce qu'elle explicite lestraits positifs du défini, des traits qui peuvent paraître secondaires aux finsd'une description sémantique, et qui, au contraire, se révèlent souvent déterminantspour une reconnaissance complète et correcte du mot en question; comme le reconnaîtaussi Josette Rey-Debove, « Très nombreuses sont les personnes qui souhaitentdes illustrations, dans la mesure où la définition qui remplit sa fonctionabstraite d'identification est insuffisante pour évoquer l'objet. D'abord, parce que les traits pertinents qu'elle propose sontdifférentiels plus que positifs (…) ensuite, parce que les traits liés àl'aspect visuel sont parfois secondaires et que néanmoins ce sont ces traits -làqui nous aident à identifier l'objet » (Rey-Debove, 1999 : 273). Dans cet article consacré au mot mante, tiré du Larousse SuperMajor, par exemple, une définition purement linguistique comme celleproposée par les rédacteurs du dictionnaire (« mante : insecte carnassier avecune petite tête triangulaire très mobile et des pattes antérieures qui luiservent à saisir ses proies »), bien que correcte et complète du point devue linguistique, ne pourrait suffire à l'identification immédiate du contenu duterme en question; le recours à l'illustration permet alors à l'enfant de saisir defaçon plus immédiate le mot défini. Ailleurs, c'est la représentation d'une situation typique, ou mieuxprototypique, qui rend le mot plus accessible et l'identification plus précise ,comme dans l'article ventriloque du dictionnaire Robert Benjamin, où le dessin du ventriloque avec sa marionnette assure la compréhension exhaustive du mot, complétant ladéfinition contenue dans l'article – une longue périphrase qui, bien qu'elle soitclaire, n'est pas aussi immédiate. On pourrait bien objecter que le recours à l'illustration n'est valable que dans lescas de concepts exocentriques, dont la définition met « forcément » en jeul'expérience sensorielle; cependant, un usage avisé de l'illustration peut rendrecette pratique performante même dans le cas de concepts relationnels plus complexes ,qui ne se définissent d'habitude que par le renvoi à d'autres unités lexicales ;nous citerons à ce propos l'exemple du substantif abstrait peur dans le Robert Benjamin : dans ce cas, ladéfinition linguistique (« la peur, c'est l'émotion très forte quel'on ressent lorsque l'on est en face d'un danger ») est accompagnée d'uneillustration qui met en scène une situation de peur typique de l'univers desenfants. Au lieu de s'exclure, les deux stratégies d'ancrage du signe – à lastructure lexicale, à l'expérience externe – se complètent parfaitement. La description du sens lexical destinée aux enfants passe donc par une redécouvertede sa dimension perceptive, sensorielle : définir le sens d'un mot, signifie avanttout prendre en compte la double nature du lexique comme structure, système devaleurs et comme reflet du monde sensible, mode d'appréhension et d'expression de laréalité, force qui modèle notre perception du monde, et qui en est sans cessemodelée, à la fois ergon et energeia .Cette double nature du langage se manifeste clairement dans le code définitionnelspontané des enfants, où le monde se reflète encore pleinement dans les mots; cecode se situe donc en quelque sorte à mi-chemin entre l'abstraction linguistique etla matérialité de l'image, de l'icône. Parmi les nombreuses formes de descriptionsémantique spontanément élaborées par les enfants, nous citerons deux exemples quinous semblent tout particulièrement significatifs dans le contexte de cette étude. Le modèle de définition que l'on pourrait appeler définition parassimilation représente, d'après notre analyse, l'un des modèles les plusperformants et les plus exploités par les enfants dans le cadre de leurs échangesquotidiens, à tel point que 8 % environ des définitions spontanées recueillies sur uncorpus d'enfants du CM exploite cette stratégie (Biorci et al. ,2000). Selon ce modèle, l'explication d'un terme complexe, ou d'un terme malconnu, passe d'habitude à travers la comparaison du défini avec le concept identifiépar un autre mot, plus courant, appartenant au langage ordinaire : un avocat devient donc « un fruit ou un légume, ovale un peu comme un œuf, mais c'est plus gros, dedans c'est vert clair », alors qu'une gazelle « c'est un animal qui ressemble à un cerf ou à une chèvre, avec deux cornes et qui court très vite », et une méduse « est une espèce de petite pieuvre blanche avec un gros chapeau plein de petits points et des tentacules tout autour ». La description d'un terme nouveau se réalise souvent, pour lesenfants, à travers le renvoi à une réalité connue, plus proche de leur vieconcrète : nous citerons à ce sujet l'exemple du mot planétarium; pour les enfants, le planétarium est avant tout « unesorte de cinéma où on va voir les étoiles » : ils emploient donc de préférence, pourdéfinir un concept peu fréquent comme celui de planétarium ,une comparaison avec un concept bien connu, le cinéma, quipermet de décrire assez précisément la fonction du défini. Or, ce modèledéfinitionnel n'est presque pas exploité dans les définitions offertes par lesdictionnaires, qui optent la plupart du temps pour une définition logique, comme « local où l'on peut voir le mouvement des astres, projeté sur unevoûte » (Larousse Super Major); « salle à coupole où sont représentés lesastres et leurs mouvements » (Hachette Junior), « représentation de la voûtecéleste, des astres… sur une voûte » (Petit Robert). De même, le heaume est défini comme « le casque desanciens Romains », la chenille comme « le bébé du papillon » (à comparer avec la définition du Petit Robert : « larve phytophage descoléoptères et des lépidoptères, au corps allongé lisse ou velu, possédant desglandes séricigènes et dix paires de pattes »), un clocher devient « la cheminée de l'église », etmême un concept métalinguistique complexe, tel que anacoluthe, devient aisément compréhensible par assimilation à une expérience quotidienne partagée : « c'est une phrase qui a le hoquet .Exemple : c'est une histoire sans queue, et il fait beau ». La définition par assimilation se révèle l'un des modèles lesplus performants notamment dans le cas de concepts à référent concret, en ce qu'ellepermet à l'enfant de s'approprier une réalité inconnue à travers le renvoi à uneautre réalité plus proche de son expérience; pour ce qui concerne en revanche lesconcepts relationnels plus complexes, la pratique spontanée des enfants nous offreencore une fois des suggestions précieuses. Nous citerons à ce propos un exemplesignificatif : dans la pratique définitionnelle spontanée, la définition des verbeset d'autres concepts relationnels, tels que les adjectifs ou les substantifsabstraits, passe d'habitude par un modèle tout à fait performant, que nous avonsappelé définition par script, où le contenu du terme est actualisé par la mise enscène d'un petit « scénario », rassemblant les actions plusou moins inconsciemment associées au concept en question. Cette séquence d'actions ,qui constitue le noyau sémantique du mot, assume finalement une valeur universelle ,révélée par le choix d'un sujet impersonnel, on. Cettestratégie définitionnelle exploite au mieux le recours à l'expérience aux fins de ladéfinition de concepts complexes comme les verbes, les adjectifs ou les substantifsabstraits, car la description du sens passe par l'évocation d'une situation réelle, concrète, qui appartient à lavie quotidienne des mini-locuteurs. Notre enquête sur un corpus d'élèves du CMrévèle que 12 % environ des définitions spontanées sont élaborées sur ce modèle : lemot anniversaire met donc en scène ce « dessin animé » : « on invite un ami, on fait un gâteau, on met des bougies dessuset on les souffle, on donne des cadeaux, on chante et on danse »; le motmatin : « le réveil sonne, on se réveille, on se lève de bonne heure, on se lave levisage, les dents, on s'habille, on boit le petit déjeuner et on fonce àl'école », et l'adjectif pauvre, qui est d'habitudedéfini par renvoi à son antonyme riche, est efficacementévoqué par le biais d'une situation prototypique : « on n'a pas detravail, on dort dans la rue, on mange juste une pomme avec son chien et ondemande des sous avec une boîte ». La définition par script se révèleextrêmement efficace pour l'explication directe des concepts relationnels complexes ,comme des mots abstraits, des verbes ou des adjectifs; nous citerons à ce proposune comparaison entre les définitions du nom messe dans lesdictionnaires Robert Benjamin, Hachette Junior, LarousseMaxi-Débutants, Robert Junior, Super Major, Petit Robert des enfants et Gros Dico des Tout Petits : « messe : la messe, c'est la principale cérémonie religieuse des catholiques » (RB) « messe : cérémonie du culte catholique » (HJ) « messe : nous allons à la messe tous les dimanches, à l'église, pour assister à lacérémonie essentielle du culte catholique » (MD) « messe : principale cérémonie du culte catholique » (RJ) « messe : dans la religion catholique, cérémonie qui rappelle le sacrifice du Christsur la croix sous forme du pain et du vin et qui est célébrée par le prêtre » (SM) « messe : principale cérémonie du culte catholique » (PRE) « messe : c'est quand les gens viennent à l'église faire des prières, chanter deschansons pour se marier ou pour un baptême et écouter le curé qui dit des choses »( GD) Alors que les lexicographes préfèrent une approche essentiellement linguistique ,fondée sur l'insertion du défini dans une catégorie précise (celle des« cérémonies »), où il se différencie par ses traits spécifiques( « principale » / « catholique »), la définition spontanée met en jeu toute une sériede situations, d'actions concrètes et habituelles (« Faire des prières » / « chanterdes chansons » …) qui forment pour l'enfant – et pas seulement pour un enfant - levéritable noyau sémantique évoqué par le terme « messe ». L'exemple que nous venons d'évoquer appelle donc un constat important, qui n'estpeut-être pas sans conséquences sur la sémantique en général : les enfants, dansleur pratique spontanée, aussi gauche soit-elle, suggèrent la nécessité d'uneapproche aux mots qui tienne en juste compte la complexité de leur nature. Unesémantique rigidement différentielle ne saurait suffire à une description exhaustivedu lexique, qui se configure à la fois comme un système de valeurs, mais aussi commeun système de contenus positifs ouverts sur une expérience partagée. Les stratégiesspontanées de description sémantique exploitées par les linguistes ingénus etpourtant fins que sont les enfants nous indique que, peut-être, la prise en comptede la dimension positive, sensorielle, perceptive du lexique en tant que reflet dumonde sensible peut constituer une voie privilégiée pour l'appréhension du senslexical, pas seulement pour ce qui concerne les concepts dont le noyau sémique sesitue hors du langage, dans le monde de l'expérience, mais qu'elle peut aussidevenir un tremplin efficace pour l'explication des unités lexicales dont le noyausémique réside essentiellement à l'intérieur du réseau linguistique. Le recours ànotre expérience partagée s'avère nécessaire, comme nous l'avons vu, pour définirdes mots à référent concret comme chenille, heaume ,planétarium, mais elle se révèle efficace même pour des concepts relationnelsplus complexes, comme peur ou pauvre. La description sémantique traditionnelle, ancrée sur un présupposé différentiel, setrouve donc aujourd'hui confrontée à un nouveau défi, posé par les nouvellestendances de la psycholinguistique et par les études sur la définition naturelle, undéfi dans lequel une aide inespérée pourrait à notre avis arriver de la part de nosmini-sémanticiens spontanés : c'est maintenant aux chercheurs de trouver denouvelles voies pour la définition du sens lexical, car il semble désormais évidentque la structure du lexique ne pourra plus être décrite comme un système totalementautonome et autosuffisant, le noyau sémantique des concepts se situant tantôt dansla dimension du code linguistique, tantôt dans celle de l'expérience sensorielle ,l'une expliquant l'autre et vice versa, comme dans un puzzle où, si chaque morceautrouve sa collocation seulement s'ajustant aux autres, l'ensemble des piècesn'acquiert un sens qu'en fonction de la reproduction fidèle de l'objet, de la scène ,du monde sous-jacent . | Résumé Cet article naît d'une enquête conduite sur les dictionnaires scolaires, sur lesdifférents modèles de description sémantique qu'ils présentent, et sur lacomparaison de ces modalités définitoires avec les stratégies de définitionspontanée des enfants (Rossi, 2001, Biorci et al., 2000). Lesdictionnaires et les méthodes scolaires actuels proposent aux enfants - dans laplupart des cas - une approche du sens lexical qui ne diffère aucunement de latradition sémantique et lexicographique des adultes, le présupposé de la bonne définition restant la différenciation des unitéslexicales. Le point de vue change radicalement si l'on considère les définitionsspontanées élaborées par les enfants : l'aspect différentiel cède la place à unevision positive, substantielle du lexique en tant que reflet de la réalité, et cequi prime pour les locuteurs dans la description du sens est avant tout le côtésensoriel, perceptif, référentiel. Dans une optique de recherche et d'application didactique, une étude approfondie del'analyse du sens lexical dans les dictionnaires pour enfants peut à notre avisjouer le rôle de pierre de touche, qui remet en question laconception traditionnelle du dictionnaire en tant que texte fortement codé ,stimulant la dynamique de la réflexion métalexicographique . | scientext_ling_comm_252_ling_euralex_Rossi_entete.xml |
termith-779-scientext | Depuis toujours la morphologie lexicale au sens large est le parent pauvre del'activité lexicographique. Elle occupe une place de second rang dans lesprocédures de traitement adoptées par les dictionnaires (d'apprentissage). Sareprésentation sémantique en est affectée d'autant qu'elle ne constitue pas unedonnée facilement repérable dans le dictionnaire. Or, la morphologie lexicaleconstitue un élément clé de l'apprentissage d'une langue. Une bonne maîtrise desparadigmes dérivationnels, très variés en français, a une influence sur lescapacités de formulation de l'allophone. Les dictionnaires d'apprentissage du français, tel le Dictionnaire du français, ne prêtent aucune attention particulière àces paradigmes. Le seul dictionnaire du français à revendiquer une approchelinguistique de la construction du lexique est le Robertméthodique, dictionnaire destiné à des locuteurs natifs. Inspiré parl'analyse structurale et distributionnelle, ce dictionnaire fonde ses repéragessur la récurrence d'une forme interprétable. C'est ainsi que si mémor - est considéré comme base de dérivation carisolable dans mémorable, mémorandum (qui mériterait quel'on s'y arrête), mémorial, mémorialiste, mémoriser ,mémorisation, en revanche que dire de merc -, isolé car présent dans commerce, commercer, commerçant ,commercial, …, et mercenaire ? Une telle conception, fondée sur uneapproche étymologique et/ou distributionnaliste, ne correspond pas à l'intuitiondu locuteur moyen, pour qui commerce n'est pas a priori un mot construit. On voit à quels résultats nonseulement contre-intuitifs mais morphologiquement discutables aboutit cettedémarche. La recherche du sens à tout prix conduit à sursémantiser l'unité. En outre, les dictionnaires déconstruisent les paradigmes dérivationnels, et cede plusieurs façons. D'abord en ne les enregistrant généralement que de manièrelacunaire. Ainsi, le Dictionnaire du français mentionneles noms concession, voire concessionnaire, sans proposer l'infinitif concéder. Est en cause l'un des présupposés de la descriptionlexicographique, selon lequel les faits à caractère systématique ne sont pasobligatoirement renseignés, l'ouvrage tablant sur la compétence du lecteur pourcombler les manques. Ceci peut se comprendre pour un locuteur natif, mais moinspour un locuteur allophone. Ensuite, l'ordre alphabétique disperse les sériessuffixées (dans le Petit Robert, balai est isolé de la série balayage, balayer ,balayette, balayeur et balayure). Les tentatives effectuées par leLexis ou le Dictionnaire du français contemporain pourregrouper sous une même base les divers dérivés et composés ne sont quepartiellement satisfaisantes dans la mesure où leur classement respecte là aussil'ordre alphabétique et non pas la logique constructionnelle ou sémantique. Defait, pour une base donnée (un verbe, un nom, un adjectif) il n'est pas possibledans un dictionnaire traditionnel d'obtenir une vue synthétique et raisonnée deson paradigme dérivationnel. En principe, la définition lexicographique doit permettre au lecteur de comblerla dispersion impliquée par le classement alphabétique. Si pour certaines unitéselle remplit effectivement sa fonction (cf. le paradigme de nettoyer dans le Petit Robert), en revanche ,pour d'autres la tâche est plus ardue. Le lecteur doit s'en remettre à sonintuition. Un locuteur natif n'aura aucune difficulté à rapprocher « ne pasempêcher que quelque chose se fasse » (définition de consentir dans le Dictionnaire du français) et« accord donné à un projet, décision de ne pas s'y opposer » (définition de consentement dans le même dictionnaire). Pour l'apprenant ,cela est beaucoup moins évident. Les dictionnaires déconstruisant les paradigmes dérivationnels, ils occultent àl'apprenant d'une langue étrangère toute une partie du fonctionnement de lalangue. Le support papier et son classement alphabétique linéaire constituentsans conteste la raison majeure de cette carence. Un dictionnaire électronique ,plus flexible, non basé sur une version papier antérieure, comme le Dafles (Dictionnaire d'apprentissage du français langue étrangère ouseconde), et qui est destiné à des allophones, se doit donc derestituer ces paradigmes dérivationnels. C'est précisément une des fonctions duschéma actanciel. Le schéma actanciel d'un verbe est un tableau comprenant autant de lignes quele verbe compte de lexies ou de sens. Quatre colonnes de ce tableaucorrespondent aux positions d'actants syntaxiques ou de complémentsessentiels, à savoir les positions de sujet et de compléments d'objet. Deuxautres colonnes sont réservées aux fonctions lexicales S0Process (nom d'action), suggérée par Fontenelle (1997, 187-190) ,et Sres (nom de résultat, Mel'čuk, 1995, 134 )( Tableau 1). La colonne Nlieu porte sur le lieu où se déroule l'action ,Ntemps sur le moment auquel elle se déroule et Nmoyen sur l'instrumentutilisé pour l'exécuter. Dans bon nombre de cas, Nlieu ,Ntemps et Nmoyen, qui sont des actants d'ordre sémantique, peuventse voir réalisés dans la phrase sous forme de circonstants. Il s'agit là du schéma sous sa forme standard. Certaines constructions nonstandard (verbe + attribut du complément d'objet par exemple) font l'objetd'un traitement spécifique (voir ci-dessous). Du point de vue syntaxique, le schéma actanciel complété (Tableau 2), combinéaux définitions actancielles utilisées dans le Dafles, s'apparente quelque peu au (tableau de) régime proposé parMel'čuk dans le DEC, tout en étant beaucoup moinsformalisé et plus accessible pour l'apprenant. À cette description syntaxique, les tableaux du Daflesintègrent en plus une couche d'information lexicale. Ainsi, dans unpremier temps, les schémas reproduisent visuellement les parentéssémantiques qui existent entre les membres d'une même famille lexicale oudérivés syntaxiques et dérivés sémantiques nominaux actanciels( Mel'čuk). On notera que dans le DEC, ces informations seretrouvent ailleurs, dans le corps de l'article, et plus précisément dans lazone de combinatoire lexicale. Avec un tel tableau synoptique, l'apprenant n'est pas obligé de lireplusieurs articles de dictionnaire (papier) pour observer que le nom jeu ne peut pas être utilisé comme nom d'action pourtoutes les lexies du verbe jouer et que ce même motexprime le résultat d'une activité sportive pratiquée par un joueur. Les dérivés mentionnés font fonction de mots prototypiques dans cespositions. Dans un certain nombre de cas, ce sont des hyperonymes quicouvrent tout un paradigme de mots qui peuvent également s'y substituer dansune phrase : footballeur, basketteur, etc. pour joueur en tant que sujet de la lexie 3a (Tableau 3ci-dessous). En plus des simples dérivés, il est possible, dans un deuxième temps, decompléter les cases vides par d'autres noms prototypiques, voire même pardes collocations (Tableau 3). Le recours à des collocations estindispensable dans de nombreux cas pour disposer d'un hyperonyme (un sport de balle comme hyperonyme pour football, rugby, etc.; unétablissement scolaire pour école, institut, etc.). Les cases des actants (N1, N2, N3, N4) restées videscorrespondent à des impossibilités syntaxiques; les cases vides dans lesautres colonnes (Nlieu, Ntemps, Nrésultat, Nmoyen) représentent une simple absence de nom ou de collocation prototypique. Tel quel, le schéma actanciel se révèle être un outil intéressant pourl'élargissement des connaissances lexicales de l'apprenant par unedescription précise de l'agencement entre syntaxe (verbe (in)transitif) ,morphologie (dérivés), sémantique (sens) et lexique (restrictions desélection imposées par le verbe) autour du verbe, noyau de la phrase. La présentation offre en outre l'avantage d' être synoptique, contrairementaux informations parcellaires, morcelées et peu systématisées que l'ontrouve dans les dictionnaires classiques. Mais, sous cette forme, le schémareste un objet statique où il manque des indications quant au sens précisdes mots mentionnés, où aucune indication n'est donnée quant à lapréposition utilisée, etc. Le schéma actanciel ne peut devenir un objet dynamique, interactif, adaptableaux besoins de l'utilisateur, que sur support informatique et ceci pourautant que les informations soient suffisamment bien structurées pourpermettre la composition à l'écran de ce genre de tableaux. Dans le Dafles, cela est rendu possible par l'utilisationd'une base de données interactive MySQL, interrogeable par le biais descripts en PHP (Selva, Verlinde et Binon, 2004). Plus de 200 schémas actanciels sont déjà disponibles en ligne, et plusieurscentaines encore attendent leur codage (Écran 1). Une fonctionnalité importante est l'interactivité des tableaux. En effet, lafonction discursive des mots étant primordiale, l'agencement de ceux -ci dansun tableau, privés d'un contexte ou d'une définition, paraît quelque peuartificielle. Aussi, en cliquant sur les liens, la définition, les exemples ,la/les construction(s) syntaxique(s) du mot et ses synonymes viennents'inscrire en bas de l'écran, au-dessus de la barre de navigation (Écran 2) .Ceci permet également de régler les problèmes de polysémie en identifiantclairement les lexies mises en jeu. Le lien sur le verbe central appelle en bas d'écran, entre autres, la ou lesconstructions syntaxiques spécifiques de ce verbe, accompagnées d'une phraseexemple (Écran 3). Dans les cas où un verbe est signalé avec un complémentPrépN3 ou PrépN4, cette information permet dedécouvrir avec quelle préposition exactement le verbe se construit. Les synonymes sont donnés sous forme de liste, mais grâce au lien Synonymesen début de liste (Écran 2), l'utilisateur a accès à l'écran de descriptiondu réseau de synonymes. Les schémas actanciels font dès lors fonction depasserelle entre plusieurs réseaux synonymiques (verbes, noms, adjectifs )qui demeurent indépendants dans les autres dictionnaires. Les dérivés sont identifiés à l'aide de caractères gras. Les lexies desdérivés qui n'ont pas leur place dans le schéma actanciel sont regroupéessous le tableau et accompagnées de leur définition, comme par exemple le nomjeu au sens de « façon dont cette personneutilise, se sert d'un instrument pour faire de la musique ». Les dérivés quine font pas partie de la nomenclature du Dafles (Verlinde et Selva, 2001) sont notés tels quels dans le tableau afin de lecompléter, mais sans précisions supplémentaires. En plus du caractèresystématique de l'ensemble, cette présentation tire profit de la cohérencedescriptive du Dafles. En effet, tous les membres dela famille de mots apparaissant à la même ligne ont, dans la mesure dupossible, une définition uniforme. Ces définitions uniformes soulignent lafiliation sémantique qui existe entre ces lexies morphologiquementapparentées. L'information contenue dans les cases des schémas actanciels ne se limite pasnécessairement aux noms et aux collocations. On y trouve aussi les adjectifsprototypiques qui caractérisent les noms. Ils sont identifiés dans lesschémas par le fait qu'ils sont précédés de la forme verbale est. Ces adjectifs peuvent être des dérivés ou non duverbe (Écrans 4 et 5). On notera que dans un certain nombre de cas, l'action exprimée par le verbeprovoque une modification du statut d'un ou de plusieurs actants. C'est lecas par exemple pour le verbe épouser, où l'on nepeut parler d'époux que lorsque le mariage estconclu. Dans le schéma actanciel, ce changement de statut est indiqué parune flèche (Þ) (Écran 5). Il en va de même pour l'objet qui est créé et quidevient une création (Écran 4). Comme on peut le constater ci-dessus, lorsqu'il n'y a pas d'hyperonyme ou denom prototypique, plusieurs noms et/ou collocations peuvent occuper la mêmecase. Ces cas sont toutefois des exceptions. Certains de ces cass'expliquent par la présence de variantes géographiques (hôtel de ville (France), maison communale( Belgique)). Si nécessaire, des restrictions d'emploi touchant certains mots ou certainesconstructions non standard (verbe + attribut du complément d'objet, adverbepar exemple) sont ajoutées. Elles apparaissent dans un petit écran séparélorsque l'on clique sur l'astérisque (Écran 6, restrictions pesant sur lemot allié, complément prépositionnel). Le nombre croissant de schémas disponibles dans le Dafles donne lieu à des exploitations intéressantes en partant nonpas d'un verbe, mais bien d'un nom. Ainsi, à l'article salarié on note que le nom apparaît dans les schémas des verbesembaucher, travailler, payer, licencier, ce quicorrespond pragmatiquement au paradigme d'actions prototypiques dont le salarié est le bénéficiaire/patient. Lors de l'élaboration des schémas actanciels, plusieurs problèmes se posent .Ainsi, il n'est pas toujours simple de définir exactement le nomprototypique pour une position donnée. Pour un verbe comme alléger (au sens de « rendre moins important »), il est difficilede trouver un hyperonyme qui coiffe des termes pourtant clairementapparentés comme charges, dette, impôts en positionde complément d'objet direct. Dans ces cas, nous avons réduit ce qui estparfois un paradigme de mots assez important aux mots les plus fréquents ,qui, en principe, ne doivent pas être synonymes ou hyperonymes les uns parrapport aux autres. La solution n'est toutefois pas entièrementsatisfaisante. Une autre difficulté se rencontre lors de la distinction entre les nomsd'action et les noms de résultat. Les résultats des tests que l'on peutappliquer ne sont pas toujours convaincants. Ainsi, le nom d'action doitpouvoir être précédé de l'article défini et suivi d'un double complément( le/la nom d'action de N2 par N1 : la rédaction d'unarticle par un journaliste, par analogie avec les compléments duverbe, où N1 est le sujet et N2 le complément d'objet direct : un journaliste rédige un article). Or, ce test nefonctionne pas pour les verbes intransitifs (* le repli descours par N). Dans ces cas, il reste que le nom d'action estcompatible avec un duratif (le repli des cours sepoursuit). Les résultatifs sont précédés de l'article indéfini et sont quantifiables( {une, deux} rédactions, au sens de « texte écrit»). Parmi les cas limites, on distingue un nom comme épuisement, qui n'est pas quantifiable et pour lequel laconstruction à double complément ne semble pas très bien passer (? l'épuisement du cheval par son cavalier, comparé àle cavalier a épuisé son cheval). Toutefois ,intuitivement, on ressent le nom comme nom d'action. Une des valeurs ajoutées de la base de données Daflesréside dans le fait que des liens de synonymie et d'hyperonymie sonttissés entre les lexies des mots, c'est-à-dire de sens à sens. Le Dafles intègre ces liens lors de l'affichage desschémas actanciels. Cela veut dire qu'un mot peut transmettreautomatiquement le schéma actanciel dans lequel il apparaît à un autre mot ,pour autant que ces deux mots aient été définis comme synonymes exacts etsans que ce schéma ait été codé explicitement dans la base. L'héritage sefait également d'hyperonyme à hyponyme. Ainsi, si le mot salarié apparaîtdans les schémas des verbes embaucher, travailler, payeret licencier, ces schémas seront automatiquement reliés aux nomschauffeur, enseignant, comptable, etc., qui sonttous des hyponymes de salarié. Dans la grande majorité des cas, et à condition que l'héritage se fasse versun paradigme de mots immédiatement inférieur dans la hiérarchie (de construction à bâtiment, mais non de construction à maison dans une suite construction > bâtiment > habitation > maison), cettefonctionnalité offre des résultats probants. Il faudrait toutefois uncontrôle systématique pour traquer les (rares) cas où ce transfert depropriétés ne fonctionne peut-être pas. En outre, cette limitation empêchede nombreux héritages qui se font entre mots plus distants dans une relationhyperonymique. Dans la dictionnairique contemporaine, on balance entre un traitement unitairedes entrées, comme par exemple dans les dictionnaires Robert, avec commecorollaire un éclatement des dérivés, classés de façon alphabétique, et untraitement homonymique, inauguré par Dubois en 1966. Ce procédé de dégroupementdes sens et des emplois en plusieurs vocables a donné lieu à un regroupement desdérivés relevant de la même famille et de la même lexie. Par le biais d'une fonctionnalité particulière, à savoir les schémas actanciels ,nous pouvons, dans le Dafles, embrasser les deuxpositions et donner lieu à un instrument puissant pour l'exploration desparadigmes dérivationnels, voire même des relations sémantiques plus larges ,parallèlement à une description lexicale classique. Dans les schémas actanciels, l'intégration de toutes les composantes de ladescription lexicale est maximale, puisque l'on a accès à l'ensemble d'unparadigme de dérivés, à leurs définitions, à des phrases exemples, à desrelations de synonymie, voire à des collocations, et ceci indépendamment du motsous lequel on trouve la description. Les limites de l'article, encore fortementprésentes dans les dictionnaires électroniques de la première génération ,disparaissent ainsi entièrement pour faire place à une collecte d'informationstirées de plusieurs ‘ articles '. Nous avons déjà pu montrer dans une expérimentation limitée (Selva et Verlinde ,2002), l'intérêt du schéma actanciel dans certaines situations de production etles bénéfices que les apprenants peuvent en tirer. Les schémas actanciels permettent d'associer morphologie et sémantique lexicale ,lexique et grammaire. De cette façon ils tissent des réseaux à la foislinguistiques et conceptuels qui facilitent l'organisation du vocabulaire dansle lexique mental du locuteur. Pour un dictionnaire d'apprentissage, il s'agitlà d'une valeur ajoutée de poids . | Résumé À une rare exception près, la morphologie lexicale, et plus particulièrement lesparadigmes dérivationnels, occupent une place de second rang dans lesdictionnaires (d'apprentissage) du français. Leur maîtrise est toutefoisindispensable pour un bon maniement de la langue. Le texte linéaire du dictionnaire papier n'est pas étranger à cette carence. Dans le Dafles (Dictionnaire d'apprentissage du français langueétrangère ou seconde), un dictionnaire électronique non basé sur uneversion papier, ces paradigmes dérivationnels sont reconstitués dans toute leurcomplexité sous la forme de schémas actanciels, axés autour du verbe, le noyaude la phrase. Outre les dérivés, ces schémas permettent également d'intégrer lesnoms et les collocations prototypiques qui gravitent autour du verbe. Les réseaux linguistiques et conceptuels ainsi visualisés font éclater leslimites de l'article de dictionnaire pour donner naissance à une représentationdu vocabulaire qui doit faciliter l'organisation de celui -ci dans le lexiquemental du locuteur . | scientext_ling_comm_221_ling_euralex_Verlinde_Selva_entete.xml |